RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        효율적인 IPTV 채널 탐색을 위한 채널 재배치 및 프리페칭 기법

        반효경 한국인터넷방송통신학회 2016 한국인터넷방송통신학회 논문지 Vol.16 No.3

        IPTV가 인터넷 상의 대표적인 서비스 중 하나로 자리매김하면서, IPTV 사용자 및 채널의 수가 급격히 증가하고 있다. 하지만, 늘어난 채널들로 인해 IPTV 사용자가 원하는 채널을 시청하기 위해 더욱 많은 탐색 시간을 필요로 하고 있다. 또한, IPTV는 채널 변경시마다 인터넷을 통한 컨텐츠 전송시간이 소요되어 전파를 이용하는 지상파 방송보다 많은 채널 스위치 시간이 소요된다. 이러한 문제점을 해소하기 위해, 본 논문에서는 채널 프리페칭과 재배치 기법을 혼합하는 방식을 제안한다. 시뮬레이션 실험을 통해 인접 채널 프리페칭 기법에 인기도 기반의 교대배치 기법을 결합할 경우 기존의 채널 탐색 인터페이스에 비해 채널 탐색 시간을 평균 44.7% 줄일 수 있음을 보인다. As IPTV has become one of the major Internet services, IPTV users and channels increase rapidly. However, the increased number of channels makes users difficult to find their desired channels. Along with this, the channel switching time of IPTV incurs serious user-perceived delay. To alleviate these problems, this paper presents hybrid schemes that combine channel prefetching and reordering schemes. Simulation experiments show that combining adjacency based prefetching and popular channel reordering reduces the channel seek time by up to 44.7% in comparison with the conventional channel seeking interfaces.

      • KCI등재

        CPC: A File I/O Cache Management Policy for Compute-Bound Workloads

        반효경 한국인터넷방송통신학회 2022 Journal of Advanced Smart Convergence Vol.11 No.2

        With the emergence of the new era of the 4th industrial revolution, compute-bound workloads with large memory footprint like big data processing increase dramatically. Even in such compute-bound workloads, however, we observe bulky I/Os while loading big data from storage to memory. Although file I/O cache plays a role of accelerating the performance of storage I/O, we found out that the cache hit rate in such environments is not improved even though we increase the file I/O cache capacity because of some special I/O references generated by compute-bound workloads. To cope with this situation, we propose a new file I/O cache management policy that improves the cache hit rate for compute-bound workloads significantly. Trace-driven simulations by replaying file I/O reference logs of compute-bound workloads show that the proposed cache management policy improves the cache hit rate compared to the well-acknowledged CLOCK algorithm by a large margin.

      • KCI등재

        Application-Adaptive Performance Improvement in Mobile Systems by Using Persistent Memory

        반효경 한국인터넷방송통신학회 2019 Journal of Advanced Smart Convergence Vol.8 No.1

        In this article, we present a performance enhancement scheme for mobile applications by adopting persistent memory. The proposed scheme supports the deadline guarantee of real-time applications like a video player, and also provides reasonable performances for non-real-time applications. To do so, we analyze the program execution path of mobile software platforms and find two sources of unpredictable time delays that make the deadline-guarantee of real-time applications difficult. The first is the irregular activation of garbage collection in flash storage and the second is the blocking and time-slice based scheduling used in mobile platforms. We resolve these two issues by adopting high performance persistent memory as the storage of real-time applications. By maintaining real-time applications and their data in persistent memory, I/O latency can become predictable because persistent memory does not need garbage collection. Also, we present a new scheduler that exclusively allocates a processor core to a real-time application. Although processor cycles can be wasted while a real-time application performs I/O, we depict that the processor utilization is not degraded significantly due to the acceleration of I/O by adopting persistent memory. Simulation experiments show that the proposed scheme improves the deadline misses of real-time applications by 90% in comparison with the legacy I/O scheme used in mobile systems.

      • KCI등재

        메모리 관리 기술을 활용한 IPTV 채널 탐색 인터페이스의 효율성 분석

        반효경 한국인터넷방송통신학회 2019 한국인터넷방송통신학회 논문지 Vol.19 No.6

        Recently, due to the rapid improvement of communication technologies as well as the easy production of video contents, IPTV is becoming increasingly popular. Meanwhile, as the number of IPTV channels increases rapidly, much time is required for finding the user’s desired channel. This paper discusses and analyzes the effectiveness of reducing IPTV channel searching delays by using memory management techniques of computer systems. Specifically, this paper introduces how memory management techniques such as memory replacement, prefetching, and caching techniques can be adopted in IPTV channel searching interfaces by mapping between the two problems and discusses the effectiveness of the techniques. 최근 비디오 콘텐츠의 손쉬운 제작 및 통신 기술의 급격한 발전으로 IPTV의 수요가 지속적으로 증가하고 있다. 한편, IPTV 채널의 수가 급격히 증가하면서 사용자의 채널 탐색에 많은 시간이 소요되고 있다. 본 논문은 컴퓨터 시스템의 메모리 관리 기술들을 활용하여 IPTV 채널 탐색 지연을 줄이는 방안을 논의하고 그 효용성을 분석한다. 구체적으로는 메모리 관리 기술로 널리 활용되어 온 메모리 교체 기법과 사전인출 기법, 그리고 캐슁 기법 등을 IPTV 채널 탐색문제에 매핑하여 메모리 관리 기술이 어떻게 채널 탐색 인터페이스에 활용될 수 있는지를 소개하고 그에 따른 성능 개선효과에 대해 논의한다.

      • KCI등재

        멀티 클라우드 렌더링을 위한 분산 파일 시스템 개발

        반효경,조경운 한국인터넷방송통신학회 2023 한국인터넷방송통신학회 논문지 Vol.23 No.1

        Multi-cloud rendering has been attracting attention recently as the computational load of rendering fluctuates over time and each rendering process can be performed independently. However, it is challenging in multi-cloud rendering to deliver large amounts of input data instantly with consistency constraints. In this paper, we develop a new distributed file system for multi-cloud rendering. In our file system, a local machine maintains a file server that manages versions of rendering input files, and each cloud node maintains a rendering cache manager, which performs distributed cooperative caching by considering file versions. Measurement studies with rendering workloads show that the proposed file system performs better than NFS and the uploading schemes by 745% and 56%, respectively, in terms of I/O throughput and execution time.

      • KCI등재

        이종 모바일 멀티태스킹 환경을 위한 실시간 작업 인지형 메모리 할당 기술 연구

        반효경 한국인터넷방송통신학회 2022 한국인터넷방송통신학회 논문지 Vol.22 No.3

        Recently, due to the rapid performance improvement of smartphones and the increase in background executions of mobile apps, multitasking has become common on mobile platforms. Unlike traditional desktop and server apps, response time is important in most mobile apps as they are interactive tasks, and some apps are classified as real-time tasks with deadlines. In this paper, we discuss how to meet the requirements of heterogeneous multitasking in managing memory of real-time and interactive tasks when they are executed together on a smartphone. To do so, we analyze the memory requirement of real-time tasks, and propose a model that has the ability of allocating memory to multitasking tasks on a smartphone. Trace-driven simulations with real-world storage access traces captured by heterogeneous apps show that the proposed model provides reasonable performance for interactive tasks while guaranteeing the requirement of real-time tasks. 최근 스마트폰의 성능이 급격히 향상되고 모바일 플랫폼에서 백그라운드 앱의 실행이 늘면서 모바일 환경의멀티태스킹이 활성화되고 있다. 모바일 환경에서는 종래의 데스크탑 및 서버 응용들과 달리 응답시간이 중요한 대화형작업들이 대부분을 차지하고 있으며, 일부 응용은 데드라인이 존재하는 실시간 작업에 해당된다. 본 논문에서는 스마트폰에서 실시간 작업과 대화형 작업이 동시에 실행될 때 메모리 관리를 어떻게 함으로써 이질적인 멀티태스킹 환경의요구사항을 충족할 수 있는지에 대해 연구한다. 본 논문에서는 실시간 작업의 요구 조건 만족을 위해 필요한 메모리크기를 분석 및 모델링하고 이에 기반해서 멀티태스킹 작업 간의 메모리를 할당하는 방안을 제안한다. 이종 앱의 스토리지 접근 트레이스를 추출하고 이에 기반한 시뮬레이션을 통해 제안한 기법이 실시간 작업의 요구를 일정 수준으로 보장하면서 대화형 작업에 합리적인 성능을 제공함을 확인하였다.

      • KCI등재

        가상화 환경에서 고속 스토리지를 위한 워크로드 맞춤형 페이지 크기 모델링

        반효경,박윤주 한국인터넷방송통신학회 2022 한국인터넷방송통신학회 논문지 Vol.22 No.3

        Recently, fast storage media such as Optane have emerged, and memory system configurations designed for disk storage should be reconsidered. In this paper, we analyze the effect of the page size on the memory system performances when fast storage is adopted. Based on this, we design a page size model that can guide an appropriate page size for given workloads in virtualized environments. Configuring different page sizes for various workloads is not an easy matter in traditional systems, but due to the widespread adoption of cloud systems, page sizing performed in our model is feasible for virtual machines, which are generated for executing specific workloads. Simulation experiments under various virtual machine scenarios show that the proposed model improves the memory access time significantly by configuring page sizes for given workloads. 최근 옵테인 등 고속 스토리지의 출현으로 하드디스크에 적합하게 설계된 메모리 시스템 설정에 대한 재고가필요한 시점에 이르렀다. 본 논문에서는 고속 스토리지의 탑재에 따라 페이지 크기가 메모리 시스템의 성능에 어떠한영향을 미치는지를 분석하고, 가상화 환경에서 워크로드 상황에 맞게 페이지 크기를 설정할 수 있는 모델을 설계하였다. 전통적인 시스템의 경우 워크로드 별로 페이지 크기를 설정하는 것이 쉬운 일이 아니지만 최근 클라우드 환경의 활성화로 개별 워크로드 수행을 위해 별도의 가상머신이 생성되므로 가상머신이 시작될 때 해당 가상머신의 페이지 크기를결정할 수 있어 제안한 모델의 효용이 높을 것으로 기대된다. 다양한 가상머신 시나리오에 대한 시뮬레이션 실험을 통해제안한 모델이 워크로드 상황에 맞게 페이지 크기를 설정하여 메모리 접근 시간을 크게 개선함을 보인다.

      • KCI등재

        Considering Read and Write Characteristics of Page Access Separately for Efficient Memory Management

        반효경 한국인터넷방송통신학회 2023 International journal of advanced smart convergenc Vol.12 No.1

        With the recent proliferation of memory-intensive workloads such as deep learning, analyzing memory access characteristics for efficient memory management is becoming increasingly important. Since read and write operations in memory access have different characteristics, an efficient memory management policy should take into account the characteristics of these two operations separately. Although some previous studies have considered the different characteristics of reads and writes, they require a modified hardware architecture supporting read bits and write bits. Unlike previous approaches, we propose a software-based management policy under the existing memory architecture for considering read/write characteristics. The proposed policy logically partitions memory space into the read/write area and the write area by making use of reference bits and dirty bits provided in modern paging systems. Simulation experiments with memory access traces show that our approach performs better than the CLOCK algorithm by 23% on average, and the effect is similar to the previous policy with hardware support.

      • KCI등재

        모바일 사물인터넷 디바이스를 위한 에너지 효율적인 캐시 및 메모리 관리 기법

        반효경 한국인터넷방송통신학회 2021 한국인터넷방송통신학회 논문지 Vol.21 No.2

        본 논문은 차세대 사물인터넷 디바이스를 위한 에너지 효율적인 캐시 및 메모리 관리 기법을 제안한다. 제안하는 기법은 전력 소모가 적은 상변화 메모리를 사물인터넷 디바이스의 메인 메모리로 채택하고 캐시 메모리의 관리 시 쓰기 연산에 취약한 상변화 메모리의 쓰기량을 최소화하는 방향으로 설계한다. 구체적으로 살펴보면 최종단 캐시 메모리에서 캐시 블록이 삭제되어 메인 메모리로 반영될 때, 캐시 블록을 구성하는 캐시 라인별 수정 여부를 추적하여 상변화 메모 리에 쓰기 발생량을 적게 발생시키는 캐시 블록을 우선적으로 교체한다. 또한, 최종단 캐시 메모리에서 캐시 블록의 참조 비트와 캐시 라인의 수정 비트를 함께 고려함으로써 메모리 시스템의 성능은 훼손하지 않으면서 에너지 소모를 줄이는 방식을 사용한다. 스펙 벤치마크를 이용한 시뮬레이션 실험을 통해 제안한 기법이 상변화 메모리에 발생하는 쓰기량을 평균 34.6% 줄이고 전력 소모를 28.9% 줄이면서 메모리의 성능 저하는 발생시키지 않음을 보인다. This paper proposes an energy-efficient cache and memory management scheme for next-generation IoT devices. The proposed scheme adopts a low-power phase-change memory (PCM) as the main memory of IoT devices, aims at minimizing the write traffic to PCM, which is vulnerable to write operations. Specifically, when a cache block of the last-level cache memory is flushed to main memory, the cache block that causes less writes to PCM is preferentially replaced by tracking the modifications of each cache line that constitutes the cache block. In addition, by considering the reference bit of the cache block and the dirty bit of the cache lines, our scheme reduces the energy consumption without degrading the memory system performances. Through simulations using SPEC benchmarks, it is shown that the proposed scheme reduces the write traffic to PCM by 34.6% on average and the power consumption by 28.9%, without memory performance degradations.

      • KCI등재

        스토리지 쓰기량과 페이지 폴트를 줄이는 메모리 부하 적응형 페이지 교체 정책

        반효경,박윤주 한국인터넷방송통신학회 2022 한국인터넷방송통신학회 논문지 Vol.22 No.6

        최근 상변화메모리와 같은 고속 스토리지 매체의 출현으로 느린 디스크 스토리지에 적합하게 설계된 메모리관리 기법에 대한 재고가 필요한 시점에 이르렀다. 본 논문에서는 상변화메모리를 가상메모리의 스왑장치로 이용하는시스템을 위한 새로운 페이지 교체 정책을 제안한다. 제안하는 방식은 페이지 교체 정책이 전통적으로 추구하던 페이지폴트 횟수 절감뿐 아니라 스왑 장치에 발생하는 쓰기량 절감을 동시에 추구한다. 이는 상변화메모리의 쓰기 연산이 느리고 쓰기 횟수에 제한이 있다는 점에 착안한 것이다. 구체적으로 살펴보면 메모리 부하가 높은 경우 페이지 폴트를 줄이는 데에 초점을 맞추고 메모리 공간에 여유가 있을 경우 스토리지 쓰기량을 줄이는 적응적인 방식을 채택한다. 이를통해 제안하는 정책이 메모리 시스템의 성능을 저하시키지 않으면서 스토리지 쓰기량을 크게 절감함을 다양한 워크로드의 메모리 참조 트레이스를 재현하는 시뮬레이션 실험을 통해 보인다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼