RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI우수등재

        오픈 채널 SSD에서 성능 간섭 제거를 위한 호스트 수준 I/O 스케줄러

        이수연,한규화,신동군 한국정보과학회 2020 정보과학회논문지 Vol.47 No.2

        As Solid State Drives (SSDs) provide higher I/O performance and lower energy consumption compared to Hard Disk Drives (HDDs), SSDs are currently widening its adoption in areas such as datacenters and cloud computing where multiple users share resources. Based on this trend, there is currently greater research effort being made on ensuring Quality of Service (QoS) in environments where resources are shared. The previously proposed Workload-Aware Budget Compensation (WA-BC) scheduler aims to ensure QoS among multiple Virtual Machines (VMs) sharing an NVMe SSD. However, the WA-BC scheduler has a weakness in that it misuses multi-stream SSDs for identifying workload characteristics. In this paper, we propose a new host-level I/O scheduler, which complements this vulnerability of the WA-BC scheduler. It aims to eliminate performance interference between different users that share an Open-Channel SSD. The proposed scheduler identifies workload characteristics without having to allocate separate SSD streams by observing the sequentiality of I/O requests. Although the proposed scheduler exists within the host, it can reflect the status of device internals by exploiting the characteristics of Open-Channel SSDs. We show that by identifying those that attribute more to garbage collection, a source of I/O interference within SSDs, using workload characteristics and penalizing such users helps to achieve performance isolation amongst different users sharing storage resources. 최근 솔리드 스테이트 드라이브(SSD)가 하드 디스크 드라이브(HDD)에 비해 높은 I/O 성능 및 낮은 에너지 소비를 제공함에 따라 여러 사용자가 자원을 공유하는 데이터센터 및 클라우드 컴퓨팅 환경에서 SSD의 사용이 확장되고 있다. 이러한 전환에 따라, 각 사용자에 서비스 품질(Quality of Service)을 보장하는 방법에 대한 연구가 활발히 이뤄지고 있다. 이전에 제안된 Workload-Aware Budget Compensation (WA-BC) 스케줄러는 NVMe SSD를 여러 가상머신이 공유하는 환경에서 각 가상머신의 QoS를 보장한다. 하지만 WA-BC 스케줄러는 가상머신별 워크로드 특징을 알아내기 위해 멀티 스트림 SSD를 부적절하게 사용한다는 점에서 취약하다. 우리는 이와 같은 취약점을 보완하여 오픈 채널 SSD를 여러 사용자가 공유하는 환경에서 사용자 간 성능 간섭을 제거하는 호스트 수준의 I/O 스케줄러를 제안한다. 제안된 스케줄러는 SSD 스트림을 사용자별로 할당하지 않고도 워크로드 특징을 I/O 요청의 연속성을 통해 파악한다. 이는 제안된 스케줄러가 호스트 수준의 스케줄러이나 오픈 채널 SSD의 특성을 활용하여 디바이스 내부의 정보를 스케줄링에 반영할 수 있기에 가능하다. 워크로드의 특성을 통해 SSD 내 I/O 간섭을 발생시키는 가비지 컬렉션에 대한 기여도를 파악하고, 기여도가 높은 사용자에 대해 처벌함으로써 우리는 스토리지 자원을 공유하는 여러 사용자 간에 발생하는 성능 간섭을 제거할 수 있음을 본 연구에서 보인다.

      • KCI우수등재
      • KCI등재

        낸드 플래시 메모리의 응답 지연시간 최소화를 위한 선점방식 가비지 컬렉션 기법

        정상혁(Sanghyuk Jung),송용호(Yong Ho Song) 한국정보과학회 2012 정보과학회논문지 : 시스템 및 이론 Vol.39 No.6

        낸드 플래시 메모리는 FTL의 페이지 매핑 연산과정으로 인하여 특정 페이지가 무효화되었음에도 불구하고 물리적으로 소거되지 않은 상태로 플래시 메모리 공간을 점유하는 문제가 발생할 수 있다. 따라서 플래시 저장장치의 제어기는 플래시 기반 저장장치의 지속적인 쓰기 성능 유지와 저장 용량 확보를 위해 무효 페이지를 물리적으로 제거하고 유효 페이지를 수집하는 가비지 컬렉션 연산을 수행해야 한다. 하지만 다수의 블록을 대상으로 가비지 컬렉션 연산을 수행할 경우, 많은 페이지 복사와 블록 삭제 연산들로 인한 저장장치 응답 지연현상이 발생할 수 있다. 본 논문에서는 낸드 플래시 저장장치에 적용 가능한 효과적인 선점방식 가비지 컬렉션 메커니즘을 제안한다. 선점방식 가비지 컬렉션 기법은 블록 맵의 데이터 구조를 간단히 수정하여, 단일 블록을 대상으로 가비지 컬렉션을 수행한다. 이 기법의 유효성은 플래시 저장장치의 제어기가 페이지 복사와 블록 삭제 연산을 세부 단위로 분할하는 것이 가능하므로 가비지 컬렉션이 수행되는 도중에 요청되는 호스트의 요청에 즉각적으로 응답가능하다는 것이다. Due to page re-mapping operations of FTLs, in NAND flash memory devices, the flash storage may suffer from a lack of capacity problem although the programmed pages are invalidated. Therefore, in order to sustain flash write performance and prolong the storage lifespan, the flash storage controller should conduct a garbage collection operation, whose goal is to physically eliminate invalid pages and collect valid pages from data blocks. However, the large number of page copy and block erase operations may cause a high response latency if the controller manages multiple number of garbage collection blocks. In this paper, we propose an efficient preemptive garbage collection mechanism. The preemptive garbage collection scheme uses a single block garbage collection operation by simply modifying the data structure of block map entries. The effectiveness of the proposed scheme is that the victim block selection overhead can be efficiently reduced; hence, the responsiveness to host requests is significantly improved.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼