RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        환경 특성에 맞는 성능 향상 기법을 사용하는 태스크 스케줄링 알고리즘

        송인성(Inseong Song),윤동성(Dongsung Yoon),박태신(Taeshin Park),최상방(Sangbang Choi) 대한전자공학회 2017 전자공학회논문지 Vol.54 No.5

        클라우드 컴퓨팅의 IaaS 서비스는 유지비용 없이 원하는 만큼의 고성능 가상 머신을 사용할 수 있다는 장점 덕분에 대용량병렬 프로그램을 실행하기 위한 고성능 컴퓨팅 환경으로 주목받고 있다. 이러한 고성능 컴퓨팅 환경에서 병렬 프로그램의 실행에 소요되는 시간은 태스크 스케줄링 알고리즘에 좌우된다. 클라우드 컴퓨팅 환경을 기반으로 하는 태스크 스케줄링 알고리즘에 관한 연구는 사용자 부담 비용을 최소화하는 알고리즘이 주류를 이루었으며, 병렬 프로그램의 실행을 최대한 빨리 끝내기 위한 알고리즘에 관한 연구는 거의 이루어지지 않았다. 본 논문에서는 사용자 부담 비용 등의 제약 없이 병렬 프로그램을 최대한 빨리 끝내기 위한 알고리즘인 HAGD 알고리즘과, HAGD 알고리즘이 사용하는 새로운 성능 향상 기법인 묶음 태스크 복제 기법을 제안한다. 묶음 태스크 복제 기법은 기존 태스크 복제 기법을 단순화하였으며, HAGD 알고리즘은 고성능 컴퓨팅 환경과 병렬 프로그램의 특성에 맞추어 태스크 삽입 기법 혹은 묶음 태스크 복제 기법을 사용한다. 성능 평가 결과, 제안하는 알고리즘이 환경 특성과 관계없이 우수한 표준화한 전체 실행 시간을 제공하는 것을 확인하였다. An IaaS service of a cloud computing environment makes itself attractive for running large scale parallel application thanks to its innate characteristics that a user can utilize a desired number of high performance virtual machines without maintenance cost. The total execution time of a parallel application on a high performance computing environment depends on a task scheduling algorithm. Most studies on task scheduling algorithms on cloud computing environment try to reduce a user cost, and studies on task scheduling algorithms that try to reduce total execution time are rarely carried out. In this paper, we propose a task scheduling algorithm called an HAGD and a performance enhancement method called a group task duplication method of which the HAGD utilizes. The group task duplication method simplifies previous task duplication method, and the HAGD uses the group task duplication method or a task insertion method according to the characteristics of a computing environment and an application. We found that the proposed algorithm provides superior performance regardless of the characteristics in terms of normalized total execution time through performance evaluations.

      • KCI등재

        다양한 최신 워크로드에 적용 가능한 하드웨어 데이터 프리페처 구현

        김강희(KangHee Kim),박태신(TaeShin Park),송경환(KyungHwan Song),윤동성(DongSung Yoon),최상방(SangBang Choi) 대한전자공학회 2016 전자공학회논문지 Vol.53 No.12

        프리페칭은 프로세서와 메모리 간의 성능 격차를 해소하기 위한 방법 중 하나로 프로세서가 메모리 블록을 요청하기 이전에 미리 캐시에 가져와 메모리 지연을 숨긴다. AMPM 프리페처는 전체 메모리 영역에 대한 접근 패턴을 추적하여 프리페치에 이용하므로 정확도는 우수하나 메모리 접근 패턴을 기록하기 위해 많은 저장 공간이 요구된다. 오프셋 프리페처는 학습을 통해 가장 우수한 오프셋을 선정하고 이를 접근 주소에 더하여 프리페치를 요청한다. 그러나 메모리 접근 패턴이 불규칙할 경우 공격적인 프리페치로 인해 극심한 성능 저하를 겪을 수 있기 때문에 프리페치를 제어하기 위한 기법을 추가로 요구한다. 본 논문에서는 기본적으로 AMPM 프리페처를 사용하고 워크로드의 메모리 접근 패턴에 따라 오프셋 프리페처를 추가로 사용하는 프리페처를 제안한다. 오프셋 프리페처의 정확도가 높은 경우 오프셋 프리페처를 이용함으로써 프리페치에 의한 성능 향상을 최대화하며, 오프셋 프리페처의 정확도가 낮은 경우 오프셋 프리페치를 차단하여 프리페처 성능 저하를 최소화한다. 또한 오프셋 프리페처의 학습 정보를 이용하여 동적으로 MSHR 임계값을 설정함으로써 프로세서의 요구 요청 처리가 프리페치에 의해 지연되지 않도록 한다. Prefetching is one of the method for mitigating performance gab between processor and memory, and it hides memory latency by bringing memory block into cache in advance before processor requests that block. AMPM prefetcher makes use of tracking information of whole memory space for prefetch. So prefetch accuracy is high enough, but it requires a lot of storage for recording memory access pattern. Offset prefetcher requests prefetch to add an access address to a best offset which is elected by training. However, when memory access pattern is dynamic, additional method is required to control prefetch because aggressive prefetches can extremely degrade performance. In this paper, we propose a prefetcher that mainly employs AMPM prefetcher and additionally uses offset prefetcher depending on memory access pattern of workload. If the accuracy of offset prefetcher is high enough, then we can maximize performance improvement using offset prefetcher, and vice versa, we can minimize performance degradation to block offset prefetches. Additionally, as adaptively setting MSHR threshold using training information of offset prefetcher, processing demand requests are not delayed by prefetches.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼