RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        임베디드 GPU를 위한 OpenCL 기반 디모자이킹 애플리케이션 최적화

        강수연,정재훈,정우근,이재진 한국정보과학회 2022 정보과학회 컴퓨팅의 실제 논문지 Vol.28 No.12

        Currently, most mobile devices are equipped with high-performance cameras, and the importance of image processing acceleration technology is increasing daily. A separate dedicated image processor is in charge of basic image processing in mobile devices, but this processor has a limitation in that it processes only a specific algorithm. Accordingly, it is necessary to secure technology that can accelerate general image processing algorithms by utilizing the GPU, which is a programmable general-purpose processor. In this paper, we introduce various techniques for optimizing OpenCL-based demosaicing applications in mobile devices equipped with a Mali GPU. Through optimizations, we achieve a high level of image processing performance, suggesting the possibility of using embedded GPUs in mobile devices. 최근 대부분의 스마트폰에는 고성능의 카메라가 탑재되어 있으며, 이미지 처리 가속 기술의 중요성이 나날이 증대되고 있다. 스마트폰에는 기본적인 이미지 처리를 담당하는 별도의 전용 이미지 프로세서가 존재하는데, 이 프로세서는 특정한 알고리즘만 처리한다는 한계점을 가지고 있다. 이에 따라 프로그래밍이 가능한 범용 프로세서인 GPU를 활용하여 일반적인 이미지 처리 알고리즘을 가속할 수 있는 기술을 확보하여야 한다. 본 논문에서는 대표적인 임베디드 GPU인 Mali GPU를 탑재한 모바일 디바이스에서OpenCL 기반의 디모자이킹 애플리케이션을 최적화하는 다양한 기술들을 소개한다. 다양한 최적화 기술을통해 리얼-타임 내에 대용량 이미지를 처리하는 것을 목표로 한다. 높은 수준의 이미지 처리 성능을 달성함으로써, 모바일 디바이스에서의 임베디드 GPU의 활용 가능성을 제시한다.

      • KCI등재

        암호화된 빅데이터 상에서 효율적인 질의 처리를 지원하는 Prefix 트리를 사용한 GPU 기반 병렬 질의처리 기법

        신영성,이현조,장재우 한국차세대컴퓨팅학회 2014 한국차세대컴퓨팅학회 논문지 Vol.10 No.2

        최근 페이스북, 트위터 등의 SNS(Social Networking Service)가 발전함에 따라, 사용자가 생성하는 데이터가 급격히 증가하고 있다. 사용자 데이터는 민감한 개인정보를 포함하기 때문에, 원본 데이터를 공격자로부터 보호하기 위해서는 데이터를 암호화하는 것이 필요하다. 따라서 암호화된 데이터의 복호화 없이 질의를 처리하는 암호화 질의 처리 기법이 제안되었다. 그러나 기존의 질의처리 기법은 암호화 데이터에 대한 색인 구조를 구축하고 이를 순차적 으로 탐색하기 때문에, 데이터의 크기가 증가함에 따라 질의탐색 비용이 증가하는 문제점이 존재한다. 이를 위해, P.B.Volk, et al.은 prefix 트리 기반 병렬 질의처리 알고리즘을 제안하였다. 제안하는 알고리즘은 암호화된 데이 터를 위해 prefix 트리 구조를 구축하고, 트리를 부분 트리로 분할하여 생성된 모든 부분 트리를 병렬적으로 탐색한 다. 그러나 이 알고리즘은 모든 부분 트리를 탐색하기 때문에, 트리 깊이에 따라 연산 비용이 급격히 증가하는 문제 점이 존재한다. 아울러, 이 알고리즘은 범위 질의나 부분 매칭 등의 다양한 질의를 지원하지 못하는 문제점이 존재 한다. 이러한 문제를 해결하기 위해, 본 논문에서는 prefix 트리 및 해시 테이블을 사용하는 GPU 기반 병렬 질의처 리 알고리즘을 제안한다. 제안하는 알고리즘은 prefix 트리 loop-up 테이블을 사용하여 범위 질의 및 부분매칭 질 의를 지원한다. 아울러 제안하는 알고리즘이 기존 P.B.Volk, et al. 의 알고리즘보다 검색 시간 측면에서 약 30% 우수한 성능을 나타냄을 보인다.

      • A GPU-based Parallel Ant Colony Algorithm for Scientific Workflow Scheduling

        Pengfei Wang,Huifang Li,Baihai Zhang 보안공학연구지원센터 2015 International Journal of Grid and Distributed Comp Vol.8 No.4

        Scientific workflow scheduling problem is a combinatorial optimization problem. In the real application, the scientific workflow generally has thousands of task nodes. Scheduling large-scale workflow has huge computational overhead. In this paper, a parallel algorithm for scientific workflow scheduling is proposed so that the computing speed can be improved greatly. Our method used ant colony optimization approaches on the GPU. Thousands of GPU threads can parallel construct solutions. The parallel ant colony algorithm for workflow scheduling was implemented with CUDA C language. Scheduling problem instances with different scales were tested both in our parallel algorithm and CPU sequential algorithm. The experimental results on NVIDIA Tesla M2070 GPU show that our implementation for 1000 task nodes runs in 5 seconds, while a conventional sequential algorithm implementation runs in 104 seconds on Intel Xeon X5650 CPU. Thus, our GPU-based parallel algorithm implementation attains a speed-up factor of 20.7.

      • KCI우수등재

        GCN 아키텍쳐 상에서의 OpenCL을 이용한 GPGPU 성능향상 기법 연구

        우동희,김윤호 한국전자거래학회 2018 한국전자거래학회지 Vol.23 No.1

        The current system upon which a variety of programs are in operation has continuouslyexpanded its domain from conventional single-core and multi-core system to many-coreand heterogeneous system. However, existing researches have focused mostly on parallelizingprograms based CUDA framework and rarely on AMD based GCN-GPU optimization. Inlight of the aforementioned problems, our study focuses on the optimization techniques ofthe GCN architecture in a GPGPU environment and achieves a performance improvement. Specifically, by using performance techniques we propose, we have reduced more then 30%of the computation time of matrix multiplication and convolution algorithm in GPGPU. Also,we increase the kernel throughput by more then 40%. 현재 프로그램이 운용되는 시스템은 기존의 싱글코어 및 멀티코어 환경을 넘어서 매니코어,부가 프로세스 및 이기종 환경까지 그 영역이 확장되고 있는 중이다. 하지만, 기존 연구의경우 NVIDIA 벤더에서 나온 아키텍쳐 및 CUDA로의 병렬화가 주로 이루어졌고 AMD에서나온 범용 GPU 아키텍쳐인 GCN 아키텍쳐에 대한 성능향상에 관한 연구는 제한적으로이루어졌다. 이런 점을 고려해 본 논문에서는 GCN 아키텍쳐의 GPGPU 환경인 OpenCL내에서의 성능향상 기법에 대해 연구하고 실질적인 성능향상을 보였다. 구체적으로, 행렬곱셈과 컨볼루션을 적용한 GPGPU 프로그램을 본 논문에서 제시한 성능향상 기법을 통해최대 30% 이상의 실행시간을 감소시켰으며, 커널 이용률 또한 40% 이상 높였다.

      • 안드로이드 폰에서의 모바일 GPU 성능 분석 및 최적화

        조창우(Chang-Woo Cho),김신덕(Shin-Dug Kim) 한국컴퓨터정보학회 2013 한국컴퓨터정보학회 학술발표논문집 Vol.21 No.2

        본 논문에서는 최신 안드로이드 기반 상용 스마트폰의 모바일 GPU 성능 향상을 위한 방법론을 제안한다. 동일 하드웨어를 가지고 스마트폰을 개발하더라도 제조사의 역량에 따라 소프트웨어 최적화의 정도가 달라서 그래픽 성능 차이가 날 수 있다. 그러므로 우리는 시스템 소프트웨어 레벨에서 그래픽 품질에 아무런 영향을 주지 않고 성능 향상을 이끌어낼 수 있는 기법에 대해 소개한다. 이를 위해 A사, B사 안드로이드 스마트폰을 대상으로 안드로이드 커널에 따른 분석을 수행하였고, GPU 디바이스 드라이버에 따른 분석을 수행하였으며, 마지막으로 타사 휴대폰과의 성능 비교를 통해 이 결과를 비교 분석하였다. 결과적으로 GPU 디바이스 드라이버 변경과 안드로이드 커널 변경을 시도함으로써 B사 대비 68%의 성능을 보인 A사 스마트폰의 성능을 96%까지 향상시킬 수 있었다.

      • Optimizing Intersection and Reflection Step of Geometrical Optics using GPUs

        Hyun Jin Chung,Myung Kuk Yoon,Won Woo Ro 대한전자공학회 2017 대한전자공학회 학술대회 Vol.2017 No.1

        Ray tracing method (geometrical optics) is a technique to trace the path of waves or particles. It is used in various areas like computer graphics or physics. However, the ray tracing method is very slow to compute on CPU because it includes a large amount of computations. Therefore, it is important to reduce the computation time. For example, in physics, a fast ray tracing method can simulate propagation modeling on a lot of cases within limited time, and in computer graphics, the fast method can display 3-D images in your monitor as real time. In this paper, we develop the ray tracing method using Graphic Processing Unit (GPU) to compute intersection and reflection test. Because there are a lot of simple vector operations in ray tracing method, we accelerate the method using GPU that is powerful product to compute many simple calculations like vector operations. Therefore, we can extremely improve the performance of the ray tracing method compared to the conventional CPU-based ray tracing method. Based on our evaluation, we achieve a performance improvement of about 1,740 times.

      • KCI등재

        CUDA를 이용한 Particle Swarm Optimization 구현

        김조환(Jo-Hwan Kim),김은수(Eun-Su Kim),김종욱(Jong-Wook Kim) 대한전기학회 2009 전기학회논문지 Vol.58 No.5

        In this paper, particle swarm optimization (PSO) is newly implemented by CUDA (Compute Unified Device Architecture) and is applied to function optimization with several benchmark functions. CUDA is not CPU but GPU (Graphic Processing Unit) that resolves complex computing problems using parallel processing capacities. In addition, CUDA helps one to develop GPU softwares conveniently. Compared with the optimization result of PSO executed on a general CPU, CUDA saves about 38% of PSO running time as average, which implies that CUDA is a promising frame for real-time optimization and control.

      • KCI등재

        실시간 탄도 궤적 목표물 추적을 위한 GPU 기반 병렬적 Monte Carlo 최적화 기법

        박주현,이민준,이헌철,황예지,최원석,정보라 제어·로봇·시스템학회 2023 제어·로봇·시스템학회 논문지 Vol.29 No.8

        This paper seeks to achieve real-time high-speed ballistic target tracking. Monte Carlo optimization can be considered to solve the non-linearity in motion and measurement models in high-speed targets, but applying it to real-time tracking systems is difficult because it requires a long computation time. This paper proposes a graphics processing unit (GPU)-based parallelization method to accelerate Monte Carlo optimization for real-time ballistic target tracking. The improved performance of the proposed method was tested and analyzed on awidelyused embedded system. Comparisons with existing Monte Carlo optimization on a central processing unit (CPU) revealed that the proposed method improved the real-time performance by greatly reducing the computation time.

      • KCI등재

        Computationally Efficient Implementation of a Hamming Code Decoder Using Graphics Processing Unit

        Md Shohidul Islam,김철홍,김종면 한국통신학회 2015 Journal of communications and networks Vol.17 No.2

        This paper presents a computationally efficient implementation of a Hamming code decoder on a graphics processing unit (GPU) to support real-time software-defined radio, which is a software alternative for realizing wireless communication. The Hamming code algorithm is challenging to parallelize effectively on a GPU because it works on sparsely located data items with several conditional statements, leading to non-coalesced, long latency, global memory access, and huge thread divergence. To address these issues, we propose an optimized implementation of the Hamming code on the GPU to exploit the higher parallelism inherent in the algorithm. Experimental results using a compute unified device architecture (CUDA)-enabled NVIDIA GeForce GTX 560, including 335 cores, revealed that the proposed approach achieved a 99x speedup versus the equivalent CPU-based implementation.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼