RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • Efficiency Enhanced Super Resolution Generative Adversarial Network via Advanced Knowledge Distillation Sajid Hussain Applied AI

        Sajid Hussain 과학기술연합대학원대학교 한국과학기술정보연구원(KISTI) 2024 국내석사

        RANK : 232031

        압축모델을이용한지식증류기반효율적인 SR-GAN기법 고해상도 이미지는 가장 널리 알려진 컴퓨터 비전 분야의 대표적 이슈 중 하나이며 의료 영상부터 감시 시스템까지 다양한 응용 분야에서 중요한 역 할을 한다. GAN(Generative Adversarial Networks)의 등장으로 저해상도 입력 이미지로부터 고품질의 사실적인 이미지를 생성할 수 있게 되면서 이 분야는 혁신적으로발전하게되었다.그러나 GAN을활용한단일고해상도이미지(SR) 생성에는여전히많은어려움이존재한다. GAN기반 SR기술활용의주요어려움은고성능생성자네트워크로인한 높은 메모리와 계산 요구에 있다. 이러한 요구사항은 성능을 저해하고 많은 에 너지를소비하여자원이제한적인기기에 GAN기반 SR을활용하는것을어렵게 한다. 본 연구는 이 문제점을 해결하기 위한 단일 이미지의 고해상도를 위한 혁신적이고 효율적인 SR-GAN 구조를 제안한다. 제안하는 방법은 지식 증류 (knowledge distillation) 개념을 전략적으로 활용하여 메모리 요구 사항을 최대 58%까지획기적으로감소시키면서도성능향상을얻을수있었다. 본 연구에서 제안하는 방법의 핵심은 고성능 모델로부터 특징 맵들을 추 출하여 연산 및 메모리 오버헤드를 최소화하는 경량 모델을 개발하는 데 있다. 다양한 벤치마크 데이터셋에 대한 x4 고해상도 태스크 실험 결과, 우리의 압축 모델이 기존 지식 증류 기반 기술과 기반 모델의 성능을 SSIM, PSNR, LPIPS, DISTS측면에서모두뛰어넘는것을확인할수있었다. Keywords:지식증류;생성적적대네트워크;감독자-해결;모델경량. Efficiency Enhanced Super Resolution Generative Adversarial Network via Advanced Knowledge Distillation Image super-resolution is a widely popular computer vision problem that plays a pivotal role in numerous real-world applications, ranging from medical imaging to surveillance systems. The field has been revolutionized by the emergence of Generative Adversarial Networks (GANs), which enable the generation of high- quality, photorealistic images from low-resolution inputs. However, the utilization of GANs for single-image super-resolution (SISR) is not without its challenges. The main obstacle to the adoption of GAN-based SR lies in its high memory and computational demands, primarily attributed to the resource-intensive genera- tor networks. These demands hinder performance and exacerbate energy consump- tion, making the deployment of GAN-based SR on resource-constrained devices a formidable task. In response to this challenge, our research endeavors to introduce an innova- tive and efficient solution: a novel SR-GAN architecture optimized for the demands of SISR. Our approach leverages the concept of knowledge distillation strategically, resulting in a remarkable reduction in storage requirements by up to 58%, while enhancing performance. The core of our methodology involves the extraction of feature maps from a resource-intensive model to craft a lightweight, yet powerful model with minimal computational and memory overhead. Through extensive experimentation across diverse benchmark datasets, our proposed compressed model outperforms existing knowledge distillation-based techniques and the base model, particularly in regard to SSIM, PSNR, LPIPS, DISTS, and overall image quality in 4x super-resolution tasks. Keywords: Knowledge Distillation; Generative Adversarial Network; Super-Resolution; Model Lightweight.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼