본 논문은 프로그램 가능한 구조를 사용하여 재구성이 가능하고 저 전력 초소형의 장점을 모두 제공하는 인공지능 가속기를 위한 마이크로코드 기반 뉴럴 네트워크 가속기 컨트롤러를 제안...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=A108131970
2022
Korean
Microcode ; Convolution Neural Network Accelerator ; SoC ; FPGA ; 마이크로코드 ; 컨볼루션 뉴럴 네트워크 가속기 ; SoC ; FPGA
KCI등재
학술저널
355-366(12쪽)
0
0
상세조회0
다운로드국문 초록 (Abstract)
본 논문은 프로그램 가능한 구조를 사용하여 재구성이 가능하고 저 전력 초소형의 장점을 모두 제공하는 인공지능 가속기를 위한 마이크로코드 기반 뉴럴 네트워크 가속기 컨트롤러를 제안...
본 논문은 프로그램 가능한 구조를 사용하여 재구성이 가능하고 저 전력 초소형의 장점을 모두 제공하는 인공지능 가속기를 위한 마이크로코드 기반 뉴럴 네트워크 가속기 컨트롤러를 제안한다. 대상 가속기가 다양한 뉴럴 네트워크 모델을 지원하도록 마이크로코드 컴파일러를 통해 뉴럴 네트워크 모델을 마이크로코드로 변환하여 가속기의 메모리 접근과 모든 연산기를 제어할 수 있다. 200MHz의 System Clock을 기준으로 설계하였으며, YOLOv2-Tiny CNN model을 구동하도록 컨트롤러를 구현하였다. 객체 감지를 위한 VOC 2012 dataset 추론용 컨트롤러를 구현할 경우 137.9ms/image, mask 착용 여부 감지를 위한 mask detection dataset 추론용으로 구현할 경우 99.5ms/image의 detection speed를 달성하였다. 제안된 컨트롤러를 탑재한 가속기를 실리콘칩으로 구현할 때 게이트 카운트는 618,388이며, 이는 CPU core로서 RISC-V (U5-MC2)를 탑재할 경우 대비 약 65.5% 감소한 칩 면적을 제공한다.
다국어 초록 (Multilingual Abstract)
This paper proposes a microcode-based neural network accelerator controller for artificial intelligence accelerators that can be reconstructed using a programmable architecture and provide the advantages of low-power and ultra-small chip size. In orde...
This paper proposes a microcode-based neural network accelerator controller for artificial intelligence accelerators that can be reconstructed using a programmable architecture and provide the advantages of low-power and ultra-small chip size. In order for the target accelerator to support various neural network models, the neural network model can be converted into microcode through microcode compiler and mounted on accelerator to control the operators of the accelerator such as datapath and memory access. While the proposed controller and accelerator can run various CNN models, in this paper, we tested them using the YOLOv2-Tiny CNN model. Using a system clock of 200 MHz, the Controller and accelerator achieved an inference time of 137.9 ms/image for VOC 2012 dataset to detect object, 99.5ms/image for mask detection dataset to detect wearing mask. When implementing an accelerator equipped with the proposed controller as a silicon chip, the gate count is 618,388, which corresponds to 65.5% reduction in chip area compared with an accelerator employing a CPU-based controller (RISC-V).
참고문헌 (Reference)
1 J. Redmon, "You only look once : Unified, real-time object detection" 779-788, 2016
2 SiFive, Inc., "SiFive U54 Manual, v21.G2.01.00"
3 W. Lin, "ONNC: A Compilation Framework Connecting ONNX to Proprietary Deep Learning Accelerators" 214-218, 2019
4 N. P. Jouppi, "Indatacenter performance analysis of a tensor processing unit" 1-12, 2017
5 N. Tidala, "High Performance Network On Chip using AXI4 protocol interface on an FPGA" 1647-1651, 2018
6 Y. H. Chen, "Eyeriss: An energy-efficient reconfigurable accelerator for deep convolutional neural networks" 52 (52): 127-138, 2017
7 K. KRISHNAIAH, "Design of Memory controller with AXI Bus interface" 2 (2): 2016
8 K. VeenaH, "Design and Implementation of High Speed DDR SDRAM Controller on FPGA" 4 (4): 2015
9 F. Ge, "Compact Convolutional Neural Network Accelerator for IoT Endpoint SoC" 8 (8): 2019
10 H. Son, "CNN Accelerator with Minimal On-Chip Memory Based on Hierarchical Array" 411-412, 2021
1 J. Redmon, "You only look once : Unified, real-time object detection" 779-788, 2016
2 SiFive, Inc., "SiFive U54 Manual, v21.G2.01.00"
3 W. Lin, "ONNC: A Compilation Framework Connecting ONNX to Proprietary Deep Learning Accelerators" 214-218, 2019
4 N. P. Jouppi, "Indatacenter performance analysis of a tensor processing unit" 1-12, 2017
5 N. Tidala, "High Performance Network On Chip using AXI4 protocol interface on an FPGA" 1647-1651, 2018
6 Y. H. Chen, "Eyeriss: An energy-efficient reconfigurable accelerator for deep convolutional neural networks" 52 (52): 127-138, 2017
7 K. KRISHNAIAH, "Design of Memory controller with AXI Bus interface" 2 (2): 2016
8 K. VeenaH, "Design and Implementation of High Speed DDR SDRAM Controller on FPGA" 4 (4): 2015
9 F. Ge, "Compact Convolutional Neural Network Accelerator for IoT Endpoint SoC" 8 (8): 2019
10 H. Son, "CNN Accelerator with Minimal On-Chip Memory Based on Hierarchical Array" 411-412, 2021
11 "AMBA 4 AXI4 Stream Protocol, Version 1.0"
12 S. Kim, "A Power-Efficient CNN Accelerator With Similar Feature Skipping for Face Recognition in Mobile Devices" 67 (67): 1181-1193, 2020
13 Q. Zhao, "A Microcode-based Control Unit for Deep Learning Processors" 139-142, 2020
14 X. Zhou, "A Convolutional Neural Network Accelerator Architecture with Fine-Granular Mixed Precision Configurability" 1-5, 2020
15 L. Zhang, "A CNN ACCELERATOR WITH EMBEDDED RISC-V CONTROLLERS" 1-3, 2021
멀티 테스크 CNN의 경량화 모델을 이용한 차량 및 차선의 동시 검출
Prediction of Sea Water Condition Changes using LSTM Algorithm for the Fish Farm
딥러닝 기반 임의적 스케일 초해상도 모듈을 이용한 Mask-RCNN 성능 향상
하드 파라미터 쉐어링 기반의 보행자 및 운송 수단 거리 추정
학술지 이력
연월일 | 이력구분 | 이력상세 | 등재구분 |
---|---|---|---|
2027 | 평가예정 | 재인증평가 신청대상 (재인증) | |
2021-01-01 | 평가 | 등재학술지 유지 (재인증) | |
2018-01-01 | 평가 | 등재학술지 선정 (계속평가) | |
2017-12-01 | 평가 | 등재후보로 하락 (계속평가) | |
2013-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2011-11-23 | 학술지명변경 | 외국어명 : THE JOURNAL OF The KOREAN Institute Of Maritime information & Communication Science -> Journal of the Korea Institute Of Information and Communication Engineering | |
2011-11-16 | 학회명변경 | 영문명 : International Journal of Information and Communication Engineering(IJICE) -> The Korea Institute of Information and Communication Engineering | |
2011-11-14 | 학회명변경 | 한글명 : 한국해양정보통신학회 -> 한국정보통신학회영문명 : 미등록 -> International Journal of Information and Communication Engineering(IJICE) | |
2010-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2008-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2005-01-01 | 평가 | 등재학술지 선정 (등재후보2차) | |
2004-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | |
2002-07-01 | 평가 | 등재후보학술지 선정 (신규평가) |
학술지 인용정보
기준연도 | WOS-KCI 통합IF(2년) | KCIF(2년) | KCIF(3년) |
---|---|---|---|
2016 | 0.23 | 0.23 | 0.27 |
KCIF(4년) | KCIF(5년) | 중심성지수(3년) | 즉시성지수 |
0.24 | 0.22 | 0.424 | 0.11 |