http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Crowd Counting 경량화를 위한 Knowledge Distillation 적용 연구
홍연주 ( Yeon-joo Hong ),전혜령 ( Hye-ryung Jeon ),김유연 ( Yu-yeon Kim ),강현우 ( Hyun-woo Kang ),박민균 ( Min-gyun Park ),이경준 ( Kyung-june Lee ) 한국정보처리학회 2023 한국정보처리학회 학술대회논문집 Vol.30 No.2
딥러닝 기술이 발전함에 따라 모델의 복잡성 역시 증가하고 있다. 본 연구에서는 모델 경량화를 위해 Knowledge Distillation 기법을 Crowd Counting Model에 적용했다. M-SFANet을 Teacher 모델로, 파라미터수가 적은 MCNN 모델을 Student 모델로 채택해 Knowledge Distillation을 적용한 결과, 기존의 MCNN 모델보다 성능을 향상했다. 이는 정확도와 메모리 효율성 측면에서 많은 개선을 이루어 컴퓨팅 리소스가 부족한 기기에서도 본 모델을 실행할 수 있어 많은 활용이 가능할 것이다.