http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
교육용 가상환경을 위한 이미지 선택 알고리즘 개발에 관한 연구
권수영 ( Sooyoung Kwon ),김민영 ( Minyoung Kim ),조용주 ( Yongjoo Cho ),박경신 ( Kyoung Shin Park ) 한국정보처리학회 2009 한국정보처리학회 학술대회논문집 Vol.16 No.1
본 논문에서는 교육용 가상환경에서 학습자들에게 좀 더 효과적인 학습 효과를 주기 위해 학습중에 보고 촬영했던 사진들을 자동으로 정리해서 사용자가 교육용 가상환경에서 체험했던 학습 내용을 사진을 통해서 복습할 수 있도록 해주는 알고리즘을 소개한다. 기존의 날짜, 장소, 키워드 등의 정보를 이용하여 사진을 정리하는 알고리즘과는 달리, 본 논문에서는 사용자가 학습을 하면서 기억해야 할 중요한 내용이나 사용자의 관심도에 의해 사진 정리를 함으로써 사용자의 학습 효과를 높이는 것을 목적으로 하는 사진 정리 알고리즘을 소개한다. 이에 따라 알고리즘에서 학습적으로 중요한 사진을 뽑는 기준과 사용자의 관심도, 인지율 계산에 대해 설명하고 이 알고리즘을 기반으로 구현한 시스템을 설명한다. 또한 사용자 실험 분석을 하고 향후 연구 방향에 대해 논한다.
ToMato: Token Merging을 이용한 Vision Transformer 가속화
권수영(Sooyoung Kwon),권민서(Minseo Kwon),김효진(Hyojin Kim),심재형(Jaehyeong Sim) 대한전자공학회 2023 대한전자공학회 학술대회 Vol.2023 No.11
ViT(Vision Transformer) shows outstanding performance in various vision tasks by splitting images into patches and passing them through transformer blocks. However, the large model size and computational cost of ViT result in high inference latency and hindered acceleration. To accelerate ViT efficiently, we introduce ToMato(Token Merging at Once), a simple framework that recursively merges tokens by comparing similarity to adjacent tokens at the first transformer block. Applying the ToMato to DeiTbase model, we find that this reduces latency by 22.19% while maintaining high Top-1 accuracy of 80.14%. Our codes are available at https://github.com/Transformer04/ToMato.