http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
이진 상보형 수열 쌍을 대역확산 부호로 사용하고 16-QAM 변조 기법을 이용한 MC-CDMA 신호의 전력 포락선 특성 분석
최병조,Choi Byoung-Jo 한국통신학회 2006 韓國通信學會論文誌 Vol.31 No.9C
본 논문은 이진(binary) 상보형 수열 쌍(complementary pair)을 대역확산 부호로 사용하여 16-QAM 변조된 2개의 심볼을 동시에 전송하는 MC-CDMA(Multi-Carrier Code Division Multiple Access) 신호의 전력 포락선 특성 분석에 대한 것이다. 전력 포락선 분석을 통해 그 특성을 결정짓는 16-QAM 심볼 조합의 관계를 파라미터로 도출하고, 256개의 가능한 전송 심볼 조합 가운데 오직 60개의 서로 다른 전력 포락선이 존재함을 보였다. 또한 복소 평면에서 직관적 등가 변환 관계를 고찰하고 60개의 전력 포락선이 결국 16개의 서로 다른 전력 포락선 변이도(crest factor)를 유발함을 확인하였다. 동일한 변조 기법을 채택한 단일 반송파 신호와 비교하기 위하여 전력 포락선 변이도를 두 전송 심볼의 조합에 의해 발생하는 평균 전력에 따라 분류하였을 때, 전송 심볼의 모든 조합에 대하여 전력 포락선의 변이도가 3dB 이하임을 증명하였다. The crest factor properties of 16-QAM modulated one- and two-code assisted multi-carrier code-division multiple-access (MC-CDMA) signals employing complementary pair as spreading sequences are characterized. It is shown that a set of relationship between the two 16-QAM symbols entirely characterize the power envelope waveforms of the signals. There exists 60 different sets of relationship, which results in 16 different crest factors as a result of various equivalent transforms on the corresponding message symbols. It is also shown that the individual crest factor corresponding to each message combination is always bounded by 3dB.
원형 커널과의 컨볼루션과 곡선 추적을 통한 이진 세그멘테이션 이미지의 중복 객체 구분
이진성(Jinseong Lee),최병조(Byoung-Jo Choi) 한국정보기술학회 2024 Proceedings of KIIT Conference Vol.2024 No.5
인공 신경망을 사용하는 이미지 처리는 컴퓨팅 성능의 발전과 함께 아주 빠른 속도로 성장하였다. 하지만 실제 현장에 적용하기에는 고가의 시스템이 필요하기 때문에 실질적으로 어려움이 있기도 하다. 본 연구는 꿀벌 생태를 모니터링 하기 위한 영상처리 장치를 설계함에 있어 경량 알고리즘을 설계하는 과정에서 발생한 세그멘테이션 데이터의 객체 중복 현상을 해결하고자 한다. 각 픽셀을 클러스터의 데이터 포인트로 취급하고, 여러 객체의 픽셀이 연결되어 하나의 객체로 인지하는 상황을 해결하고자 한다. 객체와 크기가 비슷한 원형 커널과 컨볼루션 연산 후 미분을 통해 각 행과 열의 극대를 추출, 극대 곡선을 추적한 후 미분하여 객체의 중점을 추론한다. 중복된 객체에 대해 82%대의 정확도를 보였으며, 독립된 객체도 존재하는 일반적인 상황에서는 높은 정확도를 기대할 수 있을 것으로 보인다. 이러한 방식으로 추론되는 객체 탐지 방식은 유사한 사례들에서도 적은 컴퓨팅 파워만으로 동작할 수 있을 것이며, 이를 통해 더욱 적합한 시스템을 설계하는데 기여할 수 있을 것으로 기대한다. Advancements in computing power have significantly enhanced neural network capabilities for image processing, yet high deployment costs often limit practical applications. This study presents a lightweight image processing system for monitoring bee ecology, addressing object duplication in segmentation data efficiently. Each pixel is treated as part of a cluster, and a circular kernel is used for convolution. This is followed by differentiation to extract local maxima and curve tracing to identify object centroids, effectively tackling the issue of overlapping objects. The method demonstrated an 82% accuracy in discriminating these objects and is expected to perform robustly with minimal computing resources in normal conditions where objects are not overlapped and distinct. This approach aids in designing cost-effective systems employing clustering algorithms, circular kernel convolution, and curve tracing techniques for similar applications.
정찬호(Jeong Chan-Ho),김민정(Kim Min-Jeong),류지수(Ryu Ji-Su),최병조(Choi Byoung-Jo) 한국통신학회 2021 한국통신학회 학술대회논문집 Vol.2021 No.6
꿀벌은 농작물 화수분에서 매우 중요한 역할을 한다. 그런데 벌통 근처의 환경 변화나 날씨 변화, 일련의 사건 등으로 벌통 내의 개체 수가 감소해도 소유자가 그 사실을 쉽게 파악하기 힘들다. 본 논문에서는 꿀벌통의 실시간 영상 모니터링 및 분석을 통해 꿀벌의 개체를 인식하여 꿀벌통을 출입하는 꿀벌들의 개체 수를 파악할 수 있는 시스템을 제안하고 구현한다. 이 시스템은 리눅스 운영체제를 기반으로 하며 YOLO V3의 Darknet 프레임워크를 통해 벌 한 마리당의 객체를 식별 및 추적하여 하루마다 출입하는 꿀벌의 수를 파악한 후, 일정 이상의 개체 수가 돌아오지 않으면 벌통의 소유주에게 알림 메시지를 송신한다. 이 시스템을 통해 꿀벌통의 소유주들이 꿀벌 개체의 급격한 변화에 대한 문제들에 조금 더 빠르게 대응할 수 있을 것으로 기대된다.
임베디드 시스템을 위한 두 실시간 객체 탐지 알고리즘의 성능 비교
염수형(Soo-Hyung Yeom),강준영(Junyeong Kang),류지수(Ji-Su Ryu),최병조(Byoung-Jo Choi),이명렬(Myeong-Lyeol Lee) 대한전자공학회 2022 대한전자공학회 학술대회 Vol.2022 No.11
In our experiment, we employed two different object detection schemes for embedded systems, namely, YOLOv3-tiny and FOMO, in the Raspberry Pi 4B environment to detect honeybees at the gate of beehives in real time. We compared the two schemes in terms of their accuracies, operating temperatures, and processing times. Regarding their accuracies, YOLOv3-tiny displayed 96.2%, while FOMO resulted in 92.7%. However, FOMO required a processing time of 103ms per frame, while 1,235ms for YOLOv3-tiny, resulting in 12times faster processing speed for FOMO.