http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
6축 힘/토크 센서의 로지스틱 회귀를 활용한 로봇 팔 엔드 이펙터 재밍 감지에 대한 연구
이범진(Beom-Jin Lee),박형균(Hyeong-Kyun Park),이용규(Yong-Gyu Lee) 대한전자공학회 2022 대한전자공학회 학술대회 Vol.2022 No.11
Manipulators equipped with force sensors are exposed to uncertain environments while performing various processes such as grinding and inserting parts. The necessity of overcoming various failure situations and detecting failure is required. In this paper, a study on jamming detection of robot end-effectors using logistic regression algorithm.
이범진(Beom-Jin Lee),장병탁(Byoung-Tak Zhang) 한국정보과학회 2012 한국정보과학회 학술발표논문집 Vol.39 No.1B
대부분의 실세계 데이터는 시간성을 띄고 있으므로 시간성을 지닌 데이터를 분석할 수 있는 기계 학습 방법론은 매우 중요하다. 이런 관점에서 비디오 데이터는 다양한 모달리티가 결합된 대표적인 시간 데이터이므로 비디오 데이터를 대상으로 하는 기계 학습 방법은 큰 의미를 갖는다. 본 논문에서는 음성 채널에 기반한 비디오 데이터 분석 방법의 예비 연구로 비디오 데이터에 등장하는 화자를 인식할 수 있는 간단한 방법을 소개한다. 제안 방법은 MFCC (Mel-frequency cepstrum coefficients)를 이용하여 인간 음성 특성의 분포를 분석한 후 분석 결과를 신경망에 입력하여 목표한 화자를 인식하는 복합 신경망 모델을 특징으로 한다. 실제 TV 드라마 데이터에서 가우시안 혼합모델, 가우시안 혼합 신경망 모델, 제안 방법의 화자 인식 성능을 비교한 결과 제안 방법이 가장 우수한 인식 성능을 보임을 확인하였다.
일상생활 계획을 위한 스마트폰-사용자 상호작용 기반 지속 발전 가능한 사용자 맞춤 위치-시간-행동 추론 방법
이범진(Beom-Jin Lee),김지섭(Jiseob Kim),류제환(Je-Hwan Ryu),허민오(Min-Oh Heo),김주석(Joo-Seuk Kim),장병탁(Byoung-Tak Zhang) 한국정보과학회 2015 정보과학회 컴퓨팅의 실제 논문지 Vol.21 No.2
과거 어플리케이션 다양성만 지향하던 사용자의 수요가 최근 스마트폰의 고도화된 센서와 기계학습이 결합된 지능형 어플리케이션으로의 선호로 전향되고 있다. 이러한 경향을 반영하여 본 논문에서는 스마트폰에 축적된 사용자의 라이프로깅 데이터에서 의미있는 정보를 추출하고, 추출한 정보를 통해 사용자의 인지적 행동을 대신 가능한 인지 에이전트(Cognitive Agent)개념의 스마트폰-사용자 상호작용 사용자 맞춤 위치-시간-행동 추론 기법을 제안한다. 제안 방법은 사용자의 라이프로깅데이터를 DPGMM (Dirichlet Process Gaussian Mixture Model) 클러스터링 기법으로 사용자 주요 관심지역 POI(Point of Interest)를 자동으로 추출하고, 평생학습이 가능한 강화학습의 한 종류인 POMDP(Partially Observable Markov Decision Process)를 사용하여 사용자의 위치-시간-행동을 추론 한다. 제안 방법으로 구현한 사용자 맞춤 일과 계획 시스템의 시간별 사용자 일과 추론 결과는 70%이상의 성능을 보였으며, 하루 일과 계획 지능형 서비스의 새로운 방향을 제시하고 있다. Over the past few years, user needs in the smartphone application market have been shifted from diversity toward intelligence. Here, we propose a novel cognitive agent that plans the daily routines of users using the lifelog data collected by the smart phones of individuals. The proposed method first employs DPGMM (Dirichlet Process Gaussian Mixture Model) to automatically extract the users’ POI (Point of Interest) from the lifelog data. After extraction, the POI and other meaningful features such as GPS, the user’s activity label extracted from the log data is then used to learn the patterns of the user’s daily routine by POMDP (Partially Observable Markov Decision Process). To determine the significant patterns within the user’s time dependent patterns, collaboration was made with the SNS application Foursquare to record the locations visited by the user and the activities that the user had performed. The method was evaluated by predicting the daily routine of seven users with 3300 feedback data. Experimental results showed that daily routine scheduling can be established after seven days of lifelogged data and feedback data have been collected, demonstrating the potential of the new method of place-time-activity coupled daily routine planning systems in the intelligence application market.
이범진(Beom Jin Lee),정현(Hyun Jung),최경호(Jing Hao Cui),김수희(Soo Hee Kim) 한국약제학회 1999 Journal of Pharmaceutical Investigation Vol.29 No.3
The polymeric films containing drug and various excipients were fabricated using aqueous-based Eudragit^ⓡ RS 30D dispersions. The diffusional behaviors and mechanism of the fabricated polymeric film were investigated using Keshary-Chien diffusion cell. The melatonin was used as a model drug. The diffusion behaviors of drug through the fabricated polymeric films were highly dependent on drug concentration in donor part, polymer contents and drug concentration, and the types of plasticizers and solubilizers. The fabricated polymeric films containing excipients and solubilizers could be applied for the controlled release of poorly water-soluble drug and for the preparation of drug-containing latex films for topical or oral drug delivery.