http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
이현숙(Hyun-Sook Lee),맹성현(Sung Hyon Myaeng),이만호(Mann-Ho Lee) 한국정보과학회 2002 한국정보과학회 학술발표논문집 Vol.29 No.1B
본 논문은 여러 컬렉션에 대해 검색을 수행하는 분산 검색시스템에서 질의어가 들어 왔을 때 질의어에 적합한 컬렉션을 자동으로 선택할 수 있도록 하는 컬렉션 선택 모델과 브로커 구조를 제안하였다. 각 컬렉션마다 과거 질의에 대해 검색된 결과 문서들을 색인하여 인접단어를 고려한 불완전 인덱스를 생성한다. 이러한 불완전 인덱스를 이용하여 컬렉션 선택한 모델을 TREC 문서집합과 SMART 시스템을 이용하여 구현하였다.
인터넷 채팅 도메인에서의 감성정보를 이용한 타관점 사용자 선호도 학습 방법
신욱현(Wook-Hyun Shin),정윤재(Yoon-Jae Jeong),맹성현(Sung-Hyon Myaeng),한경수(Kyoung-Soo Han) 한국컴퓨터정보학회 2009 韓國컴퓨터情報學會論文誌 Vol.14 No.1
개인화 서비스와 같은 지능정보 시스템을 위해서는 사용자 선호도의 학습은 중요한 연구 분야이다. 본 연구에서는 채팅 도메인에서의 사용자 선호도를 학습하는 방법을 제시하며, 기존의 평면적인 사용자 선호도 모델의 문제점을 해결하기 위한 사용자 선호도 모델을 제안한다. 사용자가 선호도 학습의 대상에 대하여 얼마나 관심이 있는가를 나타내는 관심도와 대상에 대한 감성을 나타내는 호감도 라는 요소로 모델링 할 수 있다. 자연어 처리를 통해 현재 대화에서의 주제 탐지와 호감도 분석을 하고, 이를 이용하여 사용자의 선호도와 호감도를 학습한다. 시간의 흐름에 따라 변하는 사용자 선호도의 특징을 고려하여, 사용자 선호도를 세션, 단기, 장기 선호도로 나누어 계산한다. 사용자선호도 학습의 대상이 되는 키워드와 주제에 대하며 시간에 따라 변하는 사용자의 선호도 변화를 고려하여 선호도 결정을 한다 사용자 선호도 학습 효과의 검증을 위하여 사용자 평가를 하였으며 주제 선호도, 키워드 선호도, 키워드 호감도에 대하여 각각 86.52%, 86.28%, 87.22%의 성능을 보였다. Learning user's preference is a key issue in intelligent system such as personalized service. The study on user preference model has adapted simple user preference model, which determines a set of preferred keywords or topic, and weights to each target. In this paper, we recommend multi-perspective user preference model that factors sentiment information in the model. Based on the topicality and sentimental information processed using natural language processing techniques, it learns a user's preference. To handle timc-variant nature of user preference, user preference is calculated by session, short-term and long term. User evaluation is used to validate the effect of user preference teaming and it shows 86.52%, 86.28%, 87.22% of accuracy for topic interest, keyword interest, and keyword favorableness.
텍스트 구성요소 판별 기법과 자질을 이용한 문서 요약 시스템의 개발 및 평가
장동현(Dong Hyun Jang),맹성현(Sung Hyon Myaeng) 한국정보과학회 2000 정보과학회논문지 : 소프트웨어 및 응용 Vol.27 No.6
논 본문은 문서의 주요 내용을 나타내는 문장을 추출함으로써 요약문을 작성하는 자동 요약 기법에 대해 기술하고 있다. 개발한 시스템은 문서 집합으로부터 추출한 어휘적, 통계적 정보를 고려하여 요약 문장을 작성하는 모델이다. 시스템은 크게 두 부분, 학습과정과 요약과정으로 구성이 된다. 학습 과정은 수동으로 작성한 요약문장으로부터 다양한 통계적인 정보를 추출하는 단계이며, 요약 과정은 학습 과정에서 추출한 정보를 이용하여 각 문장이 요약문장에 포함될 가능성을 계산하는 과정이다. 본 연구는 크게 세 가지 의의를 갖는다. 첫째, 개발된 시스템은 각 문장을 텍스트 구성 요소의 하나로 분류하는 텍스트 구성 요소 판별 모델을 사용한다. 이 과정을 통해 요약 문장에 포함될 가능성이 없는 문장을 미리 제거하는 효과를 얻게 된다. 둘째, 개발한 시스템이 영어 기반의 시스템을 발전시킨 것이지만, 각각의 자질을 독립적으로 요약에 적용시켰으며, Dempster-Shafer 규칙을 사용해서 다양한 자질의 확률 값을 혼합함으로써 문장이 요약문에 포함될 최종 확률을 계산하게 된다. 셋째, 기존의 시스템에서 사용하지 않은 새로운 자질 (feature)을 사용하였으며, 실험을 통하여 각각의 자질이 요약 시스템의 성능에 미치는 효과를 알아보았다. This paper describes an automatic summarization approach that constructs a summary by extracting sentences that are likely to represent the main theme of a document. As a way of selecting summary sentences, the system uses a model that takes into account lexical and statistical information obtained from a document corpus. As such, the system consists of two parts: the training part and the summarization part. The former processes sentences that have been manually tagged for summary sentences and extracts necessary statistical information of various kinds, and the latter uses the information to calculate the likelihood that a given sentence is to be included in the summary. There are at least three unique aspects of this research. First of all, the system uses a text component identification model to categorize sentences into one of the text components. This allows us to eliminate parts of text that are not likely to contain summary sentences. Second, although our statistically-based model stems from an existing one developed for English texts, it applies the framework to individual features separately and computes the final score for each sentence by combining the pieces of evidence using the Dempster-Shafer combination rule. Third, not only were new features introduced but also all the features were tested for their effectiveness in the summarization framework.