RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        공간정보를 중심으로 재구성한 BIM 기반 형상정보의 자동추출 및 데이터베이스 구축 모듈 개발

        최준우,김신,송영학,박경순 대한건축학회지회연합회 2018 대한건축학회연합논문집 Vol.20 No.6

        In this paper, in order to maximize the input process efficiency of the building energy simulation field, the authors developed the automatic extraction module of spatial information based BIM geometry information. Existing research or software extracts geometry information based on object information, but it can not be used in the field of energy simulation because it is inconsistent with the geometry information of the object constituting the thermal zone of the actual building model. Especially, IFC-based geometry information extraction module is needed to link with other architectural fields from the viewpoint of reuse of building information. The study method is as follows. (1) Grasp the category and attribute information to be extracted for energy simulation and Analyze the IFC structure based on spatial information (2) Design the algorithm for extracting and reprocessing information for energy simulation from IFC file (use programming language Phython) (3) Develop the module that generates a geometry information database based on spatial information using reprocessed information (4) Verify the accuracy of the development module. In this paper, the reprocessed information can be directly used for energy simulation and it can be widely used regardless of the kind of energy simulation software because it is provided in database format. Therefore, it is expected that the energy simulation process efficiency in actual practice can be maximized. 본 논문에서는 건축 에너지 분야에서 시뮬레이션의 형상과정 입력 프로세스 효율성을 극대화시키기 위해 건물 에너지 시뮬레이션을 위한 공간정보 중심 BIM 물리형상정보 자동추출 모듈 개발하였다. 기존의 연구나 소프트웨어들은 객체정보를 중심으로 형상정보를 추출하나, 이는 실제 건축모델의 열적 존을 구성하는 객체의 형상정보와 불일치 현상이 발생하기 때문에 에너지 시뮬레이션 분야에서는 사용할 수 없다. 특히, 건축정보의 재사용이라는 관점에서 타 건축분야와의 연계가 가능한 IFC 기반의 형상정보 추출 모듈이 필요하다. 연구방법은 다음과 같은 순서를 따른다. (1) 에너지 시뮬레이션을 위해 추출해야하는 형상정보의 항목 및 속성정보들을 파악하고 공간정보를 중심으로 IFC 구조 분석, (2) 에너지시뮬레이션을 위해 필요한 정보를 IFC 파일에서 추출 및 재가공하는 알고리즘 설계(프로그래밍 언어인 Python을 이용), (3) 재가공 된 정보를 이용하여 공간정보 중심의 물리형상정보 데이터베이스를 생성하여 제공하는 모듈 개발, (4) 개발 모듈의 수행 알고리즘에 대한 정확도 검증 수행. 본 논문에서 재가공된 정보는 에너지시뮬레이션에 직접 사용이 가능하며, 데이터베이스 형식으로 제공되기 때문에 에너지 시뮬레이션의 종류에 관계없이 폭 넓게 사용할 수 있다. 이를 통해 실제 실무에서의 에너지 시뮬레이션 프로세스 효율을 극대화할 수 있을 것으로 판단된다.

      • An Approach of Information Extraction Based on Dom Tree and Weight Value

        Haitao Wang,Shufen Liu 보안공학연구지원센터 2016 International Journal of Grid and Distributed Comp Vol.9 No.10

        Eliminating noisy information and extracting information content from web pages are increasing to become an important research issue in information retrieval field. In this paper, we present an approach of information extraction based on Dom tree and weight value calculation, which contains the following steps, parse the web page to construct the Dom tree, extract the title and keywords, calculate the weight value and obtain the content. The experimental result shows that this method has the higher accuracy ratio by the various themes content extraction.

      • KCI우수등재

        듀얼 포인터 네트워크를 사용한 다중 개체 간의 관계 추출

        박성식,김학수 한국정보과학회 2019 정보과학회논문지 Vol.46 No.11

        Information Extraction is the process of automatically extracting structured information from unstructured machine-readable texts. The rapid increase in large-scale unstructured texts in recent years has led to many studies investigating information extraction. Information extraction consists of two sub-tasks: an entity linking task and a relation extraction task. Most previous studies examining relation extraction have assumed that a single sentence contains a single entity pair mention. They have also focused on extracting a single entity pair (i.e., Subject-Relation-Object triple) per sentence. However, sentences can also contain multiple entity pairs. Therefore, in this paper, we propose a Dual-pointer network model that can entirely extract all possible entity pairs from a given text. In relation extraction experiments with two kinds of representative English datasets, NYT and ACE-2005, the proposed model achieved state-of-the-art performances with an F1-score of 0.8050 in ACE-2005 and an F1-score of 0.7834 in NYT. 정보 추출은 비정형 텍스트로부터 정형 데이터를 자동으로 추출하는 기술이다. 최근 대용량의 비정형 텍스트가 급격히 증가함에 따라 정보 추출에 대한 많은 연구가 이루어지고 있다. 정보 추출은 크게 개체 연결과 관계 추출 두 가지 기술로 구성되며 관계 추출은 정보 추출에 있어 가장 핵심이 되는 기술이다. 최근까지 대부분의 관계 추출 연구는 문장에 한 쌍의 개체만 존재한다고 가정하며 단일 개체 쌍 간의 관계를 추출하는데 초점이 맞춰져 있다. 그러나 실제로 문장에는 한 쌍 이상의 개체가 존재할 수 있다. 본 논문은 주어진 문장에서 가능한 모든 개체 쌍 간의 관계를 추출할 수 있는 듀얼 포인터 네트워크 기반 관계 추출 모델을 제안한다. 제안 모델은 관계 추출에 대표적으로 사용되는 영문 데이터 셋인 ACE-2005 데이터 셋과 NYT 데이터 셋으로 실험을 진행했으며, ACE-2005에서 F1 점수 0.8050, NYT 데이터 셋에서 F1 점수 0.7834로 가장 높은 성능을 보였다.

      • KCI등재SCOPUS

        TAKES: Two-step Approach for Knowledge Extraction in Biomedical Digital Libraries

        Song, Min Korea Institute of Science and Technology Informat 2014 Journal of Information Science Theory and Practice Vol.2 No.1

        This paper proposes a novel knowledge extraction system, TAKES (Two-step Approach for Knowledge Extraction System), which integrates advanced techniques from Information Retrieval (IR), Information Extraction (IE), and Natural Language Processing (NLP). In particular, TAKES adopts a novel keyphrase extraction-based query expansion technique to collect promising documents. It also uses a Conditional Random Field-based machine learning technique to extract important biological entities and relations. TAKES is applied to biological knowledge extraction, particularly retrieving promising documents that contain Protein-Protein Interaction (PPI) and extracting PPI pairs. TAKES consists of two major components: DocSpotter, which is used to query and retrieve promising documents for extraction, and a Conditional Random Field (CRF)-based entity extraction component known as FCRF. The present paper investigated research problems addressing the issues with a knowledge extraction system and conducted a series of experiments to test our hypotheses. The findings from the experiments are as follows: First, the author verified, using three different test collections to measure the performance of our query expansion technique, that DocSpotter is robust and highly accurate when compared to Okapi BM25 and SLIPPER. Second, the author verified that our relation extraction algorithm, FCRF, is highly accurate in terms of F-Measure compared to four other competitive extraction algorithms: Support Vector Machine, Maximum Entropy, Single POS HMM, and Rapier.

      • AIoT processing techniques for efficiently extracting and analyzing large amounts of IoT information

        Y. S. Jeong ASCONS 2021 INTERNATIONAL JOURNAL OF EMERGING MULTIDISCIPLINAR Vol.5 No.1

        Background/Objectives: Recently, as the usability of IoT devices increases, the kinds of information processed by IoT devices are also diversifying. For this reason, research to ensure the high-speed processing and integrity of information generated from IoT devices continues steadily. In particular, research using various hash techniques is actively underway to minimize IoT information errors. Methods/Statistical analysis: In this paper, instead of sending IoT information directly to the server (data center), we propose an AIoT technique that allows AIoT to pre-analyze and delivers only important information. Findings: The proposed technique allows easy control of IoT information operation after analyzing patterns of information collected from IoT devices to extract and analyze large amounts of IoT information. Furthermore, the proposed technique minimizes network delay as well as minimizes server (data center) processing and analysis time by reducing network traffic that can occur when information collected from numerous IoT devices is delivered to the server (data center). Improvements/Applications: AIoT, IoT information, Extract and Analysis, Artificial, Depp Learning, hash techniques Performance evaluation compared the storage efficiency of servers and the number of transactions of IoT information sent and received per second between IoT devices and AIoT devices while varying the hash length of IoT information from 16 bits to 128 bits.

      • KCI등재

        차량 검색을 위한 측면 에지 특징 추출 내용기반 검색

        구건서(Gun-Seo Koo) 한국컴퓨터정보학회 2010 韓國컴퓨터情報學會論文誌 Vol.15 No.11

        본 논문은 불확실한 객체의 영상 정보를 객체의 에지 특징정보를 이용하여 내용기반검색기법으로 CBIRS/EFI을 제안했다. 특히 객체의 부분 영상 정보의 경우 효율적으로 검색하기 위해 객체의 특징 정보 중 윤곽선 정보와 색체정보 추출하여 검색기법이다. 이를 실험하기 위해 지하 주차장의 차량 이미지를 캡처한후 객체의 특징 정보를 위한 차량의 측면 에지 특징 정보를 추출하였다. 검색하고자하는 원 영상과 특징 추출한 영상을 분석 결과와 최종 유사도 측정 결과에 의해 내용기반 검색을 적용하는 시스템으로, 기존 특징 추출 내용 기반 영상 검색 시스템인 FE-CBIRS 시스템에 비해 검색율의 정확성과 효율성을 향상 시키는 기능이 보완되었다. CBIRS/EF시스템의 성능평가는 차량의 색상 정보와 차량의 에지 추출 특징 정보를 적용하여 영역 특징정보를 검색하는 과정에서 색상 특징 검색 시간, 모양 특징 검색 시간과 검색 율을 비교 했다. 차량 에지 특징 추출률의 경우 91.84% 추출하였고, 차량 색상 검색 시간, 모양 특징 검색시간, 유사도 검색시간에서 CBIRS/EFI가 FE-CBIRS 보다 평균 검색시간이 평균 0.4~0.9초의 차이를 보고 있어 우수한 것으로 증명되었다. The paper proposed CBIRS/EFI with contents based search technique using edge feature information of the object from image information of the object which is uncertain. In order to search specially efficiently case of partial image information of the object, we used the search technique which extracts outline information and color information in feature information of object. In order to experiment this, we extracted side edge feature information of the vehicle for feature information of the object after capture the car image of the underground garage. This is the system which applies a contents base search by the result which analyzes the image which extracts a feature, an original image to search and a last similar measurement result. This system compared in FE-CBIRS systems which are an existing feature extraction contents base image retrieval system and the function which improves the accuracy and an effectiveness of search rate was complemented. The performance appraisal of CBIRS/EFI systems applied edge extraction feature information and color information of the cars. And we compared a color feature search time, a shape characteristic search time and a search rate from the process which searches area feature information. We extracted the case 91.84% of car edge feature extraction rate. And a average search time of CBIRS/EFI is showing a difference of average 0.4-0.9 seconds than FE-CBIRS from vehicle. color search time, shape characteristic search time and similar search time. So, it was proven with the fact that is excellent.

      • KCI등재

        구문 의존 경로에 기반한 단백질의 세포 내 위치 인식

        김미영 한국정보처리학회 2008 정보처리학회논문지. 소프트웨어 및 데이터 공학 Vol.15 No.4

        A protein’s subcellular localization is considered an essential part of the description of its associated biomolecular phenomena. As the volume of biomolecular reports has increased, there has been a great deal of research on text mining to detect protein subcellular localization information in documents. It has been argued that linguistic information, especially syntactic information, is useful for identifying the subcellular localizations of proteins of interest. However, previous systems for detecting protein subcellular localization information used only shallow syntactic parsers, and showed poor performance. Thus, there remains a need to use a full syntactic parser and to apply deep linguistic knowledge to the analysis of text for protein subcellular localization information. In addition, we have attempted to use semantic information from the WordNet thesaurus. To improve performance in detecting protein subcellular localization information, this paper proposes a three-step method based on a full syntactic dependency parser and WordNet thesaurus. In the first step, we constructed syntactic dependency paths from each protein to its location candidate, and then converted the syntactic dependency paths into dependency trees. In the second step, we retrieved root information of the syntactic dependency trees. In the final step, we extracted syn-semantic patterns of protein subtrees and location subtrees. From the root and subtree nodes, we extracted syntactic category and syntactic direction as syntactic information, and synset offset of the WordNet thesaurus as semantic information. According to the root information and syn-semantic patterns of subtrees from the training data, we extracted (protein, localization) pairs from the test sentences. Even with no biomolecular knowledge, our method showed reasonable performance in experimental results using Medline abstract data. Our proposed method gave an F-measure of 74.53% for training data and 58.90% for test data, significantly outperforming previous methods, by 12-25%. 단백질의 세포 내 위치를 인식하는 것은 생물학 현상의 기술에 있어서 필수적이다. 생물학 문서의 양이 늘어남에 따라, 단백질의 세포 내 위치 정보를 문서 내용으로부터 얻기 위한 연구들이 많이 이루어졌다. 기존의 논문들은 문장의 구문 정보를 이용하여 정보를 얻고자 하였으며, 언어학적 정보가 단백질의 세포 내 위치를 인식하는 데 유용하다고 주장하고 있다. 그러나, 이전의 시스템들은 구문 정보를 얻기 위해 부분 구문분석기만을 사용하였고 재현율이 좋지 못했다. 그러므로 단백질의 세포 내 위치 정보를 얻기 위해 전체 구문분석기를 사용할 필요가 있다. 또한, 더 많은 언어학적 정보를 위해 의미 정보 또한 사용이 가능하다. 단백질의 세포 내 위치 정보를 인식하는 성능을 향상시키기 위하여, 본 논문은 전체 구문분석기와 어휘망(WordNet)을 기반으로 한 방법을 제안한다. 첫 번째 단계에서, 각 단백질 단어로부터 그 단백질의 위치후보에까지 이르는 구문 의존 경로를 구축한다. 두 번째 단계에서, 구문 의존 경로의 루트 정보를 추출한다. 마지막으로, 단백질 부분트리와 위치 부분트리의 구문-의미 패턴을 추출한다. 구문 의존 경로의 루트와 부분트리로부터 구문태그와 구문방향을 구문 정보로서 추출하고, 각 노드 단어의 의미태그를 의미 정보로서 추출한다. 의미태그로는 어휘망의 동의어 집합(synset)을 사용한다. 학습데이터에서 추출한 루트 정보와 부분트리의 구문-의미 패턴에 따라서, 실험데이터에서 (단백질, 위치) 쌍들을 추출했다. 어떤 생물학적 지식 없이, 본 논문의 방법은 메드라인(Medline) 요약 데이터를 사용한 실험 결과에서 학습데이터에 대해 74.53%의 조화평균(F-measure), 실험데이터에 대해서는 58.90%의 조화평균을 보였다. 이 실험은 기존의 방법들보다 12-25%의 성능향상을 보였다.

      • KCI등재

        건축물의 에너지절약설계기준 평가를 위한 건축부문 BIM 정보 체계 구축

        홍성욱(Hong, Soung-wook),장향인(Jang, Hyang-In),안형준(An, Hyung-Jun),강혜숙,최창호(Choi, Chang-Ho),Park, Chang-Young 한국건축친환경설비학회 2016 한국건축친환경설비학회 논문집 Vol.10 No.1

        The purpose of this research is to establish the required information framework for BIM-based Energy-saving Design Criteria evaluation. On current Energy Performance Index(EPI) Certification procedure, a needed and based information in order to evaluation on each item should be identified and defined individually; however, using BIM, the information is extracted automatically at once as the established framework. The framework is classified 5 steps to utilize BIM object data efficiently, as follows: The BIM-based information framework is classified into 1) object input property, 2) object calculated property for evaluation, 3) extracted information for evaluation of each item, 4) calculated information for multiplier(b) evaluation, and 5) information to decide grades. And according to following steps, information interchange process is suggested for the appraisal by items. As a result, to use the BIM data efficiently, it could be confirmed that area calculation of each object should be preceded through the object information. In addition, it is confirmed that efficient information application is to classify the information application methods into Article 1, 2, 3 and 4 Assessments of heat insulation property, Article 5, 6, and 7 Assessments to examine application rate of particular windows and doors, and Article 8 and 9 Assessments using bearing information through the use of the area calculation value of object. For the using mandatory information of Energy-saving Design Criteria on BIM-based design process, it is confirmed that information about installation of windbreak door should be used in planning stage, data of part where insulation is not applied in synthesizing stage, and data of insulation thickness and installation of vapor barrier should be used in designing stage.

      • KCI등재

        BERT 기반 한국어 개방형 정보 추출

        황현선(Hyunsun Hwang),이창기(Changki Lee) 한국정보과학회 2020 정보과학회 컴퓨팅의 실제 논문지 Vol.26 No.9

        개방형 정보 추출은 자연어로 된 문장에서 구조화된 정보인 트리플을 추출하는 기술이다. 기존의 개방형 정보 추출은 입력 문장에서 관계 정보를 추출해야 하는 특성 때문에 품사 패턴, 의존 구문 분석 정보, 의미역 결정 정보 등을 이용한 복잡한 방법을 사용하였다. 본 논문에서는 한국어 개방형 정보 추출을 순차열 분류 문제로 보고 사전학습 된 BERT 모델을 적용하는 방법을 제안한다. 실험 결과 본 논문에서 제안한 모델이 정답이 아닌 자동으로 구축된 학습데이터 만을 사용했음에도 기존의 규칙기반의 방법 보다 F-1 measure 2~3% 정도의 성능향상을 보였다. Open information extraction is a difficult technique for extracting triples, which are structured information from natural language sentences. Because the open information extraction task has the feature of extracting complex relation information from input sentences, traditionary open information extraction embraces a complicated method using parts-of-speech pattern information, dependency parsing information, and semantic role labeling information. In this paper, we propose a method to apply the pre-trained BERT model to the Korean open information extraction as a sequence labeling problem. The proposed model shows the F-1 measure 2% - 3% better than the rule-based method even though it uses only automatically constructed noisy training data.

      • KCI등재

        과학기술 핵심개체 인식기술 통합에 관한 연구

        최윤수,정창후,조현양 한국정보관리학회 2011 정보관리학회지 Vol.28 No.1

        Large-scaled information extraction plays an important role in advanced information retrieval as well as question answering and summarization. Information extraction can be defined as a process of converting unstructured documents into formalized, tabular information, which consists of named-entity recognition, terminology extraction, coreference resolution and relation extraction. Since all the elementary technologies have been studied independently so far, it is not trivial to integrate all the necessary processes of information extraction due to the diversity of their input/output formation approaches and operating environments. As a result, it is difficult to handle scientific documents to extract both named-entities and technical terms at once. In order to extract these entities automatically from scientific documents at once, we developed a framework for scientific core entity extraction which embraces all the pivotal language processors, named-entity recognizer and terminology extractor. 대용량 문서에서 정보를 추출하는 작업은 정보검색 분야뿐 아니라 질의응답과 요약 분야에서 매우 유용하다. 정보추출은 비정형 데이터로부터 정형화된 정보를 자동으로 추출하는 작업으로서 개체명 인식, 전문용어 인식, 대용어 참조해소, 관계 추출 작업 등으로 구성된다. 이들 각각의 기술들은 지금까지 독립적으로 연구되어왔기 때문에, 구조적으로 상이한 입출력 방식을 가지며, 하부모듈인 언어처리 엔진들은 특성에 따라 개발 환경이 매우 다양하여 통합 활용이 어렵다. 과학기술문헌의 경우 개체명과 전문용어가 혼재되어 있는 형태로 구성된 문서가 많으므로, 기존의 연구결과를 이용하여 접근한다면 결과물 통합과정의 불편함과 처리속도에 많은 제약이 따른다. 본 연구에서는 과학기술문헌을 분석하여 개체명과 전문용어를 통합 추출할 수 있는 기반 프레임워크를 개발한다. 이를 위하여, 문장자동분리, 품사태깅, 기저구인식 등과 같은 기반 언어 분석 모듈은 물론 이를 활용한 개체명 인식기, 전문용어 인식기를 개발하고 이들을 하나의 플랫폼으로 통합한 과학기술 핵심개체 인식 체계를 제안한다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼