http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
정보기술의 경제적 효과 : 정보화수준과 생산성의 실증적 관계
조세형,정용균 한국정보기술응용학회 2001 정보기술응용연구 Vol.3 No.2
This Study intends to Investigate the economic impact of information technology investment. Six countries in OECD are selected and analyzed to understand the empirical relationship between informatization level and productivity Correlation test and regression analysis are executed, using macro data concerning informatization index, total factor productivity and real output per worker hour The impact of informatization level on productivity is characterized by the time lag effect which is used to explain the productivity paradox in precedent studies. Empirical analysis shows that the higher informatization level and information intensity, the lower time lag effect. The result indicates that IT investment has characteristic as sunk cost and the economic impact is appeared after a certain period of time.
자율이동체의 주행 시험을 위한 선분과 원호로 이루어진경로 자동 생성 방법
조세형 한국전기전자학회 2023 전기전자학회논문지 Vol.27 No.1
Path driving tests are necessary for the development of self-driving cars or robots. These tests are beingconducted in simulation as well as real environments. In particular, for development using reinforcement learningand deep learning, development through simulators is also being carried out when data of various environmentsare needed. To this end, it is necessary to utilize not only manually designed paths but also various randomly andautomatically designed paths. This test site design can be used for actual construction and manufacturing. In thispaper, we introduce a method for randomly generating a driving test path consisting of a combination of arcs andsegments. This consists of a method of determining whether there is a collision by obtaining the distance betweenan arc and a line segment, and an algorithm that deletes part of the path and recreates an appropriate path if itis impossible to continue the path. 자율주행 자동차 또는 자율주행 로봇의 개발을 위해서는 경로 주행 시험이 필요하다. 이러한 시험은 실제 환경뿐만 아니라 시뮬레이션 환경에서도 수행되고 있다. 특히 강화학습과 딥러닝을 이용한 개발을 위해서 다양한 환경의 데이터가 필요한 경우에 시뮬레이터를 통한 개발도 이루어지고 있다. 이를 위해서는 수작업으로 설계된 경로뿐만 아니라 무작위로 자동으로 설계된 다양한 경로의활용이 필요하다. 이러한 시험장 설계는 실제 건설, 제작에도 활용할 수 있다. 본 논문에서는 원호와 선분의 조합으로 이루어진 주행시험 경로를 무작위로 생성하는 방법을 소개한다. 이는 원호와 선분의 거리를 구하여 충돌 여부를 판별하는 방법과 경로를 계속해서이어 나가는 것이 불가능할 경우 경로 일부를 삭제하고 적절한 경로를 다시 만들어 나가는 알고리듬으로 이루어진다.
Enhancement of a language model using two separate corpora of distinct characteristics
조세형,정태선,Cho, Sehyeong,Chung, Tae-Sun Korean Institute of Intelligent Systems 2004 한국지능시스템학회논문지 Vol.14 No.3
언어 모델은 음성 인식이나 필기체 문자 인식 등에서 다음 단어를 예측함으로써 인식률을 높이게 된다. 그러나 언어 모델은 그 도메인에 따라 모두 다르며 충분한 분량의 말뭉치를 수집하는 것이 거의 불가능하다. 본 논문에서는 N그램 방식의 언어모델을 구축함에 있어서 크기가 제한적인 말뭉치의 한계를 극복하기 위하여 두개의 말뭉치, 즉 소규모의 구어체 말뭉치와 대규모의 문어체 말뭉치의 통계를 이용하는 방법을 제시한다. 이 이론을 검증하기 위하여 수십만 단어 규모의 방송용 말뭉치에 수백만 이상의 신문 말뭉치를 결합하여 방송 스크립트에 대한 퍼플렉시티를 30% 향상시킨 결과를 획득하였다. Language models are essential in predicting the next word in a spoken sentence, thereby enhancing the speech recognition accuracy, among other things. However, spoken language domains are too numerous, and therefore developers suffer from the lack of corpora with sufficient sizes. This paper proposes a method of combining two n-gram language models, one constructed from a very small corpus of the right domain of interest, the other constructed from a large but less adequate corpus, resulting in a significantly enhanced language model. This method is based on the observation that a small corpus from the right domain has high quality n-grams but has serious sparseness problem, while a large corpus from a different domain has more n-gram statistics but incorrectly biased. With our approach, two n-gram statistics are combined by extending the idea of Katz's backoff and therefore is called a dual-source backoff. We ran experiments with 3-gram language models constructed from newspaper corpora of several million to tens of million words together with models from smaller broadcast news corpora. The target domain was broadcast news. We obtained significant improvement (30%) by incorporating a small corpus around one thirtieth size of the newspaper corpus.