RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 학위유형
        • 주제분류
          펼치기
        • 수여기관
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 지도교수
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • Exploring the methods of transforming unstructured data into structured data and their impact on a churn prediction model

        정훈 Graduate School, Yonsei University 2020 국내박사

        RANK : 232407

        While the interest in Big Data, artificial intelligence, and deep learning has recently increased significantly, many companies still rely on traditional data mining techniques based on structured data when developing prediction models. This research focused on a model for predicting the churn of corporate loan customers and a method for utilizing unstructured data. With various structured data, such as the company size, loan balance, number of employees, savings accounts, and amount of loans from other financial institutions, the voice of customer (VOC), which is text data containing customer requirements, contact history, and counseling details was analyzed in this study. The data were related to 10,229 corporate customers who obtained a loan from one of the largest banks in South Korea. “Churn” is defined as the case where a customer pays off a loan and obtains a new loan from another competing bank in the same month. To analyze unstructured data, the term frequency–inverse document frequency (TF-IDF) analysis, semantic network analysis, sentiment analysis, and a convolutional neural network (CNN) were implemented. First, I extracted the keywords related to the churn of customers using the TF-IDF and generated an independent variable indicating whether at least one of the keywords occurred in the VOC text of each customer. Subsequently, a logistic model was built using this variable and other structured data, and the model outperformed the benchmark model developed using only structured data. Additionally, a predictive model based on semantic network analysis was developed. For this, I extracted each keyword using four centrality formulas (degree centrality, closeness centrality, betweenness centrality, and eigenvector centrality) and generated a variable indicating whether at least one of the keywords appeared in the VOC text of each customer. Then, logistic models were developed using the variables for each centrality. The results showed that the predictive model using the eigenvector centrality outperformed not only the benchmark model but also the other models based on the degree centrality, closeness centrality, and betweenness centrality. However, sentiment analysis did not produce significant results, because the business documents had little emotional expression. Lastly, a predictive score based on a CNN model was developed for VOC data and applied to the logistic regression model. The predicted performance of all models was evaluated according to the area under the receiver operating characteristic curve (AUC) and Cohen’s kappa. A performance comparison of the models revealed that the predictive model using the CNN provided the best performance with regard to predictive power, followed by the model using the TF-IDF, and then the model using semantic network analysis. Through various analyses and experiments, the techniques for converting text data into binary, categorical, and numerical variables and using the scores of other models to replace unstructured data with structured data were systematically summarized. Additionally, a systematic selection model for optimal text mining techniques was proposed, suggesting which analytical technique is appropriate for analyzing text data depending on the context. If it is important to understand the meaning and intent of the text, semantic network analysis or sentiment analysis is necessary. In this case, if there are numerous emotional expressions in the text, sentiment analysis is recommended; otherwise, semantic network analysis should be considered. In contrast, if identifying the meaning of the text is not important, data analysts can employ a frequency-based analysis of words such as TF-IDF or deep learning models such as a CNN. In this case, if the document is large and contains varied styles, a CNN is recommended; otherwise, the TF-IDF should be considered. Traditional prediction models for customer churn are mostly aimed at analyzing individual customers and are based almost entirely on structured data. However, this study targets corporate customers, who have not been thoroughly analyzed in the field of customer-behavior forecasting. Moreover, to develop the improved predictive models, not only structured data but also unstructured data, such as VOC data, was analyzed. This study provides evidence that the results of previous studies, indicating that individual customers leave when their loyalty and switching cost are low, are also applicable to corporate customers and suggests that VOC data indicating customers’ needs are very effective for predicting their behavior. In particular, a character-level CNN and a word-level CNN were developed separately, and the character-level CNN exhibited better performance, according to an analysis for the Korean language. This finding is consistent with the results of previous studies for English and other languages and is meaningful because this is apparently the first study to reveal that a character-level CNN outperformed a word-level CNN for forecasting the customer churn with Korean text data. Furthermore, this study makes a significant practical contribution in that it demonstrates a methodology for transforming unstructured data into structured data and a model for selection of appropriate analytical technique depending on the research objective and the features of the documents. 최근 빅데이터와 인공 지능에 대한 사회적 관심이 크게 증가하였으나, 기업에서 고객의 행동을 예측하는 모델 개발은 여전히 정형 데이터 기반의 전통적 데이터 마이닝 기법에 주로 의존하고 있다. 본 연구는 금융사에서 대출을 받은 고객의 이탈을 예측하는 모델에 관한 연구로서, 대출 잔액, 거래 기간, 담보 유형, 타 금융사 대출금액 등의 다양한 정형 데이터와, 고객의 요구 사항, 상담 내역 등을 기록한 텍스트인 Voice of Customer (VOC) 데이터를 분석에 사용하였다. 분석 대상은 국내 주요 은행에서 신용 대출 또는 담보 대출을 받은 기업 고객 10,229개사이며, 해당 은행의 대출을 완납하고 같은 달에 타 금융사의 대출을 신규로 취급한 경우를 이탈로 정의하였다. 비정형 데이터를 분석하기 위하여, TF-IDF 분석 (Term Frequency-Inverse Term Frequency Analysis), 키워드 네트워크 분석(Semantic Network Analysis), 감성 분석 (Sentiment Analysis), 그리고 딥러닝 (Deep learning) 기법 중 하나인 Convolutional Neural Network (CNN) 분석을 시행하였고, 이 결과를 정형 데이터들과 함께 logistic 회귀 분석에 적용하여 고객의 이탈을 예측하는 모델을 구축하였다. 먼저 TF-IDF로 이탈과 관련이 있는 키워드를 추출한 뒤, 각 고객의 VOC에 해당 키워드들이 있는지 여부를 별도의 변수로 생성하고, 이 변수와 다른 정형 데이터들을 기준으로 logistic 회귀분석 기반의 이탈 예측 모델을 구현하였다. 이 모델은 비정형 데이터인 VOC를 활용하지 않은 모델 보다 예측력이 뛰어났다. 키워드 네트워크 분석은 4가지 중심성(degree centrality, closeness centrality, betweenness centrality, eigenvector centrality)을 기준으로 각 키워드를 추출한 뒤 고객 별 VOC에 해당 키워드들이 있는지 여부를 기준으로 변수를 생성하고 예측 모델을 개발하였다. 그 결과, 정형 데이터로만 구축된 모델 보다 역시 예측력이 뛰어났으며, 4가지 중심성 중에서 eigenvecter 중심성을 적용한 모델이 가장 예측력이 좋았다. 반면 감성 분석은 감정이나 태도에 대한 표현이 비교적 자제된 금융권의 문서 특성 상, 통계적으로 유의한 결과가 나타나지 않았다. 끝으로 VOC 데이터에 대해 CNN 기법으로 예측 스코어를 개발하고 이것을 logistic 회귀분석에 다시 적용하여 별도의 모델을 개발하였다. 모든 모델의 예측력은 AUC (Area Under receiver operating characteristic Curve)와 Cohen's kappa를 기준으로 측정하였다. 각 모델의 예측 성과를 비교한 결과, CNN을 활용한 모델의 예측력이 가장 좋았으며, 다음 TF-IDF, 그리고 키워드 네트워크 분석이 뒤를 이었다. 본 연구에서는 다양한 분석 기법과 실험을 통해, 비정형 데이터인 텍스트 자료를 이산형, 범주형, 연속형 변수로 변환하거나, 별도의 예측 스코어를 개발하여 정형 데이터로 치환하는 등, 데이터 처리 관점에서 비정형 데이터를 다루는 기법을 체계적으로 제시하였다. 뿐만 아니라 텍스트 데이터를 분석할 때 연구 목적과 주어진 텍스트의 특성과 따라 어떠한 분석 기법이 적합한지 제안하는 선택 모형도 도출하였다. 이 선택 모형에서는 연구 목적상 텍스트에 내재되어 있는 의미나 의도의 파악이 중요한 경우 키워드 네트워크 분석과 감성 분석을 제안하고 있는데, 특히 문장 내에 감성, 감정에 관한 표현이 풍부한 경우는 감성 분석을, 그렇지 않은 경우는 키워드 네트워크 분석이 적합함을 제시하고 있다. 반면 텍스트의 의미 파악이 중요하지 않은 경우는 TF-IDF와 같은 단어의 출현 빈도 기반 분석이나 CNN 같은 딥러닝 기법을 고려할 수 있는데, 이 때 문서의 양이 방대하고 문장의 작성 스타일이 다양한 경우는 딥러닝 기법을, 그렇지 않은 경우는 TF-IDF가 적합함을 제시하고 있다. 기존의 고객 이탈 예측 모델은 대부분 정형 데이터 기반의 개인 고객을 분석 대상으로 하고 있다. 반면 본 연구는 고객 행동 예측 분야에서 자주 다루어지지 않았던 기업 고객을 대상으로 하고 있으며, 비정형 데이터인 VOC 자료를 예측 모델 개발에 활용한 것이 특징이다. 본 연구를 통해 충성도와 전환 비용 (switching cost)이 낮은 고객이 더 잘 이탈한다는 기존의 연구 결과가 기업 고객에도 적용 될 수 있음을 확인하였으며, 특히 고객의 생생한 니즈(needs)를 온전히 담고 있는 VOC 데이터가 그들의 행동을 예측하는데 매우 유의미한 변수임을 입증하였다. 또한 한국어 텍스트 기반의 CNN 모델 개발에 있어서 character-level CNN의 예측력이 word-level CNN 보다 우수함을 밝혔으며, 텍스트 형태의 비정형 데이터를 정형 데이터로 치환하여 예측 모델 개발에 활용하는 방법론을 체계화하고, 텍스트 마이닝을 할 때 연구 목적과 텍스트의 특성에 따라 적합한 분석 기법을 제안하는 선택 모형을 도출했다는 점 등도 본 연구의 학문적, 실용적 공헌이라 할 수 있다.

      • A Framework for Measuring Cohesion in Korean Text using Transformer-based Morpheme Analysis

        김동현 인하대학교 대학원 2024 국내석사

        RANK : 232395

        한국어와 영어 텍스트 분석의 주요 차이점은 형태소 분석에 있다. 현재의 한국어 텍스트 분석 접근 방식은 형태소의 복잡성으로 인해 부정확한 결과를 자주 생성한다. 이런 결과는 기존 형태소 분석기의 어절 토큰에 의존하는 것에서 비롯되며, 한국어 고유의 특성을 포착하기 어렵기 때문에 텍스트의 짜임새를 평가하는 결속성 측정에서 더욱 두드러진다. 결과적으로, 우리는 한국어 문장의 고유한 특성을 더 잘 파악하기 위해 형태소 토큰을 사용하는 트랜스포머 기반 형태소 분석기와 이를 활용한 결속성 측정 도구를 제안한다. 실험 과정에서 각 형태소 분석기의 결과를 비교하여 성능을 측정하였으며, 결속성 측정의 경우 한국어 전문가의 분석 결과와 비교하여 성능을 측정하였다. 실험 결과 본 논문에서 제안한 형태소 분석기가 기존 형태소 분석기에 비해 성능이 높음을 증명하고 결속성 측정 도구의 결과는 전문가의 측정 결과와 비슷한 결속성 수치를 도출하였다. 또한 형태소 분석과 결속성 측정을 지원하는 KorCat 프레임워크를 웹 서비스로 제공하고 있다. Natural language processing (NLP), Korean text analysis, morpheme analysis, Transformer The primary difference between Korean and English text analysis lies in morpheme analysis. The current approach to Korean text analysis often generates inaccurate results due to the complexity of morphemes. This issue is primarily rooted in the dependency on eojeol tokens by existing morpheme analyzers, making it challenging to capture the unique characteristics of the Korean language, particularly in evaluating the cohesion of text. Consequently, we propose a Transformer-based morpheme analyzer using morpheme tokens to better understand the distinct features of Korean sentences and an associated cohesion measurement tool. In our experiments, we measured the performance of each morpheme analyzer and compared the cohesion measurement results with those of Korean language experts. The experimental results confirm that the morpheme analyzer we propose in this paper outperforms existing morpheme analyzers, and the cohesion measurement tool produces cohesion scores like those of experts. Additionally, we offer the KorCat framework as a web service supporting morpheme analysis and cohesion analysis. Keywords: Natural language processing (NLP), Korean text analysis, morpheme analysis, Transformer

      • 외국인 근로자의 공공언어 이해를 위한 텍스트 분석 : 『외국인근로자지원센터』 자료를 중심으로

        문혜영 연세대학교 대학원 2023 국내석사

        RANK : 232393

        With the launch of the employment permit system to solve the manpower shortage in the 3D industry, the proportion of foreign workers tended to increase year by year, and the Ministry of Employment and Labor established a "Foreign Workers Support Center" nationwide to protect the rights and interests of foreign workers and guide them. Text produced by the Foreign Workers Support Center』 can be seen as public language text in that it targets foreign workers and aims for their public interests, and understanding of the public language of foreign workers is an important issue in that it determines whether they benefit from policies and services. Meanwhile, according to previous studies, the limitations continuously raised in public languages are that the use of difficult vocabulary such as Chinese characters and jargon degrades public language understanding. In addition, this study maintains the position that there are limitations in the direction of domestic public language research. The main subject of public language research was native Korean speakers, who had limitations in that they did not take into account the increasing number of foreigners and whose purpose was mainly to provide "easy public language." To overcome these limitations, this study aims to identify the characteristics of the text and present public language teaching methods for foreign workers by conducting public language text analysis centered on foreign workers who are considered to be of high importance. Accordingly, in this study, a corpus was established and analyzed based on the text of the notice for three years on the website of the "Foreign Workers Support Center" of 10 institutions nationwide. As a result of the study, the access path to the notice was diverse in text analysis, and the importance of the notice text was revealed due to the high exposure. In addition, the content of the text differed depending on the form of the text title, and within the text body, it was confirmed that the genre, subject, and language form of the public language interact with each other and appear in the text. In vocabulary analysis, a corpus was established to analyze high-frequency vocabulary, spherical vocabulary, and keyword vocabulary. In the high-frequency vocabulary analysis, it was confirmed that most of the nouns were two-syllable Chinese characters and did not fit the beginner level of difficulty, showing a similar pattern to the limitations of public languages pointed out in previous studies. In addition, various vocabulary topics were classified according to the subject of the text. Finally, public languages for foreign workers were often used as one word by combining several words, and in fact, a number of "old-form vocabulary" combined with 2-3 vocabulary words were captured. Finally, in order to more accurately grasp the characteristics of high-frequency vocabulary, the list of "Korean Education Vocabulary Contents" prepared by "Development of Korean Language Education Vocabulary Contents" was compared. As a result of the study, most of the high-frequency vocabulary was already included in the Korean language education vocabulary, but in terms of difficulty, more than half of the middle and advanced vocabulary was found to be difficult for foreign workers. 3D 업종의 인력난을 해소하기 위한 고용허가제의 출범과 함께 외국인 근로자의 비율은 해마다 증가하는 경향을 보였으며, 이에 고용노동부에서는 전국적으로 ‘『외국인근로자지원센터』’를 설치하여 외국인 근로자의 권익을 보호하고 여러 정책과 서비스를 안내하여 외국인 근로자의 생활과 근로에 도움을 제공할 수 있도록 하였다. 『외국인근로자지원센터』에서 생산하는 텍스트는 외국인 근로자를 대상으로 하며 이들의 공적 이익을 목적으로 한다는 점에서 공공언어 텍스트라고 볼 수 있는데, 텍스트의 이해 여부가 곧 외국인 근로자의 정책·서비스 수혜 여부를 결정한다는 점에서 외국인 근로자의 공공언어 이해는 중요하게 다뤄져야 하는 문제이다. 한편 선행연구에 따르면 공공언어에서 지속적으로 제기된 한계는 한자어와 전문용어 등 어려운 어휘의 사용이 공공언어 이해를 저하시키는 것으로, 본 연구에서는 외국인 근로자를 대상으로 하는 텍스트에서도 동일한 문제가 존재한다고 보았다. 또한 본 연구에서는 국내 공공언어 연구의 방향성에도 한계가 존재한다는 입장을 견지한다. 공공언어 연구의 주 대상은 한국어 모어 화자로, 점차 증가하는 외국인 계층을 고려하지 않았다는 대상적 한계와 주로 ‘쉬운 공공언어’를 제공’하고자 하는 생산의 관점에서만 진행되었다는 목적의 한계가 존재하였다. 이러한 한계를 극복하기 위해 본 연구에서는 공공언어 이해의 중요성이 높을 것으로 사료되는 외국인 근로자를 중심으로 한 공공언어 텍스트 분석을 진행함으로써, 텍스트의 특성을 파악하고 이를 바탕으로 외국인 근로자를 대상으로 하는 공공언어 교수 방안을 제시하고자 한다. 이에 본 연구에서는 전국 10개 기관 『외국인근로자지원센터』 홈페이지의 3년간 공지사항 텍스트와 이를 바탕으로 말뭉치를 구축하여 분석을 진행하였다. 연구 결과 텍스트 분석에서는 공지사항으로의 접근경로가 다양하였으며, 노출도가 높아 공지사항 텍스트의 중요성이 드러났다. 또한 텍스트 제목의 형태에 따라 텍스트의 내용이 상이하였으며 텍스트 본문 내에서는 공공언어의 장르와 주제, 언어 형식이 서로 상호작용하며 텍스트에 나타나는 것으로 확인되었다. 어휘 분석에서는 말뭉치를 구축하여 고빈도 어휘, 구 형태 어휘, 키워드 어휘 분석을 진행하였다. 고빈도 어휘 분석에서는 명사의 경우 대부분이 2음절 한자어이며 초급 난이도에 맞지 않는 등, 선행연구에서 지적된 공공언어의 한계점과 비슷한 양상을 보였음이 확인되었다. 또한 텍스트의 주제에 따라 다양한 어휘 주제가 분류되었다. 마지막으로 외국인 근로자 대상 공공언어는 여러 단어가 조합되어 한 단어처럼 쓰이는 경우가 많았는데, 실제로 2-3개 어휘가 결합한 ‘구 형태 어휘’가 다수 포착되었다. 마지막으로 고빈도 어휘의 특성을 보다 정확하게 파악하기 위해 『한국어 교육 어휘 내용 개발』에서 마련한 「한국어 교육 어휘 내용」의 목록을 비교하였다. 연구 결과 고빈도 어휘의 대부분은 이미 한국어 교육용 어휘에 수록되어 있었으나, 난이도 측면에서는 중·고급 어휘가 반 이상으로 외국인 근로자가 어려움을 느끼는 어휘가 존재함을 확인하였다.

      • 어휘 단순화가 한국어 학습자의 읽기 텍스트 이해도에 미치는 영향 : 신문 기사 텍스트를 중심으로

        류지현 연세대학교 대학원 2021 국내석사

        RANK : 232392

        This study aims to examine the impact of Lexical simplification on the level of reading comprehension in learners of the Korean language. Lexical simplification refers to the process in which, when the vocabulary comprising texts are divided into levels based on their difficulty, the learners replace advanced-level vocabulary with low-level vocabulary. In this study, vocabulary in newspaper article texts was simplified by defining five methods of Lexical simplification, including “deletion,” “phrase replacement,” “hypernym-hyponym replacement,” “synonym replacement,” and “pronoun replacement.” To measure learner’s reading comprehension, the concepts of lexical simplification and text difficulty assessment first needed to be defined. The second chapter surveys the historiography of lexical simplification theories. First, the chapter reviews the theoretical concept of “extensive reading,” the academic aim and objective of this study. Then simplification and elaboration, the two major concepts in text modification, are defined and compared. Lastly, the chapter examines miscue analysis, a method used in examining the impact of lexical simplification, and reading fluency theory, a broader concept that includes miscue analysis. The third chapter identifies the target and tools of analysis. The participants of this study consisted of 20 mid-level Korean language learners who were divided into two groups. In terms of analytical tools, miscue analysis suggested by Y. Goodman (2005) was used to set five categories, including “Syntactic Acceptability,” “Semantic Acceptability,” “Meaning change,” “Correction,” and “Inflection-Phoneme similarity.” Two more categories were added, Patterns for Constructing Meaning and Patterns of Grammatical Relations. to evaluate the overall view of the learner’s reading ability based on the aforementioned five categories. For the texts used in the study, an original text and a modified text were presented. The original text was a newspaper article written for readers with Korean as their mother tongue. The level of each noun, adjective, adverb, and determiner in the original text was determined using Level System for Korean Vocabulary Learning developed by Joongsub Kim (2017) and Namho Cho (2003). Then the vocabulary in high and very high levels was replaced by beginner and intermediate level vocabulary to create a modified text. Miscue analysis record sheet and re-telling evaluation sheet were used to measure the textual understanding. The fourth chapter presents the result of miscue analysis of control and experimental groups and miscue analysis for each Lexical difficulty level. The result of miscue analysis compared miscue tendency with original texts and miscue tendency in modified texts and measures the miscue frequency and self-correction success rate per every 100 word segments. The result showed almost no difference in terms of grammar but a significant difference in the semantic construction. While the miscue frequency per 100-word segments was lower in the group with the modified text than with the original text, the self-correction success rate was higher in the group with the modified text. Retelling evaluation examined the number of learners’ spoken word segments and the comprehension level. Here, too, the experimental group scored higher than the control group. In summary, Lexical simplification lowered the frequency of miscued reading and helped learners comprehend the meaning more easily. In conclusion, the fifth chapter summarizes the above discussion and presents the view of this study on the impact of Lexical simplification. In the field of Korean language learning, more varying and diverse reading texts should be offered in and out of classes. While texts intended for native speakers can be practical, the advanced level vocabulary is not suitable for language learners. As the present study has demonstrated, lowering the difficulty level of vocabulary through Lexical simplification can sufficiently improve the learners’ understanding. 본 연구는 어휘 단순화가 한국어 학습자의 읽기 텍스트 이해도에 미치는 영향을 밝히는 데 목적이 있다. 어휘 단순화란 텍스트를 구성하고 있는 어휘를 난이도에 따라 등급화한 뒤 높은 등급의 어휘를 낮은 등급의 어휘로 대체하는 과정을 말한다. 본 연구에서는 어휘 단순화의 방법으로 ‘삭제’, ‘구 대체’, ‘상위어-하위어 대체’, ‘유의어 대체’. ‘대명사 대체’의 다섯 가지를 제안하고 이에 맞춰 신문 기사 텍스트에 대하여 어휘 단순화를 실시하였다. 학습자의 읽기 텍스트 이해도를 측정하기 위해서는 어휘 단순화와 텍스트 난이도 측정에 관한 개념을 정립할 필요가 있었다. 이에 2장에서는 어휘 단순화와 관련된 이론적 배경을 살펴보았다. 먼저, 본 연구의 학문적 지향점이자 목표라고 할 수 있는 확장형 읽기(Extensive reading)에 대한 이론적 개념을 확립하였다. 그리고 텍스트 수정의 두 가지 대표적 방법인 텍스트 단순화와 상세화의 개념을 밝히고 두 개념을 비교하였다. 마지막으로, 어휘 단순화의 효과를 살펴보기 위해 주된 연구 방법으로 사용한 오독 분석(Miscue analysis)과 오독 분석을 포괄하고 있는 이론적 개념인 읽기 유창성 이론에 대해 살펴보았다. 3장에서는 연구 대상과 연구 도구를 특정하였다. 연구 참여자는 한국어 중급 학습자 20명으로 설정하여 두 집단으로 나누었다. 연구 도구로는 Y.Goodman(2005)에서 제시한 오독 분석 방법을 참고하여 ‘의미적 용인가능성’, ‘통사적 용인가능성’, ‘의미 변화’, ‘자기 수정’, ‘어형-음소 유사성’ 5가지 항목을 설정하였다. 그리고 이 다섯 가지 항목을 토대로 학습자의 전반적인 읽기 수행 양상을 살펴보기 위해 ‘의미 구성’ 패턴과 ‘문법적 관련성’ 패턴을 추가로 설정하였다. 실험 텍스트는 원문과 수정문을 준비하였는데 원문은 한국어 모어 화자를 예상 독자로 설정하여 쓴 신문 기사 텍스트이다. 이 원문의 명사, 동사, 형용사, 부사, 관형사를 김중섭(2017)과 조남호(2003)의 한국어 교육용 어휘 등급 체계에 맞춰 등급화하였다. 그 후 고급, 최상급에 해당하는 어휘를 초급, 중급에 해당하는 어휘로 대체하여 수정문 텍스트를 마련하였다. 읽기 이해도 측정 도구로는 오독 분석 기록표와 다시 말하기 평가지를 사용하였다. 4장에서는 어휘 단순화 실시 여부에 대한 오독 분석 결과와 어휘 난이도별 오독 분석 결과를 나누어 제시하였다. 어휘 단순화 실시 여부에 대한 오독 분석 결과는 원문에서의 오독 양상과 수정문에서의 오독 양상을 비교하였으며 텍스트 100어절당 오독 빈도와 자기수정 성공률을 측정하였다. 그 결과, 원문과 수정문의 오독 간에 문법적인 차이는 거의 없는 것으로 나타났으나 의미 구성면에서 현저한 차이가 있는 것으로 나타났다. 또한, 원문에서보다 수정문에서 100어절당 오독 빈도가 낮았던 반면 자기수정 성공률은 수정문에서 더 높았다. 다시 말하기 측정 결과는 학습자 발화의 어절 수와 이해도 점수를 살펴보았는데 다시 말하기 점수 역시 수정문을 읽은 집단이 원문을 읽은 집단보다 대체적으로 더 높은 점수를 받았다. 이를 정리해 보자면, 어휘 단순화는 학습자로 하여금 오독의 빈도를 낮추며 학습자가 텍스트의 의미를 더 수월하게 이해할 수 있도록 영향을 미친다는 것을 알 수 있다. 마지막으로, 5장에서는 앞선 논의를 정리하고 어휘 단순화의 효과에 대한 본 연구의 입장을 제시하였다. 한국어교육 분야에서 학습자를 위한 읽기 텍스트는 교실 안과 밖에서 다양하고 다채롭게 제공되어야 할 것이다. 모어 화자를 위한 텍스트는 실용적이기는 하나 어휘 난이도가 높아서 한국어 학습자에게 적합하지 않다. 이때, 본 연구에서 밝힌 바와 같이 어휘 단순화를 통해 어휘 난이도를 낮춘다면 학습자의 이해도를 충분히 향상시킬 수 있을 것이다.

      • (The) empirical Research on users E-loyalty of Mobile-Reading APP

        Zhang Jiahong 호서대학교 대학원 2021 국내박사

        RANK : 232383

        With the rapid development of mobile Internet in recent years, Mobile reading has become a major form of nationwide reading in china, and the mobile reading industry has been developing rapidly and in the ascendant, Mobile reading APP is the main way for user to read books by mobile terminal. The mobile reading APP market is in serious homogenization competition, most of APPs implement free business model to attract users, which results in relatively low switching costs. All of these reasons may lead users behavior of frequently changing mobile reading APP, then customer Churn is a serious problem which Mobile reading APP enterprises are facing and need to be solved urgently. E-loyalty is the major factor of lock in users in E-commerce, which has been repeatedly verified by numerous scholars. Hence, this paper conduct the research on the influencing factors of E-loyalty about mobile reading APP users, and the research has important practical significance. Firstly, in order to more precisely understand the actual usage situation of mobile reading apps’, and to provide strong support for the research of E-loyalty, this paper analyze online user comments of mobile reading apps through the method of Text analysis. Octopods data acquisition system (crawler software) is selected as the data collection software to capture online user comments of Mobile reading APP from 360 APP Store. Text analysis (word frequency analysis, sentiment analysis and co-word analysis) is selected to analyze online user comments data, and then obtain users’ ten focuses on mobile reading APP as the results of Text analysis. The research variables prepared for the following research are extracted from user focus analysis on mobile reading APP. Secondly, Integrating SOR Model and D&M IS Success Model, and introducing flow theory, this paper establishes loyalty research model on the basis of user's ten focuses. Flow experience, satisfaction, brand image, switching costs are regarded as predictor of loyalty, attractiveness of alternatives (AA) is selected as moderator. Flow experience is the optimal experience of human life and makes life meaningful, mobile reading itself is an activity prone to flow experience that is also an important criterion to evaluate users’ reading effect. Therefore, based on SOR Model and Flow experience, flow experience is used as a mediator in the relationship of between APP Books resources quality, APP Users interface quality, APP Operability quality and E-loyalty. This paper performs bootstrapping (by Amos) at a 95% confidence interval with 5,000 bootstrap samples and Sobel test to investigate the indirect effects of flow experience. Results show that flow experience has significant indirect effects in the relationship of between APP Books resources quality, APP Users interface quality, APP Operability quality and E-loyalty. Then the specific indirect effect in the research model is examined in AMOS 24 with Bootstrapping method. Results show that flow experience, comparing to satisfaction, plays an equally important role as a mediating variable in the field of mobile reading. In order to comprehensively and deeply study the influencing factors of E-loyalty, referring to the research results in the field of e-commerce, other predictors, attractiveness of alternatives, switching costs and brand image, are introduced in the field of mobile reading. Analysis results show that Mobile reading APP brand Image and switching costs positively affect user E-loyalty. Using Ping (1995) method in Amos to test the moderating effects of Attractiveness of alternative, results show that Attractiveness of alternative has reverse moderating effects: The stronger of Attractiveness of alternatives the greater is the likelihood that Brand image(flow experience, satisfaction) will have smaller influence on E-loyalty. Regarding Revenue model (‘Free+ advertisement’ and ‘Free+ Charge’) as category moderators, uses Amos multi-group comparisons to verify the moderating effects. The path coefficient, covariance and factor loading of different groups are compared using AMOS 24 to verify whether there are significant differences between them. Results show that Revenue model (‘Free+ advertisement’ and ‘Free+ Charge’) had no significant moderating effects, which reflect that users are used to these two Revenue model and accept them.

      • Research Trends in Childhood English Education in Korea: Focus on Academic Journal Abstracts from 2011 to 2020

        주윤하 전남대학교 2022 국내박사

        RANK : 232379

        This study analyzes general research trends and genres of academic journal abstracts (AJAs) in children's English education (CEE) published in Korea over the past 10 years. In Korea, English education for children has undergone significant changes in the classroom and in academia, and these changes have attracted much interest by researchers (Lee, 2020). Therefore, it is essential to review and consider the studies conducted so far before focusing on current concerns and future directions for CEE. In addition, this research focuses on the academic discourse characteristics of the AJAs. Since the purpose of the abstract is to provide the reader with accurate and concise information on research results and new information (Ko, 2010), taking a closer look at AJAs in CEE will be worthwhile. This study analyzed English abstracts to determine the academic characteristics of CEE in Korea. To this end, papers related to children’s English education published from 2011 to 2020 were collected and constructed as a corpus. The final selection yielded 1,479 papers based on the research eligibility criteria. The abstracts were analyzed in detail to identify research trends by dividing them into quantitative changes, research methods, topics, and the research participants. For the credibility of the study, two researchers who majored in English education reviewed the classification for accuracy, and the validity of the classification was secured after collecting opinions. Based on the classification, text-mining analysis was performed using the R program to examine the trends of keywords appearing in the abstracts of the journals by year, method, and topic. Next, to examine the genre characteristics of CEE journals, Swales(1990)’ IMRD (Introduction, Method, Results, and Discussion) framework was used to analyze rhetorical structures, and TAACO (Tool for the Automatic Analysis of Cohesion) - using givenness, sentence overlap, and connectives index - was used to analyze cohesion. In Korea, research on CEE has been conducted steadily, and the number of studies tends to increase every 5 years, so the number of studies was the highest in 2015 and 2020. The most used research methods were quantitative methods; however, many mixed-methods studies have also been done, showing interest in qualitative research methods. In addition, the number of studies using other methods such as corpus and textbook analysis has increased rapidly since 2019. From preschoolers to elementary school students, the most commonly studied group has been 6th-grade students, and the least studied have been 1st and 2nd graders. In addition, in-service teachers have accounted for the largest number of adult study participants. As a result of analyzing keywords through text-mining, each characteristic appeared as a word depending on the criteria used to classify the CEE corpus. In the entire corpus, “student,” “study,” “teacher,” “learn,” and “school” were the keywords appearing with high frequency. Because the research object was constructed for the abstracts of articles in academic journals, academic terms also appeared as high-frequency keywords. TF-IDF is a unique word that appears only in certain documents. Interestingly, words such as “survey,” “provide,” “present,” and “aim” did not appear in TF, but did appear in TF-IDF. The N-gram word that appeared the most was “elementary school,” which shows that English education and research are mainly conducted in Korea. A total of 36 move structures appeared in the AJAs in CEE, and the structures that appeared the most were I-M-R-D, I-M-R, I-R-D, and M-R-D, in that order. In particular, 66% of the constructed corpus consisted of I-M-R-D moves. Moreover, it was commonly seen that there were no discussion moves in the abstracts; however, there was a tendency to replace discussion moves with brief academic phrases. When analyzed by research method, I-M-R-D was the most common in the mixed-methods corpus (71.2%) and the least common in the theoretical method corpus (28.2%). I-M-R-D was the most common when analyzed by topic, at 68.7% in teacher factors. This analysis confirmed that the composition of the move is affected by the research method used and what the topic was written on. As a result of analyzing the overlap of nouns/pronouns between the preceding information indicator and adjacent sentences in the study, the same content words repeatedly appear in the abstract. Therefore, it can be said that the abstract of the CEE journals suggests key concepts and leads the discussion based on understanding and knowledge. Although there was no significant difference in the use of connectives by year, it was confirmed that the causal connectives tended to decrease over time. When analyzed by research method and topic corpus, cohesion using pronouns was high in the qualitative method and abstracts related to the teacher factor topic. The cohesion through the use of repeated content lemmas was high in the abstract related to the quantitative method and learner factor topic. In addition, it was confirmed that the use of logical connectives was highly measured in abstracts related to the theoretical method and the instructional factor topic, so it was confirmed that the strategies of using the cohesive index were different for each research method and topic. In this study, the content trends of CEE research conducted over the past 10 years and the characteristics of academic discourse features were analyzed by various aspects. Through this study, the research of CEE in Korea has developed by dealing with various research methods and topics, and that the study of teaching media has developed rapidly by reflecting the flow of changing society. In addition, the keywords of the abstract were analyzed using text mining, but there is a limitation in that this study included only research journals with English abstracts. Finally, the study results were derived by using a lot of data in the field of English education, analyzing the rhetorical structures and cohesion of abstracts using IMRD move and TAACO. The results of this study are expected to provide further support to CEE researchers for the qualitative and quantitative growth of education and future study. 본 연구는 10년 동안 한국에서 출간된 아동 영어교육 학술지의 종합적인 연구 동향 및 초록의 장르 분석을 목적으로 한다. 한국에서 아동 영어교육은 현장과 학계에서 많은 관심 속에 의미 있는 변화를 겪어왔다(이창희, 2020). 이에 본 연구자는 현재의 아동 영어교육에 대한 고민과 앞으로의 방향을 설정하기에 앞서, 지금까지 수행 되어온 연구들을 되짚어 보고 고찰하는 것이 중요하다고 판단하였다. 또한, 연구 분석 대상인 학술지의 초록이 갖는 학술 담화적 특징에 주목하였다. 초록은 독자에게 연구 결과와 새로운 정보에 대한 내용을 정확하고 간결하게 제공하는 목적을 가지고 있기 때문에(고수원, 2010), 한국의 아동 영어교육 연구에 대해 자세히 들여다 보는데 적합하다고 판단하였다. 그리고 영문 초록은 학술지에서 중요한 역할을 하기 때문에, 한국의 아동 영어교육 학자들이 갖는 학술적 특징을 살펴볼 수 있다는 점에서 분석할 가치가 있다고 판단하였다. 이를 위해 2011년부터 2020년까지 출판된 아동 영어교육 관련 논문을 수집해 코퍼스로 구축하였다. 연구 적격성 기준을 통해 1,479개의 논문을 최종 선별하였으며 연구 동향 파악을 위해 양적 변화, 연구 주제, 방법, 연구 참여자 현황으로 나누어 상세히 알아보았다. 이때 분류의 정확성을 위해 영어교육학을 전공한 2인의 연구자가 검토하였고 의견수렴을 거쳐 분류의 타당성을 확보했다. 그리고 분류를 토대로 연도별, 연구 방법별, 연구 주제별로 학술지 초록에 나타난 키워드의 동향 추이를 살펴보기 위해 R을 사용해 텍스트마이닝 분석을 수행했다. 다음으로 아동 영어교육 학술지의 장르 특징을 알아보기 위해, IMRD(Swales, 1990) 무브(move)와 TAACO의 선행정보, 문장 중복 그리고 접속사 지표를 활용해 응집성을 분석했다. 한국에서 아동 영어교육 연구는 꾸준히 수행되어 오고 있었다. 5년마다 연구의 수가 증가하는 경향을 보이며 2015년과 2020년에 연구의 수가 가장 많았다. 가장 많이 사용된 연구 방법은 양적 연구 방법이었으며 혼합 연구 방법도 많이 이루어져 왔다. 이는 연구자들이 질적 연구 방법의 중요성에 입각해 다양한 연구 방법을 통해 연구를 수행한 결과로 볼 수 있다. 이외에도 코퍼스나 교재 분석과 같은 기타 연구 방법을 사용한 연구가 2019년부터 급격히 많아진 것을 확인하였다. 미취학 아동부터 초등학생을 통틀어 연구 참여자들은 6학년 학생들이 가장 많았으며 1, 2학년이 가장 적었다. 그리고 성인 연구 참여자로는 현직 교사가 가장 많은 것으로 나타났다. 연구의 키워드를 텍스트마이닝을 통해 분석한 결과, 아동 영어교육 코퍼스를 어떤 기준으로 분류해서 분석하느냐에 따라 각각의 특징이 단어로 나타났다. 전체 코퍼스에서 “student”, “study”, “teacher”, “learn”, “school”이 고빈도 키워드 였다. 그리고 연구 대상인 코퍼스가 학술지 초록을 대상으로 구축했기 때문에 학술적 용어들도 고빈도 키워드로 많이 등장했다. TF-IDF는 특정 문서에서만 등장하는 고유한 단어인데 흥미로운 것은 ‘survey, provide, present, aim’과 같은 단어들이 TF에는 등장하지 않았지만 TF-IDF에는 등장했다. 다음으로 가장 많이 등장한 N-gram words는 ‘elementary school’이었는데 이와 같은 단어는 한국에서 영어교육과 연구가 주로 이루어지고 있는 장소가 학교라는 것을 보여준다. 그리고 방법별로 분석했을 때, 연구 방법의 특성이 키워드로 나타났는데 혼합연구방법에서는 다른 연구 방법과 중복되는 키워드가 많았고 고유한 키워드는 나타나지 않았다. 아동 영어교육 학술지의 초록에서는 총 36개의 수사 구조가 등장했으며 가장 많이 나타난 수사 구조는 I-M-R-D, I-M-R, I-R-D, M-R-D 순이다. 특히, 구축된 코퍼스의 66%는 I-M-R-D 무브였는데, 실제 논의 무브는 없거나 간략한 학술적인 문구로 대체되는 경향이 있다는 것을 확인하였다. 연구 방법별로 분석했을 때, 혼합 연구 방법(71.2%)에서 I-M-R-D가 가장 많았으며 이론적 연구 방법(28.2%)에서 가장 적었다. 주제별로 분석했을 때, 교사 요인 주제에서 I-M-R-D가 68.7%로 가장 많았다. 그리고 가장 많은 수사 구조로 초록을 작성한 주제는 교수 매체 요인 주제였는데, 총 26개의 수사 구조가 나타났다. 이 분석을 통해 학술지에 게재된 초록은 연구자가 어떤 연구 방법을 사용하고 어떤 주제에 대한 초록을 작성하는 지에 따라 무브의 구성이 다르게 나타난다는 것을 확인할 수 있었다. 다음으로 초록은 개념을 제시하며 새로운 상황에 개념을 적용한 결과를 제시하는 글인데, 연구에서 선행정보 지표와 인접 문장 간의 명사/대명사의 중복을 분석한 결과, 초록에서 같은 어휘들이 지속적으로 반복해서 나타나는 경향을 보였다. 이에 아동 영어교육 학술지의 초록은 핵심 개념을 제시하고 이에 대한 이해와 지식을 바탕으로 논의를 이끈다고 할 수 있다. 그리고 접속사 사용은 연도별로 큰 차이가 나타나지 않았지만, 인과 관계의 접속사는 시간이 지날수록 줄어드는 경향을 확인하였다. 또한, 연구 방법 및 주제별로 분석했을 때, 대명사를 사용한 응집성은 질적 연구 방법과 교사 요인 주제와 관련한 초록에서 높게 측정되었으며 반복되는 내용 어휘 사용을 통한 응집성은 양적 연구 방법과 학습자 요인 주제와 관련한 초록에서 높이 측정되었다. 그리고 이론적 연구 방법과 교수 매체 요인 주제와 관련한 초록은 논리 접속사의 사용이 높이 측정되어 연구 방법별, 주제별로 응집성 지표를 사용하는 전략이 다르다는 것을 확인하였다. 본 연구에서는 최근 10년 동안 수행된 아동 영어교육 연구의 내용적 동향과 학술 담화의 특징을 분석해 다각적인 측면으로 살펴보았다. 본 연구를 통해 한국의 아동 영어교육 연구는 다양한 연구 방법과 주제를 다루며 발전해 왔고 시대의 흐름을 반영해 교수 매체 연구가 급격히 발달해 왔음을 밝혔다. 그리고 텍스트마이닝을 활용해 초록의 키워드를 분석하였으나, 영문 초록이 있는 연구만을 대상으로 했기 때문에 한국의 아동 영어교육 연구를 모두 포함했다고 보기 어려운 한계점이 있다. 마지막으로 본 연구는 IMRD 무브와 TAACO를 사용해 초록의 수사 구조와 응집성을 분석했다. 향후, 아동 영어교육 연구자들이 본 연구의 결과를 발판삼아 질적·양적으로 아동 영어교육 분야가 성장하는 데 활용되기를 기대한다.

      • 국회의 법제 의사결정에 관한 연구

        김재윤 서울대학교 대학원 2021 국내박사

        RANK : 232377

        이 논문에서는 국회의 법제 의사결정을 조직 의사결정의 관점에서 분석했다. 국회가 입법을 통해 정책을 설계할 때 어떤 법 규정들을 왜, 어떻게 선택하는지를 분석했다. 국회의원의 주의(attention)가 집중된 경우 국회의원 주도의 의식적 법제 의사결정이 이루어지지만, 국회의원의 주의 집중이 부족한 경우 조직 루틴에 의한 법제 의사결정이 나타난다는 이론적 틀을 제시했다. 그리고 입법례가 없거나 법규범적 제약이 있는 비일상적 규정은 의식적 의사결정을 통해, 입법례가 있고 법규범적 제약이 없어 널리 사용되는 일상적 규정은 조직 루틴에 따른 의사결정을 통해 입법되는 경향이 있다고 보았다. 이러한 이론화를 위해 먼저 법제 의사결정의 개념을 검토하고, 정책과정에서 법제가 차지하는 위치를 진단했으며, 법제 정책 특유의 법규범적 제약과 입법례를 중시하는 경향성을 검토했다. 또한 정책수단 개념은 법률 규정과 같은 개념은 아니지만 밀접한 관련성이 있다는 점을 논하고, 정책수단론에서 도구 선택의 문제를 어떻게 설명해왔는지를 분석하여 논의에 참고하였다. 한편, 국회의 법제 의사결정은 조직 의사결정 이론 중 조직 루틴과 조직의사결정에 관한 주의 관점(attention based view)으로 설명될 수 있다는 점을 주장하면서 관련 이론을 검토했다. 그 밖에 법률 또는 정책의 누적적 증가 등 합리적 법제 의사결정을 방해하고 국회의원의 주의 제약을 심화시키는 환경 요인들을 검토했다. 이러한 이론적 틀로부터 본 연구에서는 첫째, 일상적 규정의 경우에는 설령 선행 입법에 오류가 있다 하더라도 조직 루틴에 따른 의사결정을 통해 입법례가 동일 형태로 재생산될 수 있다는 ‘선행 법제의 무비판적 답습 가설’, 둘째, 비일상적 규정의 입법을 위해서는 주의 집중의 계기가 필요하다는 ‘계기적 입법 가설’, 셋째, 동일한 내용의 규정이라 하더라도 일상성·비일상성 속성이 동태적으로 변화하면 법제 의사결정의 방식도 그에 따라 전환될 것이라는 가설1과 가설2의 ‘조합 가설’을 제시하였다. 가설을 시험하고 이론적 틀을 발전시키기 위하여 종전 입법례의 유·무와 법규범적 제약의 유·무와 같은 주요 변수에 변화가 있고 이것이 잘 식별될 수 있으며, 인과 추론에 유리한 특성을 가진 법률 규정을 분석대상으로 선택했다. 그리고 선택된 규정들에 대해 1948년부터 지금까지 이루어진 모든 입법 선택을 전수조사하여 집계하였다. 이를 위해 정보추출(information extraction) 방식의 텍스트 분석(text analysis)을 이용했다. 또한 의사결정 사례들에 대해 의사결정 과정을 질적으로 분석하고 주요 법제 유형 분류를 위한 클러스터(cluster) 분석, 법규범의 변화를 파악하기 위한 메타 분석 및 범주형 자료 분석 등 다양한 질적‧양적 연구 방법을 이용하여 사례분석을 했다. 사례분석을 통해 세 가설을 시험해보고 가설이 바탕하고 있는 이론적 틀의 설명력을 평가해보는 동시에, 구체적으로 어떤 경우에 주의 집중이 이루어지는지, 국회의 법제 의사결정 루틴의 구체적 모습은 무엇인지 등 의사결정의 실제를 구체적으로 탐구했다. 이러한 연구설계에 따라 결격사유 규정, 규제 관할 조정을 위한 ‘동일한 사유, 동일한 사건’ 규정, 중‧장기 행정계획 규정, 다양한 형량의 벌칙 규정, ‘행정적‧재정적 제재’ 규정과 직접지출 규정 등 새롭게 발명된 규정, 징벌적 손해배상(배액배상) 규정의 사례를 선택하여 분석했다. 특히 가설3과 관련하여 지금까지 존재가 알려지지 않았던 1949년 제정 「상표법」상의 징벌적 손해배상 규정의 입법 사례를 발굴하여 분석했다. 각 법률 규정 유형에 대해 텍스트 분석을 통해 과거 입법 사례를 빠짐없이 검토했다. 또한 형벌 규정의 경우에 과거부터 현재까지 입법된 모든 법률의 벌칙 규정에 대해서 형벌지수를 도출하여 총량 변화를 분석하고, 형벌지수를 기준으로 법정형이 급상승한 입법 사례를 도출하여 분석했다. 분석 결과 15억원 이하의 벌금형 규정 입법 사례를 제외하면 검토한 사례가 가설1, 2, 3에 부합했다. 일상적 법규정은 장기간에 걸쳐 동일 형태 또는 소수의 군집으로 분류되는 전형적 입법례 확산의 패턴으로 입법되는 것을 텍스트 분석을 통해 확인했다. 또한 일상적 법규정에 대한 선례 답습적 의사결정 경향성을 확인했고, 이로 인하여 발생한 의도하지 않은 부작용들도 발견했다. 파산자 결격사유 규정의 확대‧재생산으로 인한 도산제도의 왜곡, 효과성이 없다고 확인된 법률 규정의 반복된 입법, 행정계획의 비체계적 중첩과 이로 인한 행정부담 발생 및 정책 효과성 저하, 낮은 형량의 행정형벌 규정의 누적적인 증가로 인한 과잉범죄화, 계기적 입법에 의한 과잉형벌화 현상을 발견했다. 한편, 가설2와 3에 관한 분석 과정에서는 법제 의사결정상의 주의 집중은 주로 대선 공약과 관계된 경우, 충격적 범죄 및 대형 사고 발생이 있는 경우, 시간 제약이 있는 상황 등에서 나타나는 것을 발견했다. 가설 2에 부합하지 않는 15억원 이하의 벌금형을 루틴한 의사결정을 통해 입법한 사례는 법률 규정의 일상성·비일상성 속성에 대한 의사결정자들의 인식이 맥락 의존적이기 때문에 나타난 것으로 해석을 제시했다. 유사한 관련법에서 이미 15억원 이하 벌금형을 도입한 입법례가 있었기 때문에, 비록 무거운 법정형이지만 쉽게 입법한 것으로 보인다. 이외에 사례분석 과정에서 발견된 주요한 사항은 다음과 같다. 첫째, 의사결정자가 의식적으로 법제에 관한 조직 루틴을 수정하는 것이 드물게 가능한데, 이 경우에도 현상 유지 편향이 작용해서 루틴 수정이 불완전하게 이루어지는 것으로 보인다. 둘째, 징벌적 손해배상 사례에서는 새로운 입법례의 발생이 법학 학설에 영향을 미쳐 법규범적 제약을 변화시키는 경로가 확인되었다. 셋째, 법제 의사결정과정에서 선대 입법자의 결정에는 반드시 합리적 의도가 있었을 것이라고 가정하고 보는 ‘합리적 입법의도 추정 경향’과 미래의 책임 또는 비난을 회피하기 위해 되도록 현행법을 유지하고자 하는 동기가 작용하는 것을 발견했다. 넷째, 징벌적 손해배상에 대한 법규범의 70년간 변화를 추적해본 결과, 법규범은 예상외로 가변적이며 상대적이라는 점을 알 수 있었다. 이 연구의 이론적 시사점은 첫째, 입법 의사결정이 합리적 의사결정에서 벗어나는 것은 정치적 이유 때문인 것만은 아니며, 행정적‧조직적 원인이 있을 수 있다는 점을 보여준 것이다. 주로 조직화된 무질서(organized anarchy)와 정치과정으로 묘사되는 입법부의 의사결정에도 법제 수준에서는 조직적‧행정적 과정이 작동하고 있으며, 따라서 조직 의사결정 모형을 적용할 수 있다는 점을 보였다. 둘째, 의회의 정책 의사결정에서 비교적 탐구가 덜 된 법제에 관하여 분석한 점도 의의가 있다. 법제의 정책 과정으로서의 위치와 법제관의 역할을 검토했다. 셋째, 정책수단 선택에서 입법례와 법규범적 제약이라는 새로운 요인론을 제시했고, 정책수단 선택의 주체 문제를 환기했다. 넷째, 법률에 대한 정보추출 방식의 텍스트 분석 방법을 개발하고, 법 규정에 대한 클러스터 분석과 같은 양적 방법의 적용을 시도하는 등 법률 관련 연구 및 정책수단론 연구에서 활용할 수 있는 새로운 실증분석 방법을 제시하였다. 이러한 방법론은 실무적으로도 법제 정비 및 규제 개혁에 유용하게 활용될 수 있을 것으로 보인다. 이 연구의 정책적 시사점은 다음과 같다. 첫째, 입법의 합리성 제고를 위해 국회의원의 희소한 주의 자원이 비정책적 사무로 분산되는 것을 막을 필요가 있다. 둘째, 법제 의사결정은 지금까지 도제식 법기술과 법리적 조언에 주로 의존해 왔는데, 정책 효과성의 논리를 바탕으로 한 법제에 관한 정책학적 분석과 처방 제시가 증대될 필요가 있다. 셋째, 법제에 대한 조직 학습과 피드백을 강화시키고, 법제 지원조직의 역량을 강화할 필요가 있다. 넷째, 사례분석 과정에서 발견된 무비판적으로 답습된 입법례들을 정비해야 한다. 다섯째, 법제 의사결정 루틴의 오작동을 예방하기 위해 국회의원의 주의를 상시적으로 환기할 수 있는 전문가와 비전문가 시민의 역할이 중요하다. Legislative drafting is not one individual's writing task but the organizational decision-making of legislators and their supporters. This paper's research questions encompass 1) how does the National Assembly select provisions to include when designing policies through legislation, and 2) why are those provisions selected. This paper proposes a theoretical framework with two separate modes of decision-making for the National Assembly legislative drafting. When lawmakers are sufficiently attentive, conscious decision-making led by them occurs. However, when there is insufficient attention from lawmakers, legislative drafting via organizational routine results. Each decision-making mode appears to be associated with the available provisions of law. Ordinary provisions that are widely used and without normative problems can be legislated through routine decision-making. Contrarily, unconventional provisions that violate legal norms or have no precedent can only be legislated through attentive decision-making. For this theorization, the concept of legislative drafting was first reviewed, and how legislative drafting is positioned in the policy process was identified. The tendency to emphasize precedents and legal norms unique to legislative drafting practices was also examined. Although the concept of policy instruments is not the same as legal provisions, it is closely related; how the policy instrument theory explains the problem of tool selection in the legislation was analyzed and referenced in the discussion. Related organizational theories were also reviewed. This paper argues that the legislative decision-making of the National Assembly can be explained as an attention-based view of organizational routines. Environmental factors that hinder rational decision-making, including cumulative increases in laws or policies and intensified scarcity of the National Assembly members' attention, were considered. From this theoretical framework, this paper presents three hypotheses on the legislative drafting of the National Assembly. With ordinary provisions, even if there is an error in the provision's preceding legislation, it can be reproduced in the same form through decision-making according to organizational routines. (Hypothesis 1) In legislating unconventional provisions, there should be an event or strong motive for focusing the attention of lawmakers. (Hypothesis 2) If the properties of the ordinary/unconventional provision change dynamically, the decision-making mode changes accordingly. (Hypothesis 3) To test the hypotheses, legal provisions that satisfied the hypothesis-testing conditions were selected, and a qualitative-quantitative triangular case analysis was conducted. Selected provisions included all legislative choices made from the founding of the country in 1948 through the current period. They were compiled using an information-extraction algorithm developed specifically for Korea's semi-structured legislative texts. Various case analysis methods were conducted with data from this 70-year legislative pattern, including process tracing, cluster analysis to classify provision types, and meta-analysis and categorical data analysis to identify changes in legal norms. Through the analyses, the three hypotheses were tested, and the explanatory power of the theoretical framework on which the hypotheses were based was evaluated. The actual practice of decision-making was explored specifically, including exploration of the cases in which the concentration of attention takes place and exploration of the specific shape of the legislative decision-making routine of the National Assembly. Disqualification provisions, mid-and, long-term administrative plans provisions, "same case, same cause immunity," provisions for regulatory jurisdiction adjustment and various administrative punishment provisions were analyzed. Newly invented provisions such as "administrative and financial sanction," and the direct spending provision were also examined. To test hypothesis 3, cases of treble damages provisions, including the forgotten treble damages provision of Trademark Act 1949 were excavated and analyzed. All past legislative cases were reviewed through text analysis. Moreover, for penalty provisions, the total change was analyzed. This was done by deriving the penalty index for the penalty provisions of all laws enacted from the past to the present. Legislative cases in which the statutory punishment rose sharply based on the penalty index were derived and analyzed. An analysis led to the conclusion that the reviewed cases met hypotheses 1, 2, and 3, except for cases of less than KRW 1.5 billion in fines. Text analysis confirmed that ordinary provisions were enacted in the pattern of the proliferation of typical legislative cases and classified into a small number of clusters over a long period. Additionally, the tendency to make ordinary provision decisions based on precedents; unintended side effects were found to have resulted from these choices. Distortion of the bankruptcy system due to the reproduction of disqualification rules for bankruptcy, repeated legislation of a provision confirmed to be ineffective, an unsystematic overlap of administrative plans resulting in administrative burdens and reduced policy effectiveness, and overcriminalization via the accumulation of low-penalty administrative punishment provisions were all associated with the routine decision-making mode. Analysis of hypotheses 2 and 3 found that the lawmakers attention in legislative decision-making was related primarily to Presidential campaign promises, focusing on events such as shocking crimes and major accidents, and time constraints. Cases in which a fine of KRW 1.5 billion or less was legislated through routine decision-making appear to be due to the context-dependent perception of decision-makers about ordinary/unconventional properties of legal regulations. As precedent existed for enacting a fine of less than KRW 1.5 billion in a similar, related law, such a heavy penalty provision was apparently introduced through routine decision-making. In addition, there were unexpected findings during the qualitative case analysis: First, it is rarely possible for decision-makers to consciously modify organizational routines related to legislative drafting. Even in this case, the status quo bias appears to work, and the routine modification is incomplete. Second, in the case of treble damages, analysis confirmed that the occurrence of new legislative precedents affects the theory of law and legal norms regarding the provision. Third, in the legislative decision-making process, the propensity to assume that previous legislators' decisions must have been based on conscious and rational intentions, and the motivation to maintain the current law as much as possible to avoid future responsibility, were revealed. Fourth, from tracking changes in the legal norms for treble damages over 70 years, legal norms were found to be unexpectedly variable and relative. The theoretical implications of this study are as follows. First, legislative decision-making deviates from rational decision-making for political and administrative, and organizational reasons and causes. It was shown that organizational and administrative processes operate at the legislative drafting level in legislative decision-making. It is described primarily as organized anarchy and a political process. Second, the importance of legislative drafting as a policy process, which has been relatively unexplored thus far, was highlighted in the study and analyzed from the perspective of policy science. Third, a new factor of legislative precedent and legal norms was presented within the choices of policy instruments. Fourth, this study raised the question of identifying the subject of policy instrument choice, a question that has often been overlooked in previous studies. Further, the question of whether the logic of policy instrument choice differs depending on the subject arises. Fifth, a new text analysis tool was developed to trace all of the related changes in legislated texts over time using information-extraction algorithms. The policy implications of this study are as follows. First, to make rational legislative decision, the scarce attention resources of the National Assembly members must not be exhausted. Second, since it is difficult to improve the rationality of legislative decision-making with only standardized drafting, standard operating procedures, and interpretive jurisprudence, scientific policy analysis on legislative drafting is required. Third, organizational learning and the capabilities of the legislative support organization must be strengthened. Fourth, provisions that were legislated due to the improper operation of the organizational routine found in this study must also be rectified. Fifth, the roles of policy experts and citizens who can raise alarms and trigger the lawmaker's attention to prevent malfunctions of the legislative routine are critical.

      • 교과서 분석의 준거 설정 연구

        이순옥 경북대학교 교육대학원 2004 국내석사

        RANK : 232364

        The purpose of this study is to establish criteria of text analysis. In the light of this aim, this research emphasizes on laying down a general criteria for analyzing a textbook. The criteria can be established by both deductive and inductive procedures in lines with theoretical review. The deductive method made a theoretical frame through theoretical discussion and analysis of preceding researches. The inductive method used establishing criteria by the analysis of materials gathered from the various methods of textbook analysis. Conclusions of this research are as follows; First, after considering of various concepts of textbook analysis, I defined the notions of text analysis as the activity, which evaluate the quality of textbooks. Thus, the meaning of the criteria of analysis is a standard to provide the some prescribed guides to analyzing activities. Second, it indicated the methods of establishing criteria and styles of stating of criteria by discussing of theories of analysis of textbooks from the viewpoint of an analysis table of curriculum, contents analysis, and textbooks estimation (deductive method), and comparing with and synthesizing methods of textbooks analysis (inductive method). In consequence of comparing with the process of the upper criteria establishment, it concludes that the rest criteria of textbook analyses except the analysis of Romey and Klopfer have domain of textbook-evaluation as the common criteria. That is, the form of establishing criteria of textbook analysis is similar to types of textbook evaluation. The basic frame of establishing criteria of textbook analysis consists of common criteria of elements, dimensions, and items of establishing of textbook analysis. I made the form of establishing criteria of textbook analysis with reference to textbooks evaluation. We can guess that we may make a statement more effectively with some phrases than numerical index or question sentences because the statement form of criteria of textbook analysis in the synthesis analysis comparison table consists in primarily phrases. Therefore, I described criteria of textbook analysis by form of phrases. In conclusion, I tried to make it more easy to judge textbooks' qualities by making tools of textbook analysis and providing general criteria of textbook analysis through discussion of chapterⅡ,Ⅲ,Ⅳ. <Table Ⅳ-1> is developed by researcher and makes a role as a tools of textbook analysis. I formed my own viewpoints of textbook analysis through fundamental knowledge and comprehension about textbooks being used at school by this tool.

      • Evolution of China’s Approach to Multilateralism

        강승원 서울대학교 대학원 2024 국내석사

        RANK : 232363

        This study uses the Faircloughian critical discourse analysis model to analyze the changes in Chinese multilateralism in the Xi Jinping era. A corpus of the Chinese Foreign Ministry’s press conference transcripts that dates from 2002 to 2022 is utilized for text mining, creating keyword lists, conducting collocation and concordance analysis, and close readings of the texts for a deeper understanding of the contexts. The argument is that Chinese multilateralism in the Xi Jinping era is differently deployed at different levels according to different geostrategic and geopolitical situations, but has the overarching objectives of the realization of multipolarization which is advantageous to China’s international positioning in the world system. To make the following argument, this study conducts a literature review of the definition of critical words in this study, and goes through historical analyses of polarity and multilateral experiences of the West and China. Then, the theoretical underpinnings that grasp the argument will be discussed, along with the framework for the proposed analysis in this research. The analysis will be conducted in three dimensions as set by the Faircloughian model – text analysis, discursive practice, and socio-cultural practice. The text analysis is a computer-assisted corpus-based quantitative research, and the resulting data findings are complemented by the qualitative discursive practice analysis of concordance and collocation analysis and the socio-cultural case study analyses. Lastly, this study concludes with a wrap-up of the characteristics of multilateralism in the Xi Jinping era, along with discussions and further studies. 본 연구는 페어클로우 비판담론 분석모형을 활용하여 시진핑 시대 중국 다자주의 정책 변화에 주목한다. 주요 분석 자료는 2002년부터 2022년 까지의 중국 외교부 기자회견 녹취록 말뭉치 (corpus) 이며, 텍스트 마이닝, 키워드 목록 작성, 대조 및 일치성 분석, 그리고 저자의 면밀한 독해를 통해 맥락을 이해하고자 한다. 저자의 주장은 다음과 같다: 시진핑 시기의 중국 다자주의는 지정학적 상황과 레벨에 따라 각양각색의 전략을 펼치지만, 전반적으로 중국의 힘의 균형에 유리한 다극체제화를 진행하는 데에 목적을 둔다. 위 주장을 펼치기 위해 본 연구는 우선 역사적 접근법으로 서양과 중국이 의미하는 국제체제에서의 극성 (polarity)과 다자주의를 선행연구 검토를 통해 살펴본다. 이후, 연구의 이론적 배경과 사용되는 분석틀을 논의한다. 본 연구는 페어클로우의 3차원 모델에 입각하여 텍스트 분석, 담론적 실천, 그리고 사회문화적 실천 세 가지 차원에서 분석이 진행된다. 텍스트 분석은 말뭉치 분석에 기초한 컴퓨터 기반의 양적분석이고, 이를 통한 데이터 분석에 기반한 담론적 실천과 사회문화적 실천은 언어 분석과 대표 다자주의 기구 사례분석인 질적분석으로 연구의 깊이를 보충한다. 마지막으로, 본 연구는 시진핑 시대의 중국다자주의의 특징을 요약하고, 이론적, 실천적 함의와 앞으로의 연구를 논의한다.

      • 학술 논문 텍스트의 표지 분석 : 국어학 학술 논문을 중심으로

        박지순 연세대학교 교육대학원 2006 국내석사

        RANK : 232362

        This study is to provide basic data for reading and writing education programs of Korean for academic purposes by analysing various texts and their structural elements from actual academic papers from the study of Korean Language. In the study Two structural elements were reviewed and analysed ; Marker of text-structure that was previously introduced in the existing literature and specific Content Markers that was newly defined in this study as one of the structural elements to represent typical contents in certain texts.In Chapter 2, for systematic analysis of Marker of text-structure and Content Marker, existing theories about the Maker of text-structure and its construct in academic papers were briefly introduced. In Chapter 3 Content Markers of paper texts were extracted from general construct of academic papers in the humanities and their typical content elements.In Chapter 4 actual texts from academic papers were analysed based on the Marker of text-structure and the systems of content elements reviewed in previous Chapter 2 and 3. The analysis mainly focused on the Content Marker because Content Markers could include most of the Marker of text-structure and also were more suitable for an analysis of texts from a certain genre.For the Marker of text-structure, only usages of the Attribute Marker were briefly analyzed. The Content Markers were presented with examples produced by categorized expressions from the texts based on the system that was divided in Chapter 3.In Chapter 5, with summary of the whole study until Chapter 4, limitations and significance of the study and research subjects need to be addressed for further analytic study in the future were presented. 이 연구는 학술 논문 텍스트를 분석하여 학문 목적 한국어 교육에서의 읽기와 쓰기 교육을 위한 기초 자료를 마련하는 것을 목적으로 한다. 이를 위해 국어학 분야의 실제 학술 논문을 대상으로 내용 요소를 제외한 형식 요소 전체를 추출하여 분석하였다. 형식 요소로는 기존의 텍스트 분석에 관한 연구에서 제시한 텍스트 의미 구조 표지를 간략히 살펴보았고, 이 밖에 특정 텍스트의 전형적인 내용을 나타내는 형식 요소로 ‘내용 표지’라는 개념을 설정하여 이를 분석하였다.텍스트 의미 구조 표지는 명제 간의 관계를 나타내는 표지로서 텍스트 분석에 관한 기존의 연구에서 텍스트 분석의 보편적인 틀로 제시되었으나 특정한 장르의 텍스트를 분석하는 데 한계가 있다. 따라서 본 연구에서는 명제 간의 관계 종류를 나타내는 관계 종류 규정 표지의 사용 양상만을 간략히 분석하였는데, 이는 관계 종류 규정 표지가 텍스트의 의미상 기본 단위인 명제의 연결 관계를 나타낸다는 점에서 학습자의 텍스트 이해와 생산에 필수적인 요소이기 때문이다.내용 표지’는 이 연구에서 설정한 새로운 개념으로서 특정한 장르의 텍스트가 보이는 전형적인 내용을 언어로 표현한 형식 요소를 일컫는다. 학술 논문과 같이 그 형식상 전형성이 강한 텍스트 장르의 경우 장르적 특수성을 반영할 수 있는 새로운 분석의 틀이 필요한데 ‘내용 표지’는 해당 장르의 실제 텍스트를 분석하여 그 전형적인 내용 요소로부터 추출한 표지이기 때문에 특정 장르 텍스트의 분석틀로 적합하다. 본 연구에서는 인문 과학 분야 학술 논문 텍스트의 서론, 본론, 결론에 나타나는 전형적인 내용 요소로부터 ‘내용 표지’의 체계를 세우고, 이에 따라 실제 학술 논문 텍스트를 분석하여 ‘내용 표지’를 추출․유형화한 후 이를 예와 함께 제시하였다.이 연구에서 분석한 학술 논문 텍스트의 ‘내용 표지’는 실제 학술 논문으로부터 추출된 표지로 학술 논문에서의 한국어의 사용 양상을 여과 없이 보여준다는 점에서 학문 목적 한국어 학습자들의 학문적인 읽기와 쓰기 교육에 직접적으로 활용이 가능한 교수․학습 자료가 될 수 있을 것이다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼