RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        언론 담화에 나타나는 “사회 지도층 인사”에 대한 비판 담화분석적 연구

        김해연 ( Hae Yeon Kim ) 한국텍스트언어학회 2013 텍스트언어학 Vol.34 No.-

        우리는 지금까지 언론 텍스트에 나타나는 어휘 ‘사회 지도층 인사’를 분석대상으로 삼아 비판적 담화분석 이론의 관점에서 그 의미와 용법을 밝히고, 또 언론 텍스트 분석에 있어서 비판적 담화분석 이론의 적용 가능성을 검토하였다. 지금까지 담화 또는 텍스트 분석은 특정 어휘나 구문의 의미와 문법성의 탐구를 기반으로 하여 텍스트의 응집성과 응결성을 조사하고 텍스트의 구조를 분석하여 텍스트성을 밝히고자 하는 연구가 많이 수행되었다(Beaugrande & Dressler 1981, Sanders & Maat 2006). 이와는 달리 비판적 담화분석은 텍스트의 생산에 나타나는 화자/필자의 의도성 또는 목적에 주목하여 텍스트를 분석하고자 한다는 점에서 기존의 텍스트 연구와 대조를 이룬다고 할 수 있다. 비판적 담화 분석에서는 언어 사용의 국면을 중시하고 텍스트 생산의 의도성을 밝히는 데에 있어서 힘/권력과 이념이 어떻게 텍스트에 나타나는가를 밝히고자 하는 목적을 갖고 있다. 본 연구는 이러한 비판적 담화 분석의 이론과 방법의 관점에서 ‘사회 지도층 인사’가 텍스트 상에서 어떻게 사용되는지 그 의미와 용법을 밝히고자 하였다. 첫째로, 본 연구는 비판적 담화분석의 이론과 기존의 연구를 간단히 소개하고 국내에서 비판적 담화 분석적 연구들을 소개하였다. 즉, 여기서는 비판적 담화 분석이 언어 자체의 문법적 특징을 분석하기보다 필자/화자의 텍스트 생산의 의도와 목적에 따라 텍스트의 전개가 달라지며, 또 텍스트에 나타나는 의도성은 힘과 이념에 따라 텍스트의 양상이 달리진다는 점을 지적하였다. 둘째로, 본 연구는 ‘사회 지도층 인사’가 국어사전에 어떻게 정의되고 있는지를 조사하였다. 국어사전에서는 이 어휘를 합성명사로 다루지 않고 세 개 또는 네 개의 어휘로 나누어 의미를 제시하고 있으며 또한 사전에서는 ‘사회지도층 인사’의 의미가 “객관적/중립적” 입장에서 긍정적인 의미로 “사회를 지도하고 이끌어가는 인사”로 정의되고 있음을 볼 수 있었다. 그러나 본 연구는 이러한 사전적 정의가 언론담화에서 어떻게 쓰이고 있는지 실제 담화 자료의 분석이 필요하다고 주장하였다. 셋째로, 본 연구는 인터넷 포털 네이버(naver)를 이용해서 ‘사회 지도층인사’가 나타나는 언론 텍스트를 검색하였다. 연구의 편의를 위해 여러 언론 텍스트 중에서 일간 신문을 중심으로 2013년 1월에서 4월말까지 예문을 검색하여 150개의 예문을 선정하여 분석 대상으로 삼았다. 자료를 조사한 결과, ‘사회 지도층 인사’ 가운데서 약 15회 10% 정도만이 사회봉사 활동이나 행사등을 보도할 때 중립적이거나 긍정적인 의미로 사용되고 나머지는 모두 범죄와 비리에 대한 보도나 과거 행적에 대한 비난 또는 비판의 경우에 ‘사회지도층 인사’가 나타나는 것을 볼 수 있었다. 이러한 통계는 ‘사회 지도층 인사’가 중립적, 객관적으로 사용되기보다는 언론 매체가 텍스트를 생산할때 ‘사회 지도층 인사’가 어떠한 의도성을 가지고 사용된다는 것을 반증한다고 하겠다. 이러한 점에서 본 연구는 ‘사회 지도층 인사’라는 어휘가 언론 담화에서 어떻게 사용되는지 조사할 필요성이 있음을 보여주었다. 넷째로, 본 연구는 언론 텍스트에서 ‘사회 지도층 인사’가 어떻게 사용되는지 검토하였다. 즉, 언론 텍스트에서는 ‘사회 지도층 인사’라는 용어를 사용할 때는 사회적 책무를 져야 한다는 당위적론적인 관점에서 언론 텍스트가 전개 된다는 점에서 ‘사회 지도층 인사’의 당위론적 책무를 조사하였다. 조사 결과, 언론 텍스트는 ‘사회 지도층 인사’에게서 (i) ‘노블레스 오블리주’, 즉 사회적 책임과 의무, (ii) 높은 도덕적 순결성, (iii) 솔선수범의 정신, (iv) 사회봉사와 나눔 또는 기부의 정신 등의 당위론적 도덕적 덕목을 요구하는 것을 볼 수 있었다. 언론 매체들이 ‘사회 지도층 인사’라는 용어를 사용할 때는 이와 같은 당위론적 책무와 관련하여 텍스트를 전개하고 있음을 볼 수 있다. 다섯째로, 본 연구는 언론 텍스트에서 ‘사회 지도층 인사’를 어떻게 보도하고 있는지를 비판적 담화 분석적 시각에서 검토하였다. 언론 텍스트에서 ‘사회 지도층 인사’는 ‘유력 인사’, ‘권력층’, ‘부유층’, ‘특권층’ 등과 같은 어휘와 같이 사용되거나 또한 이러한 의미를 내포하고 있다. 이러한 어휘의 사용은 ‘사회 지도층 인사’라는 어휘가 힘/권력과 관련되어 있다는 점을 부각시키는 것이며 또한 힘과 지배와 관점에서 사건을 인식하고 그와 같은 관점에서 텍스트를 생산했다는 것을 나타낸다. 또한 같은 맥락으로 ‘사회 지도층 인사’를 ‘국민’, ‘대중’, ‘중산층’ 등과 같은 어휘들을 사용하여 위와 같은 어휘와 대비시키는 것을 볼 수 있었다. 언론 담화에서 이러한 대비적 어휘의 사용은 ‘사회 지도층 인사’의 문제를 사회계층을 이분법적 관점에서 보고 계층 간의 갈등과 지배와 피지배간의 힘/권력과 이념의 불균형 상태를 부각시키는 언론 매체의 전략이라고 할 수 있다(김해연 2011). 여섯째로, 본 연구는 언론 매체들이 ‘사회 지도층 인사’를 사회적 책무와 높은 도덕적 덕 This research aims to show how sahoy citochung insa “society-leading personages (SLPs)“ is used in media discourse, reflecting power and ideology relations among the members in a society. This study analyzes the lexical item in media texts in terms of critical discourse analysis (CDA). After presenting a brief overview of CDA, this study examines dictionary definitions of sahoy citochung insa, and how such “neutral and objective” definitions are altered in media discourse. Examination shows that most of the tokens of sahoy citochung insa are used when the power elites are criticized for the violation of noblesse oblige, illegal profit-gaining activities, crimes such as tax evasion and sex scandals. It also shows that the criticism against the SLPs reflects tensions in ideology and power between the wealthy vs. low-income social classes and power elites vs. common citizens. Finally, this research suggests that CDA is a useful tool to characterize media texts by investigating ideologically-oriented words/phrases.

      • KCI등재

        네트워크 텍스트 분석결과 해석에 관한 소고

        김준현(Kim Jun hyun) 부경대학교 인문사회과학연구소 2015 인문사회과학연구 Vol.16 No.4

        사회네트워크 분석방법을 내용연구에 적용한 방법으로, 텍스트에 출현하는 단어와 단어 사이의 관계를 네트워크로 파악해 메시지를 해석하는 분석기법인 네트워크 텍스트 분석은 통계 자료 중심의 계량적 연구방법에 적합한 주제에 편향되어 있는 행정학 분야에 중요한 질적 연구방법으로 관심을 받고 있다. 하지만 여전히 내용분석 연구는 행정학 분야에서 그 가능성과 잠재력을 충분히 발휘하고 있지 못하고 있는 바, 이러한 한계를 넘어서기 위해서는 네트워크 텍스트 분석방법의 내용과 그 분석결과에 대한 해석방법에 대한 이해를 심화시키는 것이 필요하다. 이러한 문제의식을 바탕으로 본 연구에서는 네트워크 텍스트 분석이 행정학 분야에서 보다 유용한 내용분석방법으로 자리 잡고, 그 잠재성을 행정학 분야에서 충분히 활용하는데 필요한 개선점을 제안하고자 2010년부터 2015년 사이에 학술지에 게재된 네트워크 텍스트 분석이 사용된 행정학 분야의 연구 18편을 검토하여 이들 연구에서 사용된 주요한 접근방법과 지표 및 그에 대한 해석을 검토하였다. 그리고 이를 바탕으로 행정학 분야에서 네트워크 텍스트 분석을 활용한 연구가 그 가치를 발휘하는데 도움이 되는 제안을 다음과 같이 제시하였다. 첫째, 연구목적과 분석대상 텍스트에 부합하는 적절한 네트워크 접근방법과 분석방법을 선별하여 단계적으로 사용해야 한다. 둘째, 보다 풍부하고 설득력 있는 설명과 해석을 제시하기 위해서 네트워크 텍스트 분석에 있어서 대표적인 3가지 접근방법별로 복수의 분석방법과 지표들을 비교하려는 시도가 필요하다. 셋째, 연구자가 사용한 분석방법과 분석단위, 코딩 방식 등에 대해 정확히 소개하는 것이 필요하다. 넷째, 텍스트의 메시지를 보다 풍부하게 해석하기 위해, 현재까지 사용된 네트워크 텍스트 분석방법 혹은 지표 외에 보다 다양한 사회 네트워크 분석방법·지표를 새롭게 활용해 보려는 시도가 필요하다. The network text analysis, a kind of social network analysis applied to the studies of content analysis, is known as the method which interprets the messages by analyzing the relationship between words that appear in the text. Recently network text analysis grasps the attention of the researchers in Public Administration as a promising qualitative research methods. But still the number of researches used the network text analysis is small in Public Administration Sector, In order to exceed these limits, it is necessary to deepen the understanding of the technique of the network text analysis and of the interpretation of the results. So we review the 18 network text analysis studies in Public Administration which have been published in journals from 2010 to 2015 in Korea. Based on this, Some suggestions to help achieve that value in the Administration field of the studies are showed as follows: Firstly, after screening the appropriate network approaches and analysis method to meet the research goal, the selected approaches and analysis methods should be used step by step. Second, in order to provide the interpretation and analysis about the messages of the text, there is a need for an attempt to compare methods and indicators of three approaches in network analysis. Third, it is necessary for the researchers to correctly introduce analysis methods, analysis unit and coding scheme. Fourth, in order to enrich the interpretation of the message of the text, we should try to take advantage of a wider variety of social network analysis methods or indicators.

      • KCI등재

        언어학 기반 텍스트분석 소고 -모의과제 해결 상황에 기대어

        여종문 ( Jong Moon Yeo ) 한국독어독문학교육학회 2016 獨語敎育 Vol.65 No.65

        이 논의는 ‘언어학을 기반으로 한 텍스트분석’에 어떤 요소가 포함되어야 하는지에 대해 다시 생각해보는 계기를 모색하고 있다. 이를 위해 독일에서 독일어교사자격시험에서 제시된 것과 동일한 ‘이 신문기사를 분석하고 분석방법을 제시하시오.’ 라는 과제해결 상황을 설정한다(1장). 이 상황을 통해 분석된 내용을 자격시험에 합격할 수 있는 텍스트분석예시로 제시한다(2장). 이 분석예시는 1) 분석내용과 분석순서의 제시 2) 분석되는 텍스트의 종류에 대한 규명 3) 사회적 상황맥락 안에서의 텍스트 관점제시 4) 텍스트의 주제구성과 방법적 의미에 대한 규명 5) 텍스트의 내용구성과 연계방법과 그 의미에 대한 규명 6) 텍스트 내용연계의 의미에 대한규명 7) 텍스트의 선택적 의미에 대한 기술 등을 포함한다. 메타텍스트의 특성을 띄는 2장의 ‘텍스트분석예시’는 한편으로는 언어학을 기반으로 분석될 텍스트는 자연적인 언어-사회 환경에서 사용되는 실제 텍스트이어야 한다는 메시지를 그리고 다른 한편으로는 교사가 되기 위한 최소 능력조건을 암묵적으로 제시하고 있다. 이조건은 첫째, 자기가 분석하는 텍스트의 분석내용과 순서를 제시하는 능력, 둘째, 분석하는 텍스트의 종류를 자신의 판단에 의해 규명하고, 셋째, 이를 사회적 상황맥락 안에서의 텍스트가 포함하는 관점을 규명하는 능력을 기본으로 포함한다. 마지막으로는 텍스트의 주제구성과 방법을 파악하고 이들과 텍스트의 내용구성 및 연계방법을 설명할 줄 알아야 함을 명시한다. 구체적으로 텍스트 내용의 구성과 그들의 연계의미를 규명할 줄 알고 이에 대한 선택적인 의미를 제시하는 능력이 필요하다는 사실을 포함하고 있다. 메타텍스트로서의 ‘2장’은 이런 담론기반이 무시된채로 진행되고 있는 현재 우리들의 ‘언어학 기반 텍스트분석’에 대한 논의가 재고되어야 함을 지적한다. 그리고 적어도 ‘언어학 기반 텍스트분석’은 실제 텍스트를 기저로 최소 6가지 분석조건이 그 바탕임을 명확하게 한다(3장).

      • 환경 빅데이터 분석 및 서비스 개발 Ⅳ

        강성원,진대용,홍한움,고길곤,임예지,강선아,김도연 한국환경정책평가연구원 2020 사업보고서 Vol.2020 No.-

        Ⅰ. 서론: 연구의 필요성 및 목적 ❏ 정책수요 파악, 정책 시의성 평가, 정책 유효성 평가에 사용할 수 있는 ‘환경정책 모니터링 시스템(가칭)’ 구축 ㅇ 환경정책 모니터링 시스템: 기계학습의 장점인 예측의 정교함 및 실시간 데이터 수집-분석-결과 갱신 가능성을 환경정책 연구에 접목 ㅇ 환경오염 통합예측 알고리즘, 실시간 환경 텍스트 분석 알고리즘, 질문중심 데이터베이스 3개 분석도구로 구성 - 환경오염 통합예측: 다양한 환경오염물질 오염도 예측 주기적 반복 - 실시간 환경 텍스트 분석: 환경 텍스트 정보추출 및 감성분석 주기적 반복 - 질문중심 데이터베이스: 주요 환경이슈 목록 - 이슈 관련 데이터 분석을 연계하여 주기적으로 결과 실시간 업데이트 ㅇ 정책수요 파악: 환경오염 예측 알고리즘의 예측치, 환경정책 수요자 텍스트 분석 결과, 환경이슈기반 데이터 분석 결과를 사용하여 환경정책 개입이 필요한 부문을 파악 ㅇ 정책 시의성 평가: 민간 텍스트 분석 결과와 환경정책 생산자 텍스트 분석 결과를 비교하여 정책 공급자의 대응이 정책 수요자의 관심과 조응하는지 여부를 진단 ㅇ 정책 유효성 평가: 환경오염 예측 알고리즘의 정책 시행 전 예측치와 시행 후 실측치, 정책시행 전후 질문중심 데이터맵 분석 결과, 정책시행 전후 민간 텍스트 감성분류 결과 비교 ❏ 2020년 연구목표: ‘환경정책 모니터링 시스템’ 의 복잡성 및 인과관계 분석기능 부족을 해소하는 방향으로 연구내용을 확장 ㅇ 1기 (2017~2019년) 연구의 성과를 계승하면서 기계학습 방법론의 약점인 모형의 복잡성 및 인과관계 분석기능 부족을 해소하는 방향으로 연구 확장 - 1기 ‘기계학습 방법론’ 적용 연구 → 2기 ‘대용량 데이터’를 이용한 환경정책 연구 - 방법론: 1기 ‘기계학습’ → 2기 기계학습 + 전통적 통계학 기법(Frequentist/Bayesian) ㆍ모형의 단순화: 개별 변인이 분석 결과에 미치는 영향력 분석 기능 강화 ㆍ중장기 예측이 가능한 연구, 인과분석이 가능한 연구 추구 ❏ 연구내용: 환경정책 모니터링 시스템 구성요소 연구 4건, 개별연구 2건 수행 ㅇ 환경정책 모니터링 구성요소: 기존 구성요소의 방법론 및 분석 대상 확대 - 환경오염 예측 (2건): ‘미세먼지 고농도 현상 발생확률 추정’/‘Graph-GRU 모형을 이용한 초미세먼지 오염도 추정 및 예측’ - 환경 텍스트 분석: ‘환경 텍스트 감성 분석기 구축 및 활용’ - 질문 중심 데이터베이스: ‘기후변화 이슈 분석 및 질문중심의 데이터맵 도출’ ㅇ 개별연구: 수용체 연구 1건, 신재생에너지 연구 1건 추진 - 수용체 연구: ‘대기오염이 COPD 환자 사망에 미치는 영향’ - 신재생 에너지 연구: ‘태양광 발전 발전량 예측 알고리즘 구축’ Ⅱ. 미세먼지 고농도 현상 발생확률 추정 ❏ 서울지역 25개 측정소 초미세먼지 오염도가 ‘매우 나쁨’(76 이상)이 될 경우를 예측하는 Qunatile Regression 기반 통계모형 개발 ㅇ Qunatile Regression 모형을 Extreme value가 많은 자료에 적합하게 조정 - Extreme Conditional Qunatile Regression Model + Variable Selection (LASSO) ❏ 서울시 대기질 및 기상 정보를 이용하여 2015~2020년 봄 4시간 평균(1일 6개 시간대) PM<sub>2.5</sub> 오염도 예측 ㅇ 설명변수: 동시간대 및 1시간 이전 CO, SO<sub>2</sub>, NO<sub>2</sub>, O<sub>3</sub>, PM<sub>10</sub> 오염도, 강수량, 온도, 습도, 풍향, 풍속/1시간 이전 PM<sub>2.5</sub> 오염도 ㅇ 2015/01/01~2018/03/04 자료로 추정한 모형으로 2018/03/04~2020/05/29 예측 ❏ 측정소에 따라 Sensitivity 88.9%~100.0%을 달성하면서 False Positive는 6.0% ~17.1%로 억제 ㅇ Sensitivity = 매우 나쁨 예측/실제 매우 나쁨, False Positive = 매우 나쁨 예측/실제 나쁨 이하 측정 ㅇ 강동구(88.9%)를 제외한 24개 측정소에서 Sensitivity 90% 이상 ❏ RandomForest, Supporting Vector Machine, GRU 대비 11.3%p Sensitivity 향상 ㅇ 강서구 예측의 Sensitivity RandomForest(65%) < SVM(73.3%) < GRU(81.0%) < 본 연구 구축 모형(92.3%) ❏ 동시간대 CO 오염도, O<sub>3</sub> 오염도, PM<sub>10</sub> 오염도, 풍향, 1기 전 초미세먼지 오염도가 높을 경우에는 초미세먼지 매우 나쁨 발생 확률이 증가하는 경향 발견 ❏ 동시간대 강우량 및 풍속, 1기 전 강수량 및 풍속이 높을 경우에는 초미세먼지 매우 나쁨 발생 확률이 하락하는 경향 발견 Ⅲ. Graph-GRU 모형을 이용한 초미세먼지 오염도 추정 및 예측 ❏ PM2.5 농도에 영향을 미치는 기상 및 공간정보 데이터를 반영하는 Graph-GRU 알고리즘 개발 ㅇ 과거 정보(temporal data)와 공간정보(spatial data)를 함께 활용할 수 있는 3차원 학습데이터세트 구축 - 예측대상: 남한지역 측정소 포함 0.125° × 0.125° Grid (12.5km × 12.5km)의 3-Hour PM<sub>2.5</sub> 오염도 평균값 - 입력자료: 대기오염 오염도, 기상, 고도 ㆍtraining set: 2015/01/01~2015/12/31 ㆍvalidation set: 2016/01/01~2016/12/31 ㆍtest set: 2017/01/01~2017/12/31 ㅇ 알고리즘: Graph - GRU 알고리즘 활용 - Node attribute: 기상 및 지리정보, 대기오염 - Edge attribute: 측정소 간 미세먼지 오염물질 배출량의 영향 ㆍ거리, 풍속, 풍향을 반영한 ‘영향’ 평가 함수 적용 - Adjacency Matrix: 거리: 300km, 고도: 1200m 미만 threshold 값 설정 ❏ 3시간~72시간 이후 표준제곱근오차 4.05μg/m<sup>3</sup> ~ 11.49μg/m<sup>3</sup>로 억제 ㅇ 과거 정보 표준제곱근오차 축소 효과는 0.12μg/m<sup>3</sup>, 공간정보 표준제곱근오차 축소 효과는 0.16μg/m<sup>3</sup> Ⅳ. 환경 텍스트 감성분류기 구축 및 활용 ❏ 환경 SNS 데이터 수집 - 감성분석 - 결과 발신을 주기적으로 반복하는 ‘환경 텍스트 감성분류기’ 구축 ㅇ 2018~2019년 개발 기후변화 감성분류기를 환경 전 분야로 확장-준지도 학습을 이용하여 수집한 학습 데이터 14만 건을 추가하여 감성분류 정확도 제고 ㅇ 감성분류 결과의 추이를 시각화 하여 확인할 수 있는 web 기반 user interface 제공 ❏ 준지도 학습을 이용하여 학습 데이터를 기존 5만 건에서 18만 건으로 확대하여 감성 분류 정확도 제고 ㅇ 학습데이터 추가: 환경 SNS 텍스트 650만 건을 수집하고 기존 기후변화 감성분류기에 적용하여 긍정/부정 확률이 매우 높은 자료 14만 건을 추출 ㅇ 성능 향상: 기존 data 분류 정확도 1%p(78.7% → 79.7%) 향상 ❏ 환경정책 분야별 감성분류 Precision 66%~92%, Recall 73%~81% 달성 ㅇ Precision = 실제 부정/부정 판정, Recall(Sensitivity) = 부정 판정/실제 부정 ㅇ 폐기물 분야는 Precision, Recall이 모두 낮아서 지도학습을 통한 정확도 제고 필요 ❏ 기간, 검색어를 특정하여 구분한 SNS 데이터의 감성분류 결과를 실시간으로 확인할 수 있는 web 기반 user interface를 구축 ㅇ ‘부정’ 감성의 SNS 데이터로부터 키워드 빈도 및 네트워크를 추출하여 ‘부정’ 감정의 원인을 파악할 수 있는 기능을 부여 Ⅴ. 기후변화 이슈 분석 및 질문중심의 데이터맵 도출 ❏ 위계별로 정리한 기후변화 이슈와 각 이슈 관련 데이터 분석을 연계하고 데이터 분석 결과를 실시간으로 업데이트 하는 데이터맵 구축 ㅇ 텍스트 분석에서 이슈를 도출하는 이슈 선정 모듈과 데이터를 연계하는 데이터 분석 모듈을 구축 ❏ 이슈 선정 모듈: 기후변화 관련 텍스트 수집 → 주제 추출 → 질문 식별 → 질문 구조화 수행 ㅇ 텍스트: 2012~2019년 연구보고서/고위공직자 연설문/보도자료/국회회의록 /국회기후변화포럼/Dbpia논문 국문 초록/네이버 신문(12개 일간지) ㅇ 주제추출: 상관토픽모형(CTM)을 사용한 10개 주제식별 및 주제 간 관계 도출 ㅇ 질문식별: 텍스트 랭크(TextRank)로 추출한 중요 문장을 정제하여 개별 질문 도출 ㅇ 질문 구조화: 개별 질문을 주제에 할당하고 주제 간 관계를 반영하여 질문을 구조화 - 주제 간 관계: 상관토픽 모델링 상관계수, 동적 시간 와핑(dynamic time warping) 시계열 패턴 유사도, 전문가 설문조사 반영 - 5개 범주로 재분류: 기후변화 공동대응/기후변화 적응/온실가스 감축/에너지와 환경/도시환경과 시민 ❏ 데이터 분석 모듈: 명제화 된 이슈에 대한 정보를 제공할 수 있는 data source와 분석모형 연계 ㅇ 관련 자료의 실시간 update가 가능하도록 자료 원천과 직접 연계하는 방식을 사용 ㅇ 시계열 자료의 절대 추세 및 계절변동 조절 추세 분석 Ⅵ. 대기오염이 COPD 환자 사망에 미치는 영향 ❏ 사망 전 1년, 5년 간 대기오염 노출이 COPD 환자 사망위험에 미치는 영향 분석 ㅇ 분석대상: 2009~2018년 전국 40세 이상 COPD 환자 ㅇ 분석기법: Kriging과 Cox Proportional Hazard model - Kriging을 사용하여 측정소 오염도 자료로부터 읍면동 오염도 추정 ❏ 국민건강보험공단 맞춤형 DB와 대기오염 측정 데이터를 결합하여 데이터 생성 ㅇ 환경오염 관련 독립변수: event 발생/종료 1년 전, 5년 전 거주지 평균 PM<sub>10</sub>, O<sub>3</sub>, NO<sub>2</sub> 오염도 - PM<sub>10</sub>: 일평균, O3: 일별 최고 8시간 평균, NO<sub>2</sub>: 일평균 (O<sub>3</sub>, NO<sub>2</sub>의 경우 ppb를 ㎍/m3으로 변환) ㅇ 개인 특성 관련 독립변수: 성별, 연령, 소득, 동반질환지수, COPD 외래중증악화, BMI, 흡연 ㅇ 종속변수: 사망을 1, 생존을 0으로 표기한 사망 여부 ❏ 사망 전 1년, 5년 간 O<sub>3</sub> 오염도가 높은 지역에서 산 COPD 환자는 사망위험이 소폭 증가하였음을 확인 ㅇ Hazard Ratio of O<sub>3</sub>: 1.003(1년), 1.004(5년) Ⅶ. 딥러닝 기반 태양광발전량 예측 ❏ 기상정보를 활용하여 영암 F1 발전소 태양광발전량 예측 LSTM 알고리즘 개발 ㅇ 1시간, 12시간 평균 낮 시간대 발전량을 예측: 주기성이 심한 비정상(non-stationary) 시계열 ❏ 1시점 이전 태양광발전량 및 기상정보를 입력자료로 사용 ㅇ 기상정보: 목포 기상관측소 시간별 기온, 강수량, 습도, 일사량, 전운량 ㅇ 2017.1.1~2019.6.30 자료 중 2017.1.1~2018.6.30 자료를 학습자료로 사용하여 모형을 추정하고 2018.7.1~2019.6.30 자료를 예측 ❏ RNN 기반 LSTM 알고리즘을 사용하여 모형을 구축하고 직전 3시점 이동평균(Moving Average) 및 ARIMA 모형과 예측력 비교 ❏ 1시간 예측 평균제곱근오차를 표준편차의 36.9%, 12시간 평균 예측 평균제곱근오차는 표준편차의 51.1%로 억제 ㅇ 직전 3시점 이동평균 예측오차/표준편차의 71%, ARIMAX 예측오차/표준편차의 45% 수준으로 예측오차/표준편차를 억제 Ⅷ. 연구성과 및 정책적 시사점 ❏ 연구성과: 환경정책 모니터링 시스템 구성요소 구축 및 신규 성과 축적 ㅇ 환경오염 종합예측 시스템 구성요소 확대 및 심화 - 환경오염 종합예측 알고리즘: 설명 가능성을 보완하고 예측 시차를 연장하여 활용 가능성을 제고 ㆍ‘미세먼지 고농도 발생확률 추정’: coefficient estimation이 가능하면서 예측성과가 Deep Learning 모형과 경쟁력 있는 Quantile Regression 모형을 개발 ㆍ‘Graph-GRU 모형을 이용한 초미세먼지 오염도 추정 및 예측’: 12시간 예측오차를 2019년 개발 CNN 기반 모형의 1시간 예측오차와 유사한 7.64g/m<sup>3</sup>로 유지 - 실시간 환경 텍스트 분석 알고리즘: 환경 전 분야 실시간 SNS 감성 분석 및 부정 감성 원인 분석 가능 - 질문중심 데이터맵: 미세먼지에 이어 기후변화로 적용 범위를 확대 - 정책 현황 파악 상황판 기능 ㅇ 3개 알고리즘, 1개 질문중심 데이터맵 신규 구축 - 초미세먼지 고농도 현상 예측 Quantile Regression 모형, 초미세먼지 오염도 예측 Graph-GRU 모형, 태양광발전량 예측 RNN 모형/기후변화 Data Map ㅇ 텍스트 분석 인프라 확장: 실시간 환경 텍스트 분석 Web Interface 개발 ❏ 정책적 시사점: 환경정책 모니터링 기능을 강화하였고 대기오염 건강위험을 정량화하였으며 신재생에너지 발전 인프라의 기초를 제공 ㅇ 환경정책 모니터링 기능 강화: 정책 현황 파악 및 선제적 정책개입 관련 정보 제공 기능 강화 - 실시간 환경 텍스트 분석: 국민 감성이 부정적인 환경정책 분야를 실시간으로 파악 가능 - 기후변화 질문중심 데이터맵: 기후변화 현황 실시간 파악 기능 제공 - ‘기후변화 상황판’ 기능 - 초미세먼지 오염도 예측의 시차를 연장하고 기초적 인과분석 기능 확보 ㆍGraph-GRU 모형: 예측 시차를 연장하여 선제적 정책 개입이 가능한 시차를 확보 ㆍQuantile Regression 모형: 향후 오염원 및 정책 관련 Data를 추가하면 정책영향 분석 도구로 활용 가능 ㅇ 대기오염 장기노출의 건강위험을 정량화 하여 대기오염 억제정책의 정량적 편익 도출 근거 마련 ㅇ 태양광발전량 예측 기능을 강화하여 신재생에너지 발전에 필요한 스마트 그리드 구축 인프라 제공 Ⅰ. Background and Aims of Research ❏ We continue to build up ‘Environmental Policy monitoring System’ dedicated to periodically identify environmental policy needs and assess timeliness and effectiveness of environmental policy as we did last year ㅇ Environmental Policy monitoring System apply prediction accuracy and real-time data collection-analysis-diffusion capability of Machine learning to environmental policy research ㅇ Our ‘Environmental Policy monitoring System’ consists of three components: ‘Deep Learning Based Pollution Prediction algorithm’, ‘Real Time Environmental Text Analysis algorithm’, ‘Issue Based Database’ - Deep Learning Based Pollution algorithm: Periodically update various pollution prediction - Real Time Environmental Text Analysis algorithm: Periodically summarise environment related text data and sentiment analysis ㆍText summary: abstract keywords and keyword network from texts produced by environmental policy provider and environmental policy consumers ㆍSentiment analysis: Real-time collection and sentiment analysis of SNS related to all subfield of environment - Issue Based Database: Key environmental issue network connected with data analysis for each issue updating real-time ㅇ Policy need Identification: Detect environment policy areas and regions in need of intervention from the predictions of ‘Deep Learning Based Pollution Prediction algorithm’, the text analysis results of ‘Real Time Environmental Text Analysis algorithm’, and the data analysis results of ‘Issue Based Database’ ㅇ Timeliness assessment: check if the temporal pattern of keywords analysis result on policy provider text and the temporal pattern of keywords analysis results on policy consumer are consistent ㅇ Effectiveness assessment: Check Pollution improvement, SNS Sentiment improvement, and Environmental Issue improvement after policy execution ❏ In 2020, we tried to improve interpretability of ‘Environmental Policy monitoring System’ ㅇ While utilizing the advantage of deep learning we found in period 1(2017~2019), we tried to reduce complexity and strengthen interpretability ㅇ In period 1, we focused on ‘apply everything related to big data analysis to Environment policy research’ From 2020, we are going to focus on ‘Environmental Policy Research using large scale data’ ㅇ Regrading methodology, we stick to machine learning in period 1. From 2020, we are going to be more flexible and try to include traditional frequentist and Bayesian statistical methods ㆍWe are going to use simpler models to improve our understanding on feature importance ㆍWe are going to build models capable of longer -term prediction and models with more interpretability ❏ In 2020, we build four algorithms for ‘Environment Policy Monitoring System’ and perform two independent researches ㅇ For ‘Environment Policy Monitoring System’, we expand the methodology and scope of previous components - We added two fine particle estimation algorithms in `Fine particle high concentration event prediction’ and ‘PM<sub>2.5</sub> estimation and prediction using Graph-GRU algorithm’ - In ‘Environmental text sentiment analysis algorithm’, we expanded sentiment analysis of environment related SNS to all subfield of environment - In ‘Climate change issue based database’, we constructed new issue based database on climate change ㅇ On two important issues that cannot be integrated to ‘Environment Policy Monitoring System’, we did independent research - In ‘The impact of air pollution long-term exposure to mortality of COPD patients’,we estimated the effect of long-term exposure of air pollution on the death risk of COPD patients using NHI (National Health Insurance) Data - In ‘Solar electricity generation prediction’, we constructed an RNN based algorithm predicting solar electricity generation of F1 power plant Ⅱ. Fine Particle High Concentration Event Prediction ❏ We built a quantile regression based prediction algorithm to predict ‘extremely bad(76+)’ event of PM<sub>2.5</sub> in 25 air pollution monitoring station in Seoul ㅇ We adjusted quantile regression model to analyze data with extreme values - We applied LASSO variable selection method to Extreme Conditional Quantile Regression Model ❏ We predicted 4 hour average(6 periods per day) PM<sub>2.5</sub> pollution in Seoul using air pollution data and weather data ㅇ For independent variables, we used contemporary and 1 time earlier CO, SO<sub>2</sub>, NO<sub>2</sub>, O<sub>3</sub>, PM<sub>10</sub> pollution, rainfall, temperature, humidity, wind strength, wind direction and 1 time earlier PM<sub>2.5</sub> pollution ㅇ We train our model with data from Jan. 1st. 2015 to Mar. 4th. 2018 and test with data from Mar. 4th. 2018 to May. 29th. 2020 ❏ We were able to achieve 89.0%~100.0% Sensitivity while limiting False Positive at 6.0%~17.1%, depending on the station. ㅇ Except for Gandonggu(88.9%), our algorithm achieve sensitivity higher than 90% ❏ The sensitivity of our model was higher by more than 11.3%p, compared to the sensitivity of models based on random forest, supporting vector machine and GRU ㅇ Sensitivity of Ganseogu: our algorithm 92.3% > GRU 81.0% > SVM 73.3% > RandomForest 65% ❏ The probability of ‘extremely bad’ event of PM<sub>2.5</sub> pollution increases when contemporary CO, O<sub>3</sub>, PM<sub>10</sub> pollution, wind direction and 1 time ahead PM<sub>2.5</sub> pollution. - We applied LASSO variable selection method to Extreme Conditional Quantile Regression Model ❏ We predicted 4 hour average(6 periods per day) PM<sub>2.5</sub> pollution in Seoul using air pollution data and weather data ㅇ For independent variables, we used contemporary and 1 time earlier CO, SO<sub>2</sub>, NO<sub>2</sub>, O<sub>3</sub>, PM<sub>10</sub> pollution, rainfall, temperature, humidity, wind strength, wind direction and 1 time earlier PM<sub>2.5</sub> pollution ㅇ We train our model with data from Jan. 1st. 2015 to Mar. 4th. 2018 and test with data from Mar. 4th. 2018 to May. 29th. 2020 ❏ We were able to achieve 89.0%~100.0% Sensitivity while limiting False Positive at 6.0%~17.1%, depending on the station. ㅇ Except for Gandonggu(88.9%), our algorithm achieve sensitivity higher than 90% ❏ The sensitivity of our model was higher by more than 11.3%p, compared to the sensitivity of models based on random forest, supporting vector machine and GRU ㅇ Sensitivity of Ganseogu: our algorithm 92.3% > GRU 81.0% > SVM 73.3% > RandomForest 65% ❏ The probability of ‘extremely bad’ event of PM<sub>2.5</sub> pollution increases when contemporary CO, O<sub>3</sub>, PM<sub>10</sub> pollution, wind direction and 1 time ahead PM<sub>2.5</sub> pollution. ❏ The probability of ‘extremely bad’ event of PM<sub>2.5</sub> pollution decreases when contemporary and 1 time ahead rainfall, windspeed increases Ⅲ. PM<sub>2.5</sub> Estimation and Prediction Using Graph-GRU Algorithm ❏ We built Graph-GRU albright utilizing weather and geography information to prediction PM<sub>2.5</sub> pollution ㅇ We construct a 3 dimension dataset consists of temporal and spatial data - Our dependent variable is 3 hour average PM2.5 concentration of 0.125° × 0.125° Grid (12.5km x 12.5km) containing air-pollution monitoring stations in South Korea - Our independent variables are weather data, air pollution data and height data ㆍWe trained our model with data from Jan. 1st. 2015 to Dec. 31th. 2015, validated with data from Jan. 1st. 2016 to Dec. 21th. 2016, and tested with data from Jan. 1st. 2017 to Dec. 21th. 2017, ㅇ We used Graph-GRU algorithm - For node attributes, we used weather data, spacial data, and air pollution data - To measure edge attributes, we constructed a function evaluating impact of air pollutant emission between air pollution monitoring stations ㆍThis function evaluates impact of air pollutant emission between air pollution monitoring stations using distance, wind speed, and wind direction - For adjacency Matrix, we used threshold of distance of 300km or height of 1,200m ❏ RMSE of our model in 3 hour~72 hour prediction was 4.05μg/m<sup>3</sup> ~ 11.49μg/m<sup>3</sup> ㅇ Temporal information reduced RMSE by 0.12μg/m<sup>3</sup>, and spacial information reduced RMSE by 0.16μg/m<sup>3</sup> Ⅳ. Environmental Text Sentiment Analysis Algorithm ❏ ‘Environmental text sentiment analysis algorithm’ periodically performs collection-analysis-result distribution on SNS text regarding environment ㅇ We expanded climate change sentiment analysis algorithm we build in 2018~2019 to all subfield of environments, and trained with new 140 thousands SNS text training data labeled by semi-supervised learning to improve accuracy ㅇ We constructed web based user interface to visualize sentiment analysis results over time ❏ To improve accuracy, we increase the size of our training data from 50 thousand to 180 thousand using semi-supervised learning ㅇ We collected 6.5 million SNS text, and applied 2018~2019 version climate change sentiment analysis algorithm. We collected 140 thousands cases with high positive/negative sentiment score, which we added to training data. We kept 10 thousand cases for testing ㅇ With this new training data, the accuracy of sentiment analysis improved by 1%p: From 78.7% to 79.7% ❏ Sensitivity of our newly trained model was 66~92%, and Recall of our newly trained model was 73%~81%, according to subfield ㅇ ‘Waste’ field had the lowest Sensitivity and Recall. This field needs supervised learning approach to improve overall accuracy ❏ We built web based user interface to visualize sentiment analysis results with user option of keyword search and period choice ㅇ Our user interface also abstract keyword network of SNS of negative sentiment, which should give insights on the cause of negative sentiment Ⅴ. Climate Change Issue Based Database ❏ We built a datamap on Climate change consists of hierarchically organized climate change issue network and data analysis linked to each issue in the network. This datamap is capable of real-time data analysis update ㅇ We build issue collection module to extract issues from text data and data analysis module to link data analysis with extracted issues ❏ Issue collection module execute ‘Climate change text collection → Topic Extraction → Issue Identification → Issue Network Organization’ process ㅇ Text Collection: Reports from government sponsored research institutes/ Formal speeches from higher-ranking official/Press Release from government/Assembly meeting transcripts/Materials from Climate Change From in Assembly/DBpia academic paper abstracts/NAVER paper articles of 12 major papers from 2012 to 2019 ㅇ Topic Extraction: Apply Correlated Topic Model to extract 10 topics and correlation between topics ㅇ Issue Identification: Derive issues from key sentences extracted from TextRank algorithm ㅇ Issue Network Organization: Assign each issue to topics and organize issues according to the relationship between topics - We deduced relationship between topics combining three sources of informations - (1) Correlation coefficient from Correlated Topic Model (2) Similarity of time series frequency pattern from Dynamic Time Warping (3) Specialist Survey - We re-categorized 10 CTM topics into 5 Categories: Climate Issue cooperation/Climate Change adaptation/Greenhouse Gas Reduction /Energy and Environment/Urban Environment and Citizen ❏ Data analysis module attach data source and data analysis result to each issue in Climate Change Issue Network - We linked each data analysis to data source so that we can update data analysis in real-time Ⅵ. The Impact of Air Pollution Long-Term Exposure on the Mortality of COPD Patients ❏ We estimate the impact of 1-year and 5-year air pollution exposure on the mortality of COPD patients ㅇ We analyzed medical data of COPD patients older than 40 diagnosed from 2009 to 2018 ㅇ We used kriging to convert air pollution monitoring station data to small local district (Up. Myun.Dong) data and applied Cox Proportional hazard model to small local district data ❏ We combined NHI(National Health Insurance) individual patient data and air-pollution monitoring station data ㅇ For air pollution exposure variable, we used 1-year and 5 year average of small local district PM<sub>10</sub>, O<sub>3</sub>, NO<sub>2</sub> pollution - For PM<sub>10</sub> and NO<sub>2</sub>, We used daily average. For O<sub>3</sub>, we used average of maximum 8 hours for each day (We converted the unit of O<sub>3</sub> and NO<sub>2</sub> from ppb to ㎍/m3) ㅇ From NHI individual medical data, we obtained gender, age, income percentile, CCI, COPD exacerbation, smoking status ㅇ For dependent variable, we used dummy variable assigning 1 for death and 0 for survival ❏ We found that COPD patients exposed higher O<sub>3</sub> 1-year or 5-year had higher risk of death ㅇ Hazard ratio of 1 year O<sub>3</sub> exposure was estimated as 1.003. Hazard ratio of 5 year O<sub>3</sub> exposure was estimated as 1.004 Ⅶ. Solar Electricity Generation Prediction ❏ We developed an LSTM algorithm predicting electricity generation of Yung -am F1 solar power plant ㅇ We predicted hourly electricity generation and 12 hour average of electricity generation. The electricity generation was non-stationary time-series ❏ For independent variables, we used electricity generation and weather data with 1 lag ㅇ For weather data, we used hourly temperature, rainfall, humidity, solar insolation, Total Cloud amount from Mokpo weather monitoring station ㅇ We used data from Jan. 01.2017 to Jun. 30. 2018 for training, and data from Jun. 30. 2018 to Jun. 30. 2019 for testing ❏ We built and RNN based LSTM algorithm and compared RMSE with ARIMA model and 3-lag moving average ❏ The RMSE of our model was 36.9% of standard deviation in 1 hour prediction and 51.1% in 12 hours average prediction ㅇ The RMSE to standard deviation of our model was 71% of the RMSE to standard deviation ratio of 3-lag moving average, and 45% of RMSE to standard deviation of ARIMA model Ⅷ. Conclusion and Suggestions ❏ Summarizing, we improved ‘Environmental Policy Monitoring System’ and added some new results ㅇ We supplemented and improved components of ‘Environmental Policy Monitoring System’ - ‘Deep Learning Based Pollution Prediction algorithm’: We improved interpretability and extended prediction lag ㆍ ‘Fine particle high concentration event prediction’: We built a Quantile regression model which can produce coefficient estimates for independent variables and is capable of prediction as accurate as machine learning algorithm ㆍ ‘PM<sub>2.5</sub> estimation and prediction using Graph-GRU algorithm’: We achieved 7.64g/m<sup>3</sup> 12 hour prediction RMSE, which is equivalent to 1 hour prediction RMSE of our CNN based algorithm in 2019 - ‘Real Time Environmental Text Analysis algorithm ’: We expanded realtime sensitivity analysis and keyword network abstraction of negative sentiment for all environmental policy subfield - ‘Issue Based Database’: We improve policy monitoring scope from fine particle issue (2019) to climate change (2020) ㅇ We developed three new algorithms and one new issue based database - Fine particle high concentration event prediction quantile regression model, PM<sub>2.5</sub> pollution prediction Graph-GRU model, RNN based Solar electricity generation prediction algorithm/ climate change datamap ㅇ We expanded scope of environmental text analysis: Real-time environmental text analysis web interface ❏ For policy application, we strengthen environmental policy monitoring capability, quantify the health risk of air pollution, and provided items for the infrastructure of renewable energy ㅇ Environmental Policy monitoring: We improved policy need identification and information generation for precautionary policy intervention - Now our ‘Real Time Environmental Text Analysis algorithm’ is capable of identifying subfield of environment regarding which general public has negative sentiment. - Now our ‘Climate Change datamap’ is capable of real-time assessment of climate change issues - Now our ‘Deep Learning Based Pollution Estimation algorithm’ is capable of extending prediction lag of PM<sub>2.5</sub> and providing basic causality analysis for high concentration event of PM<sub>2.5</sub> ㆍGraph-GRU extended prediction lag. We can use this time for preventive policy intervention ㆍQuantile Regression model can be used policy evaluation tool by extending control variables and policy related variables ㅇ We provided quantified risk of air pollution on COPD patients, which can be used to quantify benefits of air-pollution reduction policy ㅇ We provided solar electricity generation prediction algorithm, which can be used for renewable energy smart-grid infrastructure

      • KCI등재

        사고(思考)의 형성 -열린 대화를 통한 에세이, 문학 텍스트 분석 및 강독-

        김남희 ( Nam Hui Kim ) 한국독어독문학회 2015 獨逸文學 Vol.56 No.1

        언어내, 언어간 또는 기호간의 번역에는 (문학)작품의 이해와 분석이 가장기본이다. 분석대상 텍스트에 대한 외적 지식은 해당 텍스트의 이해와 분석에 지대한 도움을 준다. 그러나 텍스트 외적 지식이 모든 커뮤니케이션의 상황이나 상이한 문화간의 맥락에서 항상 존재한다고 전제할 수는 없다. 또한 많은 경우에 해석하고자 하는 텍스트 자체에 대한 분석을 통해 텍스트 외적인 지식- 역사적, 맥락적 지식 - 과의 접점을 찾을 수 도 있다. 교수자와 학생이 함께하는 텍스트 분석이란 새로운 지식과 인식에 접근하기 위한 양자를 위한 일종의 발견여행이라고 볼 수 있다. 이 과정에서 교수자는 질문을 던지며 여행의 길잡이의 역할을 하게 된다. 이 논문은 그러한 발견 여행의 한 예를 특정 텍스트의 분석을 통해 선보이고자 한다. 이를 위해 이 논문에서는 의도적으로 하나의 구어 상황을 설정하여 텍스트 분석에 대한 논의를 전개하고, 문어와 구어의 경계를 의도적으로 해체한다. 텍스트의 분석은 논문에서 선보이는 작품이나 작가에 대한 사전지식, 시대배경에 구체적 이해 및 언급 없이 시도되며, 분석하는 텍스트의 제목과 작가의 이름은 논문의 후반부에서야 공개된다. 결과적으로 이러한 논문의 전개 방식은 학술적 글쓰기의 규범들을 침해하게 된다. 학문적 글쓰기의 기본 - 인용에 대한 서지정보 - 을 최소한이나마 유지하기 위하여, 분석 텍스트의 인용 시 작가의 이니셜 K와 인용출처의 쪽수를 기입하였다. 독일 및 유럽문학의 전문가라면 논문의 제목, 이니셜과 인용문장 등을 통해 작가가 누구인지를 바로 알아챌 수 있을 것이다. 방법론적인 측면에서 살펴보면, 이 논문에서는 텍스트 자체의 내용 및 형식적 측면(내적인 요소)을 텍스트 분석의 출발점으로 삼고, 통사적, 텍스트언어학적, 문헌학적, 번역학적으로 분석 대상 텍스트에 접근한다. 이러한 과정에서 대상 텍스트에서 사용된 어휘, 문장구조, 문장부호, 정서법, 텍스트의 장르, 텍스트에서 언급되는 특정 시대에 대한 언급 등을 텍스트 분석의 시발점으로 삼는다. 이때 텍스트 외적인 정보 및 지식 - 문학사(화사)적, 시대별 장르나 표현(방식)의 특징 등 - 은 우선적으로 고려되지 않는다. 그러나 결과적으로 텍스트 분석을 통해 확인하거나 또는 발견하게 되는 텍스트 내재적 특성을 통해 텍스트 외적 요소에 대한 사전 지식이나 접점의 유추가 가능하다. 이러한 접근 및 분석 방식을 좀 더 체계화 하여 모델화 한다면, 이는 독어독문학 강독수업에서도 유용하게 적용될 수 있을 것이라고 생각한다.

      • KCI등재

        국어 텍스트 분석 프로그램(KReaD 지수)의 개발

        조용구 ( Gho Yonggu ),이경남 ( Lee Gyeongnam ) 한국독서학회 2020 독서연구 Vol.0 No.56

        본 연구는 국어 텍스트를 분석 프로그램(KReaD 지수)을 개발하는 것에 목적이 있다. 개발을 위해 텍스트 분석 프로그램과 관련된 국외의 영어권 텍스트 분석 연구를 검토하였다. 검토한 결과를 바탕으로 어휘 등급 목록을 구축하고 R을 기반으로 한 텍스트 분석 프로그램을 개발하였다. 텍스트 난이도 분석에 활용되는 어휘 목록은 빈도 지표, 분산 지표를 활용하여 등급화했으며, 28,332 단어를 1~10등급으로 목록화했다. 텍스트 분석 프로그램은 R을 기반으로 구동하였으며, 분석 결과로 문단 수, 문장 수, 단어 수, 평균문장길이, 어려운단어비율, 문장구조점수, 학년수준, KReaD 점수, 타입토큰비율, 단문의비율, 복문의 비율 등을 확인할 수 있다. 그리고 텍스트를 시각화한 워드클라우드, 네트워크 분석 결과도 확인할 수 있도록 구성하였다. 텍스트 분석 프로그램의 KReaD지수는 텍스트의 난이도 점수로 0~2000점 구간에서 제시된다. 본 연구에서 개발한 텍스트 분석 프로그램은 추후 교재, 교과서, 평가 도구의 텍스트 선정에서 활용할 수 있으며, 분석 방법을 응용하여 Coh-Metrix처럼 서사성, 정보성, 응집성 등을 분석할 수 있는 도구로 활용이 가능하다. 본 연구 결과는 독자에게 적합한 텍스트 선정 분야에 도움을 줄 것으로 기대한다. This study aims to develop a Korean text analysis program (KReaD index). To this end, foreign English-speaking text analysis studies related to the text analysis program were reviewed. Using the results of the review, a list of vocabulary grades was established, and a text analysis program based on R was developed. The vocabulary list used for text difficulty analysis was graded using frequency and variance indicators, and 28,332 words were listed for grades 1 to 10. The text analysis program used R, and the analysis results indicate the number of paragraphs, number of sentences, number of words, average length of sentences, difficult word rate, sentence structure score, grade level, KReaD score, type-tokens ratio, short sentence ratio, and double sentence ratio. Additionally, a word cloud visualizing the text and a network analysis checked the results. The KReaD index of the text analysis program was presented in 0- to 2000-point intervals according to the difficulty score of the text. The text analysis program developed in this study can be used in the text selection of textbooks and evaluation tools and can be used as a tool to analyze whether a text is narrative, informational, cohesive, and so on, similar to the Coh-Metrix, by applying the analysis method. The results of this study are expected to help readers in the field of text selection.

      • KCI우수등재

        텍스트 마이닝을 적용한 교육연구 동향 분석

        진성희(Sung-Hee Jin),김혜경(Hyekyung Kim) 한국교육학회 2022 敎育學硏究 Vol.60 No.4

        연구의 목적은 텍스트 마이닝을 적용한 다양한 교육연구들의 동향을 분석함으로써 교육연구에 텍스트 마이닝 기법을 적용한 목적, 분석대상, 분석방법, 활용 SW에 대해 탐색하는 것이다. 연구동향을 탐색하기 위한 방법으로 텍스트 마이닝 기법과 체계적 문헌고찰 방법을 적용하였다. 텍스트 마이닝 기법을 적용하기 위한 문헌은 지난 10년간 국내 학술지에 게재된 KCI 등재(후보) 논문(2012년~2021년)의 키워드 중 “텍스트 마이닝” 또는 “토픽 모델링”을 포함하면서 초록에 “교육” 또는 “학습”을 포함한 논문 215편이다. 텍스트 마이닝 기법에 의한 토픽모델링 결과, 주요 토픽으로 연구동향(42.8%), 교육과정 및 교육자료 분석(14.4%), 교육요구와 인식분석(14%), 교육정책 및 이슈분석(12.6%), 효과인식과 효과평가(11.6%), 개념 및 의미 탐색 (3.3%), 교육경험 이해(1.3%)가 도출되었다. 2015년부터 2021년까지를 3주기로 구분하여 연구 트렌드를 분석한 결과, 연구주제가 시간이 갈수록 다양해지고 분석대상도 표준화된 논문, 보고서, 교육과정을 분석하는 연구에서 점차 구체적인 교육맥락에서 요구와 인식을 분석하는 연구로 발전해 가고 있다. 텍스트 마이닝 기법 분석 대상의 논문 중 토픽할당 확률이 높으면서 분석기준에 대한 구체적인 내용을 포함하고 있는 24편의 논문을 대상으로 체계적 문헌고찰 연구를 수행하였다. 교육연구에서 텍스트 마이닝을 적용한 목적은 내용분석 (63%), 사고탐색(17%), 성과요인탐색(17%), 경험탐색(5%)로 확인되었다. 분석대상은 연구참여자가 작성한 텍스트(34%), 논문이나 보고서(30%), 교육과정 또는 교과서(13%), 뉴스기사나 보도자료(13%) 등으로 나타났다. 분석방법으로는 키워드 빈도 분석(63%)이 가장 많이 활용되었고 그 다음으로 토픽모델링(46%), 의미 연결망 분석(46%), 워드클라우드 분석(34%) 등으로 나타났고 활용 SW로는 R(67%), NetMiner(21%), UCINET(17%) Python(9%), TEXTOM(9%)으로 나타났다. 연구결과, 텍스트 마이닝을 적용한 교육연구의 동향을 심층적으로 분석함으로써, 향후 다양한 교육연구주제에서 텍스트 마이닝을 연구방법론으로 적용할 수 있음을 시사하였다. The purpose of this study was to explore the characteristics of educational research applying text mining techniques by analyzing the research trends. Text mining techniques and systematic literature review methods were applied. The literature to which text mining techniques was applied was 215 KCI-listed (and KCI candidate) journal papers published in domestic journals in 2012-2021. As a result of applying the text mining technique, the following research topics were derived: research trends (42.8%), curriculum and educational materials analysis (14.4%), educational needs and perception analysis (14%), educational policy and issue analysis (12.6%), effect recognition and evaluation (11.6%), concept and meaning exploration (3.3%), and understanding of educational experiences (1.3%). As a result of analyzing research trends, it was found that research topics have become more diverse over time, and research that analyzes standardized papers, reports, and curricula is gradually evolving into research that analyzes needs and perceptions in specific educational contexts. A systematic literature review study was conducted on 24 papers with a high probability of topic allocation and containing specific contents of the analysis criteria. In educational research, the purpose for applying text mining was identified as content analysis (63%), exploring thinking (17%), exploring performance factors (17%), and exploring experience (5%). The data sources were texts written by participants (34%), papers or reports (30%), curriculum or textbooks (13%), and news articles or press releases (13%). Keyword frequency analysis (63%) was used the most, followed by topic modeling (46%), semantic network analysis (46%), and word cloud analysis (34%). The software utilized was R (67%), NetMiner (21%), UCINET (17%), Python (9%), and TEXTOM (9%). This study suggests that text mining can be applied as a research methodology for various educational research topics in the future.

      • KCI등재

        게르하르트 팔크너의 시 "아르테미스" ―통번역지향적 텍스트 분석 및 교수법에 관하여

        김남희 ( Nam Hui Kim ) 한국독어독문학회 2016 獨逸文學 Vol.57 No.2

        독일어, 독일문학 등을 전공하는 학사 또는 석사 과정의 학생들은 수학 중 다양한 독일어 텍스트를 접한다. 원문 텍스트를 정확히 이해하고, 이해한 바를 통역 또는 번역과 같은 방식으로 활용하기 위해서는 정연하고 체계적인 텍스트의 분석틀이 유용할 것이다. 이 논문에서는 주어진 텍스트와 관련된 정보와 지식을 의식적으로 통합하고 분석하여 텍스트에 접근하는 하향식 분석방법을 적용하여, 독일어 텍스트를 분석하였다. 분석에 사용된 텍스트는 "아르테미스"라는 게하르트 팔크너의 시 한편 이고, 분석의 과정을 반영한 결과물인 한국어 번역문을 첨부하였다. 텍스트의 정확한 이해와 독일어 원문텍스트의 분석은, 수용만을 위한 이해의 차원을 넘어 통번역적 행위(translatorischen Handeln), 즉 번역과 통역을 위한 전제 작업으로도 이해할 수 있다. 이렇듯 분석하고자하는 텍스트의 잠재적 번역 가능성을 인지하고, 이를 기반으로 원문 텍스트에 접근하는 방식을 통번역지향적 텍스트 분석이라 칭하고자 한다. 원문텍스트 분석, 목표어텍스트 생성과정에서 출발어와 도착어 및 원문텍스트 및 도착어텍스트의 다면적 비교와 분석을 통하여, 전공자들은 두 언어 및 텍스트를 포함한 매체의 특성, 이들 간의 공통점, 차이점 등을 더욱 명확하게 인식할 수 있게 될 것이다. 이를 위해서는 텍스트의 내용 측면 뿐 아니라, 어휘, 통사 및 텍스트의 장르 및 구조적인 차원을 포함하여 분석하는 통합적인 접근방식이 필요하며, 이 점은 앞으로의 연구를 통해 지속적으로 모색될 것이다.

      • KCI등재

        한국어 듣기 교재에 대한 텍스트기호학적 분석

        백승주 중앙어문학회 2022 語文論集 Vol.91 No.-

        In contrast to other classes where learners can check their learning content when they need it, it is difficult in listening classes. The only time learners can check the ‘listening content’ is while performing listening activities. Due to these limitations, the composition of listening textbooks is more difficult than in other textbooks. The listening textbook’s text is the only clue learners can rely on for understanding listening content, whereas for instructors, it is the only tool that can provide learners with input and output opportunities. In this study, we investigated how these restrictions are overcome in Korean listening subject textbooks from the perspective of text-semiotic analysis. To this end, the two textbooks were compared and analyzed. Text-semiotic analysis was performed following two procedures. The first analysis procedure is the analysis of ‘communication participants and the acceptance pattern of text.’ This analysis includes ‘classroom situation analysis,’ ‘class situation analysis,’ and ‘teacher and learner situation analysis.’ The second analysis procedure is ‘text structure analysis,’ which includes ‘separate partial text from the full text and superficial communication function analysis,’ ‘Analysis of the usage patterns and relationships of language signs and visual signs,’ and ‘interpretation of partial text function and teaching learning intention according to the class stage.’ The analysis revealed that the two textbooks were based on the same teaching method and listening model, but there were differences in various points. In the case of textbook A, one listening content was designed to be taught and learned through 10 partial texts, whereas in the case of textbook B, two listening contents were composed of five partial texts. It was confirmed that the patterns of coherence and cohesion between the partial texts of textbook A and textbook B appeared differently. Textbook A provides learners with abundant input and output opportunities. However, in the case of textbook B, it was found that coherence and cohesion were weak, and thus the provision of opportunities for input and output is insufficient. 필요할 때 교수학습 내용을 확인할 수 있는 다른 과목과는 달리 듣기 수업은 교수학습내용을 확인하는 것이 어렵다. ‘듣기 내용’은 듣기 활동을 수행할 때만 확인할 수 있기 때문이다. 이런 제약 때문에 듣기 교재의 구성은 다른 교재에 비해 더 까다롭다. 듣기 교재텍스트는 학습자에게는 의존할 수 있는 유일한 단서이고, 교수자에게 입력과 출력 기회를제공할 수 있는 유일한 도구이다. 이 연구에서는 한국어 듣기 과목 교재에서 이런 제약을어떤 방식으로 극복하고 있는지를 텍스트기호학의 관점에서 살펴보았다. 이를 위해 의사소통 중심 교수법과, 하향식 듣기 모형을 기반으로 하는 두 교재를 비교 분석하였다. 텍스트기호학적 분석은 크게 두 가지 절차를 따라 수행되었다. 첫 번째 분석 절차는 ‘의사소통 참여자 및 텍스트의 수용 양상’ 분석이다. 이 분석에는 ‘교실 상황 분석’, ‘수업 상황 분석’, ‘교사 및 학습자 상황 분석’이 포함된다. 두 번째 분석 절차는 ‘텍스트 구조 분석’으로이 절차 안에는 ‘부분텍스트 판정 및 표면적 의사소통 기능 분석’, ‘언어기호 및 시각기호의 사용 양상 및 관계 파악’, ‘수업 단계에 따른 부분텍스트의 기능 및 교수 학습 의의 분석’이 포함된다. 분석 결과 두 교재가 같은 교수법과 듣기 모형에 기반하고 있지만, 여러가지 지점에서 차이가 있다는 것을 확인할 수 있었다. A 교재의 경우 하나의 듣기 내용을부분 텍스트 10개를 통해 교수 학습하도록 설계되어 있었지만, B 교재의 경우 두 개의 듣기 내용을 5개의 부분 텍스트로 구성하고 있었다. A 교재와 B교재의 부분 텍스트들 간의응집성과 응결성의 양상이 다르게 나타난다는 점을 확인할 수 있었다. A 교재는 부분 텍스트들이 형식적으로나 내용적으로 긴밀하게 결속되어 있어, 학습자에게 풍부한 입력과출력 기회를 제공할 수 있었다. 그러나 B교재의 경우는 응집성과 응결성이 약하고, 따라서입력과 출력의 기회 제공이 부족한 것으로 나타났다.

      • KCI등재

        <일반논문> 시퀀스를 통한 텍스트 분석 - Jean-Michel Adam의 텍스트 이론을 중심으로 -

        차지영 ( Tcha Jiyung ) 덕성여자대학교 인문과학연구소 2014 인문과학연구 Vol.19 No.-

        텍스트 분석에서 시퀀스 단위는 중요한 의미를 지닌다. 시퀀스가 텍스트의 분석 단위로 관심을 받게 된 이유 중 하나는 문장 단위가 더 이상 분석 단위로서 유효하지 않기 때문이다. 언어학은 기존의 문장 단위 분석에서 벗어나서, 담화 혹은 텍스트로 그 분석의 대상을 넓혀가고 있다. 분석의 기본 단위 역시 문장보다 큰 단위를 사용하는 경우가 많아졌다. 장-미셀 아당Jean-Michel Adam은 텍스트가 하나의 전체로서 방법론들의 경계에서 있다는 점을 잘 알고 있다. 아당이 제시한 시퀀스 개념은 전통적 개념을 그대로 이어받은 것이 아니며 시퀀스는 아당의 구조주의적 관점의 텍스트 설명에서 가장 중추적 역할을 하는 분석 단위이다. 흔히 접할 수 있는 텍스트를 시퀀스로 분석하면, 아주 복잡한 시퀀스의 구조들을 만나게 되는데 한 텍스트가 하나의 시퀀스로 구성되는 경우는 거의 드물다. 예를 들어, 한 텍스트에는 전체를 지배하는 시퀀스와 그 하위에 삽입되는 시퀀스가 생길 수 있다. 시퀀스 단위는 의미상 발화문이 상호적으로 얽히고 결합한 단위이기 때문에, 문장 단위분석에서 발생할 수 있는 텍스트 의미연구의 어려움을 해소해 줄 수 있다. 이러한 시퀀스 단위를 바탕으로 텍스트들을 실재적으로 분석하여 보았다. Cet article a pour but d’analyser le texte a travers la notion de sequence de Jean-Michel Adam. La sequence sert d’intermediaire existant entre la proposition enoncee en tant qu’unite de base et le texte. En attenuant les significations de propositions enoncees respectives, la sequence joue un role definitif pour definir le sens du texte. Adam a trouve cinq sortes de sequence qui se composent en types varies pour structurer le texte. C’est ainsi que bien des chercheurs definissent que le texte n’est pas un liage lineaire des phrases mais le reseau complexe des unites de base. A partir de cette idee, Adam postulant un niveau intermediaire comme sequence ou periode, le texte peut etre analyse de facon plus systematique. Ce niveau intermediaire n’est pas simplement celui formel mais celui qui ne pent qu’etre defini par la consideration complexe du sens et de la forme. Cette idee permet de fournir une partie de base pour resoudre plus theoriquement le probleme du sens textuel.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼