RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      ‘인공 지능이 인간답다’라 함은? -심층 신경망 언어 모델을 중심으로- = ‘Is artificial intelligence human-like?’ -With a focus on a deep neural network language model-

      한글로보기

      https://www.riss.kr/link?id=A108174149

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      The statement 'artificial intelligence is human-like' has recently been a buzzword as an AI/neural-network language model is reported to reach a human level in language learning and processing, with the model implemented by applying the so-called deep...

      The statement 'artificial intelligence is human-like' has recently been a buzzword as an AI/neural-network language model is reported to reach a human level in language learning and processing, with the model implemented by applying the so-called deep neural network to language learning. In this paper, we evaluate the proposition of 'artificial intelligence is human', concentrating on the neural network language model. Accordingly, when neural network language models exhibit aspects of language learning and processing that humans do, we need to clarify whether the two human and AI learning & processing systems are homologous or what differences there are between them. Furthermore, based on the comparison of the two systems, we discuss what lights neural network language models shed on traditional issues raised for human language acquisition and processing, such as nature vs. nurture, human linguistic ability, etc.

      더보기

      국문 초록 (Abstract)

      사람의 신경망을 컴퓨터 공학 기술로 구현한 것이 소위 심층 신경망이다. 이를 적용한 언어 모델이 사람의 언어 학습을 재현함에 따라, 인공 지능 신경망 언어 모델이 언어 학습과 처리에 있...

      사람의 신경망을 컴퓨터 공학 기술로 구현한 것이 소위 심층 신경망이다. 이를 적용한 언어 모델이 사람의 언어 학습을 재현함에 따라, 인공 지능 신경망 언어 모델이 언어 학습과 처리에 있어 사람에 상응하는 수준에 도달하고 있다고 보고되면서 ‘인공 지능(신경망 언어 모델)이 (언어 학습과 처리에 있어) 인간답다’라는 말이 회자된다. 본고에서는 신경망 언어 모델을 중심으로 ‘인공 지능이 인간답다’라는 명제를 재검토한다. 이에 따라, 신경망 언어 모델이 사람과 같은 언어 학습과 처리의 양상을 보인다고 할 때, 두 학습 및 처리 시스템이 상동한지 아니면 어떤 차이점이 있는지를 해명한다. 나아가서, 두 시스템의 비교를 바탕으로, 사람을 대상으로 언어 학습과 처리에 관한 전통적 이슈들에 관하여, 사람과 대비하여 신경망 언어 모델은 어떤 특성을 보이는지 논의한다.

      더보기

      참고문헌 (Reference)

      1 Chaves, R. P., "What Don't RNN Language Models Learn About Filler-Gap Dependencies?" 3 (3): 2020

      2 Ettinger, A., "What BERT is not: Lessons from a new suite of psycholinguistic diagnostics for language models" 2020

      3 Giulianelli, M., "Under the hood: Using diagnostic classifiers to investigate and improve how language models track agreement information"

      4 Mitchell, T. M., "The need for biases in learning generalizations" Rutgers Univ 1980

      5 Lakoff, G., "The metaphorical structure of the human conceptual system" 1980

      6 Hauser, M., "The faculty of language: What is it, who has it, and how did it evolve?" 298 : 2002

      7 Lakretz, Y., "The emergence of number and syntax units in LSTM language models" 2019

      8 Chomsky, N, "The Minimalist Program" MIT Press 1995

      9 Marvin, R., "Targeted Syntactic Evaluation of Language Models" 2018

      10 Linzen, T., "Syntactic structure from deep learning" 2021

      1 Chaves, R. P., "What Don't RNN Language Models Learn About Filler-Gap Dependencies?" 3 (3): 2020

      2 Ettinger, A., "What BERT is not: Lessons from a new suite of psycholinguistic diagnostics for language models" 2020

      3 Giulianelli, M., "Under the hood: Using diagnostic classifiers to investigate and improve how language models track agreement information"

      4 Mitchell, T. M., "The need for biases in learning generalizations" Rutgers Univ 1980

      5 Lakoff, G., "The metaphorical structure of the human conceptual system" 1980

      6 Hauser, M., "The faculty of language: What is it, who has it, and how did it evolve?" 298 : 2002

      7 Lakretz, Y., "The emergence of number and syntax units in LSTM language models" 2019

      8 Chomsky, N, "The Minimalist Program" MIT Press 1995

      9 Marvin, R., "Targeted Syntactic Evaluation of Language Models" 2018

      10 Linzen, T., "Syntactic structure from deep learning" 2021

      11 van Schijndel, M., "Single‐stage prediction models do not explain the magnitude of syntactic disambiguation difficulty" 45 (45): 2021

      12 Khandelwal, U., "Sharp nearby, fuzzy far away: How neural language models use context"

      13 Banko, M., "Scaling to very very large corpora for natural language disambiguation" 2001

      14 Chomsky, N., "Rules and representations" 3 : 1980

      15 Adam, G., "Predictive power of word surprisal for reading times is a linear function of language model quality" 2018

      16 Lasnik, H., "Oxford Handbook of Universal Grammar" Oxford Univ. Pres 2017

      17 Baroni M, "On the proper role of linguistically-oriented deep net analysis in linguistic theorizing"

      18 Wilcox, E. G., "On the predictive power of neural language models for human real-time comprehension behavior"

      19 Pinker, S, "On language and connectionism: analysis of a parallel distributed processing model of language acquisition" 28 : 1988

      20 Warstadt, A., "Neural Network Acceptability Judgments" 2019

      21 Futrell, R., "Nerual language models as psycholinguistic subjects:Representation of syntatic state" 1 : 2019

      22 van Schijndel, M., "Modeling garden path effects without explicit hierarchical syntax" 2018

      23 Clark, A, "Microcognition: Philosophy, Cognitive Science, and Parallel Distributed Processing" MIT Press 1989

      24 Gibson, E, "Memory limitations and structural forgetting: the perception of complex ungrammatical sentences as grammatical" 14 : 1999

      25 Hart, B., "Meaningful differences in the everyday experience of young American children" Paul H Brookes Publishing 1995

      26 Hochreiter, S., "Long short-term memory" 9 : 1997

      27 Cho, K., "Learning phrase representations using RNN EncoderDecoder for statistical machine translation" 2014

      28 Chrupała, G., "Learning language through pictures" 2 : 2015

      29 Radford, A., "Language models are unsupervised multitask learners" 9 : 2019

      30 Gómez, R. L., "Infant artificial language learning and language acquisition" 2000

      31 Chomsky, N., "Handbook of Mathematical Psychology Vol.2" 1963

      32 Adi, Y., "Fine-grained analysis of sentence embeddings using auxiliary prediction tasks" 2017

      33 Raffel, C., "Exploring the limits of transfer learning with a unified text-to-text transforme"

      34 Shi, X., "Does string-based neural MT learn source syntax?" 2016

      35 Linzen, T., "Distinct patterns of syntactic agreement errors in recurrent networks and humans" 2018

      36 Weston, J. E., "Dialog-based language learning" 2016

      37 Christiansen, M., "Connectionist natural language processing:the state of the art" 23 : 1999

      38 Fodor, J, "Connectionism and cognitive architecture: a critical analysis" 28 : 1988

      39 Gulordava, K., "Colorless green recurrent networks dream hierarchically" 1 : 2018

      40 Bock, K., "Broken agreement" 23 : 1991

      41 Warstadt, A., "BLiMP: The Benchmark of Linguistic Minimal Pairs for English" 2020

      42 Devlin, J., "BERT: pre-training of deep bidirectional transformers for language understanding" 1 : 2016

      43 Linzen, T., "Assessing the ability of LSTMs to learn syntax-sensitive dependencies" 4 : 2016

      44 Chomsky, N, "Aspects of the Theory of Syntax" MIT Press 1965

      45 Wilcox, E., "A targeted Assessment of Incremental Processing in Neural Language Models and Humans" 2021

      46 Hu, J., "A systematic assessment of syntactic generalization in neural language models"

      47 Hewitt, J, "A structural probe for finding syntax in word representations" 2019

      48 Churchland, P, "A Neurocomputational Perspective: The Nature of Mind and the Structure of Science" MIT Press 1989

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2028 평가예정 재인증평가 신청대상 (재인증)
      2022-01-01 평가 등재학술지 유지 (재인증) KCI등재
      2019-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2016-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2014-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      2013-12-01 평가 등재후보 탈락 (기타)
      2012-01-01 평가 등재후보 1차 FAIL (등재후보1차) KCI등재후보
      2011-01-01 평가 등재후보학술지 유지 (등재후보1차) KCI등재후보
      2009-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.38 0.38 0.3
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.28 0.23 0.863 0.13
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼