RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
          펼치기
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        비즈니스 영역에서 인공지능 기술의 활용과 인공지능 윤리

        배재권 한국지식정보기술학회 2022 한국지식정보기술학회 논문지 Vol.17 No.6

        Artificial intelligence is leading the convergence of technologies and industries by converging with various original technologies in the era of the 4th industrial revolution. Technology convergence is a series of processes that collect large amounts of data (Big Data) through the Internet of Things (IoT) and wearable devices, store and manage data in the cloud server, and extract meaningful big data using artificial intelligence. The development of artificial intelligence is accelerating, and the applicability of artificial intelligence technology in the business field is also increasing. In this study, the applicability of artificial intelligence-based predictive analysis models is reviewed in business areas, and artificial intelligence application business areas (requirement forecasting and R&D optimization areas, product and service cost reduction and quality improvement, product and service promotion optimization areas, personalization provided user experience) was derived. In addition, five principles of artificial intelligence ethics were presented to minimize the side effects of artificial intelligence technology and reduce the failure factors of artificial intelligence introduction. Artificial intelligence should be constructed for the public welfare and advantage(profit) of mankind. Artificial intelligence must operate according to the principles of transparency and fairness. Artificial intelligence should not violate the data basic law (rights) or privacy of individuals, interest group and communities. All citizens should have the right to be educated to enjoy mental, emotional and economic prosperity through artificial intelligence. Never endow artificial intelligence with autonomous powers to harm, destroy, or deceive humans.

      • KCI등재

        인공지능(AI) 시대의 도래와 법제도의 방향에 관한 논의 - 독일의 인공지능 정책을 중심으로 -

        송기복 한국경찰법학회 2020 경찰법연구 Vol.18 No.2

        Artificial intelligence is gradually moving away from the field of research and is being used throughout everyday life, including self-driving, chatbot, biometric recognition, smart home, and medical devices. In addition, the utilization and application of big data is affecting various fields such as society, economy, politics, and law. Already in major advanced countries, discussions have been held to adjust the current legal system for the protection of data protection and privacy in telecommunications, industry, medical and financial sectors, the risk of discrimination by artificial intelligence, the issue of responsibility for artificial intelligence systems, and the establishment of ethical and artificial intelligence policy systems for artificial intelligence. Meanwhile, Germany has developed a high level of artificial intelligence research infrastructure (Infra) in connection with the federal government, state governments, research institutes, industries, and universities, and has developed widely in social, economic, and industrial sectors to make useful use of the benefits and convenience that artificial intelligence technology will bring. On the other hand, the legal system is being reviewed to cope with changes that will occur in various fields such as society, ethics, legal system, and culture due to the emergence of artificial intelligence technology and to prepare for the risks posed by artificial intelligence. First of all, based on the ethics needed in a series of processes such as designing, manufacturing, and utilizing artificial intelligence through technical standardization, and academic dialogue such as social, economic, and cultural sectors, the expansion of convergence on artificial intelligence's social impact, future effects by technology, and discussions on designing artificial intelligence to prevent artificial intelligence from threatening human safety. In order to establish a legal system that can utilize artificial intelligence technology without conflict with existing social values and legal systems, this school intended to provide a forum for discussion on the direction of artificial intelligence policy in Korea, although it is insufficient. 인공지능은 점차 연구의 장(場)에서 벗어나 자율주행, 채팅봇, 생체 인식, 스마트 홈, 의료 기기 등 일상생활 곳곳에서 활용되고 있다. 또한 빅데이터의 활용과 응용은 사회·경제·정치·법률 등 다양한 분야에서 영향을 미치고 있다. 이미 주요 선진국에서는 자율주행 및 얼굴 인증 시스템의 실용화에 따른 안전성과 개인정보 보호를 위해 통신·산업·의료·금융 분야 등에서 데이터 보호와 프라이버시 보호를 위한 규제와 인공지능에 의한 차별의 위험성, 인공지능 시스템에 대한 책임의 문제, 인공지능의 윤리 및 인공지능 정책 시스템 구축을 위한 현행 법제도의 조정을 위한 논의가 지속되고 있다. 한편 독일은 연방정부와 주 정부, 연구기관, 산업, 대학 등과 연계하여 고도의 인공지능 연구 인프라(Infra)를 구축하고 인공지능 기술이 가져올 이익과 편리함을 유용하게 활용하기 위하여 사회·경제·산업 분야 등에서 폭넓게 전개해 나가고 있다. 한편으로 인공지능 기술의 대두로 사회·윤리·법제도·문화 등 다양한 분야에서 초래될 변화에 대응하고 인공지능이 초래할 위험성에 대비하고자 법제도의 검토를 진행하고 있다. 우선 기술적 표준화를 통한 인공지능의 설계·제조·활용 등 일련의 과정에서 필요한 윤리와, 사회·경제·문화 분야 등 학제적 대화를 바탕으로 인공지능의 사회적 영향, 기술에 의한 미래의 영향에 관한 융합의 확대, 인공지능 기술이 인간의 안전을 위협하지 않도록 인공지능을 설계하는 논의를 지속하고 있다. 본고에서는 인공지능의 발전과 함께 기존의 사회적 가치관, 법제도와 충돌하지 않고 인공지능 기술을 활용할 수 있는 법제도의 정착을 위하여 독일의 인공지능 정책을 참조하여 부족하지만 우리나라의 인공지능 정책의 방향을 제시하는 논의의 장을 마련하고자 하였다.

      • KCI등재

        인공지능에 의한 발명의 발명자성에 대한 소고

        이상호 한국지식재산학회 2022 産業財産權 Vol.- No.71

        Under Korean patent laws, a patent right is initially vested in an inventor, and the justification of the patent right needs to be reviewed under the consideration of whether the recipient can be qualified as an inventor. This paper reviews three philosophical justifications for patent rights and applies them to artificial-intelligence-generated inventions and concludes that an inventor should be a natural person, and artificial intelligence's inventorship is not justified. First, under Locke's labor theory, every human being has property rights to his own person from birth and can expand his ownership, including patent rights, through his manual or mental labor. Artificial intelligence is a man-made object and does not have any basis for expanding property rights therefrom through labor as it is bereft of any innate rights whatsoever to own itself. Under Hegel's personality theory, a natural person has "the right to direct his will upon any object" and is a bearer of free will, which also can be a basis of the right to a patent. Free will is not merely the act of calculation, it's a reflection of Being itself. Artificial intelligence cannot have such self-purpose and dignity as human beings have and thus cannot be justified as an inventor. Under Bentham's Utilitarian view, it is presumed that an individual responds to incentives, and that this response benefits society. However, artificial intelligence lacks any motivation to devise an invention seeking a monopoly. One might argue that if artificial intelligence's inventorship is denied and no natural persons are qualified as an inventor and no one would be able to reap the benefits arising from the invention generated by artificial intelligence. It might be concerning as this will diminish scientists' motivation to develop the technology and eventually lead to a failure to maximize the utility in society as a whole. However, scientists' efforts should be protected only to the extent appropriate to their contributions. No one should be granted the rights to an invention that he or she has not contributed to. Otherwise, once the artificial intelligence technology reaches AGI (artificial general intelligence) or ASI (artificial superintelligence), only small number of owners would enjoy the limitless fruits of such artificial intelligence. Additionally, once artificial intelligence gains legal status, it can expand its rights boundlessly in society, which would pose a menace to humankind. In these cases, the inventorship of artificial intelligence should be denied under the Utilitarian view as it fails to maximize its utility in society. Accordingly, it is submitted that only natural persons are eligible for an inventor. If artificial intelligence generates an invention with no human contribution, the invention becomes the property of the public. However, if a natural person's contribution is insufficient to satisfy the inventorship requirement, it may be necessary to expand the scope of inventorship to include partial contributions from natural persons. In this regard, the work for hire doctrine under copyright provides a hint on how to enlarge the boundary of inventorship. It is suggested that a natural person employer who defines a problem and plans to find the solution using artificial intelligence, as a creative employee, should be credited as an inventor under the ‘invention for hire’ doctrine even if his contribution to a conception of an invention does not meet the current inventorship requirements. 특허법에 따르면, 특허권은 원시적으로 발명자에게 주어지므로 특허권의 정당성을 논함에 있어 권리를 받는 자가 발명자로 인정되어 권리를 누리는 것이 합당한지 검토해야 할 필요가 있다. 본 고는 특허권에 대한 세 가지 철학적 정당성을 검토하고 인공지능에 의한 발명에 적용하여 오직 자연인만 발명자로 인정받을 수 있으며 인공지능의 발명자성은 정당화되지 못한다고 결론 내렸다. 먼저, 로크의 노동이론에 따르면 모든 인간은 생득적으로 자기 자신에 대한 재산권적 권리를 가지며 특허권을 포함해 자신의 정신적 육체적 노동을 통해 소유권을 확장해 나갈 수 있다. 하지만 인공지능은 사람이 만든 객체에 불과하여 자기 자신으로부터 노동을 통해 확장할 수 있는 어떤 내재적 권리의 기반을 가지고 있지 못하다. 헤겔의 인격 이론에 따르면 자연인은 자신의 의지를 객체에 투영할 수 있는 권리를 가지며 특허권의 근거가 되는 자유의지의 담지자이기도 하다. 자유의지는 단순한 정보의 선택을 의미하지 않으며 존재 자체로부터 나오는 자기 자신의 목적의 투영이다. 인공지능은 인간과 같은 자기 목적성이나 존엄성을 가지고 있지 못하므로 발명자로 정당화될 수 없다. 벤담의 공리주의에 따르면, 인간은 유인에 반응하는 존재로 상정되며 이러한 인간의 반응이 사회의 유용을 증대시키는 역할을 한다. 하지만, 인공지능은 이러한 유인에 반응하여 발명의 독점권을 추구하는 존재가 아니다. 혹자는 만약 인공지능의 발명자성이 부정되고 발명자로 인정될 수 있는 자연인이 존재하지 않는 경우, 누구도 인공지능이 발명한 결과물에 대한 유익을 취할 수 없게 될 것이고, 이는 결국 인공지능을 연구하는 과학자들의 사기를 저하해 사회 전체 유익이 최대화되지 못한다는 위험을 불러올 수 있다고 염려할 수 있다. 하지만 과학자들의 노력은 그에 상응하는 정도의 보호만 받을 필요가 있다. 누구도 자신이 발명하지 않은 것에 대한 권리를 주장할 수는 없다. 인공지능기술이 초인공지능 내지는 강인공지능에 이르게 되면 소수의 사람이 인공지능이 개발한 열매를 누릴 수 있는 위험이 있다. 또한, 인공지능이 자신의 법률적 지위를 가지게 되면 특허권은 자신의 발명에 대한 권리를 사회에서 무한대로 확장할 수 있는 근거가 될 수가 있고, 이는 인류가 위협될 수 있다. 이 두 경우 모두 인공지능을 발명자로 인정하는 것은 부정되어야 하는데 이는 공리주의적 관점에서 사회 전체적 유용성을 최대화하지 못하기 때문이다. 따라서, 자연인만 발명자로 인정받아야 하며, 만약 인간의 개입 없이 인공지능에 의한 발명이 이루어지면 이는 결국 공공재로 취급되어야 한다. 그러나 자연인이 인공지능을 사용하며 발명에 이르는 과정을 기획한 경우의 비록 발명의 착상에 대한 발명자의 기여가 비록 발명자 요건을 만족시키는 정도는 아니라 하더라도 발명자성의 범위를 보다 확대하여 발명자성을 부여하는 것이 합리적이라 하겠다. 이와 관련해서 저작권법의 업무상 저작물 제도는 발명자성의 외연을 넓히는 단초를 제공한다. 본 고는 자연인 사용자가 문제를 정의하고 해결책을 찾기 위해 인공지능을 창의적 근로자로 사용한 경우 해당 자연인의 발명 착상에 대한 기여가 비록 특허법에서 요구하는 발명자성에 미치지 못한다고 하더라도 업무상 발명(invention for hire)제도를 통해 발명자로 인정해줄 것을 제안한다.

      • KCI등재

        인공지능을 활용하여 창출된 발명에 대한 바람직한 진보성 법리

        정차호,김유진,이서영 충남대학교 법학연구소 2023 法學硏究 Vol.34 No.1

        Nowadays, with the development of artificial intelligence technology, many inventors are utilizing artificial intelligence to create their inventions. Due to the changed research environment, a change or at least an assessment of current inventive step (non-obviousness) jurisprudence is required. In other words, it is necessary to review whether current inventive step (non-obviousness) jurisprudence, which is summarized as “a person having ordinary skills in the art (PHOSITA)” and “obvious extraction”, is still well grounded in the era of artificial intelligence. Some have argued that wide utilization of artificial intelligence makes invention easier and increases the concern over too many patents. This paper analyzes academic discussions from Korea, China, Japan and the United States on new inventive step jurisprudence which should be applied to inventions created utilizing artificial intelligence (assuming weak artificial intelligence). The discussions are mainly divided into (1) the argument that the current concept of “PHOSITA” should be changed to the concept of “ordinary artificial intelligence”, and (2) the argument that the utilization of artificial intelligence should be described in the patent specification. Regarding the argument (1) above, this paper proclaims that a weak artificial intelligence cannot be a (co-) inventor and is only a more powerful tool. Thus, inventive step should be judged based on the standard of “smarter PHOSITA” who can utilize artificial intelligence. Regarding the above argument (2), because artificial intelligence may be a trade secret and it is practically difficult to impose a penalty on a specification that does not describe utilization of artificial intelligence, the paper disagrees with the argument. Although utilization of artificial intelligence will make invention easier and increase the number of patent applications, the threshold of inventive step will also be heightened due to the standard of “smarter PHOSITA”. As a result, the number of patent registrations is not likely to increase significantly. In conclusion, this paper believes that the basic framework of the current inventive step (non-obviousness) jurisprudence can be maintained in the era of weak artificial intelligence.

      • KCI등재

        중등학생 대상 인공지능 윤리역량 평가척도 개발

        배진아,이정훈,홍미선,조정원 한국컴퓨터교육학회 2022 컴퓨터교육학회 논문지 Vol.25 No.6

        Artificial intelligence technology is a representative future industrial technology that has a great impact on society and the economy as a whole. However, as artificial intelligence becomes closer to our lives, unexpected ethical issues are also emerging. Accordingly, major countries around the world are making various efforts, such as preparing ethical standards to secure trust in artificial intelligence. In addition, the need for artificial intelligence ethics education for students who will become users and developers of artificial intelligence has emerged. However, there are not enough research to establish ethical standards for artificial intelligence ethics education and strengthening of executive power. Therefore, the purpose of this research is to develop a scale that can measure the ethical competence of artificial intelligence for middle and high school students. This research was conducted with the aim of developing a process evaluation tool to foster artificial intelligence ethics and strengthening of executive power of artificial intelligence ethics. To this end, the items were modified and supplemented through scale item analysis and expert advice previously studied, and data were collected by applying them to educational programs. After that, through this survey, the artificial intelligence ethical competency scale was developed through stages such as validity and reliability test of variables and confirmation factor analysis. Through the artificial intelligence ethical competency evaluation scale developed through this study, it will be possible to comprehensively evaluate the artificial intelligence ethical literacy and execution ability of middle and high school students. 인공지능 기술은 사회, 경제 전반에 광범위한 영향을 미치는 대표적인 미래 산업기술이다. 그러나 인공지능이 우리 삶에 밀접해지면서 예상치 못한 윤리적 이슈도 함께 나타나고 있다. 이에 주요 국가들은 신뢰 확보를 위한 인공지능 윤리기준을 마련하는 등 다양한 노력을 기울이고 있다. 또한 인공지능의 이용자이면서 개발자가 될 학생들을 위한 인공지능 윤리 교육의 필요성이 대두되었다. 하지만, 인공지능 윤리교육을 위한 윤리기준을 마련하고, 윤리에 대한 실천력을 강화를 위한 연구는 충분치 않다. 이에 본 연구에서는 중 ·고등 학생을 대상으로 인공지능 윤리역량을 측정할 수 있는 척도를 개발하는 것을 목적으로 한다. 인공지능 윤리소양 함양과 인공지능 윤리 실천력을 강화하기 위한 수행형 기반 측정 도구 개발을 목표로 연구하였다. 이를 위해 기존에 연구된 척도 문항 분석과 전문가 자문을 거쳐 문항을 수정 및 보완하고, 교육 프로그램에 적용하여 데이터를 수집하였다. 이후 본조사를 통해 변수의 타당성 및 신뢰도 검정, 확인적 요인분석 등의 단계를 거쳐 인공지능 윤리역량 평가척도를 개발하였다. 본 연구를 통해 개발된 인공지능 윤리역량 평가척도를 통해 중 ·고등학생의 인공지능 윤리 소양과 윤리 실천력 등을 종합적으로 평가할 수 있을 것이다.

      • KCI등재

        형사사법 절차에서 인공지능 기술의 활용과 기술경영에 관한 연구

        김태율,정혜련 한국경영법률학회 2020 經營法律 Vol.31 No.1

        The information and communications technology area has achieved innovative development, and the term "Artificial Intelligence" (AI) is becoming a common language. Topics such as self-driving cars, artificial intelligence speakers, AlphaGo and artificial intelligence robots can also be seen appearing frequently in the media, the Internet and dramas. As the use of artificial intelligence technology increases in various fields, it is expected that artificial intelligence technology will be introduced and utilized in the criminal justice field, There is a need to discuss legal and normative issues that will be caused by artificial intelligence's actions and the character of the acts, criminal capabilities, and criminal responsibility capabilities. And in this study, the definition and concept of artificial intelligence were reviewed generally, and the legal status and character of the responsibility that could be caused by the use of artificial intelligence were discussed in criminal law, and discuss whether artificial intelligence can be recognized as a member of the Criminal Justice Act. In addition, examined the domestic special law on artificial intelligence and the newly enacted legislation and based on recent trends, such as identifying major issues commonly mentioned by checking related laws abroad, special laws related to artificial intelligence are being enacted in Korea, but legislation or policies have yet to be implemented from a comprehensive perspective. procedures were confirmed. Continually, The cases and domestic status of the U.S., Europe, and the Netherlands where artificial intelligence technology was used in criminal justice procedures were confirmed. Currently, there are differences in the level of development in both countries and Korea, including the U.S. and the U.S., but in general, it has been confirmed that its utilization is still in its early stages. Based on these findings, we reviewed the availability of artificial intelligence technology in criminal justice procedures in Korea and suggested policy implications. 정보통신기술 영역이 혁신적인 발전을 거듭하면서 그 원동력 중 하나인 인공지능(AI: Artificial Intelligence)과 관련된 용어들이 일상화되고 있다. 자율주행 자동차, 인공지능 스피커, 알파고, 인공지능 로봇과 같은 주제들도 언론이나 인터넷, 드라마 등에 자주 등장하는 것을 볼 수 있다. 여러 분야에서 인공지능 기술 활용이 증가함에 따라 형사사법 분야에서도 인공지능 기술이 도입되어 활용될 것이 예견되는바, 인공지능의 행위로 인해 야기될 법적·규범적 문제와 그 행위의 성격, 범죄능력, 형사책임능력 등에 대한 논의의 필요성이 대두되고 있다. 이에 본 연구에서는 인공지능의 정의와 개념에 대해 개괄적으로 확인하고, 인공지능의 활용으로 인해 야기될 수 있는 책임에 대한 법적 지위와 그 성격을 형사법적으로 논하고, 인공지능을 형사사법의 구성원으로까지 인정할 수 있을지를 논의해 보고자 한다. 또한, 인공지능과 관련된 국내 특별법과 새로이 제정될 입법안 등을 살펴보고, 국외의 관련 법률을 확인함으로써 공통으로 언급되는 주요 논점을 확인하는 등 최근 동향을 살펴 비교해 본바, 국내의 경우 인공지능 관련 특별법들이 제정되고 있지만 아직은 종합적 관점에서의 입법이나 정책은 미비한 것으로 확인되었다. 계속해서 인공지능 기술이 형사사법 절차에서 활용된 미국과 유럽, 네덜란드의 사례와 국내 현황을 확인해 본바, 현재 형사사법 체계에서 영미 등 각국과 국내 모두 발전 정도의 차이는 있으나 대체적으로 그 활용도가 아직 초기 단계임을 확인할 수 있었다. 이와 같은 연구 결과를 토대로 향후 국내 형사사법 절차에서의 인공지능 기술의 활용 가능성과 기술경영의 방향에 대해 검토하고 정책적 시사점에 대해 제언하였다.

      • KCI등재

        인공지능의 형사상 책임능력

        최호진 연세대학교 법학연구원 2024 法學硏究 Vol.34 No.1

        인공지능의 법적 책임과 지위에 대한 논의가 인공지능의 특성을 충분히 고려하지 못하고 있으며, 이에 대한 새로운 법적 논의가 필요하다. 특히 인공지능의 행위로 발생한 결과에 대한 책임의 귀속이 불명확하며, 현재의 법규범이 이를 충분히 다룰 수 있는지에 대한 의문이 제기되고 있다. 미래의 인공지능이 더욱 발전하면서 법적 책임과 지위에 대한 논의는 더욱 중요해질 것으로 예상된다. 인공지능의 책임 귀속을 확인하기 위한 두 가지 주요 연구방법론을 소개하였다. 자연인과 인공지능의 유사성 판단기준으로 사용될 수 있는 규범적 표지로 인격성(personality), 법인격 기준, 자율성 기준이 있다. 유사성을 기반으로 한 유비추론 연구방법론을 통해 인공지능에게 자연인과 동등한 책임을 부여하기 어렵다. 인공지능의 책임능력과 관련해서는 현재 인공지능에 대해서는 자유의지를 전제로 한 책임능력을 인정하기 어렵다. 인공지능의 형벌능력과 관련해서는 형벌 목적 관점과 예방효과의 불투명성, 형벌 정형성의 문제, 형벌감수성과 형벌수용의 문제, 형벌 부과 절차의 부재 등으로 인하여 형벌능력을 인정하기 어렵다. 현재는 인공지능에게 법인격을 부여하거나 형법 주체성을 논의할 시점이라기보다는 형사사법에 인공지능을 어떻게 도구적으로 활용할 것인가에 대하여 논의할 시점이라고 생각한다. 대신, 인공지능을 새로운 위험원으로 보고 이로 인한 위험을 관리하는 ‘인공지능 관리법’이 필요하다. 인공지능에 대하여 허용된 위험의 법리를 적용한 특별법이 필요하다. Discussions on the legal responsibility and status of artificial intelligence do not fully consider the characteristics of artificial intelligence, and new legal discussions are needed. In particular, the attribution of responsibility for the consequences arising from the actions of artificial intelligence is unclear, and questions are raised as to whether the current legal norms can sufficiently deal with it. As artificial intelligence develops further in the future, discussions on legal responsibility and status are expected to become more important. Two main research methodologies were introduced to confirm the attribution of responsibility to artificial intelligence. As normative markers that can be used as criteria for determining the similarity between natural persons and artificial intelligence, there are standards for personality, legal personality, and autonomy. It is difficult to give artificial intelligence the same responsibility as natural persons through a ubiquitous research methodology based on similarity. Regarding the responsibility ability of artificial intelligence, it is difficult to recognize the responsibility ability that presupposes free will for artificial intelligence at present. Regarding the punishment ability of artificial intelligence, it is difficult to recognize the punishment ability due to the opacity of the purpose of punishment and the prevention effect, the problem of punishment formality, the problem of punishment sensitivity and acceptance of punishment, and the absence of a punishment imposition procedure. I think it is not the time to give artificial intelligence a legal personality or discuss the subjectivity of criminal law, but rather to discuss how to use artificial intelligence as a tool in criminal justice. Instead, there is a need for an ‘Artificial Intelligence Management Act’ that sees artificial intelligence as a new source of risk and manages the risks resulting from it. There is a need for a special law that applies the law of allowed risk to artificial intelligence.

      • KCI등재

        인공지능이 의사결정에 미치는 영향에 관한 연구: 인간과 인공지능의 협업 및 의사결정자의 성격 특성을 중심으로

        이정선(JeongSeon Lee),서보밀(Bomil Suh),권영옥(YoungOk Kwon) 한국지능정보시스템학회 2021 지능정보연구 Vol.27 No.3

        Artificial intelligence (AI) is a key technology that will change the future the most. It affects the industry as a whole and daily life in various ways. As data availability increases, artificial intelligence finds an optimal solution and infers/predicts through self-learning. Research and investment related to automation that discovers and solves problems on its own are ongoing continuously. Automation of artificial intelligence has benefits such as cost reduction, minimization of human intervention and the difference of human capability. However, there are side effects, such as limiting the artificial intelligence’s autonomy and erroneous results due to algorithmic bias. In the labor market, it raises the fear of job replacement. Prior studies on the utilization of artificial intelligence have shown that individuals do not necessarily use the information (or advice) it provides. Algorithm error is more sensitive than human error; so, people avoid algorithms after seeing errors, which is called “algorithm aversion.” Recently, artificial intelligence has begun to be understood from the perspective of the augmentation of human intelligence. We have started to be interested in Human-AI collaboration rather than AI alone without human. A study of 1500 companies in various industries found that human-AI collaboration outperformed AI alone. In the medicine area, pathologist-deep learning collaboration dropped the pathologist cancer diagnosis error rate by 85%. Leading AI companies, such as IBM and Microsoft, are starting to adopt the direction of AI as augmented intelligence. Human-AI collaboration is emphasized in the decision-making process, because artificial intelligence is superior in analysis ability based on information. Intuition is a unique human capability so that human-AI collaboration can make optimal decisions. In an environment where change is getting faster and uncertainty increases, the need for artificial intelligence in decision-making will increase. In addition, active discussions are expected on approaches that utilize artificial intelligence for rational decision-making. This study investigates the impact of artificial intelligence on decision-making focuses on human-AI collaboration and the interaction between the decision maker personal traits and advisor type. The advisors were classified into three types: human, artificial intelligence, and human-AI collaboration. We investigated perceived usefulness of advice and the utilization of advice in decision making and whether the decision-maker’s personal traits are influencing factors. Three hundred and eleven adult male and female experimenters conducted a task that predicts the age of faces in photos and the results showed that the advisor type does not directly affect the utilization of advice. The decision-maker utilizes it only when they believed advice can improve prediction performance. In the case of human-AI collaboration, decision-makers higher evaluated the perceived usefulness of advice, regardless of the decision makers personal traits and the advice was more actively utilized. If the type of advisor was artificial intelligence alone, decision-makers who scored high in conscientiousness, high in extroversion, or low in neuroticism, high evaluated the perceived usefulness of the advice so they utilized advice actively. This study has academic significance in that it focuses on human-AI collaboration that the recent growing interest in artificial intelligence roles. It has expanded the relevant research area by considering the role of artificial intelligence as an advisor of decision-making and judgment research, and in aspects of practical significance, suggested views that companies should consider in order to enhance AI capability. To improve the effectiveness of AI-based systems, companies not only must introduce high-performance systems, but also need employees who properly understand digital information presented by AI, and can add non-digital

      • KCI등재

        블록형 프로그래밍 언어 기반 인공지능 교육이 학습자의 인공지능 기술 태도에 미치는 영향 분석

        이영호 한국정보교육학회 2019 정보교육학회논문지 Vol.23 No.2

        Artificial intelligence has begun to be used in various parts of our lives, and recently its sphere has been expanding. However, students tend to find it difficult to recognize artificial intelligence technology because education on artificial intelligence is not being conducted on elementary school students. This paper examined the teaching programming language and artificial intelligence teaching methods, and looked at the changes in students' attitudes toward artificial intelligence technology by conducting education on artificial intelligence. To this end, education on block-type programming language-based artificial intelligence technology was provided to students' level. And we looked at students' attitudes toward artificial intelligence technology through a single group pre-postmortem. As a result, it brought about significant improvements in interest in artificial intelligence, possible access to artificial intelligence technology and the need for education on artificial intelligence technology in schools. 인공지능이 우리 생활의 다양한 곳에 사용되기 시작하였으며, 최근 그 영역 또한 점차 확대되고 있다. 하지만 인공지능에 대한 교육이 초등학생을 대상으로 이루어지고 있지 않기 때문에 학생들이 인공지능 기술에 대해 어렵게 인식하는 경향이 있다. 이에 본 논문에서는 교육용 프로그래밍 언어와 인공지능 교육 방법을 고찰하고, 인공지능에 대한 교육을 실시함으로써 학생들의 인공지능 기술에 대한 태도의 변화를 살펴보았다. 이를 위해 학생들의 수준에 적절한 블록형 프로그래밍 언어 기반 인공지능 기술에 대한 교육을 실시하였다. 그리고 학생들의 인공지능 기술에 대한 태도를 단일집단 사전사후 검사를 통해 태도의 변화를 살펴보았다. 그 결과 인공지능에 대한 흥미, 인공지능 기술에 대한 접근 가능성, 학교에서 인공지능 기술에 대한 교육의 필요성에 있어 유의미한 향상을 가져왔다.

      • KCI등재

        인공지능과 법체계의 변화 ―형사사법을 예로 하여―

        양천수 한국법철학회 2017 법철학연구 Vol.20 No.2

        Due to the Baduk match between AlphaGo, the artificial intelligence of Google Deep Mind and the Korean professional Baduk player Lee, Se Dol in March 2016, artificial intelligence becomes a reality. As if to reflect this phenomenon, the academic interest in artificial intelligence is increasing more and more in law. The impact of artificial intelligence on our society is expected to be greater than anything else. Some people argue that artificial intelligence will give rise to the ‘Fourth Industrial Revolution’. In this context, this article intends to analyze how artificial intelligence will affect our criminal justice system. For the clarity of this discussion, this article divides artificial intelligence into ‘weak artificial intelligence’ and ‘strong artificial intelligence’. If the strong artificial intelligence is the perfect implementation of all the mental abilities of humans, the weak artificial intelligence is the artificial intelligence that has not yet reached such level. At this point in time, the artificial intelligence remains weak. The weak artificial intelligence can be useful as a tool of criminal justice. For example, the weak artificial intelligence can be used as a useful tool when acknowledging facts, judging guilt and making sentences. Even the weak artificial intelligence may be able to replace much of the works done by criminal justice. Contrary to this, the weak artificial intelligence can be used as a tool of crime. However, in this case, the difficult problem will not appear particularly in terms of the theory of criminal law. The strong artificial intelligence will be a serious theoretical and practical challenge to the Korean criminal justice. This is because if the strong artificial intelligence alone commits a crime, it will be a matter of whether criminal punishment can be sentenced to the strong artificial intelligence. This also relates to a question of whether our criminal justice will accept the post-anthropocentric criminal justice beyond the anthropocentric criminal justice. This article argues that the criminal punishment of the strong artificial intelligence can be theoretically justified. As a ground for this, our legal system has already accepted a certain part of the post-anthropocentric legal thoughts. However, this article also raises a question of whether it is necessary to regulate the strong artificial intelligence by criminal law. 지난 2006년 3월에 있었던 구글 딥마인드의 인공지능 알파고와 이세돌 9단의 바둑대국 덕분에 인공지능은 어느덧 우리의 현실이 되고 있다. 이를 반영하듯 법학에서도 인공지능에 대한 학문적 관심이 높아 가고 있다. 앞으로 인공지능이 우리 사회에 미칠 영향은 그 무엇보다 클 것으로 예상된다. 인공지능이 제4차 산업혁명을 야기할 것이라는 주장도 제기된다. 이러한 상황에서 이 글은 인공지능이 우리 형사사법에 어떤 영향을 미칠 것인지를 분석한다. 논의를 분명히 하기 위해 이 글은 인공지능을 ‘약한 인공지능’과 ‘강한 인공지능’으로 구분하여 논의를 전개한다. 강한 인공지능이 인간이 수행하는 일체의 정신능력을 완벽하게 구현한 것이라면, 약한 인공지능은 아직 여기에는 이르지 못한 인공지능을 말한다. 현 시점에서 우리가 갖고 있는 인공지능은 여전히 약한 인공지능에 머물러 있다. 약한 인공지능은 형사사법의 도구로서 유용하게 활용될 수 있다. 이를테면 사실인정을 하거나 죄책을 판단할 때 그리고 양형을 할 때 약한 인공지능은 유용한 도구로 활용될 수 있다. 심지어 약한 인공지능은 형사법관이 수행하는 업무를 상당 부분 대체할 수도 있을 것이다. 반대로 약한 인공지능은 범죄의 도구로서 활용될 수 있다. 다만 이 경우 형법이론적으로 특별히 어려운 문제가 등장하지는 않을 것이다. 이와 달리 강한 인공지능은 우리 형사사법에 중대한 이론적·실천적 도전이 될 것이다. 왜냐하면 강한 인공지능이 독자적으로 범죄를 저지른 경우 강한 인공지능에 형사처벌을 할 수 있는지가 문제가 될 것이기 때문이다. 이는 우리 형사사법이 인간중심적 형사사법을 넘어서 탈인간중심적 형사사법을 받아들일 것인가의 문제와도 관련을 맺는다. 이 글은 강한 인공지능에 형사처벌을 하는 것이 이론적으로 정당화될 수 있다고 주장한다. 그 근거로서 우리 법체계는 이미 일정 부분 탈인간중심적 법사상을 수용하고 있다는 점을 든다. 그러면서도 이 글은 과연 강한 인공지능을 형법으로 규율할 필요가 있는지에 의문을 제기한다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼