RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        AI 로봇의 법적 지위에 대한 쟁점과 과제 - Bryson 등의 법인격 이론을 중심으로 -

        김민배(Kim, Min-Bae) 한국토지공법학회 2019 土地公法硏究 Vol.87 No.-

        AI 로봇에 법적 인격을 부여해야 하는가. 그것을 지적인 인공물로 간주해야 할 것인가. 인공지능(Artificial Intelligence)의 발전에 따라 지능화한 로봇에게 전자적 인간(electronic personhood) 혹은 전자적 인격(electronic personality)과 같은 새로운 개념의 법적 지위를 부여하는 것이 바람직한가 하는 것이 주요한 쟁점이다. 그동안 학자들은 로봇과 인공지능의 법적 지위를 논의했다. 그런데 EU의회의 2017년 제안서가 다시 이 문제를 현안으로 등장시켰다. EU 의회의 유럽위원회(European Commission)는 장기적으로 자율형 첨단 로봇이 발생시킬 수 있는 손해에 대해 책임지는 전자적 인간과 같은 특정한 지위를 확립해야 하며, AI 로봇이 자율적으로 의사결정을 내리거나 제 3 자와 독립적으로 상호 작용을 하는 경우 전자적 인격을 적용할 수 있도록 검토를 촉구한바 있다. 그러나 EU 의회의 제안은 많은 비난과 반대를 촉발시켰다. 2018년 4월 유럽 연합 14개국의 인공지능 및 로봇 전문가, 변호사, 기업가들 156명은 5월 초 유럽 위원회에 공개서한을 보내고 로봇에 법적 지위를 부여하려는 움직임에 반대를 하였다. 이 공개서한에서 자율적이고, 예측 불가능하며, 자기 학습을 하는 로봇에 대해 전자적 인격이라는 법적 지위를 부여하는 것은 문제가 있다고 했다. 그들은 기술적 관점, 규범적 및 법적 그리고 윤리적 관점 모두에서 폐기되어야한다고 주장하였다. 하지만 EU위원회는 한걸음 더 나아가 2019년 6월 26일 인공지능의 윤리 체크리스트를 발표하였다. 인공지능에 대하여 유럽위원회는 ‘High-Level Expert Group of Artificial Intelligence’의 정책 권고안을 토대로 신뢰할 수 있는 인공지능에 대한 윤리 지침을 준비하고 있다는 점을 공표하였다. 현재 전자적 인간과 전자적 인격의 도입을 주장하는 측에서는 지능형 인공물들(artefacts)에게도 유사한 법적 지위를 부여하려는 의도를 지니고 있다. 그러나 전자적 인간 혹은 전자적 법인격이라는 개념을 언제 도입할 것인가, 어떤 법적 지위를 부여할 것인가 등에 대해서는 계속하여 논의가 필요하다. AI와 로봇을 법적 인격의 범주로 검토하는 것은 기술의 변화가 가져올 미래를 대비하는 시도임에 틀림없기 때문이다. 하지만 말하기는 쉽고, 실천하기는 어려운 분야임에 틀림없다. 본 논문에서는 지능형 인공물 가운데 AI와 로봇이 법적 인격을 갖는 주체가 될 수 있는가를 검토하고자 한다. 특히 본 논문에서는 로봇의 법적 지위 부여에 긍정적인 입장을 취하는 Bryson 등의 논리를 검토한다. 여기에서는 주로 Bryson 등의 논거의 타당성과 한계 그리고 보완해야 할 점을 검토하고자 한다. 이를 통해 로봇에 대해 전자적 인간 내지 전자적 인격을 부여해야 하는가. 그것이 가능하다면 그 이유는 무엇이고, 그 시점은 언제인가등을 검토하고자 한다. Should AI robots be given legal personality? Should we consider it as an intelligent artifact? There is controversy over such issues. In other words, it is desirable to give the intelligent robot the legal status of new concepts such as electronic personhood and electronic personality according to the development of artificial intelligence. That is the point of contention. Scholars have increasingly discussed the legal status(es) of robots and artificial intelligence systems over the past three decades; however, the 2017 resolution of the EU parliament on the ‘electronic personhood’ of AI robots has reignited and even made current debate ideological. The European Commission has to establish certain statuses, such as electronic human beings, that are responsible for the damages that autonomous advanced robots can generate in the long term, and that AI robots make autonomous decisions, And encouraged them to apply electronic personality when they interacted independently. However, the proposal from the EU Parliament has triggered many criticisms and objections. In April 2018, 156 people, including artificial intelligence and robots experts, lawyers and entrepreneurs from 14 European countries, sent an open letter to the European Commission in early May and opposed the move to give the robot a legal status. In this open letter, it has been pointed out that giving a legal status of electronic character to autonomous, unpredictable and self-learning robots is problematic. They argued that they should be discarded in both technical, normative, legal and ethical perspectives. However, the EU Commission went further and published the Ethics Checklist for Artificial Intelligence on June 26, 2019. The European Commission on Artificial Intelligence has announced that it is preparing ethical guidelines for reliable artificial intelligence based on the policy recommendations of the High-Level Expert Group of Artificial Intelligence . However, the terms electronic human and electronic personality have the intention of giving a similar legal status to intelligent artefacts that humans already enjoy. However, a comprehensive discussion of the legal status of robots at different levels and the question of when the legal concept of electronic humanity will be introduced is needed. Examining AI and robots in the category of legal personality is surely an attempt to prepare for the future of technology change. But speaking is easy and difficult to do. In this paper, I’d like to consider whether AI and robot among the intelligent artifacts can be the subjects with legal personality. In particular, this paper examines the logic of Bryson, who takes a positive stance on the legal status of robots. In this paper, I’d like to examine the validity and limitations of Bryson s arguments and the points to be supplemented. Do we have to give electronic or human personality to robots? If so, what is the key argument? When is it time to give legal personality? I want to focus on this in my paper.

      • KCI등재
      • KCI등재
      • KCI등재

        로봇 형법(Strafrecht für Roboter)?

        김영환 한국법철학회 2016 법철학연구 Vol.19 No.3

        In der vorliegenden Studie geht es hauptsächlich darum, ob und inwieweit das Konzept vom sog. Strafrecht für Roboter zu legitimieren ist. Hier wird diese Frage unter vier verschdieneden Aspekten untersucht. 1) Zur These, dass das Strafrecht für Roboter durchaus denkmöglich ist, weil die Strafrechtsordnung bis zur Aufklärung die Strafe gegen Tiere kennt, wird zunächst hervorgehoben, dass diese historischen Reminiszenzen von geringer Durchschlagskraft sind. Daran wird auch kritisiert, dass die „Bestrafung“ von Tieren oder sogar von leblosen Gegenständen nicht mehr der heutigen Vorstellung von dem möglichen Anwendungsbereich des Strafrechts entspricht. Dagegen wird letztlich Bedenken erhoben, dass autonomen Robotern kein moralisches Status zugeschrieben werden sollte, weil es ihnen vor allem an der Empfindungsfähigkeit fehlt. 2) Gegen die Ansicht, dass autonomene Roboter nicht nur handlungs-, sondern auch schuldfähig ist, weil die Herstellung strafrechtlicher Begriffe allein von ihrer Zweckmässigkeit abhängt, wird ins Feld geführt, dass auch Robotetern das Handungsfähigkeit zuerkannt werden kann, wenn der rechtliche Begriff keiner beschreibenden, sondern normativ-zuschreiben Art ist. Dennoch gilt dies nicht im Bereich der Schuld. Denn wenn die Strafe mit dem persönlichen Vorwurf eng verbunde ist, kann sie nicht gegen Roboter verhängt werden. Daher sollte die Strafe gegen intelligente Maschine verzicht werden. Sonst steht bei der Bestrafung von Roberten die Würde und Ernsthaftigkeit der Strafe auf dem Spiel. 3) Zum Gedanken, dass nicht nur Menschen, sondern auch Robertoren bestraft werden kann, lässt sich sagen, dass die als die Strafe vorgeschagene Umprogrammierung nicht in der gesetzlichen Strafe verankert ist. Daneben sei auch erwähnnt, dass sich diese Art der Körperstrafe im modernen Strafrecht verfaasungsrechtlich nicht legitimieren lässt. 4) Zum Vorschlag des Strafrechts für Roboter zur Erschließung der Straflücke ist zu behaupten, dass er strafrechtsdogmatisch insofern unplausibel ist, als strafrechtliche Zuschreibungsmaßstäbe weit reichen, um verschiedne Gefahrquellen zu überwachen und zu sichern. Falls dies nicht dazu taugt, dann muss die Gesellschaft dies Problem übernehmen. Insoweit ist keine Lücke auffindbar. 이 논문의 목적은 로봇에 대한 형법(소위 “로봇 형법”)아라는 구상(Konzept)이 얼마나 설득력이 있는가를 다음의 네 가지 논거를 중심으로 비판적으로 검토하는 데에 있다. 첫째, 비록 역사적으로 동물에 대한 형벌집행이 있었다고는 하지만 로봇에 대해 형벌을 적용할 수 있다는 주장은 그대로 받아들이기가 힘들 뿐만 아니라, 형법의 적용범위에 관한 오늘날의 관념에 더 이상 부합하지 않으며, 이에 대한 법적 근거가 없다는 것이다. 또한 동물윤리학의 로봇 형법에의 이전은 가능하지 않은데, 왜냐하면 로봇은 최소한 아직까지 감응능력이 없기 때문이라는 것이다. 둘째, 자율적으로 행동하는 로봇의 형법적 책임이라는 생각은 매력적이며 형벌이라는 사회제도의 구조를 심도 있게 분석하는 계기를 제공하지만 그러한 생각은 잘못된 길에 들어선 것이다. 이는 로봇의 “처벌”이 로봇을 잘못 평가한 결과이기 때문만은 아니다. 오히려 지능이 있기는 하지만 도덕에 따를 능력이 없어 규범적인 의미에서 “옳거나” “그르게” 행동하지 못하는 기계에 대해 형벌 제도를 적용한다면 이 제도는 진지함을 잃게 될 것이기 때문이다. 셋째, 인간과 마찬가지로 로봇에 대해서도 법적 제재가 가능하다는 주장은 전혀 설득력이 없는데, 왜냐하면 로봇에 대해 제안된 형사제재인 재프그램화는 법적 근거가 없을 뿐만 아니라 그것의 변형된 형태들은 오늘날의 형법에서는 인정될 수 없는 형사제재의 종류이기 때문이다. 넷째, 인간의 책임을 기계에 이전시키는 것은 아직까지는 성급한 결론이며 그러므로 로봇 형법이 처벌의 공백을 메꾼다는 발상도 별로 근거가 없다는 것이다. 결론적으로 이 논문은 로봇 형법이라는 구상 자체가 좀 더 세련되게 만들어질 필요가 있음을 강조하는데, 왜냐하면 형법상 책임개념은 인간의 도덕적 인격과 밀접하게 연관되어 발전되어 왔기 때문에 로봇 형법은 필히 책임개념의 혼돈으로 이어질 가능성이 농후하기 때문이다.

      • KCI등재
      • KCI등재

        자율주행자동차 운행 중의 사고발생과 손해배상책임

        최현태(Choi, Hyun-Tae) 한양법학회 2018 漢陽法學 Vol.29 No.1

        The Autonomous Vehicles, also known as driverless cars, have recently emerged as an important issue of the public debate over the vehicle business market. In spite of the high public interest, legal issues, such as liability, and consequently damages, by the autonomous vehicles are broadly hailed. To date, there has been minimal research in the Korean law field regrading autonomous transportation technology. In respect of that the autonomous vehicle would cause vigorous debates for new liability framework for injuries totally against the existing liability framework, this study establishes the contours of argument for the new liability framework associated with the new technology. To begin with, this paper would like to examine whether court to decide grants liability for any accident on autonomous car to the car’s owner or operator under traditional tort law principles. However, this article addresses that, under the current liability frame, the injured party would be difficult to directly bear some responsibility of a negligence for accident to the owner or operator because the responsibility under the frame may ultimately turn on degree of control of the driver over the car. Next, this paper decides whether the party can raise product liability lawsuit to car manufacturers, software designers, and component makers based on the existing product liability principles. Finally, this paper proposes congress an alternative liability framework over the next ten years or so years as society transitions to widely popularize the autonomous vehicle.

      • KCI등재

        인공지능(AI) 활용과 수탁자의 선관주의의무

        최현태 한양법학회 2024 漢陽法學 Vol.35 No.1

        이미 미국 등에서는 전문가 시스템(Expert System)과 법률 분야의 매칭 프로그램 활용 프로젝트가 활발히 이루어지고 있다. 현재의 컴퓨터 지식 처리 시스템 하에서도 지능적인 추론 시스템을 구축할 수 있다는 사실 뿐만 아니라 앞으로 인공지능 활용 영역의 확장으로 현행 법체계로는 효과적 대처가 어렵고 인공지능 이용에 따른 인간권리 침해 등 다양한 문제를 다룰 본격적인 법제도적 규제체계 마련이 필요하다는 점을 인식할 수 있다. 한편 신탁의 법률관계 당사자 중에서도 수탁자는 신탁재산에 대한 유일하고 절대적이며 배타적인 관리 및 처분 권한을 가지는 중심 기관이라고 할 수 있고, 관점에 따라서 특수한 법률관계 당사자라고도 할 수 있다. 그래서 수탁자에게는 일반적인 계약당사자에게 요구되는 이상의 특별한 의무들이 부담된다. 여기에 본 연구에서는 앞선 전문가 시스템 획기적인 발전으로 신탁사무를 담당하는 수탁자의 역할을 인공지능이 보조-대체하는 단계에서 나타날 수 있는 수탁자 의무위반의 판단 기준 및 그에 따른 책임관계를 고찰하고자 하였다. 특히 그 중에서도 가장 광범위하고 핵심이라 할 수 있는 선관주의의무를 중심으로 수행하였다. 더욱 구체적으로, 본 연구에서는 먼저 ⅰ) 지금 현재 상황에서의 발전 정도의 인공지능(약한 인공지능: artificial narrow intelligence 혹은 weak A.I.)으로서, 인간의 법적 활동의 단순 보조 수단으로 활용되는 상황에서 수탁자에게 요구되는 선관주의의무 위반의 정도 및 그에 따른 법적 책임 검토, ⅱ) 이른바 자율형 인공지능(강한 인공지능; artificial general intelligence 혹은 strong A.I.)으로 인간과 동일한 능력을 가진 인공지능 로봇에 의한 신탁사무처리가 이루어지는 경우 선관주의의무 위반에 대한 판단과 그에 따른 책임에 대해서 다양한 관점에서 검토하고자 하였다. Already in the United States and other countries, projects using matching programs in the field of expert system and law are being actively carried out. In addition to the fact that intelligent reasoning systems can be established under the current computer knowledge processing system, it is difficult to cope effectively with the current legal system due to the expansion of artificial intelligence, and it is necessary to establish a full-fledged legal and regulatory system to deal with various problems such as human rights violations. On the other hand, among the legal parties to the trust, the trustee can be said to be the only, absolute, and exclusive authority to manage and dispose of the trust property, and depending on the perspective, it can be said to be a special legal party. Therefore, the trustee is burdened with special obligations beyond those required by the general contracting party. In this study, due to the breakthrough development of the expert system, the criteria for judging violations of trustee obligations that may appear at the stage where artificial intelligence assists and replaces the trustee's role in trust affairs and the resulting responsibility relationship was considered. In particular, it was carried out centering on the most extensive and core duty of care. More specifically, in this study, it was divided into two stages as follows. a) As artificial intelligence (weak artificial narrow intelligence or weak A.I.) in the current situation, the degree of violation of the obligation to pay attention to the trustee and the legal responsibility thereof are reviewed b) When trust affairs are processed by artificial general intelligence robots with the same capabilities as humans with so-called autonomous artificial intelligence (artificial general intelligence or strong A.I.), we tried to examine the judgment of violation of the obligation to pay attention from various perspectives.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼