RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재후보

        AI시대에서의 개인정보자기결정권의 재검토 : EU 개인정보보호법을 소재로 하여

        함인선(Ham In-Seon) 전남대학교 공익인권법센터 2021 인권법평론 Vol.0 No.26

        21세기 이후 엄청나게 증가한 컴퓨터 처리성능과 방대한 데이터를 수집 할 수 있게 되고 다양한 머신러닝(Machine Learning ; ML)기법들을 사용하여 방대한 데이터에서 유용한 정보를 추출할 수 있게 되어, AI는 이른바 4차산업혁명의 핵심적인 위치를 차지하게 되었다. 최근의 AI 발전은 컴퓨터 처리능력의 증가, 알고리즘의 향상, 디지털 데이터의 양 및 다양성의 기하급수적인 증가, 그리고 자금조달 증가의 성과물이라고 할 수 있다. 한편, 우리 헌법재판소가 2005년 5월 이른바 지문날인사건에서 개인정보 자기결정권을 도입한 이후, 이 개념은 개인정보와 관련한 헌법상의 기본권으로서의 위치를 확고히 구축하였다. 이러한 개인정보자기결정권은 4차 산업사회가 진전됨에 따라 AI의 활용이 더욱 광범위하게 이루어지고, 그로 인해 인간의 개입이 배제된 채로 개인에게 중요한 결정이 이루어지는 상황이 발생하게 되었다. 이처럼 대규모의 데이터를 기반으로 하는 인공지능시대에는 데이터주체인 개인의 개입이 없는 상황에서 개인과 관련된 중요한 결정들이 이루어지고, 그로 인해 예상하지 못한 불이익을 받을 수 있기 때문에 이의 보호가 요청된다 할 것이다. 그러나, 다른 한편으로 현대는 데이터를 기반으로 하는 인공지능(AI), 사물인터넷(IoT), 자율주행차 및 빅데이터 분석 등을 이용한 기술이 산업 전반에 걸쳐 활용되고 발전을 주도하고 있는 데이터경제(Data Economy)의 시대이며, 여기에서 우위에 서기 위해 세계 주요국들이 이에 대한 발전전략의 수립과 투자에 집중하고 있다. 이와 같은 상황에서 개인정보(personal data)도 데이터의 하나로서 그 활용이 데이터경제의 우열을 가름하는 하나의 요인이 될 것이라고 할 수 있다. EU는 1995년에 정보보호지침을 제정한 이후, 과학기술 등의 발전에 의 한 새로운 환경에 대응하기 위해 2016년에 일반정보보호규칙(General Data Protection Regulation ; GDPR)을 제정하여 시행하고 있다. EU의 1995년 정보보호지침은 그 목적과 관련하여, “이 지침에 따라, 회원국들은 자연인들의 기본적 권리 및 자유와, 개인정보의 처리와 관련하여 특히 프라이버시권을 보호하여야 한다.”(제1조제1항)고 규정한데 대하여, 2016년 GDPR은 “이 규칙은 자연인들의 기본적 권리 및 자유와 특히 개인정보보호권을 보호한다.”(제1조제2항)고 개정하여, 프라이버시권에 대체하여 개인정보보호권을 도입하였다. EU GDPR의 이러한 전환에 대해 필자는 개인정보자기결정권(또는 프라이버시권)적 관점을 폐기하고, 새로운 ‘개인정보보호권’의 관념을 채택한 것으로 해석한다. 이러한 해석의 결과, 우선, 전자의 입장에서는 ‘개인정보=프라이버시’라는 관점에서 그것은 ‘보호’의 대상일 뿐 ‘이용’의 대상으로는 상정하기 어려우며, 일신전속적인 성격으로서 ‘자기결정권’의 대상으로 된다고 하지만, 후자의 입장에서는 ‘개인정보=개인데이터’로서 그것은 데이터의 하나로서 기본적으로 ‘유통(이용)’의 대상이 되며, 침해의 우려 등 일정한 경우에 ‘보호’를 하여야 하는 것으로서 파악된다고 할 것이다. 다음으로, 전자의 입장에서는 개인(정보주체)의 의사에 개인정보의 유통(이용)이 의존하게 되지만(opt-in), 후자의 관점에서는 ‘선 유통(이용)’을 전제로 한 ‘보호’(opt-out)에 친하기 쉬운 개념이라고 할 것이다. 이러한 EU GDPR의 기본적 관점의 전환은 EU가 데이터의 활용에 의한 인공지능(AI) 등 이른바 4차 산업혁명을 선도적으로 리드하여 EU의 신성장 동력으로 삼기 위한 시도의 하나라고 볼 수 있다. 이러한 관점에서의 접근은 우리나라의 경우에도 요청되며, 개인정보자기결정권에 대체해서 ‘개인정보보호권’의 관념을 도입하여야 할 것으로 보며, 이러한 변화된 관점에 입각하여, ‘보호’와 ‘이용’이 적정하게 조화된 개인정보 관련입법의 근본적인 재구성이 요청된다고 본다. Since the 21st century, AI has become a key player in the so-called Fourth Industrial Revolution, as it has been able to collect huge amounts of data and extract useful information from a wide range of machine learning (ML) techniques. Recent AI developments have been the result of increased computer processing power, improved algorithms, exponential growth in the amount and variety of digital data, and increased funding. Today, AI is used in many areas, such as transportation, communication, and healthcare. On the other hand, since the Constitutional Court introduced the right to self-determination of personal data in the so-called fingerprinting case in May 2005, this concept can be said to have firmly established its position as the fundamental right related to personal data. As the 4th Industrial Society progresses, the use of AI has become more widespread, and as a result, a situation has arisen in which important decisions are made to individuals without human intervention. In this age of artificial intelligence(AI) based on large-scale data, important decisions related to individuals are made in the absence of personal intervention, and this may result in unexpected disadvantages, so protection is required. However, on the other hand, in an era of data economy that is using data-based artificial intelligence (AI), Internet of Things (IoT), autonomous vehicles and big data analytics, major countries around the world are focusing on establishing and investing in development strategies of AI. In such a situation, personal data is also one of the data, and its use can be said to be a core factor that determines the superiority of the data economy. Since establishing the 1995 Data Protection Directive, the EU has enacted the General Data Protection Regulation(GDPR) in 2016 to respond to new environments due to advances in science and technology. While EU s 1995 Data Protection Directive, for its purposes, stipulated that “In accordance with this Directive, Member States shall protect the fundamental rights and freedoms of natural persons, and in particular their right to privacy with respect to the processing of personal data.”(Article 1(1)), 2016 GDPR revised that “This Regulation protects fundamental rights and freedoms of natural persons and in particular their right to the protection of personal data.”(Article 1(2)) For this transformation in the EU GDPR, I interpret it as abolishing the view of the right to self-determination of personal data(or right to privacy) and adopting the concept of “right to the protection of personal data”. As a result of this interpretation, first of all, from the point of view of ‘personal data = privacy’ from the former standpoint, it is only an object of ‘protection’, but it is difficult to assume as an object of ‘use’. However, from the latter s point of view, as ‘personal information = personal data’, it is generally one of the data and is mainly the object of ‘use’, and it is understood that it should be ‘protected’ in certain cases. Next, from the former point of view, the use of personal data depends on the intention of the individual (data subject) (opt-in), but from the latter point of view, ‘protection’ is based on the premise of ‘use’. It would be an concept to be familiar with(opt-out). This transformation in the basic view of EU GDPR can be regarded as one of the EU s attempts to lead the so-called Fourth Industrial Revolution, such as artificial intelligence (AI) by the use of data, and make it the EU s new growth engine. The approach from this viewpoint is also appropriate for Korea, and the concept of ‘right to the protection of personal data’ should be introduced in place of ‘right to the selfdetermination of personal data’.

      • KCI등재

        AI 커버곡과 목소리에 대한 보호

        김용주 충남대학교 세종지적재산권연구소 2024 The Journal of Law & IP Vol.14 No.1

        생성형 AI 기술이 발전함에 따라 AI 커버곡이 온라인상에서 인기를 끌고 있다. 일반인도 인공지능을 활용하여 손쉽게 커버곡을 만들 수 있다 보니 유명 가수가 부른 곡이 다른 사람의 목소리를 빌려 새로운 느낌의 곡으로 탄생하고 있다. 그런데 문제는 AI 커버곡의 경우 현행법상 저작물로 보호가 되기 어려우며, 만일 생성형 AI로 만들어진 창작물을 저작물로 보호한다고 하더라도 음성에 대해서는 저작권법상 보호가 어렵다는 문제가 있다. 이에 본 글에서는 AI 커버곡과 관련해 저작권법상 저작물로 보호를 할 것인지 검토하였다. 아울러 조금 더 나아가 ‘음성’에 대해 헌법상 기본권의 일종인 음성권 내지 부정경쟁방지법으로 보호를 할 수 있는지 살펴보았다. 헌법상 기본권인 음성권과 관련해서는 많은 판례가 축적되지 않았고, 부정경쟁방지법상 보호는 유명인의 상업적 이익이 침해된 경우에 법 적용이 가능하다는 점에서 음성에 대한 보호는 아직 법적 공백이 있는 것으로 보인다. 국외에서도 AI 커버곡에 따른 저작자 보호 외에 개인의 음성을 보호하는 다양한 대응이 이루어지고 있다. 미국에서는 인공지능에 대한 책임을 강조하는 법안이 채택되었거나 준비 중인 것으로 보이고, 유럽에서는 개인 데이터에 대한 보호가 부각되고 있다. 그 밖에 일본에서는 음성과 관련하여 퍼블리시티권으로 보호할 수 있을 것으로 보이며, 중국의 경우에는 AI 음성을 둘러싼 저작권 관련 판결이 등장하여 고무적으로 보인다. 그 밖에 AI 커버곡을 만들기 위한 문제점 중 하나로 학습이 어떤 데이터를 통해 이루어진 것인지에 대한 모호성이 있다. 이에 학습데이터의 원칙적 공개 및 계약을 통한 데이터거래의 활성화가 필요함을 제시하였다. 또한 최근 목소리의 복제가 손쉬워짐에 따라 유명인 뿐 아니라 일반인의 목소리에 대한 보호를 위한 입법의 필요성을 제시하였다. As generative AI technology advances, AI cover songs are popular online. However, it is difficult to protect AI cover songs as works under the Copyright Act. Even if generative AI works are protected as works under the law, it is difficult to protect voice. This study analyzed whether AI cover songs can be protected as works under the Copyright Act for. More fundamentally, it analyzed whether ‘voice’ can be protected under the Constitution, or under the Unfair Competition Act. However, there is still a legal gap in the protection of voice, as not many cases have been accumulated on the constitutional right to voice. Also the protection under the Unfair Competition Act can be applied in cases where the commercial interests of celebrities are infringed. Various measures are being taken internationally to protect individuals’ voices, in addition to copyright protection in response to AI cover songs. In the United States, legislations which emphasize the responsibility of AI has been adopted or is being prepared. In Europe, personal data‑based protection has been emphasized. In addition, in Japan, it seems that the right of publicity can be used to protect personal voice. In China, it is encouraging to see a copyright ruling directly surrounding AI‑generated speech. Another issue in creating AI cover songs is the ambiguity regarding which data was used for training. It has been suggested that there is a need for the principled disclosure of training data and the activation of data trading through contracts. Additionally, with the recent ease of voice replication, the necessity for legislation to protect the voices of not only celebrities but also ordinary individuals has been proposed.

      • KCI등재

        인공지능 창작물의 저작권 보호

        손승우(Son, Seungwoo) 한국정보법학회 2017 정보법학 Vol.20 No.3

        디지털 연결성과 고도화된 ICT 기술을 기반으로 한 제4차 산업혁명은 새로운 저작물의 출현을 가능하게 하였다. 그중 인공지능(Artificial Intelligence, AI)은 딥러닝(deep learning) 기술을 기반으로 스스로 학습하고 인지추론을 할 수 있다는 점에서 기존의 기계들과 다르다. 인공지능 기술은 발전 단계에 따라 창작성, 가용성, 다양성 등에서 차이는 있으나 음악, 미술, 게임, 디자인, 소설, 신문기사 등 다양한 분야에서 인간이 아닌 주체로서 창작물을 만들어내고 있다. 인공지능 창작은 인간이 창작에 직접적으로 관연하지 않는다는 점에서 기존 지식재산권 보호의 사각지대에 놓여있어 새로운보호 체계에 대한 요구가 증가하고 있다. 인공지능 창작물에 대한 저작권 보호에 대한 논의는 일본과 EU를 중심으로 이루어지고 있으며, 특히 일본 지식재산전략본부가 2016년 4월 8일 인공지능 보고서를 발표하였다. 이 논문은 일본의 인공지능 보고서를 중점적으로 분석하고, 이에 더해 인공지능 창작물의 저작권 보호 방안을 제시한다. 우선 인공지능 기술의 발전은 향후 다양한 창작물이 대량으로 출현할 것이 예견되는데, 만일 배타적 권리를 부여할 경우 독점화 심화로 인한 부작용이 우려된다. 그러나 다른 한편으로 인공지능에 대한 투자를 유도하기 위한 저작권 보호의 요구가 증대되고 있어 찬반논의의 조화로운 접근이 필요하다. 이 논문은 현존하는 인공지능 산업에 대한 투자 회수를 보호하고자 할 경우에도 매우 낮은 수준의 보호가 타당하다고 주장한다. 예를 들면, 인공지능 창작물에 대해 ‘약한 저작권 보호(Thin copyright protection)’이론을 적용하여 침해의 구성요소로서 ‘실질적 유사성(substantial similarity)’이 아닌 ‘현저한 유사성(striking similarity)’을 요건으로 정하고, 구제에 있어서도 형사처벌은 배제할 것을 제안하고 있다. 또한 인공지 능 창작물과 인간의 창작물을 구별하기 위하여 새로운 등록제도와 표시제도의 도입을 고민하여야 하며, 보호기간도 5년 정도의 단기로 설정할 것을 주장한다. 나아가 비록 침해에 해당한다고 하더라도 그 사용의 금지보다는 보상금 지급을 전제로 한 사용 허락의 방안도 고려해 볼 것을 제안한다. The fourth industrial revolution, based on digital connectivity and sophisticated ICT technology, enabled the emergence of new works. Artificial Intelligence (AI) is different from conventional machines in that it is able to learn and do cognitive reasoning based on deep learning techniques. Although AI technology differs in terms of creativity, availability, and diversity according to the stage of development, AI is creating creativity as a non-human subject in various fields such as music, art, game, design, novel and newspaper article. AI creation lies in the blind spot of protection of existing intellectual property rights in that human beings are not directly involved in creation, and the demand for a new protection system is increasing. Discussions on the copyright protection of AI creations are centered on Japan and the EU. In particular, the Japan Intellectual Property Strategy Headquarters issued the Artificial Intelligence Report on April 8, 2016. This paper focuses on the AI report of Japan and presents a new approach for copyright protection of AI creation. First of all, the development of AI technology is expected to produce a large number of various creative works in the future. If an exclusive right is given, it is worried about side effects due to intensification of monopolization. On the other hand, the need for copyright protection to induce investment in AI is increasing, and a harmonious approach to the pros and cons is needed. This paper argues that a very low level of protection is valid even when protecting the return on investment in existing AI industries. For example, applying ‘Thin copyright protection’ theory to AI creations, the ‘striking similarity’ rather than ‘substantial similarity’ as a component of infringement is defined as a requirement. It is suggested that criminal punishment should be excluded even in relief. In addition, to distinguish between AI creations and human’s, it is necessary to consider the introduction of new registration and labeling systems. This paper also argues that it is appropriate to set the protection period to a short term of about 5 years. Furthermore, even if it is an infringement, it is suggested to consider the possibility of using permission based on the payment of compensation rather than the prohibition of the use.

      • KCI등재

        AI 학습용 데이터의 보호에 관한 소고 - 지식재산법상의 보호를 중심으로 -

        전성태 조선대학교 법학연구원 2021 法學論叢 Vol.28 No.1

        Data is closely related to AI technology. The more data is accumulated and the more accurate the data is, the better the analysis results come out. AI technology (AI software) is used for this analysis. Advances in AI technologies such as deep learning and machine learning have made data more valuable. Data is often traded with AI technology, and businesses using data and AI technology are also becoming more vibrant. From this point of view, AI learning data needs to be adequately protected. In the case of the domestic data industry, data creation and utilization is evaluated as relatively inadequate. Data required for data construction and utilization (distribution) is insufficient, and industrial and social use is poor due to a closed distribution system. This phenomenon is believed to be due to the limited use of data due to restrictions on personal information, and the lack of manpower responding to corporate demand. In particular, learning data essential for AI-related inventions is no exception. In this study, the following measures were proposed to protect AI learning data. First, a plan to strengthen protection under the patent law, second, a plan to protect data through the Unfair Competition Prevention Act, third, a plan to introduce a 'data patent' application system in preparation for the era of big data, and fourth, Fourth, similar to the microbial donation system, the introduction of the AI system for depositing data and learning completion models was suggested. 데이터는 AI 기술과 밀접한 관계를 가진다. 데이터가 축적되면 될수록, 데이터가 정확하면 할수록 좋은 분석결과가 나온다. 이러한 분석에는 AI 기술(AI 소프트웨어)이 활용된다. 딥러닝과 머신러닝과 같은 AI 기술의 발전은 데이터를 더욱 가치 있게 만들어 왔다. 데이터는 AI 기술과 함께 거래되는 경우가 많아지게 되었고, 데이터와 AI 기술을 활용한 비즈니스도 더욱 활기를 띠고 있다. 이러한 관점에서 AI 학습용 데이터는 적절히 보호될 필요가 있다.

      • KCI등재

        생성형 AI의 의료적 활용과 개인정보보호

        이수경 대한의료법학회 2023 의료법학 Vol.24 No.4

        The utilization of generative AI in the medical field is also being rapidly researched. Access to vast data sets reduces the time and energy spent in selecting information. However, as the effort put into content creation decreases, there is a greater likelihood of associated issues arising. For example, with generative AI, users must discern the accuracy of results themselves, as these AIs learn from data within a set period and generate outcomes. While the answers may appear plausible, their sources are often unclear, making it challenging to determine their veracity. Additionally, the possibility of presenting results from a biased or distorted perspective cannot be discounted at present on ethical grounds. Despite these concerns, the field of generative AI is continually advancing, with an increasing number of users leveraging it in various sectors, including biomedical and life sciences. This raises important legal considerations regarding who bears responsibility and to what extent for any damages caused by these high-performance AI algorithms. A general overview of issues with generative AI includes those discussed above, but another perspective arises from its fundamental nature as a large-scale language model (‘LLM’) AI. There is a civil law concern regarding “the memorization of training data within artificial neural networks and its subsequent reproduction”. Medical data, by nature, often reflects personal characteristics of patients, potentially leading to issues such as the regeneration of personal information. The extensive application of generative AI in scenarios beyond traditional AI brings forth the possibility of legal challenges that cannot be ignored. Upon examining the technical characteristics of generative AI and focusing on legal issues, especially concerning the protection of personal information, it's evident that current laws regarding personal information protection, particularly in the context of health and medical data utilization, are inadequate. These laws provide processes for anonymizing and de-identification, specific personal information but fall short when generative AI is applied as software in medical devices. To address the functionalities of generative AI in clinical software, a reevaluation and adjustment of existing laws for the protection of personal information are imperative. 생성형 AI의 활용은 교육계를 넘어서 이미 의료계에서도 의료 기기에 임상 소프트웨어 등의 도입 등으로 연구되고 있다. 생성형 AI는 대규모 대화형 언어모델을 활용하여 방대한 데이터를 이해하고 자료를 선별하는 시간과 에너지를 줄여주면서 사용자와 끊임없는 대화를 통한 정보의 전달이 가능하다. 바로 이러한 점이 인류에게 생성형 AI가 혁신적인 기술의 등장으로 인정받고 있는 점이기도 하다. 그러나 반면 사용자에게 제공되는 컨텐츠의 정합성은 출처나 근거 없이 사용자에게 판단의 영역으로 맡겨지고 있다. 그러나 이 글에서는 생성형 AI를 활용함에 있어서 가장 직접적으로 발생할 수 있는 쟁점을 우선적으로 살펴보기로 한다. 따라서 이 글에서는 생성형 AI의 대표적인 프로그램인 Chat GPT의 발전과 이용자의 활용에 대비하여 특히 개인정보 보호의 쟁점에 대하여 논의하였다. 이를 위하여 먼저 생성형 AI의 기술적인 특성을 살펴본 뒤에 발생 가능한 민사적 쟁점 가운데에서도 개인정보 보호에 관한 문제를 우선적으로 살펴보았다. 생성형 AI는 그 자체로서 학습 데이터의 편향이나 출처 없는 결과값의 제공 등 여러 문제점이 제기되고 있으나, 이러한 문제점은 윤리적 문제를 내포하는 것으로 당장 임상 소프트웨어로서 의료기기에서 활용될 경우 개인정보 보호법제와 보건의료데이터의 활용 가이드로 환자 혹은 이용자의 개인정보를 보호할 수 있을 것인가에 대한 의문에 대한 논의가 시급하다고 판단되었다. 우리나라의 개인정보 보호법제는 특히 보건의료데이터의 활용에서 특정 개인의 개인정보를 가명처리하고 비식별조치를 취하는 데에 적절한 프로세스를 갖추고 있는 것으로 보이나, 생성형 AI이 소프트웨어로서 의료기기에 적용되었을 경우에도 이 법제로서 개인정보 보호의 목적을 이루기에는 어려운 점이 있다. 임상 소프트웨어에서 활용될 생성형 AI의 기능을 대비하기 위해서는 생성형 AI에 걸맞는 개인정보 보호의 법제가 필요할 것으로 보인다.

      • 지식재산권 보호 정당성 고찰을 통한 인공지능 창작물의 새로운 보호 방안 연구

        윤영진 서울대학교 기술과법센터 2020 Law & technology Vol.16 No.4

        4차 산업혁명과 관련된 새로운 기술들은 다양한 법적 이슈를 낳으면서 입법자들과 법률가들을 곤란하게 만들고 있다. 특히 인공지능의 출현은 기존 지식재산권 보호 체계에 큰 혼란을 야기하고 있다. 인공지능을 발명자 또는 저자로 인정할 수 있는지 문제에서부터 인공지능이 지식재산권을 침해했을 때 발생하는 책임 소재와 구제 방법 문제까지의 다양한 법적 이슈들은 지금까지 없었던 지식재산권법의 근본적인 영역에 대하여 물음을 던지고 있는 것이다. 이에 본고에서는 인공지능 창작물의 보호 방안에 관한 다양한 선행연구를 분석하였고, 분석 결과 인공지능 창작물의 지식재산권법상 보호 방안에 대하여 뚜렷한 해결책이 없이 다양한 의견이 제시되고 있음을 확인하였다. 뚜렷한 해결책이 제시되지 못한 이유는 현행법의 해석론상 불명확성을 제거하기에 한계가 있기 때문인 것으로 판단 되었다. 이런 불명확성을 해소하기 위해 인공지능 창작물의 지식재산권법상 보호 정당성 문제를 깊이 들여다보았다. 현재 지식재산권 정당화의 이론적 근거로 받아들여지는 인센티브 이론은 인간 발명자 또는 저자를 전제로 하여 발전한 이론으로, 인센티브가 필요 없는 인공지능에게 인센티브 이론을 근거로 한 지식재산권 보호 체계는 적합하지 않다는 결론에 도달하였다. 따라서 인공지능 창작물을 지식재산권법에서 보호하기 위해서는 기존의 정당화 이론에 새로운 변화나 수정이 필요하며, 이런 변화나 수정에는 지식재산권의 보호로부터 파생되는 결과의 공유와 확산을 중시하는 실용주의 이론(Investment Theory)의 시각을 강조하는 것이 타당한 것으로 분석되었다. 선행연구에 대한 분석과 보호 정당화 이론에 대한 고찰을 기초로 지식재산권법상 인공지능 창작물의 보호 프레임워크에 대한 새로운 방향 또는 시각을 검토하였다. 그 결과 인공지능 창작물의 ‘생산’과 ‘이용’ 중에서 실용주의 이론을 기초로 ‘이용’이라는 공익적 측면을 강조해 누구나 인공지능 창작물을 사용할 수 있도록 하되 그 사용에 대한 로열티를 지불하는 약한 보호의 인센티브로 인공지능 관련자들을 유인하여 인공지능 산업의 발전과 혁신을 이룰 수 있는 새로운 보호 프레임워크를 제안한다. 일예로, 인공지능이 인간의 개입이 없이 창작한 결과물은 소유자를 정할 수 없으므로 국유재산으로 처리하되, 로열티 지불시 누구나 사용할 수 있도록 하고, 로열티의 일부를 인공지능 산업 발전에 지원되도록 제도화하는 것을 고려해볼 수 있다. 이와 같은 새로운 보호 프레임워크 설계에는 표준기술의 ‘이용’을 장려하는 표준특허제도가 참고가 될 수 있을 것으로 생각 된다. New technologies related to the Fourth Industrial Revolution are creating various legal issues, putting legislators and lawyers in trouble. In particular, the emergence of artificial intelligence is causing great confusion in the existing intellectual property protection system. From the issue of whether artificial intelligence can be recognized as an inventor or author to the issues of responsibility and remedies arising when artificial intelligence violates intellectual property rights, various legal issues are raising questions about the fundamental areas of the intellectual property law that has never been before. Accordingly, this study analyzed various prior studies on how to protect artificial intelligence creations, and as a result of analysis, it was confirmed that various opinions were presented without a clear solution to the AI creation protection method. It was judged that the reason for the lack of a clear solution was that there was a limit to eliminating ambiguity in the interpretation of the current law. To resolve this uncertainty, I looked into the issue of justification for protection under the Intellectual Property Law of AI creations. The incentive theory, which is currently accepted as the basis for intellectual property justification theory, is a theory developed on the premise of human inventors or authors. It was concluded that an intellectual property protection system based on the incentive theory is not suitable for artificial intelligence that does not require incentives. Therefore, in order to protect AI creations in the Intellectual Property Rights Act, new changes or modifications are needed in the existing justification theory, and it was analyzed that it is reasonable to emphasize the view of Investment Theory that values the sharing and spreading of results derived from the protection of intellectual property rights. Based on the analysis of prior research and the consideration of the protection justification theory, a new direction or perspective on the protection framework of AI creations under the Intellectual Property Rights Act was reviewed. In the aspect of ‘production’ and ‘use’ of AI creations, ‘use’, which is evaluated as representing the public interest, is emphasized by Investment Theory. I propose a new protection framework that will allow anyone to use AI creations but attract AI-associated people with weak protection incentives that pay royalties for their use, thereby achieving the development and innovation of the artificial intelligence industry. As an example, the intellectual property rights of AI created without human intervention cannot be determined by the owner, so it is treated as a national property, but consider making it possible to use it when anyone pays royalties, and institutionalize some of the royalties to be used to support the development of the artificial intelligence industry. It is thought that a standard patent system that encourages the ‘use’ of standard patent technologies could be a reference to this new protection framework design.

      • KCI등재

        인공지능시대 알고리즘 의사결정에 의한 차별과 인권보호방안에 관한 연구 — 유럽의 법적 규제에 관한 논의를 중심으로 —

        이우철 세계헌법학회한국학회 2024 세계헌법연구(世界憲法硏究) Vol.30 No.2

        지능정보화 시대를 살아가는 개인들에게 인공지능 기술의 발전은 일상적인 삶의 방식에 효율성을 증가시키고 편리성을 주고 있다. 자동화된 알고리즘 의사결정 방식의 활용은 보편화 된 현상으로 공공부문과 민간부문 모두에 걸쳐 나타나고 있다. 하지만 인공지능의 자율적인 알고리즘에 의해 대체되는 의사결정 과정에서 발생하는 문제점 역시 다양한 형태로 나타나고 있으며 대표적인 것이 알고리즘의 투명성과 공정성에 기인한 차별의 문제이다. 본 논문에서 알고리즘 의사결정에 따른 불법적인 차별에 대응하기 위한 유럽의 가장 적절한 법적 수단으로 차별금지법과 데이터 보호법의 규정들을 분석하였다. 차별금지법은 알고리즘에 의한 의도적 차별뿐만 아니라 간접차별에도 효과적 규제수단으로 사용될 수 있지만, 알고리즘의 불투명성으로 인한 차별의 정당성을 객관적으로 입증하는데 어려움이 존재한다는 한계점이 지적되었다. 또한, 정보보호법의 규정으로 개인정보 사용에 대한 개방성과 투명성을 요구할 수 있고, 알고리즘 의사결정에서 개인정보보호 고지 등을 통해 정보의 비대칭성을 완화하고 불공정하고 불법적인 차별의 위험을 완화할 수 있지만, GDPR 규정적용의 적합성 문제 및 정보보호규정들이 알고리즘 의사결정에 어느 정도의 실질적 영향을 미칠지에 대한 부분들은 또 다른 문제점으로 지적된다. 이처럼 차별금지법과 정보보호법의 적절한 집행은 알고리즘에 의한 차별로부터 사람들을 보호하는 수단이지만 두 법적 수단이 알고리즘 의사결정의 규제수단으로서 가진 한계도 유의해야 한다. 이러한 점에서 유럽연합은 유럽연합 조약에 명시된 평등과 차별금지를 포함한 인권 보호 및 고위험 AI로부터 인간의 기본권, 민주주의, 법치, 환경적 지속가능성을 보호하기 위하여 포괄적 규제법안인 AI 법을 제정하였다. 동 규정으로 인공지능 모델의 설계단계부터 알고리즘 운용방식에 대한 투명성을 제고할 수 있게 되고, 알고리즘의 결과로 나타난 차별에 대한 입증책임의 어려움이나 알고리즘 결과물로 인한 구제수단에 있어 차별금지법의 단점도 완화할 수 있게 되었다. 유럽연합의 AI 법이 인공지능 기술의 포괄적 규제수단으로서 역할을 단계적으로 이행하겠지만, Chat GPT와 같은 범용 AI 등에는 일정 기간 유예기간을 두고 있고 인공지능 학습 및 평가 단계에서 공정성과 개인정보보호 사이의 적절한 조화 문제와 차별을 초래할 가능성이 있는 공정성 지표의 적절한 조정 가능성의 문제는 지속적으로 주목해야 할 부분이다. In the information age, advances in artificial intelligence technology are bringing increased efficiency and convenience to our daily lives. The utilization of automated algorithmic decision-making has become a common phenomenon in both the public and private sectors. However, problems arising by algorithms of artificial intelligence have also been in various forms, and have been caused due to the transparency and fairness of algorithms. This paper analyzes the provisions of anti-discrimination law and data protection law as the most appropriate legal instruments in Europe to protect unlawful discrimination to algorithmic decision-making. While anti-discrimination law can be used as an effective regulatory tool to address not only intentional discrimination but also indirect discrimination by algorithms, it is limited by the difficulty in objectively proving the legitimacy of discrimination due to the non-transparency of algorithms. In addition, while Data protection laws can also mitigate the risk of unfair and unlawful discrimination by requiring openness and transparency in the use of personal data, limitation of data protection laws include questions of applicability and the practical impact of data protection regulations on automated decision-making. While proper enforcement of anti-discrimination laws and data protection laws can protect people from discrimination by algorithms, it is important to note the limitations of these laws as a means of regulating algorithmic decision-making. In this regard, the European Union has enacted the AI Act, a comprehensive regulatory law to protect human rights, including equality and non-discrimination as stipulated in the EU Treaties, and to protect fundamental human rights, democracy, the rule of law, and environmental sustainability from high-risk AI. The AI Act enhances transparency on how algorithms are operated from the design stage of AI models and mitigates the shortcomings of anti-discrimination laws in terms of difficulties in proving discrimination as a result of algorithms and remedies for the consequences of AI decision-making. Even if the AI Act will be phased in as a comprehensive regulatory tool for AI technology, AI systems such as Chat GPT will continue to be subject to a period of grace, and the issue of balancing fairness and privacy during the training and evaluation phase of AI, as well as the appropriateness of fairness metrics in relation to biases that may lead to discrimination, will continue to be a focus of attention.

      • KCI등재

        특허제도와 소위 ‘AI에 의한 발명’의 법적 취급 문제 - 현행법의 해석 및 법적 규율 방안에 대한 제안 -

        최동준 이화여자대학교 법학연구소 2022 法學論集 Vol.27 No.1

        With the transition to the era of the Fourth Industrial Revolution and AI technology becoming important enough to determine national competitiveness in the future, the case of AI DABUS, which can invent itself, raises controversy over the scope of the patent system, showing the need for systematic understanding of legal philosophy and legislative policy about it. And various legal and institutional measures for the development of AI technology and related industries should be sought from a future-oriented perspective in an era where AI-generated inventions, along with the possibility of the emergence of Super AI, will increase. In this regard, various studies have already been conducted focusing on the patent eligibility of AI-generated inventions and the inventorship of AI. This paper discusses issues such as whether AI inventions should be protected with exclusive property rights such as patents, whether inventors should be limited to natural persons (or whether AI, being a legal person, cannot be the subject of rights to inventions directly), who, as a natural person, should be granted property rights to AI-generated inventions, whether AI inventions should be treated the same as human inventions, and whether there is a risk of patent monopoly problems caused by so-called strong AI, in more detail from a theoretical point of view based on existing discussions. The current patent law does not have enough normative devices to cope with the challenges of the Fourth Industrial Revolution, and institutional evolution of the intellectual property law in response to new innovative technologies is needed. Recognizing the need to modernize patent law in the AI era, this paper first described the interpretation, application, and specific countermeasures based on the current patent law and related laws. In addition, in a future society where inventions by so-called strong AI are generalized, we reviewed what are appropriate patent laws and intellectual property laws for technological progress, related industrial development, social welfare, and national wealth. 4차 산업혁명시대로의 전환을 목전에 두고 있고 AI 기술이 향후 국가경쟁력을 좌우할 수 있을 정도로 중요해지고 있는 현재, 스스로 발명을 할 수 있는 AI 다부스(DABUS)의 사례는 특허제도의 적용 범위를 둘러싼 논쟁을 불러일으키며, 이에 대한 체계적인 법철학적, 입법정책적 이해가 필요함을 보여주고 있다. 앞으로 초인공지능(Super AI)의 등장 가능성과 더불어 AI에 의한 발명이 증가할 시대에 미래지향적 관점에서 AI 기술과 관련 산업 발전을 위한 다양한 법제도적 방안이 모색되어야 할 것이다. 이와 관련하여 이미 AI가 수행한 발명의 성립성에 대한 논의를 중심으로 다양한 연구가 이루어지고 있다. 본 논문에서는 AI 발명을 특허권과 같은 독점ㆍ배타적 재산권으로 보호해야 할 것인지, 그리고 특허권 인정과 관련하여 발명자가 자연인으로만 한정되어야 하는지(혹은 AI가 법인격을 가지고 직접 발명자 및 발명에 대한 권리주체가 될 수는 없는 것인지), 또한 AI나 기계가 수행한 발명에 대하여 자연인으로서의 인간이 재산권을 부여받게 된다면 인간 중 누구에게 부여되어야 하는지, AI 발명을 인간의 발명과 동일하게 취급해야 하는지, 소위 강한 AI에 의한 특허독점 문제의 위험성은 없는지 등의 쟁점을 기존 논의를 바탕으로 이론적 관점에서 보다 구체적으로 살펴보았다. 현재의 특허법에는 4차 산업혁명의 도전에 대처할 수 있는 규범적 장치가 충분히 갖추어져 있다고 볼 수 없고, 새로운 혁신 기술에 대응하는 차원의 지식재산법 전반에 대한 제도적 진화가 필요하다. 본 논문에서는 AI 시대를 맞아 특허법을 현대화할 필요가 있다는 점을 인식하고, 우선적으로 현행 특허법 및 관련법을 전제로 하여 이에 대한 해석과 적용 및 구체적 대응 방안에 대하여 서술해 보았다. 또한 소위 강한 AI에 의한 발명이 일반화되는 미래 사회에 있어, 기술진보와 그로 인한 관련 산업발전, 사회후생 및 국부 증대를 위한 적절한 특허법 및 지식재산법의 모습은 무엇인지, 그 주요 법리와 방향성에 대하여 검토하였다.

      • KCI등재

        인공지능(AI) 윤리원칙을 중심으로 한 규제 내용 분석·비교

        유지연,정나영 경북대학교 IT와 법연구소 2024 IT와 법 연구 Vol.- No.28

        As artificial intelligence (AI) technology and associated products and services become more common, ethical issues pertaining to opacity, bias, and privacy continue to be raised, and concern is growing. Therefore, various discussions are underway regarding the ethical implementation and regulation of AI so that it can be reliably regulated on an international scale. Recently, the focus of the discussion has changed from building norms regarding AI's usage to the drafting and passage of legislation that regulates it. Therefore, this paper examines recent trends in major countries related to the regulation of AI, and analyzes and compares these countries' approaches to AI legislation and regulation, focusing on AI ethical principles. This discussion describes the direction in which the international community is defining and regulating the ethical use of AI, and it suggests regulations that are consistent with global norms and but also appropriate for the domestic situation in Korea. Analysis reveals that international discussions are suggesting practical approaches to the identification and mitigation of AI's ethical risks. Trends in legislation and regulation suggest that the international community is prioritizing the maintenance of ethical principles within the context of AI implementation. While the United States, EU, and China have regulated AI in a manner consistent with the principle that ethical and legal standards should be centered on people, the three bills currently presented to Korea's National Assembly do not uphold that standard. The legislation has not sufficiently respected common standards of fairness, accountability, privacy protection, data management, and technical safety. In order to remedy this deficiency, this paper suggests improvements to a general direction for future domestic AI regulations along with specific improvements to legal provisions.

      • KCI등재

        AI의 공정성에 관한 연구 - 차별 없는 AI 사회의 실현 -

        손영화 한양법학회 2023 漢陽法學 Vol.34 No.3

        Introducing AI that ensures fairness in its services faces several obstacles. Therefore, it might be beneficial to examine cases or programs before their implementation. However, addressing AI fairness issues after unfair AI has been deployed can be challenging and may require significant efforts to restore trust. Hence, AI ethics originates from concerns about foreseeably potential problems and even considers cases that are currently beyond technological feasibility. In the future, when considering the provision of AI services, understanding the concept of AI fairness and prioritizing the assessment of whether the AI to be deployed is fair or not will be of great importance. AI fairness means ensuring that artificial intelligence systems operate justly and equitably for all individuals. It aims to treat all users without bias and avoid unfavorable prejudices towards specific groups, such as race, gender, nationality, ethnic and social backgrounds. To guarantee the fairness of AI systems, it is essential to exclude discrimination and build trust, preventing unfair AI systems from exacerbating social inequalities. AI fairness plays a crucial role in establishing a social safety net. To achieve AI fairness, the following measures are necessary: ① Utilization of diverse datasets, ② Algorithm reviews, ③ Establishment of regulations and standards for AI systems, ④ Ethical considerations in AI development, and ⑤ Implementation of feedback systems. The assessment of AI fairness for sensitive attributes should be determined separately based on the purpose and usage of the AI. Moreover, the final judgment on setting thresholds for each indicator to determine fairness is left to the AI provider. Regarding these challenges, the emergence of tools that automatically extract factors that may influence fairness, propose sensitive attributes from them, and recommend thresholds considering the content of sensitive attributes and AI's context is anticipated. However, while using such tools to prevent, detect, mitigate, and monitor biases is possible, caution should be exercised not to overly rely on specific tools. Each method has its strengths and limitations. The most effective approach involves a combination of quantitative and qualitative tools and collaborative efforts to reduce biases at every stage of the AI lifecycle. AI fairness will help exclude discrimination in the AI era and contribute to building a society where everyone can enjoy happiness and dignity as human beings on an equal basis.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼