RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      차별에서 공정성으로:인공지능의 차별 완화와 공정성 제고를 위한 제도적 방안 = From Discrimination to Fairness: Institutional Ways to Reduce the Bias and Enhance the Fairness of Artificial Intelligence

      한글로보기

      https://www.riss.kr/link?id=A106501946

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      With the widespread introduction and use of artificial intelligence today, there arise a variety of relevant social, ethical and legal issues. The most remarkable among them is the issue that the outcome of the decision-making made by artificial intelligence can involve bias or discrimination of the kind as the society does not want to accept. That is, such decision-making can involve vicious bias in various aspects including race, gender, age, and looks. This bias can be a problem as serious as the bias typically found in decision-making made by humans.
      This paper attempts to offer and discuss the following policies as responses to this problem. First of all, we would need to respect and obey the regulations and norms of international and domestic human rights laws on anti-discrimination―at the entire stages of design, use and assessment of artificial intelligence. It is recommended, however, that in the process we take advantage of the so-called soft laws rather than hard laws. In this regard, a variety of agencies including the states, governmental agencies, international agencies, expert groups, and private corporations have already proposed ethics principles, guidelines, and charters. The Korean government then also need to make endeavors similar to these proposals. In a similar vein, it would also be useful to let the developers make a declaration and codes of conduct that ensure artificial intelligence to be somehow ethical, and the developers to obey them. As a more fundamental and direct solution to the problem at issue, in the process of R&D we would need to try to design and make ‘good’ artificial intelligence as such. Next, it would also be useful to make assessment and audit of the system and service of artificial intelligence. In addition, it would also be thinkable to institutionalize to open the inputs and outputs of artificial intelligence to the users and to make it a duty for the controllers to respond to them when they claim to an explanation of the output. Lastly, we would need to enhance the literacy and capacities of users as citizens on artificial intelligence in order to secure their so-called ‘artificial intelligence citizenship.’
      번역하기

      With the widespread introduction and use of artificial intelligence today, there arise a variety of relevant social, ethical and legal issues. The most remarkable among them is the issue that the outcome of the decision-making made by artificial intel...

      With the widespread introduction and use of artificial intelligence today, there arise a variety of relevant social, ethical and legal issues. The most remarkable among them is the issue that the outcome of the decision-making made by artificial intelligence can involve bias or discrimination of the kind as the society does not want to accept. That is, such decision-making can involve vicious bias in various aspects including race, gender, age, and looks. This bias can be a problem as serious as the bias typically found in decision-making made by humans.
      This paper attempts to offer and discuss the following policies as responses to this problem. First of all, we would need to respect and obey the regulations and norms of international and domestic human rights laws on anti-discrimination―at the entire stages of design, use and assessment of artificial intelligence. It is recommended, however, that in the process we take advantage of the so-called soft laws rather than hard laws. In this regard, a variety of agencies including the states, governmental agencies, international agencies, expert groups, and private corporations have already proposed ethics principles, guidelines, and charters. The Korean government then also need to make endeavors similar to these proposals. In a similar vein, it would also be useful to let the developers make a declaration and codes of conduct that ensure artificial intelligence to be somehow ethical, and the developers to obey them. As a more fundamental and direct solution to the problem at issue, in the process of R&D we would need to try to design and make ‘good’ artificial intelligence as such. Next, it would also be useful to make assessment and audit of the system and service of artificial intelligence. In addition, it would also be thinkable to institutionalize to open the inputs and outputs of artificial intelligence to the users and to make it a duty for the controllers to respond to them when they claim to an explanation of the output. Lastly, we would need to enhance the literacy and capacities of users as citizens on artificial intelligence in order to secure their so-called ‘artificial intelligence citizenship.’

      더보기

      국문 초록 (Abstract)

      사회 각 분야에 인공지능이 도입되고 활성화됨에 따라, 이와 관련하여 다양한 사회적·윤리적·법적 쟁점도 대두되고 있다. 그 중 가장 두드러진 것은 인공지능의 판단이나 의사결정의 결과가 사회가 원하지 않는 종류의 편향과 차별을 띨 수 있다는 점이다. 인공지능 알고리즘에 따른 의사결정도 인종·젠더·연령·외모 등 다양한 측면에서 편향을 드러낼 수 있으며, 이러한 편향도 인간의 의사결정에서 드러나는 편향 못지않게 심각할 수 있다는 것이다.
      본고는 이러한 문제와 관련하여 다음과 같은 정책적 대응 방안을 제시하고 논의하였다. 일차적으로 인공지능의 설계와 활용 및 평가 등 모든 단계에서 국제인권규범이나 국내 법규상의 차별 금지에 관한 규율을 충실하게 준수해야 한다. 다만 이러한 경성 규범을 활용할 때에는 신중할 필요가 있고, 연성 규범을 적극적으로 활용하는 것이 더욱 권장할 만하다. 주지하듯, 국가와 정부기구에서부터 국제기구나 전문가집단, 그리고 민간 기업에 이르기까지 여러 주체들은 이미 인공지능의 활용에 관한 윤리 가이드라인과 규약, 그리고 헌장 등을 제시한 바 있으며, 우리 정부나 기관들도 이같은 규범을 제정하고 준수할 필요가 있다. 인공지능 개발자 선서나 행동규약을 제정하여 준수하게 하는 것도 유사한 의의와 효용이 있을 수 있다. 보다 근본적이고 직접적인 해결책으로, 애초에 ‘선한’ 인공지능을 설계하고 제조하고자 관련 연구개발에 노력할 필요도 있다. 그리고 인공지능(알고리즘)에 대한 사전 영향 평가나 사후 감사도 필요하다. 뿐만 아니라, 인공지능의 입출력물을 공개하는 한편 이용자로부터 설명 요청이 있을 때에 컨트롤러가 이에 응하는 것을 의무화하는 방안도 유력하다. 끝으로, 이른바 인공지능 시민권을 보장하는 차원에서, 인공지능과 관련한 시민의 전반적 이해도와 역량을 강화하는 것이 필요하다.
      번역하기

      사회 각 분야에 인공지능이 도입되고 활성화됨에 따라, 이와 관련하여 다양한 사회적·윤리적·법적 쟁점도 대두되고 있다. 그 중 가장 두드러진 것은 인공지능의 판단이나 의사결정의 결과�...

      사회 각 분야에 인공지능이 도입되고 활성화됨에 따라, 이와 관련하여 다양한 사회적·윤리적·법적 쟁점도 대두되고 있다. 그 중 가장 두드러진 것은 인공지능의 판단이나 의사결정의 결과가 사회가 원하지 않는 종류의 편향과 차별을 띨 수 있다는 점이다. 인공지능 알고리즘에 따른 의사결정도 인종·젠더·연령·외모 등 다양한 측면에서 편향을 드러낼 수 있으며, 이러한 편향도 인간의 의사결정에서 드러나는 편향 못지않게 심각할 수 있다는 것이다.
      본고는 이러한 문제와 관련하여 다음과 같은 정책적 대응 방안을 제시하고 논의하였다. 일차적으로 인공지능의 설계와 활용 및 평가 등 모든 단계에서 국제인권규범이나 국내 법규상의 차별 금지에 관한 규율을 충실하게 준수해야 한다. 다만 이러한 경성 규범을 활용할 때에는 신중할 필요가 있고, 연성 규범을 적극적으로 활용하는 것이 더욱 권장할 만하다. 주지하듯, 국가와 정부기구에서부터 국제기구나 전문가집단, 그리고 민간 기업에 이르기까지 여러 주체들은 이미 인공지능의 활용에 관한 윤리 가이드라인과 규약, 그리고 헌장 등을 제시한 바 있으며, 우리 정부나 기관들도 이같은 규범을 제정하고 준수할 필요가 있다. 인공지능 개발자 선서나 행동규약을 제정하여 준수하게 하는 것도 유사한 의의와 효용이 있을 수 있다. 보다 근본적이고 직접적인 해결책으로, 애초에 ‘선한’ 인공지능을 설계하고 제조하고자 관련 연구개발에 노력할 필요도 있다. 그리고 인공지능(알고리즘)에 대한 사전 영향 평가나 사후 감사도 필요하다. 뿐만 아니라, 인공지능의 입출력물을 공개하는 한편 이용자로부터 설명 요청이 있을 때에 컨트롤러가 이에 응하는 것을 의무화하는 방안도 유력하다. 끝으로, 이른바 인공지능 시민권을 보장하는 차원에서, 인공지능과 관련한 시민의 전반적 이해도와 역량을 강화하는 것이 필요하다.

      더보기

      참고문헌 (Reference)

      1 홍성수, "포괄적 차별금지법의 필요성: 평등기본법을 위하여" 젠더법학연구소 10 (10): 1-38, 2018

      2 김승연, "처음 배우는 머신러닝" 한빛미디어 2017

      3 센, 아마티야, "자유로서의 발전" 갈라파고스 2013

      4 유뱅크스, 버지니아, "자동화된 불평등" 북트리거 2018

      5 이중원, "인공지능의 존재론" 한울아카데미 2018

      6 허유선, "인공지능에 의한 차별과 그 책임 논의를 위한 예비적 고찰 -알고리즘의 편향성 학습과 인간 행위자를 중심으로-" 한국여성철학회 29 : 165-210, 2018

      7 김효은, "인공지능과 윤리" 커뮤니케이션북스 2019

      8 정원섭, "인공지능과 새로운 규범" 아카넷 2018

      9 한국인공지능법학회, "인공지능과 법" 박영사 2019

      10 스튜어트 러셀, "인공지능: 현대적 접근방식" 제이펍 2016

      1 홍성수, "포괄적 차별금지법의 필요성: 평등기본법을 위하여" 젠더법학연구소 10 (10): 1-38, 2018

      2 김승연, "처음 배우는 머신러닝" 한빛미디어 2017

      3 센, 아마티야, "자유로서의 발전" 갈라파고스 2013

      4 유뱅크스, 버지니아, "자동화된 불평등" 북트리거 2018

      5 이중원, "인공지능의 존재론" 한울아카데미 2018

      6 허유선, "인공지능에 의한 차별과 그 책임 논의를 위한 예비적 고찰 -알고리즘의 편향성 학습과 인간 행위자를 중심으로-" 한국여성철학회 29 : 165-210, 2018

      7 김효은, "인공지능과 윤리" 커뮤니케이션북스 2019

      8 정원섭, "인공지능과 새로운 규범" 아카넷 2018

      9 한국인공지능법학회, "인공지능과 법" 박영사 2019

      10 스튜어트 러셀, "인공지능: 현대적 접근방식" 제이펍 2016

      11 양종모, "인공지능 알고리즘의 편향성, 불투명성이 법적 의사결정에 미치는 영향 및 규율 방안" 법조협회 66 (66): 60-105, 2017

      12 홍성욱, "인공지능 알고리즘과 차별" 과학기술정책연구원 2018

      13 고학수, "윤리적 인공지능의 실현과 과제" 서울대학교 법과경제연구센터 2019

      14 웬델 월러치, "왜 로봇의 도덕인가" 메디치 2014

      15 최난설헌, "연성규범(Soft Law)의 기능과 법적 효력 - EU 경쟁법상의 논의를 중심으로 -" 법학연구소 16 (16): 87-123, 2013

      16 누스바움, 마사, "역량의 창조" 돌베개 2013

      17 이선구, "알고리듬의 투명성과 설명가능성: GDPR을 중심으로" 서울대학교 2019

      18 정승준, "설명가능한 인공지능 기술의 소개" 46 (46): 2019

      19 최재식, "설명가능 인공지능 연구동향" 37 (37): 2019

      20 포어, 프랭클린, "생각을 빼앗긴 기계: 거대 테크기업들은 어떻게 우리의 생각을 조종하는가" 반비 2019

      21 파스콸레, 프랭크, "블랙박스 사회" 안티고네 2016

      22 김건우, "로봇윤리 vs. 로봇법학: 따로 또 같이" 한국법철학회 20 (20): 7-44, 2017

      23 김건우, "로봇법학(Robot Law)이란 무엇인가?" 비교법문화연구소 17 (17): 89-123, 2017

      24 황용석, "디지털미디어와 사회" 나남 2017

      25 오닐, 캐시, "대량살상 수학무기" 흐름출판 2016

      26 노우블, 사피아, "구글은 어떻게 여성을 차별하는가" 한스미디어 2019

      27 "https://www.mk.co.kr/news/it/view/2016/12/871282/"

      28 "https://www.congress.gov/bill/116th-congress/house-bill/2231/all-info"

      29 Foer, Franklin, "World Without Mind: Why Google, Amazon, Facebook and Apple Threaten Our Future" Vintage 2017

      30 O'Neil, Cathy, "Weapons of Math Destruction" Crown 2016

      31 Wachter-Boettcher, Sara, "Technically Wrong" W.W.Norton & Company 2016

      32 Rotblat, Joseph, "Science and Human Values"

      33 Patrick Lin, "Robot Ethics: The Ethical and Social Implications of Robotics" MIT Press 2012

      34 UNESCO, "Recommendation on the Status of Scientific Researchers" 1974

      35 Angwin, Julia, "Machine Bias"

      36 Porup, J. M., "How and why deepfake videos work and what is at risk"

      37 Gunning, David, "Explainable Artificial Intelligence"

      38 박노형, "EU 개인정보보호법-GDPR을 중심으로" 박영사 2017

      39 EU Commission, "Draft Report with Recommendations to the Commission on Civil Law Rules in Robotics" 2016

      40 Selbst, Andrew D., "Disparate Impact in Big Data Policing" 52 : 2018

      41 Center for Data Ethics and Innovation (CDEI), "Deepfakes and Audio-visual Disinformation" CDEI 2019

      42 Russell, Stuart, "Artificial Intelligence: A Modern Approach" Prentice Hall 2010

      43 Noble, Safiya U., "Algorithms of Oppression: How Search Engines Reinforce Racism" NYU Press 2018

      44 Goodman, Bryce W., "A Step Towards Accountable Algorithms?: Algorithmic Discrimination and The European Union General Data Protection" 2016

      45 정보통신정책연구원, "4차산업혁명시대 산업별 인공지능 윤리의 이슈 분석 및 정책적 대응방안 연구" 2018

      46 고학수, "2018 NAVER Privacy White Paper" 2018

      47 김의중, "(알고리즘으로 배우는) 인공지능, 머신러닝, 딥러닝 입문" 위키북스 2016

      더보기

      동일학술지(권/호) 다른 논문

      동일학술지 더보기

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2026 평가예정 재인증평가 신청대상 (재인증)
      2020-01-01 평가 등재학술지 유지 (재인증) KCI등재
      2017-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2013-01-01 평가 등재학술지 선정 (등재유지) KCI등재
      2012-01-01 평가 등재후보 1차 PASS (등재후보1차) KCI등재후보
      2010-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.53 0.53 0.6
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.57 0.57 0.735 0.15
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼