RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      해명책임은 누구에게 왜 요구되는가? = To Whom is Accountability Required and Why?

      한글로보기

      https://www.riss.kr/link?id=A109017139

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      이 글에서 필자는 우선 “자율주행차량”이나 “책임 있는 인공지능”과 같이 인공지능과 관련하여 우리가 사용하는 용어들은 인공지능의 존재론적 지위와 관련하여 인공지능이 마치 책임...

      이 글에서 필자는 우선 “자율주행차량”이나 “책임 있는 인공지능”과 같이 인공지능과 관련하여 우리가 사용하는 용어들은 인공지능의 존재론적 지위와 관련하여 인공지능이 마치 책임의 주체인 것처럼 잘못 이해하게 하는 용어들임을 지적한다. 심지어 해명책임에 대한 논의에서도 해명책임의 주체를 인간이 아닌 인공지능인 것처럼 논의하는 경우도 있다. 필자는 인공지능은 행위의 주체가 될 수 없으며, 따라서 해명책임의 주체는 인공지능이 아니라, 인공지능 서비스에 대해 책임을 져야 하는 사람들이다. 최근 주목되는 설명가능성이나 해석가능성과 같은 인공지능의특성에 대한 논의에서도 해명책임이 중심적인 개념이며, 이들 특성은 해명책임의 이행에 도움을줄 수 있다. 하지만 이 특성이 인공지능이 지녀야 할 필수적인 특성은 아닐 수 있다고 보았다. 해명책임은 어떤 사태의 발생이나 관련된 판단에 대해 설명하는 의무로서 근본적으로는 정당화 근거를 제시하는 인식론적 활동에서 요구되는 의무이다. 따라서 해명책임의 핵심은 판단의 주체가왜 그런 판단을 했는지 그리고 그 판단이 왜 신뢰할 만한 것인지 그 정당화 근거를 제시하는 데 있다. 따라서 인공지능 기술에 기반한 서비스를 제공하는 사람은 해당 기술의 신뢰성이 왜 어떻게담보되는지 설명할 수 있어야 할 것이다.

      더보기

      다국어 초록 (Multilingual Abstract)

      This article points out that the commonly used terms like “autonomous vehicle” or “responsible AI” mislead us to consider AI the subject of responsibility related to the ontological status of AI. Furthermore, there is an opinion where AI is tr...

      This article points out that the commonly used terms like “autonomous vehicle” or “responsible AI” mislead us to consider AI the subject of responsibility related to the ontological status of AI. Furthermore, there is an opinion where AI is treated to be the subject of accountability even in the discussion of accountability. I argue that AI cannot be the subject of action, nor that of responsibility. Therefore, the subject of accountability is not AI, but persons who are responsible for the service AI provides. Accountability is the key conpet in the discussion on the features of AI, such as explainability and interpretability, which have recently been noted. These features help the fulfillment of accountability. However these features may not be necessary features of AI. Accountability is a duty to explain the occurrence of a situation or its relevant judgment and is a duty required in epistemological activities that should provide a justification. The core of the responsibility for explanation lies in presenting the reasons why the subject of judgment makes such a judgment and why the judgment is reliable. Therefore, those who provide services based on AI technology should be able to explain why and how the reliability of the technology is guaranteed.

      더보기

      동일학술지(권/호) 다른 논문

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼