RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        인공지능을 이용한 행위에 대한 법적인 평가 - 사법(私法)상 논의를 위한 시론(試論 또는 始論) -

        장보은 한국외국어대학교 법학연구소 2019 외법논집 Vol.43 No.4

        제4차 산업혁명은 우리의 삶의 방식을 급격하게 변화시킬 것이라고 한다. 특히 인공지능은 이미 우리 생활에서 다양한 방식으로 활용되고 있고, 빅데이터, 블록체인, 생명공학 등 여러 기술과 결합하여괄목할만한 성장을 보이고 있다. 이러한 기술에 대한 이해를 바탕으로 이를 사회에 가장 이익이 될 수있는 방향으로 활용하기 위한 시스템을 구축하는 것은 이제 당면과제가 되었다. 우선 사법적으로는 인공지능을 이용한 거래가 늘어나고 고도화되면서 계약법적인 관계를 조망하고, 인공지능에 의하여 예상하지 못하였던 위법한 행위가 야기되었을 때의 책임 분배 문제를 정리하는 것부터 시작할 필요가있다. 인공지능의 스펙트럼 중에 상당한 정도의 자율성을 가지는 인공지능의 경우에는, 사전에 인공지능의 행위를 예상하기 어렵게 된다는 점에서 인공지능의 행위를 이해하는 데에 민법상 대리를 이용하는것이 법리적⋅경제적으로 타당한 결론에 이를 수 있다. 법이론적으로 오랜 역사를 가진 대리 법리는인공지능의 이용을 둘러싼 여러 책임 주체들 누가 책임의 당사자가 되는지, 책임의 범위는 어디까지인지를 합리적으로 정하기 위한 이론적 토대를 마련해 준다. 불법행위책임의 경우에도 이러한 대리의 법리는 책임을 분배하는 데에 여전히 의미가 있고, 그 외에도 제조물책임 등의 불법행위법의 고유한 법리는 인공지능에도 적용될 수 있을 것이다. 나아가 최근 인공지능에 법인격을 인정함으로써 이론적인 명확성을 꾀하며 과도한 책임을 제한하고 상대방을 보호하고자 하는 견해도 설득력을 더하고 있다. 사법적으로 인공지능을 별도의 권리⋅의무 주체로서 인정하는 문제는 철학적 혹은 개념적인 측면보다는 인공지능의 기술적인 진보와 사회적인 기능에 따라 그 법적인 상태를 변경할 필요가 있는지를 따져야 하는 문제이다. 이에 대하여는 개별인공지능별로, 그 기술적 상태와 활용 범위 등에 비추어 별도의 법인격을 인정할 것인지 여부 및 법인격을 인정할 때의 그 범위에 대한 논의와 사회적인 합의가 필요하다. The Fourth Industrial Revolution will change our way of life drastically. In particular, artificial intelligence has already been used in various ways in our lives, and has been growing remarkably in combination with high-end technologies such as big-data, block-chain, and biotechnology. It is the most important challenge to build a system to utilize these technologies in a way that could best benefit society. From the perspective of civil law, as we interact with more autonomous artificial agents, it is necessary to look into the contracting problem in relation to the transactions using them. In addition, tort liability is also important for the third parties harmed by their interactions with an artificial agent. In the case of an artificial agent, which has a considerable degree of autonomy in the spectrum of artificial intelligence, it would be difficult to anticipate the behavior of the agent in advance. Then, the agency law approach, which treats artificial agents as legal agents of their principals, will be reasonable and economically feasible. The legal theory, with a long history, provides a theoretical foundation for the rational decision of who is responsible for the use of artificial intelligence, for what extent of responsibility, etc. For tort liability for unexpected wrongdoing of autonomous artificial agents, the agency law approach is still meaningful in allocating liability, in addition to other legal theories including product liability. The last question would be whether an artificial agent could or should have any legal rights, duties, obligations as a legal person. Since it is a matter of social, political, economic decision to change its legal status rather than philosophical or conceptual one, it will require discussion and social consensus on the legal personhood in light of the technical status and utilization range of each artificial agent.

      • KCI등재

        인공지능(AI)의 법인격 주체성의 논리적 기틀에 대한 기초 연구

        한희원 중앙법학회 2018 中央法學 Vol.20 No.3

        Generally speaking, a moral agent is a human being who has the ability to discern right from wrong and to be held accountable for his or her own actions owing to so called reason or rationality. For that reason moral agents have a moral responsibility not to cause unjustified harm to anyone in a society. However the newly emerging field of smart machine ethics is concerned with adding an ethical dimension to machines. So called artificial intelligence(AI) is intelligence demonstrated by machines, in contrast to the natural intelligence displayed by humans and other animals. As technology advances, some activities, once deemed as “human-only”, are performed by machines or artificial agents. As they accomplish more and more complex tasks, something more than complex computational capabilities are needed for artificial agents: some minimal moral capacities to decide about moral and ethics matters. Ultimately, the concept of an artificial moral actor or agent(AMA) emerged which requires ethics and new law. But can artificial intelligence agents consciously or really distinguish right from wrong? Anyway Sophia, an artificial intelligence robot who is recognized as the most humane robot, received citizenship in Saudi Arabia in 2017 and was invited to the United Nations Economic and Social Council(ECOSOC) for a panel. Nowadays artificial intelligence robots have already begun to live together with human beings. And then what is the reality of an artificial intelligence robot? Is consciousness the only distinction standard between animals, machines and humans? From a human-centered point of view, no matter how machine may be looks like or work similarly a human being, artificial intelligence robots can’t and should not be given moral subjectivity as inanimate objects because without consciousness nothing can be moral agent. However regarding to the consciousness, lots of opinions are based on the viewpoint of human control and supervision, and directly from the viewpoint of robot slaves which derive from the viewpoint of homo sapiens, in other words anthropocentrically. And then, is Homo sapiens the ultimate conqueror of the earth? What is essence of human consciousness and life? What is the basis and content of artificial moral agent(AMA)? Does it impossible to appear super artificial intelligence, ie Robo-Sapien as a Third Species? The ultimate goal of machine ethics, I believe, is to create a machine that itself follows an ideal ethical principle or set of ethic principles like theory of utilitarianism as well as consequentialism and virtue theory, etc. Those questions are the starting point of this paper. Therefore, in this paper I propose a model of artificial normative agency that accommodates some crucial social competencies that human being expect from artificial moral agents. And I tried to discuss the ultimate question of how the relationship between Homo sapiens and Robo-Safian will be located. Today's remarkable advances in science and technology may develop a third species in some day after technical singularities. Addition that in this paper, I want to share some legal and ethical issues about the ultimate reality of artificial moral agents(AMA), as well as the problems of legal education in artificial intelligence era for the discussion and leading study in the field of legal philosophy. 미래 과학기술문명의 정점을 이룰 것으로, 제4차산업혁명의 쟁점으로도 이미 등장한 인공지능(AI)에 대해 법학계의 관심도 증대하고 있고, 법률논문에도 인공지능 주제가 등장하기 시작했다. 물론 대개는 자율주행차와 지적재산권 관련 쟁점을 다루는 논문이다. 그러나 법학이 인공지능(AI)과 관련되어 원초적인 역할을 다하려면 인공지능의 궁극적인 모습인 인공적 도덕행위자에 대한 이해가 수반되어야 하고 그것은 결국 인공지능(AI)의 법인격주체의 문제로 귀결된다. 이를 위해서는 인공적 도덕행위자 논쟁이 결국 법규범과 도덕윤리에 기초한 것임을 인식해야하고, 호모 사피엔스의 고유한 특성으로 말해지는 영혼, 의식, 자유의지에 대한 이해가 따라야한다. 이미 가장 인간다운 인공지능 로봇으로 평가되는 소피아(Sophia)가 2017년 사우디아라비아에서 시민권을 발급받았고 유엔경제사회이사회(ECOSOC)에 토론자로 초청받았다. 인공지능은 이미 인간 생활 전반으로 파고들며 인간과의 동거를 시작했다. 과연 인공지능 로봇의 궁극적인 실체는 무엇일까? 인간 중심적인 시각에서는 아무리 인공지능이라고 하더라도 로봇은 창의성이나 감각, 궁극적으로는 생명과 의식이 없는 무생물로 분류될 것이다. 본고의 문제의식의 출발점은 바로 여기에 있다. 그러나 인공지능에 대한 현재까지의 연구는 의식을 사물과 인간을 분별하는 유일한 기준으로 보는 한 그것이 법학이건, 철학이건 공학이나 경제학의 관점에서건 호모 사피엔스 중심적 관점에서 인간의 통제와 감독대상, 직설적으로는 로봇노예의 시각에 입각할 수밖에 없다는 사실을 부인하기 어렵다. 포스트휴머니즘, 사이보그 인간, 강인공지능의 담론은 모두 인간 중심적 한계에 있다. 그러나 오늘날 눈부신 과학기술의 발전은 기술적 특이점 이후에 등장할 제3의 종(種) 논쟁을 유발한다. 이에 본고는 법조문의 천착을 주된 관심사로 하는 법학에는 매우 생소하게 보일 수 있는데, 인공적 도덕행위자(Artificial Moral Agent)의 궁극적 실체와 함께 그에 따른 법적ㆍ윤리적 쟁점을 고찰하고자한다. 그리고 인공지능시대의 법학교육에 대한 고민을 살핀다. 본고는 호모 사피엔스가 궁극적인 지구의 정복자이고 완결자일까? 의식이나 생명이란 과연 무엇인가? 단적으로 인간이외에 인공적 도덕행위자(AMA)를 인정할 근거와 그 내용은 무엇일까? 제3의 종으로서 인공지능 로보-사피엔스는 출현할 것인가? 그럴 경우에 호모사피엔스와 로보 사피엔스의 관계는 어떻게 위치 지을 것인가? 그 경우에 법과 윤리는 과연 무엇을 해야 하고 할 수 있는가? 라고 하는 질문들에 대한 고찰로 법학 담론의 외연확대에 일조하고자 한다.

      • KCI등재

        인공지능과 계약법

        이상용(Sang Yong Lee) 한국비교사법학회 2016 비교사법 Vol.23 No.4

        최근 급속히 이루어지고 있는 인공지능 기술의 발전은 계약법 분야에 커다란 충격을 가져오고 있다. 인간의 정신과 구별할 수 없는 이른바 강인공지능(strong A.I.)이 개발될 경우 생길 수 있는 근본적인 문제를 논외로 하더라도, 현재의 약인공지능(weak A.I.) 단계에서도 수많은 난제들이 발생한다. 이 문제들은 인공지능이 갖는 자율성과 특정 영역에서 인간을 넘어서는 합리성에서 비롯된다. 이러한 특성은 계약법 분야에서, 특히 인공 에이전트에 의한 계약체결의 사안에서 가장 명확하게 드러난다. 인공 에이전트에 의하여 계약이 체결되는 경우 인공지능의 자율성으로 인하여 경우에 따라 이용자가 의도하지 않았거나 이용자의 의도에 반하는 결과가 생길 수 있다. 따라서 이러한 인공지능의 자율성에도 불구하고 이용자에게 책임을 귀속시킬 수 있는 법적 근거가 설명될 필요가 있다. 또한 책임 귀속의 근거가 밝혀진 뒤에도 당사자들의 이해 조정의 문제가 남는다. 이용자의 의도에 반하는 법률행위가 이루어진 경우 그로 인한 위험은 당사자들 사이에 적절히 배분되어야 하는데, 이와 관련하여 정당한 위험 배분기준은 무엇인지 그리고 이를 위하여 활용될 수 있는 법제도는 무엇인지 문제되는 것이다. 본고는 인공지능의 자율성에도 불구하고 그에 의한 계약의 정당성 근거로서 사적자치의 원칙이 견지될 수 있다는 점과 표현대리의 유추적용을 통하여 적정한 위험배분이 이루어질 수 있음을 보여주고자 하였다. 한편 인공지능은 특정 영역에서 인간을 넘어서는 합리성을 지닌다. 이러한 현상은 오래 전부터 우리 생활의 곳곳에서 찾아볼 수 있었으나, 최근 들어 인공지능의 자율성과 결합하여 계약법 영역에서 합리성 격차 라는 비대칭성의 문제를 새롭게 제기하고 있다. 발전된 인공지능 기술을 이용하여 계약을 체결하는 사람과 그렇지 않은 사람 사이에 구조적인 불균형이 자리잡게 되는 것이다. 이는 인공지능 이용자의 상대방 보호를 위한 법적 장치에 대한 연구 필요성을 촉발한다. 본고는 철회권의 확대와 신의성실의 원칙을 인공 에이전트에 내재화하는 것을 통하여 이 문제를 해결할 수 있음을 논증하려 하였다. 인공지능의 자율성과 합리적 격차라는 비대칭성의 문제는 사적자치의 원칙에 대한 도전이라는 관점에서 해석될 수 있다. 계약법과 관련하여 인공지능 기술의 발전은 인공지능 이용자의 의도에 반하는 결과에 대하여 이용자가 책임을 부담하는 것이 자기결정권에 반하는 것은 아닌지, 그리고 인공 에이전트 이용자와 거래하는 상대방의 자기결정권은 합리성 격차로 인하여 사실상 형해화되는 것은 아닌지 하는 의문을 낳는다. 이러한 의문들은 근대법의 기본원리인 사적자치의 원칙이 인공지능의 시대에도 여전히 유효할 것인지 여부와, 그 원리적 힘이 유지되려면 어떠한 보완장치가 필요한지에 관한 질문으로 다시 진술될 수 있다. 본 연구는 이러한 질문에 답하는 것을 목표로 한다. The rapid development of A.I. technology impacts greatly on law of contract. Beside the fundamental issues which could arise if so-called strong A.I. comes into existence, there are many difficult issues even in the present phase of weak A.I. These issues arise from the autonomous feature of A.I. and super-rationality of A.I. in certain areas. These features stand out most in the contract formation cases by artificial agents. When contracts are concluded by artificial agents, the autonomous feature of A.I. could bring out such results that were not intended or even opposed by users of them. This precipitates the need for legal explanation for attributing the liability to the users. There is also the issue of adjustment of conflicting interests of the parties. When legal acts are conducted which are opposed by the users, the resulting risk should be appropriately apportioned between parties. So it should be examined what the adequate criterion of risk apportionment is and what kind of legal princple could be resorted to for this purpose. This paper tried to demonstrate that the good old principle of private autonomy could hold fast as the basis for justification of contracts by artificial intelligence and that appropriate risk apportionment could be achieved by analogy of the apparent agency authority. A.I. features rationality that surpasses that of human in some areas. These phenomena have long been around us, but raise new problem of asymmetry, which is rationality gap in the area of law of contract as a result of combination with the autonomous feature of A.I. There is structural asymmetry between people who use advanced A.I. for contract and people who don t. This prompt the need for the study of legal apparatus for the protection of the counterpart of the A.I. user. This paper attempted to show that the expansion of right of withdrawal and internalization of the principle of good faith into artificial agents could help solve this problem. The problem of autonomous feature of A.I. and rationality gap could be interpreted as challenge to the principle of private autonomy. The development of A.I. technology concerning law of contract raises questions whether the fact that artificial agent user is liable for the result which does not correspond to his intention infringes his self-determination, and whether the self- determination of the other party who transacts with artificial agent user reduces to emptiness. These questions can be rephrased into the question whether the principle of private autonomy can remain valid in the age of A.I. and what kind of complementary measures are needed for its doctrinal power to be maintained. This paper aims at answering properly to these questions.

      • KCI등재

        인공지능이 인간 같은 행위자가 될 수 있나?

        최경석 한국생명윤리학회 2020 생명윤리 Vol.21 No.1

        이 글은 인공지능과 인간 지능의 차이가 무엇인지 논의함으로써 인공지능의 존재론적 지위와 인간의 특징이 무엇인지 밝히고자 한다. 최근 알파고의 등장에서처럼 인공지능은 컴퓨터가 상호 연계되며 빅 데이터 기술과 딥 러닝 기술까지 포함하는 형태로 발전하였고 계산의 영역뿐만 아니라 감성의 영역까지 포함하는 것으로 발전하고 있다. 그러나 인공지능은 인간의 감성을 흉내낼 뿐이다. 왜냐하면 감정이나 정서의 영역은 진정성이 중요하게 작동하는 영역으로서 감정을 표출하는 자의 주체성과 총체적 인격성이 전제되어야 하기 때문이다. 또한 인간의 뇌가 수행한 기능은 생존을 위한 것이다. 지능 역시 생존을 위한 문제해결능력으로 정의될 수 있다. 이런 점에서 인공지능은 진정한 지능이라 여길 수 없다. 인공지능이 인간과 같은 진정한 지능을 갖추기 위해서는 인공지능이 자신이 처한 환경에서 생존하려는 문제해결능력의 발휘로서 지능을 사용해야 하기 때문이다. 그러나 인공지능이 생존하려는 욕구를 지니고 있다고 판단하기는 아직 이르다. 게다가 인공지능이 인간과 같은 자의식이라는 고도의 지능을 지니고 있다거나 지닐 것이라고 보기도 어렵다. 인간의 자의식은 생물체로서의 유한성을 인식하고 다른 인간과의 연대와 협력을 통해 자아정체성과 함께 타자성을 인식하는 매우 고차원적인 지능 활동이다. 이와 같이 인간 지능과 인공지능의 차이는 인공지능이 의도를 지닌 행위자로 인식되기 어렵다는 판단에 이르게 하며, 도덕적 행위자로 인식되기는 더욱 어렵다고 본다. 인공지능을 인간처럼 여기는 태도나 기획은 오히려 인간이 인공지능과 어떻게 다른지를 보여주고 있다. This paper aims to clarify the ontological status of artificial intelligence and features of human intelligence by dealing with the difference between them. Recently, as AlphaGo shows, artificial intelligence has the network of computers and adopts deep learning technology with big data. Further, artificial intelligence is introduced to the scope of emotion as well as to that of calculation. However, artificial intelligence just imitates human emotion because subjectivity and holistic personality of emotion exposer must be presupposed and because emotion plays a role with authenticity. the function of human brain is to make a human being survive. Human intelligence can be defined as a problem-solving capacity for survival. Thus, artificial intelligence is not the same as human intelligence. In order for artificial intelligence to be an human intelligence, it uses its intelligence for its problem-solving for survival. But it is hard to say that artificial intelligence has a desire to survive. In addition, it is also hard to say that artificial intelligence has or will have self-awareness like human being’s. Human self-awareness is a very high level of intelligence activity in which a human being recognizes one’s finitude as a biological organism and one’s self identity as well as otherness through the cooperation with others. The difference between artificial intelligence and human one leads us to think that an artificial intelligence cannot become an agent with intention and not even moral agent. The attitude or project to consider artificial intelligence to be an human intelligence is only to show that there are big differences between them.

      • KCI등재

        윤리적 인공지능은 가능한가? - 인공지능의 도덕적, 법적 책임 문제 -

        이상형 ( Sang-hyung Lee ) 한국법정책학회 2016 법과 정책연구 Vol.16 No.4

        이 논문의 목적은 인공지능이 윤리적으로 행동하는 것이 가능한가를 고찰하는 것이다. 과학기술의 발전으로 윤리적 대상뿐만 아니라 윤리적 주체의 범위가 인공지능에까지 확대될 때 우리는 필연적으로 도덕적 인공행위자를 상정하게 된다. 그의 자발적 행위가 인간뿐만 아니라 세계에 영향을 미칠 때 우리는 인공행위자가 도덕적으로 행위하길 기대하기 때문이다. 그렇다면 도덕적 인공행위자가 가능하기 위해 우리는 어떻게 해야 할까? 그의 행동에 얼마만큼의 책임을 부여 해야 할까? 이는 필연적으로 인간의 도덕적 추론에 대한 반성을 이끌게 된다. 인간의 도덕적 추론이 감정에 원천을 갖는다면 도덕적 인공행위자에게 감정능력을 갖게 하는 것이 필수적이다. 그러나 도덕적 인공행위자가 성공한다 할지라도 그에게 곧바로 도덕적, 법적 책임과 권리를 부여할 수 있을까? 우리가 책임져야 할 도덕적 행동이란 감성과 이성의 조화를 통한 자신의 행동을 이해하고, 자신의 행위를 최종적으로 합리적인 방식으로 선택할 수 있는 경우이다. 그러나 이를 위해 두 가지 전제조건이 만족 되어야 한다. 책임은 사회적 관계에 의해 발생하는 것이며, 이는 의사소통의 가능성에 의존한다는 것이다. 책임개념은 사회적 인정에 의해 만들어진다. 따라서 도덕적 인공행위자가 자신의 행위에 대한 책임을 가지기 위해서는 인정투쟁이 필요하다. 책임의 귀속여부는 결국 이런 인정투쟁을 통해 형성된 사회적 산물이라 볼 수 있기 때문이다. The main purpose of this paper is to consider ethical effects of the production and use of Artificial Intelligence to human lives. To give any desirable foundation of moral Artificial Intelligence, this paper would like to point out the limit of artificial moral agent in contemporary tendency and to have certain perspective to the ethical nature of responsibility for the next generations. Therefore, this paper discusses the possibility and implication of artificial moral agent. Software introduces new kinds of agents: artificial software agents (ASA), including, for example, driverless trains and cars. To create these devices responsibility, engineers need an ethics of software agency. However, it is essential for artificial agent to have moral feelings to reach this goal. This moral emotion can lead to moral behavior. But even if to create a artificial moral agent succeeds, can it be possible to give him a moral and legal responsibility and rights? The moral behavior we are responsible for is to understand our actions through the harmony of emotion and reason, and finally to select our actions in a rational way. However, two preconditions must be met for this. Responsibility arises from social relationships, and it depends on the possibility of communication. The concept of responsibility is created by social recognition. Therefore, in order for a artificial moral agent to take responsibility for his actions, a struggle for recognition is needed. This is because ethics can be seen as a social product formed through such recognition struggles.

      • KCI등재

        인공지능, 도덕적 기계, 좋은 사람

        맹주만(Maeng, Jooman) 중앙대학교 중앙철학연구소 2020 철학탐구 Vol.59 No.-

        이 글은 인공지능은 행위의 동기와 의도 그리고 목적을 스스로 생성하고 산출할 수 있는 자율적 행위자가 아니기 때문에 도덕적 기계가 될 수 없다고 주장한다. 예상 가능한 인공지능 행위자가 갖게 될 공학적 의미의 자율성은 인간 행위자의 도덕적 자율성과 근본적인 차이를 가지며, 그것은 단지 의사(pseudo) 자율성에 불과하다. 따라서 그것은 그냥 놀랍도록 편리하거나 위험한 기계일 뿐이다. 동기와 의도 그리고 목적의 자기생성과 자기산출 및 자기변경이 가능한 자율성만이 진정한 의미의 도덕적 자율성이다. 반면에 인공지능 행위자는 기껏해야 형식적 자율성만을 가지며, 그러한 자율성은 한정된 목적에 제약되고, 그것만을 실행하도록 특화된 자동기계의 자동성에 다름 아니다. 아무리 복잡한 윤리적 문제의 해결을 위해 설계된 인공지능이라도 언제나 프로그램이 지시하는 일정한 그리고 한정된 행위만을 충실히 이행하는 기계인 한, 그것은 실제로는 도덕적 기계도 도덕적 행위자도 아니다. 도덕적 기계는 이론적으로도 실제적으로도 불가능하다. 만일 그런 존재가 있다면, 그것은 분명 인간종 이상의 다른 새로운 가공할 위력을 지닌 인공종일 것이다. 현재 가능한 인공지능 행위자를 둘러싸고 벌어지는 대부분의 전망들은 그릇된 상상의 산물이다. 도덕적 기계의 불가능성과 함께 윤리적 관점에서 의사 자율적 행위자에 불과한 인공지능 로봇은 모든 면에서 위험성을 완전히 제거하도록 철저하게 기획되고 통제된 기계이지 않으면 안 된다. In this paper I will argue that artificial intelligence cannot be a moral machine because it is not an autonomous agent who can create and establish the motive, intention and purpose of the act on his own. The autonomy of the engineering meaning that an anticipated artificial intelligence agent will have, or the autonomy of artificial intelligence, has a fundamental difference from the moral autonomy of the human agent, and it is merely a pseudo-autonomy. So it"s just an incredibly convenient or dangerous machine. Only self-creation and self-establishment and self-modification of motive, intention and purpose are the real moral autonomy, whereas artificial intelligence agents have only formal autonomy at best, and such autonomy is no less than the automation of automatic machines which is limited to a limited purpose, and specialized to implement only that. A machine that always performs certain acts is not really a moral machine or a moral agent. Artificial intelligence can never be a moral machine. Moral machines are theoretically and practically impossible. If there was such an existence, it would certainly be an artificial species with other formidable powers beyond human species. Thus, most of those prospects that take place around the current possible artificial intelligence agents are a product of false imagination. Artificial intelligence robots, which are nothing but pseudo-autonomous agents from an ethical standpoint, along with the impossibility of moral machines, must be thoroughly planned and controlled machines in all respects.

      • KCI등재

        대화형 Teachable Agent를 이용한 영어말하기학습 시스템

        이경아,임순범 국제문화기술진흥원 2023 The Journal of the Convergence on Culture Technolo Vol.9 No.3

        In an environment where English is a foreign language, English learners can use AI voice chatbots in English-speaking practice activities to enhance their speaking motivation, provide opportunities for communication practice, and improve their English speaking ability. In this study, we propose a teaching-style AI voice chatbot that can be easily utilized by lower elementary school students and enhance their learning. To apply the Teachable Agent system to language learning, which is an activity based on tense, context, and memory, we proposed a new method of TA by applying the Teachable Agent to reflect the learner's English pronunciation and level and generate the agent's answers according to the learner's errors and implemented a Teachable Agent AI chatbot prototype. We conducted usability evaluations with actual elementary English teachers and elementary school students to demonstrate learning effects. The results of this study can be applied to motivate students who are not interested in learning or elementary school students to voluntarily participate in learning through role-switching. 영어가 외국어로서 사용되는 환경에서 영어 말하기 연습 활동에 AI 음성 챗봇을 사용했을 때 영어학습자들은 발화 동기가 높아지고 의사소통 연습의 기회가 많아져 결과적으로 영어 말하기 능력을 향상 시킬 수 있다. 본 연구에서는 초등학생 저학년의 경우에도 쉽게 활용 가능하고 학습효과를 높일 수 있는 가르치기 방식의 AI 음성 챗봇을 제안한다. 시제와 맥락과 기억에 기반한 활동인 언어학습에 Teachable Agent 시스템을 적용하기 위해 Teachable Agent에 학습자의 영어 발음과 수준을 반영하고, 학습자 오류에 맞추어 에이전트의 답변을 생성하는 방식을 적용하여 새로운 방식의 TA를 제안하고 이를 적용한 Teachable Agent AI 챗봇 프로토타입을 구현하였다. 실제 초등 영어 선생님과 초등학생을 대상으로 사용성 평가를 진행하여 학습 효과를 입증하였다. 본 연구 결과는 역할 전환을 통해 학습에 흥미가 없는 학생 또는 초등 저학년들이 학습에 스스로 참여할 수 있는 동기부여를 할 수 있도록 적용할 수 있다.

      • KCI등재

        지능형 에이전트의 커뮤니케이션 방식이 사용자의 제안 수용 의도에 미치는 효과

        강윤희,최시영,부수현 한국소비자·광고심리학회 2024 한국심리학회지 소비자·광고 Vol.25 No.1

        인공지능 기술이 발전함에 따라 자동적인 상황 판단과 능동적인 작업수행이 가능한 지능형 에이전트(Intelligence Agent)는 현재 다양한 상황에서 사용자를 보조해주는 개인 비서로서의 역할을 수행 하고 있다. 본 연구는 지능형 에이전트가 사용자의 의사결정이나 특정 목표 달성에 도움을 주는 조력자로서 다양하게 활용되고 있다는 점에 주목하여, 커뮤니케이션 방식에 따라 지능형 에이전트가 제공하는 제안 수용이 달라지는지 확인하였다. 구체적으로, 장기적 목표를 추구하는 과정에서 목표에 실패할 수 있는 상황을 두 가지로 구분하여 지능형 에이전트의 커뮤니케이션 방식이 제안 수용의도에 미치는 효과를 확인하였다. 연구 결과, 부적합 행동 선택 상황에서 지능형 에이전트의 Don’t 커뮤니케이션 방식이 Can’t 커뮤니케이션 방식에 비해 제안 수용의도가 더 높게 나타났다. 반면, 적합 행동 지연 상황에서는 두 방식 간 차이는 없었다. 본 연구는 장기목표 추구 상황에서 사용자가 목표에 부적합한 행동을 할 때 지능형 에이전트의 커뮤니케이션 영향을 확인하였다는 것에 의의가 있으며, 지각된 통제감을 기반으로 인공지능 비서의 제안에 대한 수용의도를 높일 수 있는 커뮤니케이션 방식을 밝혀냈다는 실무적 시사점을 제공한다. With the advancement of artificial intelligence technology, intelligent agents capable of understanding natural speech, automatically assessing situations, and actively performing tasks are now serving as personal assistants in various contexts. Recognizing that intelligent agents serve as aides in decision-making and goal achievement, this study explores whether the acceptance of suggestions from these agents varies based on communication methods. Specifically, we investigated how an intelligent agent’s communication method affects intentions to accept suggestions in situations where the agent may struggle to achieve a long-term goal. The findings revealed that the ‘Don’t’ communication method of the intelligent agent was associated with a higher intention to accept suggestions compared to the ‘Can’t’ communication method in scenarios involving non-conforming behavior choices. However, there was no discernible difference between the two methods in situations where delayed action conforming to the goal was required. This study is significant as it underscores the impact of communication methods employed by intelligent agents when users engage in goal-inappropriate behavior during long-term goal pursuits.

      • KCI등재

        인공적 도덕 행위자의 덕 윤리 모듈 적용 방안 - 머신러닝과 딥러닝 활용을 중심으로 -

        정진규 한국윤리학회 2022 倫理硏究 Vol.138 No.1

        The purpose of this paper is to reveal the necessity and possibility of mounting the virtue ethical module in loading various ethical modules in artificial moral agent. In the process of developing artificial intelligence, various normative ethical theories are loaded into AI. In this process, we first graft the non-consequentialism and consequential normative ethics theories among act-centered normative theories to AI. The reason that act-centered normative theories is loaded first is because it is easy to mount this theory on artificial intelligence because it presents a simple structural standard of motive and result of acts as a criterion for evaluating the value of acts. However, in order for AI to perfectly fulfill its role as an artificial moral agent, it must be equipped with the character-centered normative theories as well as the act-centered normative theories. This is because the diversity of evaluation criteria created by the loading of various ethical theories implies the possibility of choosing more right and good acts. The question is, can AI carry out the process of education and habituation, which can be said to be a characteristic of virtue ethics? This paper will present the application of machine learning and deep learning as a way to solve this problem. As a result, I will show that machine learning and deep learning can solve the difficulties of embedding virtue ethics, and explain the possibility of embedding virtue ethics in artificial moral agents.

      • KCI등재

        인공 에이전트의 정보적 존재자성과 도덕적 책임주체성 ― 플로리디 정보철학과 칸트 법철학으로 본 인공지능의 인격성 ―

        박욱주 한국법철학회 2020 법철학연구 Vol.23 No.1

        In a world of human-artificial intelligence interactions, the problem of locating the locus of responsibility for acts of artificial intelligence has become an ongoing and inevitable controversy and conundrum for the future prospects of the human race. This study delves into the issue of the legal personhood of artificial agents by drawing a connection between the notion of informational entity in the Floridian philosophy of information and the concept of moral subject in the philosophy of law. The notion of legal personhood largely involves two different traditional views: a technical definition from the ancient world and an ethical definition in the Kantian metaphysics of morals from the modern world. Floridi’s philosophy of information seems to provide us with an appropriate system of thoughts for the upcoming reality of human-artificial intelligence interactions. His insights may enable us to critically and constructively modify and renew the two traditional views of legal personhood. In a nutshell, this study not only advocates the legitimacy of acknowledging artificial agents’ legal personhood, but also highlights the urgency of this task in the philosophy of information and in the philosophy of law. 인공 에이전트에 의해 수행된 행위에 대한 법률상 책임 소재 문제는 인공지능과 공존하는 인류의 미래에 대한 전망 가운데 빠짐없이 등장하는 불가피한 논제이자 난제이다. 본 연구는 인공 에이전트의 법인격성을 규명하되, 특별히 플로리디 정보철학의 정보적 존재자 개념과 법철학의 도덕적 책임주체 개념을 서로 연결해 논의하는 방식을 택한다. 법인격성 개념은 크게 봐서 고대로부터 전해져 내려온 기술적 규정과 근대로부터 확립된 칸트의 도덕형이상학적-윤리적 인격 개념을 포괄하고 있다. 플로리디 정보철학은 이 두 법철학적 인격성 개념을 인간-인공지능 상호작용의 현실에 적실하게 비판적으로 계승하고 발전적으로 갱신하는 사고 체계를 마련하는 데 기여하는 것으로 판단된다. 결론적으로 본 연구는 정보철학과 법철학 양측 관점에서 인공 에이전트의 법인격성을 수긍하는 일이 정당할 뿐만 아니라 시급하게 요청되는 일임을 변증한다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼