RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 학위유형
        • 주제분류
          펼치기
        • 수여기관
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 지도교수
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 샌델의 생명윤리에 관한 법철학적 고찰

        박성민 고려대학교 대학원 2015 국내석사

        RANK : 248702

        인간은 본래 단일하고 독립적인 형식으로 태어나는 것이 아니라, 최소한 가정이라는 공동체를 운명적으로 짊어지고 태어난다. 이것은 인간의 본성이 태생적으로 타자와의 관계성 속에서 이루어짐을 보여준다. 죽음도 마찬가지로 공동체의 관여 속에서 맞이한다. 그는 공동체의 테두리 안에서 생각하고 느끼고 행동한다. 그런데 이런 관계망을 넘어서서 자신의 자율적인 사고와 행동에 집중함으로써 자신과 관계된 모든 것이 스스로의 선택으로 이루어지고 있다고 믿으며, 그와 같은 인식체계가 올바른 삶이라고 주장하는 견해가 있으니 자유주의 정치철학이 가지는 입장이다. 자유주의 정치철학이 추구하는 올바른 삶의 자세와 삶의 도덕적 가치는 이런 개인의 자율성에서 흘러나온다. 그럼으로써 모든 사회·정치적 행위에 대해 개인의 자율성을 강조한다. 하지만 인간이 최초 그리고 최소한의 공동체에서 태어나며 그 공동체의 가치와 규범을 습득하면서 타자와의 관계성을 형성하는 과정을 통찰해 볼 때, 개인의 자율성으로 경도된 이론을 가지고는 법과 정의의 본질을 추구하기 어렵다. 즉 타자와 관계된 공동선의 가치가 개인의 삶의 적용될 때, 인간의 실존을 파악할 수 있다. 개별화된 자율성에만 의존하여 전체 사회의 질서를 유지하는 정의를 찾는 것이 아니라, 자율을 함의하고 동시에 그것을 넘어서는 가족과 공동체로 확대하는 연결 고리를 찾아서 그것으로 사회 질서의 체계를 구축하고 인간의 인간다움을 실현하는 것이 무엇보다도 중요하다. 샌델은 여기에서 그 연결고리로 자신의 관점을 제시하고 있다. 그것이 바로 ‘선물로 주어진 삶’이라는 테제이다. 이는 자유주의나 공동체주의가 자칫 삶의 편향성을 가질 수 있는 태도에 대하여 보다 궁극적인 법철학적 질문을 던짐으로써 주관적 정신활동을 자극한다. 이로 인해 이와 같은 사고를 기초로 토론과 상호 협력 체제를 구축하여 객관적인 사회질서에 영향을 주고자 한다. 그 사고의 발전 단계가 샌델의 생명윤리 원칙이다. 우리는 샌델의 생명윤리 원칙을 살펴봄으로써 인간에게 있는 자율성과 공동선을 발견하고, 그것에 의해서 우리의 삶이 진정한 자유를 얻도록 북돋울 수 있다.

      • 인공지능 윤리원칙 분류 모형 및 윤리 측정지표 개발과 신뢰성에 관한 연구

        소순주 성균관대학교 일반대학원 2023 국내박사

        RANK : 248702

        Artificial intelligence is establishing itself as the most central technology among core technologies such as big data, cloud, metaverse, and IOT in the 4th industrial revolution. Artificial intelligence provides many conveniences and useful values ​​to humans while forming mutual relationships with humans and mutual relationships between artificial intelligence. As 5G, metaverse, self-driving cars, and robots develop, artificial intelligence is getting closer to humans and being used beneficially. However, artificial intelligence does not always provide only positive functions to humans. Artificial intelligence can endanger human life, undermine personal rights, and deal a serious blow to property and information security. There is an urgent need for standards and methods for applying artificial intelligence ethics to prevent adverse effects of artificial intelligence in advance and to preemptively respond to problems when they occur. In this paper, based on AI ethics principles and components, trustworthiness general-purpose AI ethics measurement indicators were developed and verified so that they can be immediately used in the AI ​​industry. In order to develop a reliable ethical measurement indicators, 50 artificial intelligence ethics measurement indicators were expanded and developed based on the research results of artificial intelligence ethical principles and components researched previously by the researcher and 40 items of artificial intelligence ethics measurement indicators. We analyzed various documents such as guidelines, charters, guidelines, regulations, policies, laws and systems related to artificial intelligence ethics at home and abroad to define ethics measurement indicators, and conducted FGI 3 times with 30 experts related to artificial intelligence ethics to identify 55 ethics Measurement indicators were derived and defined. 50 ethical metrics were expanded and developed through a Delphi survey of experts on 55 metrics derived from FGI and validity analysis of survey data. 50 ethical measurement indicators developed by extension and 40 ethical measurement indicators developed by researchers are integrated. Refer to the Trustworthy Artificial Intelligence Evaluation List (ALTAI) published by the European Union for the development of ethical measurement indicators to ensure reliability. 7 reliability variables were defined and a questionnaire was designed. A survey was conducted to verify the reliability of the integrated 90 ethical measurement indicators, and a sample of 164 people participated in the survey. For the statistical analysis of the questionnaire, the SPSS tool was used. As a result of the ethical measurement indicators analysis, the validity test results for 90 items were very high. As a result of factor analysis, suitability was verified, and validity was secured by loading 86 variables in exploratory factor analysis. In the reliability analysis results, all variables were verified with high reliability coefficients. According to the results of the correlation analysis, 86 out of 90 ethics measurement indicators were completed as artificial intelligence ethics measurement indicators(EMI-AI) with reliability. Subsequently, as a result of an expert Delphi survey to verify the relationship between the 86 items of EMI-AI and the 69 evaluation lists of ALTAI, 61 items of the evaluation list of ALTAI were found to have common similarities with the measurement indicators items of EMI-AI. analyzed. In addition, 18 items that existed only in EMI-AI were analyzed, and 8 items in the evaluation list that existed only in ALTAI were analyzed. The 86 items of ethical measurement indicators finally confirmed in this paper are reliable artificial intelligence ethical measurement indicators, and they have been developed universally so that they can be applied to all industries related to artificial intelligence, so they can be used not only in Korea but also abroad. It will be possible. In addition, since it is an ethical measurement indicators developed based on the artificial intelligence ethical principle classification model and components, continuous development and expansion of the measurement indicators will be possible. The significance of this thesis is that it has laid the foundation for quickly developing ethics evaluation lists, certification/inspection lists, and detailed ethics-related guidelines using artificial intelligence ethics measurement indicators. 인공지능은 4차 산업혁명에서 빅데이터, 클라우드, 메타버스, IOT 등의 핵심적인 기술 중에서도 가장 중심이 되는 기술로 자리매김하고 있다. 인공지능은 인간과 상호 관계, 인공지능 간의 상호 관계를 형성하면서 인간에게 많은 편의성과 효용적 가치를 제공하고 있다. 5G와 메타버스, 자율주행자동차, 로봇이 발전하면서 인공지능이 더욱 인간과 가까워지고 유익하게 활용되고 있다. 하지만 인공지능이 인간에게 항상 순기능만 제공하는 것은 아니다. 인공지능이 인간의 생명을 위협할 수 있으며, 인격권을 훼손하고, 재산과 정보 보안에 심각한 타격을 가할 수도 있다. 이러한 인공지능의 역기능을 사전에 방지하고, 문제 발생 시 선제적으로 대응할 수 있도록 하는 인공지능 윤리 적용기준과 방법이 절실하게 요구되고 있다. 이 논문에서는 인공지능 윤리원칙 분류 모형과 구성요소를 기반으로 신뢰성이 확보된 범용적인 인공지능 윤리 측정지표 개발과 검증을 실시하여 인공지능 산업분야에 즉시 사용할 수 있도록 연구하였다. 신뢰성이 확보된 윤리 측정지표를 개발하기 위하여 연구자가 선행 연구한 인공지능 윤리원칙과 구성요소 연구 결과와 인공지능 윤리 측정지표 40개 항목 연구 결과를 바탕으로 인공지능 윤리 측정지표 50개를 확장 개발하였다. 국내외 인공지능 윤리 관련 가이드라인, 헌장, 지침, 규정, 정책, 법‧제도 등 다양한 문헌을 분석하여 윤리 측정지표를 정의하고 인공지능 윤리 관련 전문가 30명을 대상으로 FGI를 3회 진행하여 55개의 윤리 측정지표를 도출하고 정의하였다. FGI에서 도출된 측정지표 55개에 대한 전문가 델파이 설문조사와 설문 데이터 타당도 분석을 통하여 50개의 윤리 측정지표를 확장 개발하였다. 확장 개발된 50개의 윤리 측정지표와 연구자가 선행 개발한 40개의 윤리 측정지표를 통합하였으며, 신뢰성 확보를 위한 윤리 측정지표 개발을 위해 유럽연합에서 공표한 신뢰할 수 있는 인공지능 평가목록(ALTAI)을 참고하여 7개의 신뢰성 변수를 정의하고 설문지를 설계하였다. 통합된 90개 항목의 윤리 측정지표 신뢰성 검증을 위하여 설문조사를 실시하였으며, 설문조사에 참여한 표본은 164명이었다. 설문 통계분석은 SPSS 도구를 사용하였다. 윤리 측정지표 분석 결과 90개 항목에 대한 타당성 검정 결과는 매우 높은 수준으로 나타났다. 요인분석 결과로 적합성이 검증되었으며, 탐색적 요인분석에서는 86개의 변수를 적재하여 타당도를 확보하였다. 신뢰도 분석 결과에서는 모든 변수들이 높은 신뢰계수로 검증되었다. 상관관계분석 결과에 의하여 90개의 윤리 측정지표 중 86개가 신뢰성이 확보된 인공지능 윤리 측정지표(EMI-AI)로 완성되었다. 이어서 EMI-AI의 86개 항목과 ALTAI의 69개 평가목록을 대상으로 관계성 검증을 위해 전문가 델파이 설문조사 결과 ALTAI의 평가목록 중 61개 항목이 EMI-AI의 측정지표 항목과 공통적인 유사성를 갖는 것으로 분석되었다. 그리고 EMI-AI에만 존재하는 항목은 18개로 분석되었으며, ALTAI에만 존재하는 평가목록은 8개로 분석되었다. 이 논문에서 최종적으로 확정된 윤리 측정지표 86개 항목은 신뢰성이 확보된 인공지능 윤리 측정지표이며, 인공지능과 관련된 모든 산업 분야에 적용할 수 있도록 범용적으로 개발되었기 때문에 국내는 물론 해외에서도 활용이 가능할 것이다. 또한 인공지능 윤리원칙 분류 모형과 구성요소를 기반으로 개발된 윤리 측정지표이기 때문에 지속적인 측정지표 개발과 확장이 이루어질 수 있을 것이다. 인공지능 윤리 측정지표를 이용하여 윤리 평가목록, 인증‧검사 목록, 윤리 관련 세부 지침 등을 신속하게 개발할 수 있는 기틀이 마련되었다는데 이 논문의 큰 의의가 있다고 본다.

      • 인공지능 로봇의 위험성 유형별 측정지표 개발과 인공지능 윤리원칙 관계성 연구

        송현경 성균관대학교 일반대학원 2024 국내박사

        RANK : 248683

        음성 인식 서비스·생성형 AI 및 제조·음식 조리 로봇·도로 주행 배달 로봇 등 인공지능 로봇이 여러 분야에서 활약 중이다. 인공지능은 컴퓨터 시스템이 인간의 학습과 의사결정을 모방해 수행하는데 사용되는 기술을 의미하고, 로봇이란 물리적 노동 보조·교육 서비스·소셜 등의 다양한 역할을 하는 기계 장치를 의미한다. 이 논문에서는 사회와 일상 속 활용성을 전제하여 인공지능 로봇이란 인공지능 시스템과 로봇을 결합한 형태로 스스로 학습하고 판단해서 문제를 해결할 수 있는 지능을 갖춘 기계 장치로 정의하였다. 기술의 발전은 사회적 기대 못지않게 다양한 문제를 동반하고 있으며, 인간의 감정도 표현하는 지능형 로봇과 2족 보행 로봇의 출현으로 새로운 전기를 맞고 있다. 우리나라·유럽연합·미국·중국 등 국가들은 인공지능 로봇이 인간 사회에 광범위하게 해를 끼칠 것에 대비하여 로봇 법·인공지능 지침을 제시했지만 대부분 윤리 위주의 구성이었다. 국내외 관련 선행연구도 법적 고찰·윤리원칙·기술 활용 방안이 대부분이고, 개발자용 점검 체크리스트, 감정평가 산업, 홈 헬스 케어 등 한정적인 부분에만 적용이 가능한 것으로 범용적인 활용성은 없는 실정이었다. 인공지능 로봇의 활용 범위는 작업 수행에서 일상생활까지 확장되고 있어, 윤리 지표만으로 인공지능 로봇의 위험성을 전반적으로 점검할 수가 없다. 인간과 상호작용 중 인공지능 로봇으로 인해 인간이 다치거나 수집된 개인정보의 유출 및 차별 서비스 등 기술적 문제·윤리적 위험성에 대한 전체를 측정할 지표가 있어야 한다. 이 논문에서는 선행연구·관련 정책·기사 등 문헌을 통해 인공지능 로봇 문제를 사례 분석하여 전문가 인터뷰·델파이 설문조사를 통해 인공지능 로봇의 위험성 유형별 분류 및 항목을 제시하고, 통계적으로 검증된 인공지능 로봇의 위험성 측정지표를 개발하고자 하였다. 연구를 위해 인공지능 개발자, 로봇 연구원, 인공지능 윤리·교육 분야 종사자·정보·보안 교수 등 30명의 전문가 집단이 참여하였으며, 전문가 집단의 미래 예측을 통한 연구 방법인 델파이 기법을 활용하여 합의된 의견을 도출하였다. 인공지능 로봇이 도입될 수 있는 여러 분야 이해관계자를 대상으로 현장성 설문조사를 진행하였으며, 328명의 유효한 수치를 통계 분석 자료로 활용하였다. 탐색적 요인분석·신뢰도 분석 및 상관관계 분석·다중 회귀분석 결과, 타당성·신뢰성이 검증된 신체에 대한 물리적 위험성·인간 권리에 대한 위험성·재산 손실의 위험성·사회적 위험성 등 4개 유형과 11개 항목 및 측정지표 52개를 개발하였다. 또한, 인공지능 로봇의 위험성 유형별 측정지표가 기술 표준화·안전성 점검·제도 ·정책 등 범용적인 활용성이 있도록 인공지능 윤리원칙 관계성에 관해 연구 하였고, 전문가 인터뷰 및 14명의 델파이 설문조사 결과를 통계 분석하여 인공지능 로봇의 위험성 유형별 측정지표와 인공지능 윤리원칙 관계를 도식으로 제시하였다. 인공지능 로봇 관련 문제는 기술적인 부분과 윤리적 측면에서도 발생할 수 있고, 미래에 발생할 수 있는 위험성에 대해서는 예측이 어려우므로 지속적인 전문가들의 관심이 필요하며, 측정지표를 확장 개발하는 것은 새로운 연구 영역이 될 것이다. 이 논문에서 제시하는 인공지능 로봇의 기술적·윤리적 부분을 모두 점검할 수 있는 위험성 유형별 측정지표가 초석이 되어, 사회적으로 공감과 안전성을 확보한 표준화된 기술 발전을 도모하는데 개발·인증·교육·정책 등에 활용되기를 기대한다. Artificial intelligence(AI) robots are active in many fields, including voice recognition services, generative AI, manufacturing, food cooking robots, and road-driving delivery robots. AI refers to a technology used by computer systems to imitate human learning and decision-making, and robots refer to mechanical devices that play various roles such as physical labor assistance, educational services, and social services. In this dissertation, based on the premise of usability in society and daily life, an AI robot is defined as a mechanical device equipped with intelligence that can learn and make decisions on its own and solve problems in the form of a combination of an AI system and a robot. The development of technology is accompanied by various problems as well as social expectations, and we are facing a new turning point with the emergence of intelligent robots and bipedal robots that can express human emotions. Countries such as Korea, the European Union, the United States, and China have proposed robot laws and AI guidelines in preparation for the widespread harm caused by AI robots to human society, but most of them have been ethics-oriented. Previous research at home and abroad mostly focused on legal considerations, ethical principles, and technology utilization plans, and was only applicable to limited areas such as inspection checklists for developers, the appraisal industry, and home health care no general-purpose usability. The scope of use of artificial intelligence robots is expanding from task performance to daily life, so it is not possible to generally check the risks of AI robots with only ethical indicators. There must be an indicator to measure all technical problems and ethical risks, such as human injury caused by AI robots while interacting with humans, leakage of collected personal information, and discriminatory services. In this dissertation, we analyze cases of AI robot problems through literature such as previous research, related policies, and articles, presented classifications and items for each type of risk of AI robots through expert interviews and a Delphi survey, and developed a risk measurement indicators. For the study, a group of 30 experts, including AI developers, robot researchers, expert in the field of AI ethics and education, and information and security professors, participated, and a consensus opinion reached a group of experts using the Delphi technique research method through future predictions. An on-site survey was conducted targeting stakeholders in various fields where AI robots could be introduced, and the valid figures of 328 people were used as statistical analysis data. As a result of statistical analysis such as exploratory factor analysis, reliability analysis, correlation analysis, and multiple regression analysis, four types of physical risk to the body, risk to human rights, risk of property loss, and social risk have been verified for validity and reliability developed 11 items and 52 measurement indicators. In addition, we conducted research on the relationship of AI ethical principles so that the measurement indicators for each type of risk of AI robots can be used for general purposes such as technology standardization, safety inspection, systems, and policies. We also conducted interviews with experts and a Delphi survey of 14 people. Through analysis, the relationship between measurement indicators for each type of risk of AI robots and AI ethical principles was presented in a diagram. Problems related to AI robots can arise from both technical and ethical aspects, and it is difficult to predict risks that may occur in the future, so continuous attention from experts is needed, and expanding and developing measurement indicators will be a new research area. The measurement indicators by risk type that can check all technical and ethical aspects of AI robots presented in this dissertation serve as a cornerstone for development, certification, education, and policy to promote standardized technology development that secures social sympathy and safety, hope it will be used for things like this. Keywords: AI Robot, AI Robot Risk Measurement Model, AI Robot Measurement Indicators, AI Robot Risk Measurement Indicators by Type, AI Ethical Principles

      • 생명윤리원칙에 근거한 인간대상연구의 개인정보보호방안 모색

        백소영 동아대학교 대학원 2016 국내석사

        RANK : 248671

        인간을 대상으로 하는 인간대상연구에서 연구대상자에 대한 개인정보보호의 인식이 중요하다. 무엇보다 윤리적인 연구수행을 위해서는 연구대상자의 안전과 권익의 보호가 제일 최우선되어 지켜져야 하기 때문이다. 사회적으로 개인정보유출로 인한 침해사례가 증가하면서 개인정보보호의 중요성이 대두되고 있는 가운데, 최근 인간대상연구의 범주가 임상시험뿐만 아니라 인문학연구와 사회행동과학연구까지 확대되면서 인간대상연구에서도 연구대상자의 개인정보보호가 절실히 필요한 실정이다. 이러한 맥락에서 연구대상자의 개인정보보호를 위해 헌법상 인간의 기본권 및 인권보호를 근거로 개인정보보호법 및 생명윤리법 등을 개정함으로써 국내외에서 법적인 규제와 가이드라인들을 강화하고 있다. 그러나 법적인 규제는 기준마련에 의의를 마련하는데 그치므로 현장실무에 적용하는데에 있어서 여전히 한계점이 드러난다. 이러한 한계점을 보완하기 위해서 법에만 의존할 것이 아니라 윤리적인 측면에 호소하여 방안을 모색해 보고자 한다. 연구자의 윤리의식과 더불어 통상 생명윤리원칙이라 불리는 생명윤리분야의 기준이 되는 원칙을 토대로 적용하여 법과 윤리가 적절히 공존할 수 있는 연구대상자의 개인정보보호방안의 기회로 삼아 도약의 발판이 되어야 할 것이다. The recognition of personal information protection on study subjects is important in the studies targeting humans. For ethical study undertaking, the highest priority should be put on the protection of study subjects’ safety and rights and interests. As infiltration cases increase socially, due to personal information leakage, the importance of personal information protection emerges. Therefore, the category of the studies targeting humans is expanded to the studies of humanities and social behavioral sciences, as well as clinical tests. For all these reasons, the personal information protection of study subjects is earnestly needed in the studies targeting humans. In this context, legal regulations and guidelines are consolidated at home and abroad by amending the Personal Information Protection Act and Bioethics Act, based on human’s basic rights and human right protection for the personal information protection of study subjects. However, legal regulations just end up putting significance on devising criteria, and thus limitations are still revealed in applying them to field work. To complement such limitations, this study try to seek measures by appealing to ethical aspects, in addition to depending on just laws. By applying ethical norm, based on the principle that becomes the standard in the bioethical field, which is generally called bioethical principle, together with researcher’s ethics, such an ethical norm should be the foundation for taking off through an opportunity of personal information protection of study subjects, by which law and ethics can adequately coexist.

      • 인체실험에 대한 연구윤리

        임우열 동아대학교 2007 국내석사

        RANK : 248670

        자연과학의 발전과 더불어 눈부시게 발전한 오늘 날의 현대의학은 생체실험, 즉 인체실험이나 동물실험이 없었다면 불가능했을 것이다. 인체를 대상으로 하는 의학실험내지는 연구의 최종 목표는 거기서 얻은 지식으로 인간의 질병치료와 건강증진에 기여하는 데 있다. 그러나 인간의 생명을 구하고 인간을 치유할 수 있을 때, 인간에게 어떤 개인적 이익을 가져다 줄 수 있을 때 인체실험은 허용될 수 있지만, 그 연구대상이 인간이기 때문에 이 실험과 연구에서 엄격한 윤리 원칙을 지켜야 하며 뚜렷한 방향이 제시되어야 한다. 그래서 본 연구는 인체실험과 관련된 윤리원칙, 국제규약, 그리고 인체실험에 연구윤리가 어떻게 적용되고 있는 지에 대해 알아보았다. 본 연구에서는 인체실험의 윤리성을 인정받으려면 중층적 심의장치를 두어, 인간의 복지를 증진시키며 인간존엄성을 훼손하지 않는 연구를 수행하도록 실질적이고 제도적인 장치들을 정착시켜야 함을 알리고자 하였다.

      • 스포츠 영역에서의 쟁점과 유형에 따른 윤리적 접근

        김은혜 성신여자대학교 일반대학원 2021 국내박사

        RANK : 232319

        본 연구는 스포츠에서 발생하는 비윤리적인 문제를 파악하고 응용윤리에서 논의되고 있는 원칙들을 토대로 스포츠윤리 원칙을 구안하여 문제 해결 방안을 모색하는 데 목적이 있다. 즉, 스포츠 영역에서의 쟁점과 유형에 따른 윤리적 접근을 통해 이론윤리학과 응용윤리의 원칙을 바탕으로 스포츠의 특성을 반영한 스포츠윤리 원칙을 구안한다. 그리고 이러한 기준에 따라 유형별 대표적 사례와 이에 대한 다양한 관점의 해석을 위해 구조적 인식의 틀을 제시하였다. 이러한 결과를 통해 선택과 판단의 갈림길에서 도덕적 결정을 내려야 하는 딜레마 상황 속에 윤리적 문제에 대한 의사결정의 결과가 스포츠 영역에서 ‘정의(正義)’의 개념에 부합할 수 있는 기초자료가 되리라 판단된다. 이에 대한 연구결과를 요약하면 다음과 같다. 첫째, 이론윤리학의 한계와 응용윤리로서 스포츠윤리의 적용가능성에 대해 고찰하였다. 스포츠윤리는 응용윤리에 한 분야이지만 지금까지 인식이 부족하였다. 향후 스포츠윤리 관련 연구에서는 응용윤리로서의 스포츠윤리를 바라보고 다양하게 나타나는 윤리적 문제와 그에 대한 해결방안을 모색하는 실천윤리의 성격에 주안점을 두는 연구가 이루어져야 한다. 둘째, 스포츠 영역에서 발생하는 윤리적 문제와 이론윤리학과의 간극인 스포츠 현장의 윤리적 공백에 대해 파악하였다. 이를 위해, 빅데이터 분석 솔루션 텍스톰(TAXTOM)을 이용하였다. 분석결과, 스포츠 영역에서 발생되는 윤리적 문제는 ‘다양하고 복잡하다’는 것을 알 수 있었다. 또한 개인의 문제와 관계 간의 문제를 확인할 수 있었으며, 개인의 문제로 발생 되는 유형과 관계 간에서 나타날 수 있는 문제유형은 다소 차이를 나타냈다. 특히 관계 간에서는 행위주체자가 누구인지에 따라서도 문제유형 역시 다름을 확인할 수 있었다. 셋째, 이론윤리학적 지식과 메타윤리학적 지식을 응용한 응용(실천)윤리의 원칙에 근거하여 스포츠윤리 원칙을 구안하였다. 윤리학에서 다루고 있는 윤리원칙을 근거하여 스포츠 특성을 반영한 스포츠윤리 원칙을 구안하였다. 스포츠윤리 원칙은 배려의 원칙, 무관용의 원칙, 정의의 원칙, 책임의 원칙, 전문성의 원칙으로, 스포츠의 특성인 스포츠맨십, 페어플레이, 공정성 등을 반영하였다. 윤리 문제에 있어 판단기준을 설정하기 위해서 하나의 시도로서 다른 스포츠관련 연구와 차별성을 가지고 있다. 설정한 원칙이 정답은 아니지만 스포츠윤리에 있어 판단기준에 대한 필요성을 제기한 연구들에 대한 하나의 응답이라 할 수 있다. 향후 이 연구를 발판으로 스포츠윤리 원칙이 수정ㆍ보완되어 완성되길 기대하는 바이다. 넷째, 구조적 인식의 틀을 이용하여 문제에 대해 다양한 관점에서 해석을 시도하였다. 스포츠계에서 발생하는 문제를 설정한 스포츠윤리 원칙의 기준에 따라 유형별 대표적 사례와 그에 대한 다양한 관점의 해석을 구조적 인식의 틀에 의해 분석하였다. 구조적 인식의 틀을 이용한 사례분석은 사례를 바탕으로 문제에 대한 접근방법을 쉽게 다가갈 수 있도록 하는 것이며, 다양한 관점에서 해석을 시도하기 위한 기초작업이다. 향후 이러한 지속성을 띤 연구를 토대로 하나의 「스포츠윤리 사례집」이 제공된다면 문제 발생 시 문제에 대한 접근방법과 해결방안을 위한 자료로 활용될 수 있을 것이다. 다섯째, ‘옳고 그름’에 대한 공통적인 도덕적 판단을 기초로 스포츠계 현실의 문제를 해결하기 위한 실천적 해결방안을 제시하였다. 실천적 해결방안에 있어 제도적 측면에서는 ①상벌 규정 내용의 세분화와 기준을 강화해야 한다. ②관련 기관(구단, 협회)에 대해 윤리적 문제 발생 시 책임을 물을 수 있는 제도적 기준을 마련해야 한다. ③스포츠 구성원에 대한 통합관리시스템을 도입해야 한다. ④스포츠윤리 교육을 의무교육으로 제도화해야 한다. 교육적 측면에서는 ①기본적 윤리의식 강화교육을 해야 한다. ②윤리교육 주제 확대와 대상에 따른 유형별 세분화 윤리교육을 강화해야 한다. ③도덕과 교과에서 ‘스포츠윤리’ 분야를 재도입해야 한다. 우리는 스포츠 영역에서 발생하는 다양한 문제들을 접할 때 먼저 법적, 제도적 측면에서 문제를 생각하게 된다. 하지만 다양한 윤리적 관점에서 문제를 바라보며, 기본적인 문제점을 인식하고 변화가 되어야 되풀이되는 문제들이 해결되지 않을까? 사람이 변해야 사회가 변할 수 있듯이 스포츠에 참여하는 모든 사람의 윤리의식이 올바르게 변해야 스포츠에서 발생하는 윤리적인 문제가 줄어들고 스포츠의 가치가 상승하지 않을까 사료 된다. 스포츠계는 당대의 삶과 사회를 반영하는 ‘사회적 축소판’으로서 스포츠가 지닌 도덕적 가치를 배울 수 있는 효과적인 수단이다. 스포츠윤리의 궁극적인 목표인 ‘정정당당함’, ‘공정성’, ‘정의’와 ‘용기’ 등을 자신 스스로가 지켜내는 끊임없는 노력이 계속될 때 스포츠가 우리의 삶에서 가치 있는 문화로 존립하게 될 것이다. 아울러 스포츠계를 생태계로 표현하자면, 스포츠 안에 구성원들은 복잡한 먹이사슬처럼 얽혀 있다. 이 중 누구 한 명이라도 빠지게 되면 무너지게 되는데 이를 방지하기 위해서는 서로를 존중하고 배려하는 마음으로 그 중심에 ‘스포츠맨십’이 있다. 즉, 스포츠라는 공동체 안에서 서로를 존중하고 배려하게 되면 자연스럽게 윤리적 문제는 발생 빈도가 낮아질 것이고, 이것이 바로 ‘실천윤리’라고 볼 수 있을 것이다. The purpose of this study is to identify unethical problems arising from sports and analyze specific cases through sports ethics principles to find ways to solve problems. In other words, through ethical approaches based on issues and types in the field of sports, we devise sports ethics principles that reflect the characteristics of sports based on the principles of theoretical ethics and applied ethics. In addition, this criterion presents a framework for structural recognition for interpretation of representative examples by type and from various perspectives. These results will serve as a basis for decision-making on ethical issues to conform to the concept of “justice” in the sports sector amid a dilemma in which moral decisions must be made at a crossroads between choice and judgment. In summary, the findings are as follows. First, we consider the limitations of theoretical ethics and the applicability of sports ethics as applied ethics. Sports ethics is a field of applied ethics, but so far there has been a lack of awareness. In future research on sports ethics, research should focus on the nature of practical ethics that looks at sports ethics as applied ethics and seeks solutions to various ethical problems. Second, we identify ethical issues arising in the field of sports and ethical gaps in the field of sports, a gap between theoretical ethics. To this end, we utilize a big data analysis solution called TEXTOM. Analysis shows that ethical issues arising in the field of sports are ‘diverse and complex’. We can also consider the problems between individual problems and relationships, and the types of problems that arise from individual problems and the types of problems that can arise between relationships are slightly different. In particular, the type of problem could be seen slightly different depending on who the agent was. Third, we devise sports ethics principles based on the principles of applied (practical) ethics that apply theoretical and meta-ethics knowledge. Based on the ethics principles covered in ethics, we devise sports ethics principles that reflect sports characteristics. The principles of sports ethics reflect the characteristics of sports such as consideration, zero tolerance, justice, responsibility, and professionalism. In order to establish standards of judgment in ethical matters, it is differentiated from other sports-related research as an attempt. Although the principle set is not the answer, it is a response to studies that have raised the need for judgment standards in sports ethics. It is hoped that the principles of sports ethics will be revised and supplemented based on this research in the future. Fourth, we attempt to interpret the problem from various perspectives using the framework of structural recognition. In accordance with the criteria for sports ethics principles that set out problems arising in the sports world, representative examples of different types and interpretations of them from different perspectives were analyzed by structural recognition framework. Case analysis using the framework of structural recognition makes it easier to approach an approach to a problem based on examples, and is a basic task to attempt interpretation from various perspectives. If a 「sports ethics casebook」 is provided based on such sustainable research in the future, it can be used as a data for approach and solution to problems in case of problems. Fifth, we present practical solutions to solve the problem of sports reality based on common moral judgments about ‘right and wrong’. Institutional aspects of practical solutions, ①The details and standards of the content of the punishment and punishment regulations shall be strengthened. ②Institutional standards should be established to hold relevant institutions (clubs, associations) accountable in the event of ethical problems. ③An integrated management system for sports members shall be introduced. ④Sports ethics education should be institutionalized as compulsory education. In terms of education, ①Education to strengthen basic ethical awareness should be provided. ②Ethical education shall be strengthened by expanding topics of ethical education and by classification by subject. ③The field of ‘sports ethics' should be reintroduced in ethics and curriculum. When we encounter a variety of problems that arise in the field of sport, we first think of them in terms of legal and institutional terms. However, looking at the problem from various ethical perspectives, will it not be solved if we recognize the basic problem and change it? Just as society can change only when people change, it is believed that the ethical awareness of everyone participating in sports must change properly to reduce ethical problems and increase the value of sports. The sports world is an effective means of learning the moral values of sports as a ‘social miniature’ reflecting the lives and society of the time. Sports will exist as a valuable culture in our lives when constant efforts to protect ourselves, such as ‘fair and square’, ‘fairness’, ‘justice and courage’, which are the ultimate goals of sports ethics, continue. And the sports system can be described as an ecosystem. Members in the sport are connected in relation to each other, as is the food chain. If any of them is left out, it will collapse, and in order to prevent this, ‘sportsmanship’ is at the center of it with respect and consideration for each other. In other words, respecting and caring for each other in a community called sports will naturally reduce the frequency of ethical problems, which can be seen as 'practice ethics'.

      • 安樂死 決定에 있어 사회복지사가 고려해야 할 倫理的 原則들에 대한 硏究

        한민수 세종대학교 행정대학원 2003 국내석사

        RANK : 232300

        현대사회는 복지사회를 추구한다. 과거에는 백성의 구빈(救貧)영역 에서 사회복지를 실현하려 했지만 현대는 여러 사회문제, 즉 주택, 환경, 의료, 성, 청소년 등 다양한 분야에서 사회복지사들이 관여한다. 사회복지사는 대처하는 능력뿐만 아니라 높은 수준의 윤리적 지식을 가지고 있어야 한다. 왜냐하면 여러 사회문제에 나타나는 윤리적 딜레마를 해결할 수 있기 때문이다. 그 대표적인 윤리적 문제가 안락사에서 볼 수 있다. 안락사는 '좋은 죽음'이나 '자비로운 죽음'이라는 뜻을 가진다. 안락사는 고대부터 현대까지 고통받고 있는 환자가 그 고통에서 벗어날 수 있도록 시술해왔고, 죽음을 도왔다. 그러면서 자연스럽게 자연사로 받아들여졌다. 그러나 현대의학의 발전과 더불어 인공호흡기가 발달하면서 안락사를 새롭게 보게 되었다. 옛날부터 심장사 및 뇌사둥은 자연사로 받아들여졌지만 인공호흡기의 발달은 그 죽음의 개념과 정의를 새롭게 하고 있다. 안락사는 자발적, 비자발적, 반자발적 또는 적극적, 소극적 안락사로 구분한다. 현재, 세계적으로 적극적 안락사는 허용하지 않지만 소극적 안락사는 허용하자는 입장이 대부분이다. 안락사 허용은 많은 윤리적 문제를 발생한다. 첫째로, 안락사는 나치가 유대인들을 죽인 것처럼 우생학의 입장에서 안락사를 허용할 수 있는 문제가 발생한다. 둘째, 공리주의의 입장에서 치료불가능한 식물인간을 계속 치료하지 않으려는 경향이 있다. 셋째, 기형아 및 태아의 낙태가 안락사 허용의 희생양이 될 수 있다는 문제가 있다. 또한 안락사 문제는 환자의 결정을 따를 것인가? 아니면 히포크라테스 선서를 한 의사의 결정을 따를 것인가? 아니면 환자의 가족의 결정을 따를 것인가에 대한 문제 등도 있다. 전문가로서의 사회복지사가 안락사의 윤리적 문제를 해결하기 위해서는 첫째, 안락사의 의미를 알아야 한다. 둘째, 죽음의 문제를 알아야 한다. 셋째, 철학윤리를 알아야 한다. 이에 칸트와 공리주의 그리고 비쳔과 차일드리스가 주장한 생명윤리를 알아야 한다. 이에 본 연구자는 안락사 문제와 그에 따른 윤리적 원칙들이 무엇인가를 다룸으로써 전문가로서의 사회복지사가 안락사 문제를 해결할 수 있는 기초를 제공하고자 한다. Contemporary society seeks to be a welfare society. In the past, a welfare society was sought to be realized only to relieve the poverty, while these days social workers participate in various fields such as housing, environment, medical treatment, sex, and teenager problems. To solve ethical dilemmas in various problems of society, social workers are required to have high moral and ethical knowledge as well as abilities to meet such problems. One of the representative ethical problems is euthanasia. Euthanasia means a 'good death' or 'mercy-killing'. Euthanasia has been surgically operated from the ancient time to contemporary to relieve the distress of patients and to help them die without pain. In the meantime it has been taken as a kind of natural death. However, the development of artificial respirators in contemporary medicine has led people to approach it from a new light. The appearance of artificial respirators has challenged the traditional concept and definition of death, by which cardiac death and brain death have been taken as natural death. Euthanasia is divided into four: voluntary, nonvoluntary, active, and passive ones. Presently, active euthanasia is not permitted around the world, but passive ones are gaining approvals in many cases. The permission of euthanasia causes many ethical probles. First, it can justify the Holocaust of the Jew by Nazi by permitting euthanasia based on eugenics. Second, it may bring about the tendency to refuse to treat incurable human vegetables. Third, it can justify abortions of embryos and deformed children so that they are apt to be sacrificed to euthanasia. Another important issue is raised: Who will make the decision? Should it be made by patients or by doctors who follow the Oath of Hippocrates? Or should it be made by the family of a patient? To solve such ethical problems of euthanasia as professionals, social workers should understand the meaning of euthanasia above all. Second, they should know what death means. Third, they should know philosophical ethics. In addition, they should know bioethics by T. L. Beauchamp and James F. Childress. By dealing with euthanasia, its accompanying problems, and ethical principles, therfore, this research aims to offer the foundation that helps social workers to solve the problems related to it as professionals.

      • 존 롤즈(J. Rawls)의 차등의 원칙에 관한 연구

        김경아 동아대학교 교육대학원 1995 국내석사

        RANK : 232271

        본 연구는 존 롤즈(J.Rawls)의 차등의 원칙에 촛점을 맞추었다. 롤즈는 정의의 원칙을 논의하기 위하여 공정으로서의 정의관을 받아 들였다. 롤즈는 정의 개념을 발전시키기 위하여 자유와 평등을 바탕으로 한다. 그리고 사회정의의 토대는 그 공과(功過)에 의하여 사회적 이익의 공정한 분배이다. 그러나 평등과 정의의 논제 사이에서 불균형은 사회 구성원 사이에 고르지 못한 분배에 이르게 될 때 명백하다. 그는 기본적 자유와 관계하고 있고 합리적인 사람들은 기본적 사회를 다스리는 것과 정치적 제도를 선택하기 위하여 원초적 입장을 전적으로 가정한다. 원초적 입장에 대한 조건과 제한이 공정하기 때문에 선택된 원리들은 정당성을 가지고 있다. 롤즈는 정당화의 방법으로 원초적 입장의 역할을 강조한다. 원초적 입장에 있는 사람은 사회적 가치의 불평등한 분배가 모든 사람의 이익이 되지 않는 한 이러한 가치들이 평등하게 분배 되어질 수 있는 일반적 원리를 선택할 것이다. 그 정의의 개념은 두 가지 원칙으로 구성된다. 첫번째 원칙은 가능한 한 평등한 지위를 넓은 범위에서 적용한다. 두번째 원칙은 기회균등의 평등을 보장하고 어떤 사회적·경제적 불평등도 최소수혜자에게 이익이 되어야 한다. 첫번째 원칙은 두번째 원칙보다 우선적이며, 기본적 자유를 최대한 평등하게 보장해야 한다. 두번째 원칙은 모든 사회적 재화 및 다른 자유를 분배한다. 불평등을 허락하는 조건으로 그들은 적어도 모두에게 이익이 되고 기회균등의 평등을 요구한다. 롤즈의 이론은 기회균등과 경제적 추구 모두 평등함을 강조한다. 그의 다른 원칙은 우연적인 요소로부터 오는 불평등을 보상하려고 함으로써 가치를 가진다. 롤즈의 두번째 원리인 차등의 원칙은 자유보다는 사회적 가치에만 적용된다. 여기서 자유와 정의의 관계에 대한 전통적인 문제가 제기된다. 롤즈에 의하면 이러한 문제에 대해서 최소수혜자의 기대가 극대화 된다면 사회의 기본구조에 의한 경제적, 사회적 이익들의 분배는 차등의 원칙을 만족시킨다고 대답한다. This study focuses on the Difference Principle in J. Rawls. Rawls bases freedom and equality to develope a conception of justice, and the basis of social justice is the fair distribution of social benefits according to the desert. But the disparity between ideas of equality and justice became apparent when the inequality of merit leads to the unequal distribution among members of a society. He is concerned with what principles free and rational persons would choose to govern their basic social and political institutions if they were brought together in an imaginary 'original position' for this purpose. Since the conditions and constraints on the orignal position are fair, the principles chosen have a certain justification. Rawls places great emphasis on the role of the original position as a justificatory device. He wants the choice of a set of principles in the original position to constitute a justification of them. A person in the orginal position would choose the gerenal principle that all social values be distributed equally unless an unequal distribution of these goods is to everyone's advantage. The general conception of justice composed of two principles. The first calls for as extensive a system of equal liberty as possible. The second guarantees equality of opportunity and requires that any social and economic inequalities are benefit the least advantaged. The first principle, which has priority over the second, guarantees a maximal system of equal basic liberties. The second principle distributes all social goods, other than liberty, allowing inequalities in them provided they benefit the least advantaged. Rawls' theory stresses the equality in both opportunity and economic pursuit. His difference principle is noteworthy as it intends to compensate the disadvantage that comes from the contingency factor. Rawl's sencond principle applies only to social goods other than libert and justice are realited. Rawls holds that if the expectations of the lezst advantaged are maximized in a society, then the distribution of enonomic and social benefits by the society's basic structure satisfies the difference principle.

      • SF영화를 통한 인공지능윤리교육 프로그램 개발 및 효과 검증 : 영화 A.I.를 중심으로

        박지은 서울교육대학교 교육전문대학원 2024 국내석사

        RANK : 232271

        Research and discussion on artificial intelligence and artificial intelligence robots are actively conducted all over the world, and various artificial intelligence technologies have a place in our lives. Although there are positive aspects of artificial intelligence technology that provide convenience to humans, there are also negative aspects. Ethical guidelines for artificial intelligence research and development have been published in countries around the world, and educational processes and content have also been revised. This social atmosphere is also reflected in cultural and artistic projects. When science fiction movies depict future society, artificial intelligence technology and robots always appear. Unlike ordinary ethics, where a specific problem arises and a solution is sought for this, artificial intelligence ethics is studied with a "prescient" interest in problems that may arise, and if they have not yet been technologically realized. Discussions are also taking into consideration. In science fiction movies that feature artificial intelligence technology, we can get hints about the various situations and problems that we will face in future society. Therefore, this researcher developed an AI ethics education program by selecting science fiction movies in which AI technology is often depicted and which raise concerns about ethical issues, and investigated the impact on elementary school students' AI ethics awareness. I looked into it. The educational program developed and applied in this study consists of a total of 10 hours. In the 1st and 2nd stages, students watch movies to understand the content, and in the 3rd to 10th stages, they study a total of five ethics education themes: human rights guarantees, non-infringement, public nature, data management, and transparency. Questionnaire surveys and in-depth interviews were conducted with students before and after the class to verify what kind of changes in their mindset had been brought about. This educational program has the following significance. First, they used science fiction movies as educational tools to overcome the difficulties of teaching artificial intelligence ethics. Second, we present preliminary research materials on AI ethics education. Third, this educational program will bring about significant changes in students' awareness of artificial intelligence ethics. The recommendations based on the conclusions of this study are as follows. First, it is necessary to proceed with subsequent research by applying the method to a large number of students in other grades and school levels. Second, prior education related to the understanding and ability of artificial intelligence is necessary before AI ethics education can take place. Third, if further revised and supplemented AI ethics education curricula come out in the future, it would be a good idea to select AI ethics education guidelines that are appropriate for the school level and actual situation. Fourth, if we want to address the remaining five topics not covered in this study, we need to proceed through appropriate film selection and analysis. This research can serve as a reference material that will be reflected in future educational processes, as the importance of AI ethics education is growing day by day. We hope that this educational program will be used as an example of future education using movies and artificial intelligence ethics education. 인공지능 및 인공지능 로봇에 대한 연구 및 논의가 전 세계적으로 활발하게 진행되며 다양한 인공지능 기술들이 우리 생활 속에 자리 잡았다. 인간에게 편리함을 제공하는 인공지능 기술의 긍정적인 면도 있지만 부정적인 면 역시 공존한다. 세계 각국에서 인공지능 연구, 개발에 관한 윤리적 가이드라인이 발표되고 있으며 교육과정과 교육내용 역시 수정되고 있다. 이러한 사회적 분위기는 문화예술사업에서도 고스란히 반영된다. SF영화에서 미래사회의 모습을 묘사될 때 빠지지 않고 등장하는 것이 인공지능 기술과 로봇이다. 특정 문제가 발생하고 이에 대한 해결책을 모색하는 보통의 윤리와는 달리 인공지능윤리는 발생가능한 문제들에 대한 ‘예견적’ 관심에서 연구되고 있으며, 아직 기술적으로 실현되지 못한 경우도 고려하여 논의가 진행되고 있다. 이에 인공지능 기술을 다룬 SF영화 속에서 다가올 미래 사회에 우리가 마주할 다양한 상황과 문제에 대한 힌트를 얻을 수 있다. 이에 본 연구자는 SF영화 중 인공지능 기술이 잘 드러나며 윤리 문제를 고민해볼 수 있는 영화를 선정하여 인공지능윤리교육 프로그램을 개발하여 초등학생의 AI윤리의식에 어떠한 영향을 끼치는지 알아보고자 하였다. 본 연구에서 개발 및 적용한 교육 프로그램은 총 10차시로 구성된다. 1~2차시에서는 영화를 보며 내용 이해를 하고, 3차시부터 10차시까지는 인권 보장, 침해 금지, 공공성, 데이터 관리, 투명성 총 5가지 윤리교육 주제를 배운다. 수업의 사전 사후에는 학생들을 대상으로 설문조사 및 심층 면담을 실시하여 어떤 의식 변화를 가져왔는지 검증하였다. 본 교육프로그램은 다음과 같은 의의를 가진다. 첫째, SF영화를 교육도구로 활용하여 인공지능윤리 수업의 어려움을 극복하였다. 둘째, 인공지능윤리교육에 대한 사전연구 자료를 제시한다. 셋째, 본 교육 프로그램을 통해 학생들의 AI윤리 의식에 유의미한 변화를 가져온다. 본 연구 결론을 통한 제언은 다음과 같다. 첫째, 다른 학년이나 학교급을 대상으로 많은 수의 학생에게 적용하여 후속 연구를 진행할 필요가 있다. 둘째, 인공지능윤리교육이 이뤄지기 전 인공지능 이해 및 역량 관련 선행교육이 필요하다. 셋째, 앞으로 더 수정·보완된 인공지능윤리 교육과정이 나온다면 학교급 및 실정에 맞춰 적절한 인공지능윤리교육 가이드라인을 선택하면 될 것이다. 넷째, 본 연구에서 다루지 않은 나머지 5가지 주제에 대해 다룬다면 적절한 영화 선정 및 분석을 통해 진행할 필요가 있다. 본 연구는 인공지능윤리교육의 중요성이 날로 커지고 있는 현 상황에서 앞으로의 교육과정에 반영될 하나의 참고자료가 될 수 있다. 앞으로의 영화를 활용한 교육과 인공지능윤리교육의 사례로서 본 교육 프로그램이 활용 되기를 바란다.

      • 다수구조원칙의 정당성 탐구 : 스캔론의 이론을 중심으로

        최동용 연세대학교 대학원 2013 국내석사

        RANK : 232239

        이 글의 목적은 되도록 다수의 사람들에게 혜택을 제공해야 한다는 직관을 비결과주의적 입장에서 정당화하려는 스캔론의 시도가 성공적인지 살펴보는데 있다. 이 탐구가 중요한 이유는 흔히 비결과주의적 입장에서는 다수의 사람들에게 혜택을 제공해야 한다는 직관을 설명할 수 없다고 생각되어왔기 때문이다. 도덕 이론의 역할 중의 하나가 사람들의 도덕적 직관이나 신념을 정당화하는 것이라는 점을 고려해 볼 때 비결과주의가 이 직관을 설명하지 못한다면 이 이론은 이 부분에서 흠결을 갖는 것으로 보인다. 2장에서는 다수의 사람들에게 혜택을 제공해야 한다는 직관을 정당화하기 위해 스캔론이 제시하는 논증을 살펴볼 것이다. 우선 스캔론이 자신의 이론을 제시하며 비판의 대상으로 삼는 토렉의 이론을 살펴보고 그 후에 스캔론의 이론을 다룰 것이다. 스캔론은 도덕적 추론의 공정성에 근거하여 다수의 사람들에게 혜택을 제공해야 한다는 직관을 정당화하고 있으며 필자는 다소 불분명한 그의 설명을 구체화해가며 그의 논증을 탐구해갈 것이다. 3장에서는 스캔론의 이론에 제기되는 대표적인 비판을 살펴볼 것이다. 이 비판은 스캔론이 합산적 추론에 의존하고 있다는 것인데 이 지적이 비판으로 생각되는 이유는 그가 합산적 추론을 자신의 이론 내에 포함시키기를 거부하고 있는 것으로 보이기 때문이다. 더불어 합산적 추론은 개인의 개별성을 침해하는 내재적 문제를 가지고 있는 것으로 보이기 때문에 그가 합산적 추론에 의존해 논의를 전개한다면 필연적으로 개별성 침해문제를 갖게 되는 것으로 보인다. 필자는 스캔론의 이론과 공리주의를 비교하면서 그가 합산적 추론을 문제시 삼고 있는지, 개인의 개별성을 침해하는 요소를 자신의 이론 체계에 포함시키는지 살펴볼 것이다. 4장에서는 도덕적 추론의 공정성에 근거해 다수에게 혜택을 제공해야 한다는 직관을 정당화하려는 스캔론의 시도가 성공적인 살펴볼 것이다. 이를 위해 ‘도덕적 대우’를 사람들이 요청하는 사태의 발생으로 이해하는 한 해석과 도덕적 이유를 추론에 포함시키는 것으로 이해하는 스캔론의 해석을 비교할 것이다. 다음으로는 도덕적 추론의 한 형태인 쌍대조 추론을 스캔론이 의존하는 합산적 추론과 비교하여 어떤 추론방식이 보다 그럴듯한지 평가할 것이다. 그 후 합산적 추론이 쌍대조 추론보다 그럴듯하다면 합산적 추론의 결과에 따라 행위 해야 한다는 판단이 비결과주의적 입장에서 정당화될 수 있는지 살펴볼 것이다. 필자는 스캔론이 되도록 많은 사람에게 혜택을 제공해야 한다는 직관을 비결과주의적 입장에서 정당화할 수 있다고 결론 내릴 것이다. 그에 따르면 합산적 추론의 결과에 따라 행위 해야 하는 이유는 되도록 도덕 원칙에 따라 많이 행위 해야 한다는 상위의 원칙에 따르기 위해서이다. 원칙에 따라야 하는 의무를 다하기 위해 많은 사람에게 혜택을 제공하는 것이지 행위의 결과를 고려하여 혜택을 제공하는 것이 아니기 때문에 그의 설명은 비결과주의적이다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼