RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
          펼치기
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        알고리즘의 취급에 대한 법적 논의

        이제희(Lee, Je-Hee) 한국비교공법학회 2018 공법학연구 Vol.19 No.3

        알고리즘은 프로그램의 구성 논리로 알고리즘에 설계자의 의도가 반영된다는 점에서 알고리즘이 편향성을 갖는 것은 당연하다. 알고리즘 편향성의 허용 기준은 사적 영역과 공적 영역에 따라 다르다. 사적 영역에서 알고리즘이 개인과 기업의 자유로운 활동에 기초해 개발․활용된다는 점에서 법률에 위반되지 않는 한 알고리즘의 편향성은 허용된다. 반면 공적 영역에서는 공적 신뢰의 유지와 공공의 이익을 도모해야 한다는 점에서 알고리즘 편향성의 허용 범위는 제한적이다. 알고리즘은 「특허법」의 보호 대상이며, 「부정경쟁방지법」의 영업비밀에 해당한다. 알고리즘의 재산적 가치를 보호하는 동시에 알고리즘이 편향성이 사회에 미치는 부작용을 최소화하기 위해 알고리즘의 보호와 공개간 균형이 필요하다. 예를 들어, 알고리즘이 개인정보를 활용하는 경우, 정보주체의 개인정보자기결정권은 보장되어야 한다. 정보처리자는 알고리즘이 영업비밀의 성격을 유지할 수 있는 범위 내에서 정보주체가 개인정보의 활용 및 영향에 대해 이해할 수 있는 수준의 설명 의무를 갖는다고 규정할 필요가 있다. 알고리즘의 편향성은 설계자가 의도하지 않아도 데이터가 잘못 선택되거나, 알고리즘의 학습과정에서 기존 데이터에 존재하는 편향성에 기초해 나타날 수 있다. 법률행위에 대한 책임은 행위자와 결과 사이의 인과관계에 기초하는 것이 원칙이다. 그러나 비의도적인 편향성에 대한 설계자의 책임을 인정하지 않으면 가해자는 없고, 피해자만 존재하는 상황이 발생한다는 점에서 「제조물 책임법」과 유사하게 설계자의 무과실책임을 인정할 필요가 있다. 알고리즘은 복잡성과 기밀성으로 인해 알고리즘의 편향성이 법률에 위배되는지 확인하기 어렵다. 알고리즘의 편향성이 개인의 권리를 침해하는 경우, 피해자는 이에 대한 합리적 의심을 제기하는 것으로 알고리즘의 편향성이 추정되고, 알고리즘의 설계자가 이에 대한 반증 책임을 지도록 규정해야 한다. 이를 통해 알고리즘의 기밀성을 보호하는 한편 알고리즘의 편향성에 대한 설계자의 주의의무를 강화할 수 있다. An algorithm is a program of logic, which has bias due to being developed by humans. Algorithm design is based on freedom, of both individuals and businesses. Algorithms can also be treated as business secrets; thus, algorithms should be eligible for protection from disclosure. Algorithms which employ personal information may prompt inquiry for explanation of this use from affected individuals. This is based on the individual’s right of informational self-determination, which enables an individual to control the disclosure or use of his or her own personal information. An algorithms’ bias should not infringe any constitution or laws. It is very hard to detect an algorithms’ bias because of the complexity and abstraction of algorithms. Balance between creating and protecting algorithms is important because algorithms are intellectual property. When there is reasonable doubt that an algorithm violates an individual’s rights, the algorithm is presumed illegal: the algorithm’s designer bears the burden of proving the algorithms’ lack of bias.

      • KCI등재

        알고리즘의 인지 차이가 중국 인공 지능법률 규제에 끼치는 부정적인 영향 및 개선방안 연구

        김종우 단국대학교 법학연구소 2023 법학논총 Vol.47 No.4

        Since 2020, artificial intelligence norms raised by international organizations, the EU, and the United States have adopted a position that respects the definition of algorithms of a technical nature. Under these circumstances, research guided by actual law should not be overly expanded based on reality. Recently, differences in perceptions such as beliefs, negative prejudices, and crowd psychology have seriously distorted people’s objective perceptions of algorithms. Only by excluding any interference can the nature of artificial intelligence algorithms and effective legal regulations based on them be clarified. The difference in perception of algorithms appears in the form of data, computing power, artificial intelligence, and models. Algorithms cannot fundamentally give the sophisticated computing characteristics of artificial intelligence if the difference between algorithms and operations is discussed. Algorithms in a simple mathematical sense have no direct property value and are not exclusively protected by the law, even in principle. Article 25 of China’s Patent Act stipulates that the rules and methods of intellectual activity do not grant patent rights, but algorithms belong to the rules and methods of intellectual activity that solve specific problems. Naturally, patent rights can be granted even if the technology that solves technological problems and generates technological effects meets the needs of novelty, creativity, and practicality. However, the key is the grant of rights to the technology, not the algorithm. On the other hand, if algorithmic perception is left unbiased, AI law regulation must discuss algorithm regulation because serious problems arise in its object, basis, purpose, and level. The most reliable regulatory route is in the data and not in the algorithm because the regulation of algorithms is visualized through the enactment of law and response through data laws. However, the development of artificial intelligence must continue through the collection, preservation, and processing of data, such as device learning, 先 experience knowledge of data, and inadequate data processing. Algorithm management becomes a kind of search tool, and if the search shows a bias far from social norms, it is not appropriate and can lead to situations where overconsensus is difficult. On the other hand, the scope of the adjustment type of the “Internet Information Service Algorithm Recommendation Management Regulations” includes “generated synthesis, individualized exports, ordered selection, search filtration, and arrangement crystals.” What is clear is that the nature of the “Internet Information Service Algorithm Recommendation Management Regulations” is still based on content management. In particular, it is necessary to prevent related services from affecting normal broadcasting, markets, and social order, to be harmful to the safety of consciousness, social fairness, and equality, and to avoid causing damage to the legitimate rights and interests of the Chinese people. Registration and public announcement problems include the quality of public announcement information, algorithm classification framework, risk description method, and regulatory target setting. A way to improve algorithm management based on accurate algorithm recognition is to establish stronger disclosure content and quality demands. The disclosure content should be renamed to general information on an artificial intelligence system or service system. In addition, in order to reduce the difficulties caused by the lack of algorithm classification and grade classification, it is necessary to prevent the algorithm from intervening excessively in the dominant object. A clearer solution is to look at the relationship between norms and development. There is no need to unnecessarily subdivide and define the type of algorithm, and on the contrary, the risk rating of the service should be considered as the main consideration req... 2020년 이래 국제기구와 EU, 미국이 제기한 인공지능 규범에서는 기술적성격의 알고리즘 정의를 존중하는 입장을 채택하였다. 이런 상황 하에서 실정법이 안내하는 연구는 현실에 입각해서 알고리즘 개념을 지나치게 확대하지 말아야 한다. 근래 신념의 차이, 부정적인 편견, 군중 심리 등의 인지 차이가알고리즘에 대한 사람들의 객관적인 인지를 심각하게 왜곡시켰다. 오로지 일체의 간섭을 배제해야만 비로소 인공지능 알고리즘의 본질과 이에 근거를 둔효과적인 법률 규제를 명확히 할 수 있다. 알고리즘의 인지 차이는 데이터, 연산능력, 인공지능, 모델 형태로 나타난다. 알고리즘과 연산의 차이를 논한다면 알고리즘은 근본적으로 인공지능의정교한 연산 특징을 부여할 수 없다. 단순한 수학적 의미에서의 알고리즘은직접적인 재산 가치가 전혀 없으며, 원칙상에서도 법률의 배타적 보호를 받지않는다. 중국「특허법」 제25조는 지적 활동의 규칙과 방법은 특허권을 부여하지 않는다고 규정하였으나, 알고리즘은 특정문제를 해결하는 지적 활동의규칙과 방법에 속한다. 당연히 만약 기술문제의 해결 및 기술효과를 발생시키는 기술이 신규성, 창조성 및 실용성의 요구에 부합한다면, 내적으로 알고리즘을 포함한다고 하더라도 특허권이 부여될 수 있다. 그러나 관건은 기술에 대한 권리 수여인 것이지 알고리즘이 아니다. 한편 알고리즘 인지가 지나치게 편향되는 것을 방임한다면 인공지능법률규제는 그 대상과 근거, 목적과 수준에 있어서 심각한 문제가 출현하게 되기때문에 알고리즘 규제에 대해 논의를 해야만 한다. 알고리즘에 대한 규제는단행법률 제정, 데이터법률을 통한 대응 등을 통해 가시화되고 있기 때문에가장 신뢰할 만한 규제 루트는 데이터에 있고 알고리즘에 있지 않다. 그러나기기학습, 데이터의 先경험지식, 부적절한 데이터 처리 등 데이터의 수집과 보존, 처리를 통해 인공지능 발전은 지속되어야 한다. 알고리즘 관리는 일종의 검색도구가 되는데, 검색이 사회통념과 거리가 먼편향성을 보이면 적절하지 않으며 과적합의 곤란한 상황이 발생할 수 있다. 한편 “인터넷정보서비스 알고리즘 추천 관리 규정” 조정 유형 범위는 ‘생성합성류, 개성화 수출류, 순서 정선류, 검색여과류, 배치 결정류 등’을 포함한다. 분명한 것은 “인터넷정보서비스 알고리즘 추천 관리 규정”의 성질이 여전히내용의 관리에 기반을 두고 있다는 점이다. 특히 관련 서비스가 정상적인 방송과 시장, 사회질서에 영향을 끼치는 것을 방지하고, 의식의 안전 및 사회공정과 평등에 위해가 되며, 중국국민의 합법적인 권익에 피해가 조성되는 것을 회피해야 한다. 등록과 공고의 문제는 공고정보의 품질, 알고리즘 분류의 틀, 리스크 묘사방법, 규제대상 설정 등이 있다. 정확한 알고리즘 인지에 기반을 둔 알고리즘관리의 개선방안으로는 더욱 더 강력한 공시내용과 품질 요구를 제정하는 것이다. 공시내용을 인공지능시스템 또는 서비스시스템의 일반정보로 명칭을 변경해야 한다. 또한 알고리즘 분류와 등급 분류의 부족함 때문에 초래하는 어려움을 감소시키기 위하여 알고리즘이 지나치게 지배대상에 개입하는 것을 방지해야만 한다. 더 분명한 해결방법은 규범과 발전의 관계를 정확하게 바라보는 것이다. 불필요하게 알고리즘 종류를 지나치게 세분화하여 규정할 필요가없고, 반대로 서비스의...

      • KCI등재

        중국 빅테크 기업의 알고리즘에 대한 규제 연구: 알고리즘이 통제하는 사회에서 국가가 알고리즘을 통제하는 사회로?

        이중희(Lee, Jung Hee) 한국아시아학회 2022 아시아연구 Vol.25 No.4

        2022년 1월에 국가인터넷정보판공실 등은 알고리즘과 관련된 규제 규정을 제정했다. 그것은 〈인터넷 정보서비스 알고리즘 추천 관리 규정〉이다. 본 연구는 이 규정을 분석하여 그의 의미를 찾는 것이다. 본 연구가 찾은 결론은 다음과 같다. 첫째, 세계 최초로 빅테크 기업의 알고리즘을 규제하는 〈규정〉을 제정하고 실시하고 있다는 점은 중국에서 국가는 다른 나라에 비해 빅테크에 대해 압도적인 우위에서 규제를 행사하고 있다는 사실을 말한다. 다른 나라에서도 알고리즘에 대한 문제점이 사회경제적 문제로 논쟁이 되고 있지만, 빅테크는 아직 알고리즘을 영업비밀로 공개하기를 꺼리고 국가의 규제도 아직 알고리즘의 세부사항에까지 미치지 못하고 있는 것이 현실이다. 반면 중국에서는 〈규정〉에 대한 분석에서 보듯이 알고리즘에 대한 국가규제의 목표를 분명히 하고 알고리즘의 요건을 명시하고 있다. 아울러 이용자의 권익보호차원에서도 소비자, 노동자, 노인, 미성년자 등 다양한 사용자에 대한 조항을 갖고 있다. 둘째, 알고리즘 규제는 중국에서 빅테크에 대한 규제가 보다 체계적인 방향으로 가고 있음을 보여주는 사례이다. 중국에서는 국가가 2020년 말 빅테크에 대한 무규제에서 강력한 규제로 전환하다가 2022년에 접어들어 강력한 규제로부터 체계적 규제로 전환해왔다. 알고리즘 규제도 이런 체계적 규제의 영역이라 볼 수 있다. 다시 말하면, 중국에서 국가는 알고리즘에 대한 규제를 통해서 빅테크에 대한 통제를 지속하려하고 있음을 알 수 있다. 국가의 강력한 규제는 부작용을 가져다주기 때문에 규제는 좀 더 세부적 영역으로 전환하고 있음을 알 수 있다. 셋째, 세계에서 최초의 <규정> 제정과 실시는 중국에서 알고리즘으로 인한 사용자의 피해가 적지 않다는 점을 말한다. 실제 각종 조사는 알고리즘에 대한 피해 경험이 적지 않다는 사실을 보여주고 있다. 전술한 것처럼 빅 데이터의 기존고객 차별 경험이 90%에 가깝고, 배달, 쇼핑, 관광, 공유차량 등의 플랫폼에서 기존고객 차별 경험이 있었다는 조사가 이를 말해준다. In January 2022, the Cyberspace Administration of China (CAC) and others enacted Regulations related to algorithms. It is called Regulations on the Internet Information Service Algorithmic Recommendation Management. This study analyzes this Regulations to find its meaning. The conclusions found in this study are as follows. First, the fact that the worlds first Regulations on Big Tech algorithms are enacted and implemented means that in China, the state exercises an overwhelming advantage over other countries in regulations on Big Tech compared to other countries. In other countries, the problem of algorithms is being debated as a socioeconomic problem, but Big Tech is still reluctant to disclose algorithms as trade secrets and state regulations have yet to reach the algorithms. On the other hand, in China, as shown in the analysis of the Regulations, the goal of national regulation on algorithms is clarified and the requirements of algorithms are specified. In addition, in terms of the protection of users rights and interests, it has provisions for various users such as consumers, workers, the elderly, and minors. Second, Algorithmic Regulations are an example that shows that regulations on big tech in China are moving in a more systematic direction. In China, the state has shifted from non-regulation to strong regulation of Big Tech at the end of 2020, but has shifted from strong regulation to systematic regulation in 2022. Algorithmic Regulation can also be seen as an area of this systematic regulation. In other words, it can be seen that in China, the state is trying to maintain control of Big Tech through regulations on algorithms. It can be seen that regulations are shifting to more detailed areas because strong regulations in the country bring side effects. Third, the enactment and implementation of the worlds first Regulations means that there is a big amount of damage to users due to algorithms in China. In fact, various surveys show that there are not a few experiences of damage to algorithms. As mentioned above, a survey shows that rip-off experience was close to 90% of persons to be surveyed, and that they had experience in rip-off on platforms such as delivery, shopping, tourism, and shared vehicles.

      • KCI등재

        알고리즘 규제를 위한 지도 - 원리, 구조, 내용 -

        이상용(Sang Yong Lee) 서울대학교 공익산업법센터 2020 경제규제와 법 Vol.13 No.2

        인공지능 기술의 급속한 발전에 따른 편익은 이미 여러곳에서 체감할 수 있지만, 그 역기능에 대한 우려도 적지 않다. 알고리즘 규제에 관한 다양한 논의는 규제의 원리와 구조, 그리고 내용에 관한 측면으로 나누어 살펴볼 수 있다. 규제의 원리와 관련해서는 자유 제한의 정당성 근거와 알고리즘 규제의 원리적 특성이 문제된다. 자유의 제한이 어떻게 정당화되는지를 바라보는 시각은 자유주의적 관점, 공리주의적 관점, 공동체주의적 관점에 따라 달라진다. 그러나 무엇보다도 자유와 정의의 우선성이 인정될 필요가 있을 것이다. 알고리즘 규제의 원리적 특성의 문제는 다시 둘로 나뉜다. 먼저 알고리즘이 규제자에 의하여 이용되거나 알고리즘 자체가 규제자의 역할을 하는 경우의 문제, 즉 알고리즘에 의한 규제의 문제가 있다. 전자는 법치주의와 민주주의를 실질적으로 관철해 가는 것이 핵심인 반면 후자는 사실상 알고리즘에 대한 규제의 문제이다. 다음으로 알고리즘 자체가 피규제자가 될 수 있는지의 문제, 즉 알고리즘에 대한 규제의 문제가 있다. 그러나 현 단계의 인공지능은 규제 당사자가 될 주체성을 지닌다고 볼 수 없다. 결국 알고리즘 규제가 일반적 규제와 다른 원리적 차이점을 지닌 것은 아니다. 규제의 구조적 측면에서는 다양한 규제의 구조와 유형 가운데 어떤 것이 알고리즘 규제에 적합한지가 문제된다. 신산업의 경우 예측의 곤란성과 변화의 속도라는 특성으로 인해 그에 대한 규제 내용을 미리 정하기 어려우므로, 신산업의 규제에 있어서는 잠정적 규제, 절차적 규제, 자율규제, 원칙중심 규제와 같은 ‘유연한 규제’가 요구된다. 알고리즘, 특히 인공지능 기술 역시 신산업으로서의 특징을 공유하므로 그에 대한 바람직한 규제 구조는 유연한 규제라고 할 수 있다. 이처럼 알고리즘 규제의 내용을 미리 정하기는 어렵지만, 최근의 인공지능 윤리 논의로부터 규제의 내용적 측면과 관련하여 두 가지 시사점을 얻을 수 있다. 우선 알고리즘의 활용 과정에서 발생하는 위험을 평가하여 그에 대한 규제 내용을 결정하기 위한 기준을 정식화할 수 있다. 즉 규제의 정당성 근거와 관련지어 위험의 속성을 분류하고, 그 속성이 이익형량을 허용하는 경우 위험과의 비례성을 고려하여 규제 여부 및 규제 수단을 결정하는 것이다. 본고는 위험을 다음과 같이 6가지로 유형화하였다. i) 타인의 기본적 자유를 침해하는 경우, ii) 기회의 균등을 침해하는 경우, iii) 문제되는 행위로 인해 경쟁이 침해되는 경우, iv) 위 세 가지 경우 외에 다른 사람의 권리나 이익을 침해하는 경우, v) 재분배를 이유로 하는 자유의 제한, vi) 문제되는 행위로 인해 공동체의 가치가 침해되는 경우 등이 그것이다. i) ii) 유형은 자유주의적 관점에 의하여, iii) iv) v) 유형은 공리주의적 관점에 의하여, vi) 유형은 공동체주의적 관점에 의하여 주로 설명될 수 있다. 다만 자유주의적 관점에서 규제의 정당성 근거는 규제의 최대 한계로서의 의미만을 지닌다. 알고리즘 규제의 내용적 측면과 관련된 두 번째 시사점은 판단과 결정을 자동화하면서도 그 근거를 알기 어려운 알고리즘의 특성에서 비롯된다. 즉 누군가가 결정에 따른 결과에 책임을 져야 하며, 결정의 과정은 투명하고 근거는 설명 가능해야 하는 것이다. 책임성, 그리고 투명성 및 설명가능성은 그 자체로는 자유 제한의 정당화 사유가 될 수 없고 다른 정당화 사유와 관련하여 수단으로서 의미를 가질 뿐이다. 이러한 수단성으로 인해 책임성과 투명성을 확보하기 위한 규제는 자율규제나 사후규제 또는 네거티브 규제와 같은 ‘약한 규제’로 이루어지는 것이 바람직하다. Benefits from the rapid advancement of artificial intelligence technology are perceptible in many areas, but concerns are also mounting over the adverse effects of new technology. Various discussions on the regulation of algorithms may be broken down to the principle, structure, and content of the regulation. First, in terms of principle, the legitimacy of restriction of freedom and characteristics of the regulation of algorithm becomes an issue. The perspective of how restriction of freedom is justified varies from standpoint to standpoint, including liberal, utilitarian, and communitarian perspectives. But the priority of liberty and justice needs to be recognized. The issue of characteristics of the regulation of algorithm can be divided into two categories. First issue arise when algorithm is used by a regulator and algorithm itself performs the role of a regulator(regulation by algorithsm). In case of the former, the key is rule of law and democracy. In case of the latter, the key is how the algorithm is regulated. The next question is whether algorithm itself can be ‘the regulated’, which is essentially an issue of enforcing regulation on algorithms. It cannot be deemed at this point of time, however, that artificial intelligence is an independent entity for regulation. Therefore, the regulation of algorithms does not cause difference in terms of principle as opposed to general regulations. Next, in terms of the structure of regulation, the question comes down to which regulation out of various structures and types of regulation is suitable for the regulation of algorithms. In the case of new industry, it is difficult to confirm the content of regulation in advance because of a high level of unpredictability and a high and extensive rate and scope of changes. Accordingly, a “flexible regulation” is needed for the regulation of new industry, such as provisional regulation, procedural regulation, self-regulation, and principle-based regulation. Algorithms, particularly the technology of artificial intelligence, share the features of new industry. As such, a desirable structure of regulation for algorithms is a flexible regulation. Although it is difficult to predefine the content of algorithm regulation, two implications can be obtained from the recent discussion of artificial intelligence ethics in relation to the aspect of content in regulation. First, the risk involving the utilization of algorithm may be evaluated, and standards to determine the regulatory content thereof can be formalized. That is, to classify the attributes of risk in relation to the grounds for justifiability of regulation; and thereby to decide whether to regulate and means of regulation in consideration of proportionality associated with risk when the attribute permits balancing conflicting interests (interests-balancing). This paper classified the risk into six categories. First type is a case involving the infringement of basic liberty of others. Second, to infringe the fair equality of opportunity. Third type is a case where an act in question infringes competition. Fourth type is to infringe the rights and interests of other persons which is not included in the first three types mentioned above. Fifth type is the restriction of freedom on the ground of redistribution. Last, sixth type is infringement of the community values due to an act at issue. In sum, the first and second types are explained by a liberal standpoint, from the third to the fifth by a utilitarian perspective, and the sixth by a communitarian perspective. From a liberal point of view, the ground for the justifiability of regulation only implies the maximal limit of regulation. Second implication with regard to the content of algorithmic regulation stems from the features of algorithm that make it difficult to identify the ground for automatic judgment and decision. In other words, someone should bear the responsibility for the consequence of a decision

      • KCI등재

        알고리즘 권력화와 규제 거버넌스

        김윤명 대한변호사협회 2023 人權과 正義 : 大韓辯護士協會誌 Vol.- No.515

        알고리즘 권력화란 플랫폼사업자들이 알고리즘을 도구화하여 알고리즘에 의한 지배, 통제를 통해 영향력을 높이는 것을 말한다. 알고리즘이 스스로 의식을 가지고 작동하는 것이 아니기 때문에 알고리즘이 권력화한다는 표현은 맞지 않다. 물론, 알고리즘을 권력화함으로써 여러 가지 문제가 발생한다고 하여, 알고리즘을 통제하는 것은 문제해결에 도움이 되지 않는다. 플랫폼사업자들은 기업활동을 위해 알고리즘을 개발하고 보다 효율적으로 이익을 창출하기 위하여 알고리즘을 사용한다. 그 과정에서 고의로 알고리즘을 왜곡(歪曲)하는 경우도 있음은 부인하기 어렵다. 이처럼, 알고리즘이 권력화됨으로써 다양한 사회적 문제가 발생하는 상황에서 알고리즘에 대한 규제의 필요성이 커지고 있다. 물론, 알고리즘 규제의 필요성이 있다고 하더라도 충분한 반론이 이루어지고 그에 따른 설득의 과정이 필요하다. 예를 들면, 사업자들은 알고리즘 공개를 규제라고 보고, 영업비밀을 공개할 수 없다는 주장을 편다. 그렇지만, 알고리즘 공개를 일반 대중에게 한다고 생각할 수 있을까? 그럴 필요가 없다. 정책이나 입법 과정에서 갈등이나 오해는 풀어가는 것이 무엇보다 중요하다. 정책의 목적이 정당하더라도, 절차적인 정당성을 확보하지 못할 경우에는 목적의 정당성까지 훼손될 수 있기 때문이다. 알고리즘은 기획, 개발, 운용 및 이용 과정이나 데이터를 활용하는 학습과정에서 편향과 차별이 의식적이든 무의식적이든 반영된다면 평등이나 기본권 보장 등 헌법적 가치가 훼손될 수 있다. 이러한 한계 내지 문제를 해결하기 위해서는 알고리즘 자체의 윤리성을 높이거나 관여하는 인간의 윤리적 책임 내지 법적 책임을 강화할 필요가 있다. 고의로 알고리즘을 오용하거나 남용하여 차별을 고착하는 경우라면 헌법적 가치를 훼손하는 행위로서 절대적인 규제 대상이다. 이를 위한 입법방안은 알고리즘을 문제로 전제하기보다는 알고리즘이 가져올 수 있는 파장을 차단할 수 있는 방안을 마련하기 위한 것으로, 기술중립적 측면에서의 접근방법이다. 알고리즘의 공정성 확보를 위한 규제 내지 법적 접근은 최후의 수단이며, 집단지성을 활용하거나 알고리즘에 대한 전문적인 기관을 만들어 문제해결 방안을 찾는 것은 정책적으로 판단할 사항이다. Algorithm empowerment refers to platform operators tooling algorithms to increase their influence through algorithm control and control. The expression that algorithms become powerful is not correct because algorithms do not operate with consciousness on their own. Of course, controlling the algorithm does not help solve the problem because various problems arise by empowering the algorithm. Platform operators develop algorithms for corporate activities and use them to generate profits more efficiently. Of course, it is hard to deny that there are cases where algorithms are deliberately distorted in the process. As such, the need for regulation of algorithms is increasing in situations where various social problems arise as algorithms become power. Of course, even if there is a need for algorithm regulation, sufficient counterarguments are made and a process of persuasion is required accordingly. For example, operators view algorithm disclosure as a regulation and argue that trade secrets cannot be disclosed. However, can we think of releasing algorithms to the general public? There is no need for that. It is most important to resolve conflicts or misunderstandings in the policy or legislative process. Even if the purpose of the policy is justified, the legitimacy of the purpose may be undermined if procedural legitimacy is not secured. If bias and discrimination are reflected consciously or unconsciously in the process of planning, development, operation, and use of algorithms, constitutional values such as guaranteeing equality and basic rights can be undermined. To solve these limitations or problems, it is necessary to increase the ethics of the algorithm itself or strengthen the ethical or legal responsibility of humans involved. If discrimination is fixed by intentionally misusing or abusing algorithms, it is an act that undermines constitutional value and is subject to absolute regulation. Rather than presupposing the algorithm as a problem, the legislative plan for this is to come up with a way to block the wavelengths that the algorithm can bring, and it is a technology-neutral approach. Regulatory or legal approaches to securing fairness in algorithms are the last resort, and it is a policy decision to use collective intelligence or create a specialized institution for algorithms to find solutions to problems.

      • KCI등재

        공정거래법상 알고리즘 담합 책임의 귀속과 준법사항(compliance)에 관한 연구

        박창규 ( Park Changgyoo ) 고려대학교 법학연구원 2020 고려법학 Vol.0 No.96

        알고리즘 담합에 대한 경쟁법의 적용은 최근에 주목을 받고 있는 분야 이다. 일반적으로 알고리즘 담합의 가능성과 이에 대한 경쟁법 적용의 필요 성은 인정된다. 그렇다면 알고리즘 담합의 책임을 사업자에게 귀속시킬 수 있는지가 중요한 문제가 된다. 이 문제는 사업자의 개입이 존재하는 알고리즘 담합과 사업자의 개입이 존재하지 않는 알고리즘 담합으로 구분이 되어 검토되어야 한다. 프랑스·독일 공동보고서의 알고리즘 분류를 참조할 때, 사업자의 개입 이 존재하는 알고리즘 담합은 (i) 전통적인 반경쟁적 행위의 지원 또는 촉진 의 수단으로서의 알고리즘을 통한 담합과 (ii) 자신의 경쟁사업자가 동일·유 사한 알고리즘을 사용한다는 것을 인식하면서 제3자가 제공한 동일·유사한 알고리즘을 이용한 담합 등이 있다. 사업자의 개입이 존재하는 알고리즘 담 합에서 알고리즘은 사업자에 이루어지는 담합을 위한 도구나 수단에 불과 하며 실제 담합 행위는 사업자에서 이루어진다. 따라서 공정거래법이 요구 하는 사업자간의 의사의 합치가 있는 것으로 볼 수 있어 알고리즘 담합의 책임을 사업자에게 귀속시키는 것은 어렵지 않다. 자신의 경쟁사업자가 동 일·유사한 알고리즘을 사용한다는 것을 인식하면서 제3자가 제공한 동일·유 사한 알고리즘을 이용한 경우는 동조적 행위, 의식적 병행행위 또는 정보교환의 관점에서 접근을 할 수 있다. 공정거래법의 관점에서는 이러한 형태의 알고리즘을 정보교환의 한 수단으로 보아 판례가 요구하는 추가적인 요소를 종합적으로 고려하여 사업자의 합의를 인정할 수 있다고 본다. 사업자의 개입이 존재하지 않는 알고리즘 담합은 사업자간의 의사교환 없이 개별적인 알고리즘을 병행적으로 이용하여 담합이 유도되는 경우라고 볼 수 있다. 블랙박스형 알고리즘과 같이 알고리즘이 사업자와 무관하게 고 도의 자율적 작동에 의해 담합을 유도하거나 담합의 결과를 가져오는 경우 이다. 이 경우는 사업자의 개입이 존재하지 않기 때문에 사업자의 책임이 존재하지 않는 것처럼 보일 수 있다. 현재의 우리나라 법체계에서는 알고리즘은 자연인도 아니고 법인도 아니기 때문에 민법상 권리·의무가 주체가 될수 없다. 형법적으로도 자연인이 아니기 때문에 범죄 행위의 주체가 될 수 없다. 또한 공정거래법의 적용대상은 사업자이므로 알고리즘에게 담합 책임을 귀속시킬 수는 없다. 따라서 현재로서는 사업자의 개입이 존재하지 않는 알고리즘 담합 책임을 사업자에게 부담시키는 것이 타당하다. 사업자는 공정거래법상 담합 금지 의무를 가지고 있다. 이러한 담합 금지 의무는 사업 자가 자신이 담합할 것을 적극적으로 방지해야 하는 예방의무를 포함한다 고 보아야 한다. 담합을 방지할 사업자의 이러한 공정거래법상 예방의무를 고려하여 사업자의 개입이 존재하지 않는 알고리즘 담합에 대한 책임은 사 업자의 예방조치 유무에 따라 판단되어야 한다. 예방조치가 전혀 없는 경우 알고리즘 담합 결과에 대해 사업자가 책임을 부담하도록 하는 것이 타당하다. 예방조치가 있는데도 알고리즘 담합이 발생했을 경우는 주로 의식적 병행행위 또는 외관상 동조적 행위나 정보교환의 형태가 될 가능성이 크다. 이때는 판례가 요구하는 추가적인 정황요소를 고려하여 담합 책임을 사업 자에게 귀속시키는 것이 바람직하다. 사업자의 공정거래법상 예방의무를 효과적으로 이행하기 위해 사업자 의 관점에서 알고리즘 설계 단계와 이행 단계의 예방조치를 포함하는 준법 사항이 중요하다. 사업자의 준법사항은 알고리즘 담합의 발생을 사전적으로 감소시킬 수 있고 사업자가 알고리즘 담합의 책임을 부담하는 것을 최대한 제한할 수 있는 효과적인 대응방법이라고 할 수 있다. Recently the competition law enforcement against algorithmic collusion has been drawn attentions. The possibility of algorithmic collusion and the necessity of competition law enforcement against such algorithmic collusion are generally accepted. Therefore whether or not an undertaking should be responsible for algorithmic collusion is the important matter. This matter should be reviewed with being categorized into algorithmic collusion an undertaking is involved in and algorithmic collusion an undertaking is not involved in. Considering a joint study of the French competition authority and the German cartel office algorithmic collusion an undertaking is involved in includes (i) collusion using algorithms as supporters or facilitators of traditional anti-competitive practices, and (ii) algorithm-driven collusion between competitors involving a third party with an undertaking’s knowing its competitors use the same or coordinated third party algorithms. In case that algorithmic collusion an undertaking is involved in algorithms is supporters or facilitators of collusion and such collusion happens between undertakings. Therefore there is the meeting of minds required under the Korean competition law and so it would not be difficult for an undertaking to be liable for algorithmic collusion. In case that algorithm-driven collusion between competitors involving a third party with an undertaking’s knowing its competitors use the same or coordinated third party algorithms it would be reviewed as concerted practices, conscious parallelism, and information exchange. From the perspective of the Korean competition law this kind of algorithmic would be regarded as a means of information exchange and so the collusion between the undertakings would be accepted with the plus factors required under the Korean precedents. Algorithmic collusion an undertaking is not involved in is the case that such collusion was induced by the parallel use of individual algorithms without communications between the undertakings. This is the collusion induced by black-box algorithms which has the high graded autonomy without an undertaking’s involvement. This case looks that there would not be an undertaking’s accountability for algorithmic collusion because there is no an undertaking’s involvement. Under the Korean laws algorithms is neither a person nor a juristic person and so algorithms cannot be subject of rights and duties under the Korean civil law. Under the Korean criminal law algorithms is not a person and so algorithms cannot commit crimes. Also, because the Korean competition law applies to an undertaking algorithms cannot be liable for collusion. Therefore under the current Korean laws an undertaking shall be liable for algorithmic collusion which such undertaking is not involved in. An undertaking has the obligation not to collude under the Korean competition law. This obligation includes the preventive obligation that an undertaking shall prevent his own collusion actively. With considering an undertaking’s preventive obligation under the Korean competition law algorithmic collusion which an undertaking is not involved in shall be reviewed based on whether or not the undertaking took the preventive measures. In case that an undertaking did not take any preventive measures at all the undertaking should be liable for the result of algorithmic collusion. In case that algorithmic collusion takes place despite the preventive measures such algorithmic collusion means mainly the conscious parallelism, quasi-concerted practices, and information exchange. In such cases the plus factors required by the court should be considered and then the undertaking shall be liable for such practices. From an undertaking’s viewpoint compliance including the preventive measures in the design phase of algorithm and the preventive measures in the implementation phase of algorithm is important in order that an undertaking will perform its preventive obligation under the Korean competition law effectively. Compliance of an undertaking can diminish the possibility of algorithmic collusion in advance and can be an effective means that limits an undertaking’s accountability for algorithmic collusion.

      • KCI등재

        노동관계에서 알고리즘에 관한 법적 쟁점

        이율경 서울대학교노동법연구회 2024 노동법연구 Vol.0 No.56

        알고리즘은 사용자가 근로자를 관리하는 방식을 변화시키고 있다. 알고리즘은 근로자의 데이터를 수집하고 원격으로 노동력을 감독・관리하여 사용자가 노동력을 더 광범위하게 감시할 수 있게 함으로써 노동감시의 강도와 범위, 영향력을 전례없이 확대시키고 있다. 알고리즘 의사결정의 기반이 되는 데이터는 편향성과 편견을 내포하여 차별적 결과를 발생시킬 수 있고, 자동화된 의사결정 과정에서 투명성의 결여로 편향성 문제를 악화시킨다. 이로 인해 이미 불균형한 관계에 있는 노사간 정보의 비대칭성이 증가하고 불투명한 알고리즘에 의해 종업원이 관리된다. 알고리즘과 관련한 담론의 주류는 신기술의 도입이 노동상실을 초래할 것이라는 기술결정론으로 흐르는 경향이 있으나, 알고리즘에 의해 야기되는 노동문제에 관심을 가질 필요가 있다. 예를 들어, 알고리즘 기술의 전제가 되는 근로자의 데이터 수집이 적법한지 여부, 정보수집의 범위, 정보의 활용 등에 대한 근로자의 동의, 근로자 정보 이용의 한계, 알고리즘의 인사권 행사와 노무지휘, 알고리즘에 의한 차별, 알고리즘의 의사결정에 따른 사용자의 책임 등이다. 이 글에서는 노동관계에서 알고리즘의 활용에 있어서 근로자의 데이터 정보문제에 착안하여 발생할 수 있는 법적 쟁점을 살펴본다. 구체적으로 근로자의 개인정보보호의 관점에서 알고리즘에 의한 채용부터 해고에 관한 문제, 알고리즘의 불투명성과 고용상 차별의 문제, 디지털 감시와 사생활 침해라는 법적 문제이다. Algorithms are changing the way employers manage workers. Algorithms collect workers' data, remotely supervise and manage the workforce, and allow employers to monitor the workforce more extensively, expanding the intensity, scope, and influence of labor surveillance unprecedentedly. The data on which algorithmic decision-making is based can lead to discriminatory results including bias and prejudice, and the problem of bias is exacerbated by a lack of transparency in the automated decision-making process. As a result, asymmetry of information between labor and management, which is already in a disproportionate relationship, increases, and employees are managed by opaque algorithms. The mainstream of algorithm-related discourse tends to be technological determinism, which states that the introduction of new technologies will lead to the loss of labor, but there is a need to pay attention to the problems caused by algorithms. For example, whether or not the worker's data collection, which is the premise of algorithmic technology, is legal, the scope of information collection, the use of information, the limitations of information use, the possibility of controlling algorithms, discrimination against algorithms, and the responsibility of users. This article examines the application and limitations of the current labor law by dividing it into the following three issues related to algorithms in labor relations. Specifically, they are issues related to recruitment and exercise of personnel rights by algorithms from the perspective of protecting workers' personal information, problems of algorithm opacity and discrimination in employment, and legal issues such as digital surveillance and privacy infringement.

      • KCI등재

        알고리즘 자동행정결정에 대한 행정법적 해석방안에 관한 연구 - 미국 행정법상 입법방안 논의를 중심으로 -

        김재선 단국대학교 법학연구소 2021 법학논총 Vol.45 No.3

        Administrative decision using algorithm is defined as an action in which algorithm technology is used for “decision-making, implementation, and interaction” of administrative agencies. As Dr. Herbert Simon described the policy-making stages “sensing, policy structuring, and solving”, the algorithm automated administrative decision was developed in consideration of the each characteristics of the administrative decision at each stage of administrative decision (essential characters as the administrative decisions, elements of effective administrative actions to structure complex information processing, aspects of information disclosure, expertise and and decision-making capabilities of administrative agencies, etc.) A method of modeling has been proposed, and since then, several scholars have modeled the structuring method of the algorithm, and public services (school assignment, It is being used in the form of tax amount determination, pension amount determination, parking lot usage fee determination, traffic signals under the Road Traffic Act). As a premise for automatic algorithm decision, problem-solving ability is determined according to the degree of system structure, the possibility of delegating decision-making authority to the algorithm, and the need to control abuse of discretion are legislatively determined. In other words, if the system for automatic algorithm determination is well structured, the administrative agency can verify the existence of necessary information or whether the data is accurate. difficulties also arise. When the algorithm is elaborately structured in the design stage of the algorithm, the analysis structure is formalized and the causal relationship is clearly shown. It becomes difficult to predict the derivation of the results. In terms of utilization, if the algorithm is well structured, the authority to make administrative decisions can be delegated to artificial intelligence, and the risk of abuse is not high if it is not intervened with unethical intentions. As discussed above, following issues need to be considered to implement administrative decision using algorithm. First, in terms of subject categorization, the New York State law stipulates that algorithmic decision making can be applied with respect to simple administrative actions, so it is premised that the application of algorithmic administrative decision can be limited in areas where discretion or discretion is recognized in reality. It is thought that even the algorithm that has been used should be used limitedly in areas where there is a high possibility of intrusive administrative actions or violation of basic rights. Moreover, regarding the possibility of delegating the standard setting algorithm (program), in the case of the United States, the chevron doctrine serves as a standard for judicial review in the administration), it would be difficult to be recognized as a decision that relies on the special expertise of the administrative agency (even in areas where delegation has been made by law), rather, it can be considered that such a standard setting algorithm is at least a relationship between administrative rules and administrative actions in that it is “a decision made by an algorithm determined by a public official at least that cannot be done without human assistance”. For example, in the case of areas that include value judgment such as extension of the taxable period and determination of taxable items, cost-benefit analysis should be minimized and discussion should be conducted in a way that emphasizes administrative procedures. Next, in terms of guaranteeing procedural rights (from the point of view of the due process), it is thought that the argument that unconditional counter-factual explanations should be made when automatic administrative decisions are made (“unconditional counter-factual explanations”) can be referred to. 2021년 3월 시행되는 행정기본법 제20조는 자동적 처분을 규율하여 재량이 있는 처분이 아닌 경우 법률이 정하는 바에 따라 “완전히 자동화된 시스템(인공지능 기술을 적용한 시스템을 포함한다)”으로 처분을 할 수 있도록 규정하였다. 이러한 규정은 자동적 행정결정의 일반법적 근거를 마련하였다는 점, 법치주의적 관점에서 상위법의 위임이 있음을 전제하였으며, 처분에 관하여 이루어지도록 함으로써 행정절차법의 적용대상에 포섭하였다는 점, 처분에 재량이 있는 경우를 포섭하지 않아 국민의 기본권 보호 및 신뢰보호 측면에서 의미를 갖는 것으로 생각된다. 이에 따라 본고에서는 미국에서의 알고리즘에 기반한 자동적 행정결정에 관한 논의 현황과 입법에 관하여 검토하였다. 알고리즘 자동행정결정은 행정청의 “의사결정(decision-making), 집행(implementation), 상호작용(interaction)” 등에 알고리즘 기술이 활용되는 행위로 정의된다. 미국에서는 1960년대 인간의 의사결정 모델을 인지과학 측면에서 연구한 허버트 사이먼(Herbert Simon)이 정책결정 단계인 “문제상황 감지(sensing), 정책 구조화(policy structuring), 해결방안 모색(solving)”을 제안하면서, 각 행정결정의 단계에서 당해 행정결정의 개별적 성격(행정결정으로서의 본질적 요소, 복잡한 정보처리를 구조화하기 효율적 행정행위 요소, 정보공개 측면, 행정청의 전문성과 결정능력 등)을 고려하여 알고리즘을 구조화(modeling)하는 방안을 제안하였으며, 이후 여러 학자들이 알고리즘의 구조화 방식을 모델링화 하면서 행정영역(사회보장, 보건, 경찰, 의료, 이민, 자원관리, 교육, 특허)에서 공공서비스(학교배정, 세액결정, 연금액결정, 주차장 사용료 결정, 도로교통법상 교통신호등)의 형태로 활용되고 있다. 실무적인 활용에도 불구하고 연방법에서 데이터 관련 법령이 입법되지는 못하고 있다. 구체적으로 미국 상원은 2021년 7월 안전한데이터법(S.4646)안을 제출하였는데, 법안은 플랫폼 사업자의 상품 노출 순위결정 또는 이용자 상호평가에서 알고리즘을 활용하는 경우 알고리즘 순위 방식(시스템) 공개원칙, 수집된 정보의 투명하고 신뢰성있는 동의방식 도입(선택적 동의 방식 포함), 온라인 플랫폼 사업자의 책임 강화를 추진하고 있으며, 기업의 불공정하고 기만적인 정보활용 활동에 대한 연방거래위원회(FTA)의 권한을 확대하는데 중점을 두고 있다. 반면에 주법에서는 데이터관련 법령을 제정하고 있는데 대표적으로 뉴욕시 데이터공개법에 해당하는 뉴욕시 행정법전(NY Adm. Code Title 23 Ch. 5)에서 “특정 벌칙부과 또는 경찰작용”에 있어서 알고리즘 등의 자동화된 데이터 처리가 가능하다고 규정하면서 해당 웹사이트의 시스템 코드를 공개하고, 사용자가 스스로 데이터를 제출하고 제출된 데이터에 대한 처리 결과를 요구할 수 있도록 하도록 규정하였다. 이와 같은 논의에 근거할 때 다음과 같은 시사점을 도출하고자 한다. 첫째, 미국의 경우 자동행정결정의 대상범위를 “특정 벌칙부과 또는 경찰작용”으로 제한한 것에 반하여 우리 행정기본법에서는 그 범위를 법령이 정하는 바에 따르면 재량이 있는 경우를 제외하도록 하여 보다 명확한 일반법적 근거를 마련하였다는 점에 서 의미가 있다고 생각된다. 다만 추후 법률의 위임이 있는 경우, 재량이 있는 경우에 관한 판단이 국민의 기본권 보호 관점에서 구체적으로 논의되어야 할 것으 ...

      • KCI등재

        알고리즘 공개와 영업비밀 보호 간의 긴장관계

        김윤명 사법발전재단 2023 사법 Vol.1 No.66

        ChatGPT와 같은 생성형(generative) AI가 AI의 새로운 흐름을 바꾸고 있다. 판단형 알고리즘은 채용이나 범죄예측 등의 활용에 사용되며 학습데이터가 갖는 한계로 인하여 편견 가능성이 크다. 또한, 추천형 알고리즘은 편견을 확증할 수 있다는 우려도 크다. 특정 정보를 추천하면서 다른 정보가 배제되는 필터버블(filter bubble) 현상이 발생할 수 있기 때문이다. 이러한 편견 등의 발생은 데이터 기반의 기계학습이 갖는 한계이기도 하다. 학습데이터로 가공되어지는 공개된 정보에는 세상의 모든 편견이나 오류가 그대로 담기기 때문이다. 인간의 문제가 투영된 데이터를 기반으로 하는 AI모델도 인간의 문제를 그대로 학습하게 된다. 그렇기 때문에 ​알고리즘에 의한 사회적 문제는 지속적으로 제기될 것이다. 예를 들면, 채용이나 신용도 등을 판단하는 알고리즘과 이를 학습하는 데이터에 편향이 담겨있는 경우, 또는 기본권의 침해가 이루어져 삶의 가치를 훼손하는 경우 등이다. 알고리즘으로 인하여 발생하는 다양한 문제를 해결하기 위한 방안 중 하나로서 알고리즘 공개를 들 수 있다. 이에 대해 플랫폼사업자는 알고리즘이 영업비밀에 해당하기 때문에 공개할 수 없다는 입장이다. 공공부문에서도 그 입장은 다르지 않다. 문제는 알고리즘 규제론자들은 알고리즘 공개에 대한 합리적인 기준을 제시하지 못한다는 점이다. 알고리즘 공개에 대한 설득력을 얻기 위해서는 정당성을 확보하기 위한 방안을 제시해야 한다. 즉, 알고리즘 공개에 대한 구체적인 이유나 방법을 규제기관이 플랫폼사업자에게 제공해 주어야 한다. 규제기관은 명확한 정책목표를 달성하고, 플랫폼사업자들은 예측가능성을 가져야 하기 때문이다. 이에 알고리즘 공개에 대한 구체적인 방안과 사업자들이 우려하는 영업비밀과의 비교교량을 통해 신뢰가능한 알고리즘을 위한 합리적인 방안을 제시하고자 한다. Generative AI such as ChatGPT is changing the new trend of AI. Judgment algorithms are used for recruitment or crime prediction, and there is a high possibility of bias due to the limitations of learning data. In addition, there is a great concern that recommended algorithms can confirm prejudice. This is because a filter bubble phenomenon in which other information is excluded while recommending specific information may occur. The occurrence of such prejudice is also a limitation of data-based machine learning. This is because public information processed as learning data contains all prejudices or errors in the world. AI models based on data in which human problems are projected also learn human problems as they are. Therefore, social problems caused by algorithms will continue to be raised. For example, algorithms for judging recruitment or creditworthiness and data learning them contain biases, or infringement of basic rights undermines the value of life. Algorithm disclosure is one of the ways to solve various problems caused by algorithms. In response, platform operators say that algorithms cannot be disclosed because they are trade secrets. The position is no different in the public sector. The problem is that algorithmic regulators cannot provide reasonable criteria for algorithm disclosure. In order to gain convincing power for algorithm disclosure, a plan to secure legitimacy must be presented. In other words, regulatory agencies must provide platform operators with specific reasons or methods for algorithm disclosure. This is because regulators must achieve clear policy goals, and platform operators must have predictability. Therefore, we would like to present a specific plan for algorithm disclosure and a reasonable plan for a reliable algorithm through comparative bridges with trade secrets that operators are concerned about.

      • KCI등재

        그래프 컬러링 문제를 활용한 초등학생을 위한 알고리즘 학습

        박윤정(Yoon-Jeong Park),문교식(Gyo Sik Moon) 한국콘텐츠학회 2014 한국콘텐츠학회논문지 Vol.14 No.10

        본 연구는 알고리즘 학습을 초등학생에게 적용하여 알고리즘적 사고에 긍정적 효과가 있음을 보여준다. 알고리즘 학습에 대한 사전 경험이 없는 초등학교 6학년 35명을 대상으로 4주간 총 11회의 그래프 컬러링 문제를 활용한 알고리즘 학습을 실시하였다. 알고리즘 수업 후 학습자들의 알고리즘 흥미도와 절차적 사고능력의 변화를 검사하였다. 이와 같은 자료 분석을 통해 얻어진 연구 결과는 다음과 같다. 첫째, 알고리즘 흥미도의 하위요인인 알고리즘 학습 태도는 학습자에게 긍정적인 영향을 미치는 것으로 나타났다. 둘째, 그래프 컬러링을 활용한 알고리즘 학습은 학습자의 절차적 사고 능력을 향상시키는 것으로 나타났다. 따라서 알고리즘 학습은 초등학생의 절차적 사고 발달에 도움이 되며, 알고리즘 흥미도를 높이는 효과를 보여줌으로써 초등 교육 현장에서 알고리즘의 새로운 교육 방법을 제시하는데 의미가 있다. The paper shows that algorithm education positively affects algorithmic thinking for elementary students. Experiments are conducted on thirty five sixth graders without prior experience of algorithm. The experimental group is given eleven sessions of lesson for four weeks in which algorithmic solution is sought for graph coloring problems. After four weeks of experiments questionnaires are distributed to the students in order to measure differences in algorithmic interest and algorithmic thinking ability. The following results are obtained: Firstly, it may be observed that algorithm education with graph coloring may be effective in reinforcing students interest in algorithms. Secondly, the experiment shows that algorithmic thinking ability may be enhanced from participating in graph coloring activities. In conclusion, algorithm education with graph coloring problem helps students develop algorithmic thinking ability as well as cultivate students interest in algorithmic thinking.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼