RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        중국 빅테크 기업의 알고리즘에 대한 규제 연구: 알고리즘이 통제하는 사회에서 국가가 알고리즘을 통제하는 사회로?

        이중희(Lee, Jung Hee) 한국아시아학회 2022 아시아연구 Vol.25 No.4

        2022년 1월에 국가인터넷정보판공실 등은 알고리즘과 관련된 규제 규정을 제정했다. 그것은 〈인터넷 정보서비스 알고리즘 추천 관리 규정〉이다. 본 연구는 이 규정을 분석하여 그의 의미를 찾는 것이다. 본 연구가 찾은 결론은 다음과 같다. 첫째, 세계 최초로 빅테크 기업의 알고리즘을 규제하는 〈규정〉을 제정하고 실시하고 있다는 점은 중국에서 국가는 다른 나라에 비해 빅테크에 대해 압도적인 우위에서 규제를 행사하고 있다는 사실을 말한다. 다른 나라에서도 알고리즘에 대한 문제점이 사회경제적 문제로 논쟁이 되고 있지만, 빅테크는 아직 알고리즘을 영업비밀로 공개하기를 꺼리고 국가의 규제도 아직 알고리즘의 세부사항에까지 미치지 못하고 있는 것이 현실이다. 반면 중국에서는 〈규정〉에 대한 분석에서 보듯이 알고리즘에 대한 국가규제의 목표를 분명히 하고 알고리즘의 요건을 명시하고 있다. 아울러 이용자의 권익보호차원에서도 소비자, 노동자, 노인, 미성년자 등 다양한 사용자에 대한 조항을 갖고 있다. 둘째, 알고리즘 규제는 중국에서 빅테크에 대한 규제가 보다 체계적인 방향으로 가고 있음을 보여주는 사례이다. 중국에서는 국가가 2020년 말 빅테크에 대한 무규제에서 강력한 규제로 전환하다가 2022년에 접어들어 강력한 규제로부터 체계적 규제로 전환해왔다. 알고리즘 규제도 이런 체계적 규제의 영역이라 볼 수 있다. 다시 말하면, 중국에서 국가는 알고리즘에 대한 규제를 통해서 빅테크에 대한 통제를 지속하려하고 있음을 알 수 있다. 국가의 강력한 규제는 부작용을 가져다주기 때문에 규제는 좀 더 세부적 영역으로 전환하고 있음을 알 수 있다. 셋째, 세계에서 최초의 <규정> 제정과 실시는 중국에서 알고리즘으로 인한 사용자의 피해가 적지 않다는 점을 말한다. 실제 각종 조사는 알고리즘에 대한 피해 경험이 적지 않다는 사실을 보여주고 있다. 전술한 것처럼 빅 데이터의 기존고객 차별 경험이 90%에 가깝고, 배달, 쇼핑, 관광, 공유차량 등의 플랫폼에서 기존고객 차별 경험이 있었다는 조사가 이를 말해준다. In January 2022, the Cyberspace Administration of China (CAC) and others enacted Regulations related to algorithms. It is called Regulations on the Internet Information Service Algorithmic Recommendation Management. This study analyzes this Regulations to find its meaning. The conclusions found in this study are as follows. First, the fact that the worlds first Regulations on Big Tech algorithms are enacted and implemented means that in China, the state exercises an overwhelming advantage over other countries in regulations on Big Tech compared to other countries. In other countries, the problem of algorithms is being debated as a socioeconomic problem, but Big Tech is still reluctant to disclose algorithms as trade secrets and state regulations have yet to reach the algorithms. On the other hand, in China, as shown in the analysis of the Regulations, the goal of national regulation on algorithms is clarified and the requirements of algorithms are specified. In addition, in terms of the protection of users rights and interests, it has provisions for various users such as consumers, workers, the elderly, and minors. Second, Algorithmic Regulations are an example that shows that regulations on big tech in China are moving in a more systematic direction. In China, the state has shifted from non-regulation to strong regulation of Big Tech at the end of 2020, but has shifted from strong regulation to systematic regulation in 2022. Algorithmic Regulation can also be seen as an area of this systematic regulation. In other words, it can be seen that in China, the state is trying to maintain control of Big Tech through regulations on algorithms. It can be seen that regulations are shifting to more detailed areas because strong regulations in the country bring side effects. Third, the enactment and implementation of the worlds first Regulations means that there is a big amount of damage to users due to algorithms in China. In fact, various surveys show that there are not a few experiences of damage to algorithms. As mentioned above, a survey shows that rip-off experience was close to 90% of persons to be surveyed, and that they had experience in rip-off on platforms such as delivery, shopping, tourism, and shared vehicles.

      • KCI등재

        초등학생을 위한 알고리즘 교수학습방법과 평가

        김철 한국정보교육학회 2015 정보교육학회논문지 Vol.19 No.4

        본 연구에서는 초등학교의 알고리즘 교육에 필요한 교육 내용과 교육 방법, 평가 유형을 제안하였다. 첫째, 교육 내용으로는 한국정보교육학회에서 제안한 정보교육과정을 보완하여 알고리즘의 표현, 알고리즘의 이해, 알고리즘과 순서도, 알고리즘의 구조, 알고리즘의 결과, 알고리즘의 수정, 알고리즘의 개선으로 구분하였다. 둘째, 교육 방법으로는 생활 속 코딩, 언플러그 활동, 블록 프로그래밍, 체감형 프로그래밍을 제안하였다. 셋째, Code.org에서 제공하는 ‘Hour of Code’의 모든 미션을 분석한 후 평가 유형을 알고리즘 선택하기, 알고리즘 채우기, 알고리즘 수정하기, 알고리즘 예측하기로 구성하였다. In this study, we suggested the contents, teaching and learning method, and assessment types of algorithm education in elementary schools. First, we suggested the algorithm education contents; the expression, understanding, flowcharts, structure, results, correction, and improvement of algorithm. Second, we showed the algorithm teaching and learning methods; algorithm in our daily life, the unplugged activity, block programming and tangible programming. Finally, we analyzed all missions of ‘Hour of Code’ in Code.org, and suggested the algorithm assessment 4 types, which includes selecting, filling, correcting, predicting of appropriate algorithm.

      • KCI등재후보

        알고리즘의 다양성을 활용한 두 자리 수 곱셈의 지도 방안과 그에 따른 초등학교 3학년 학생의 곱셈 알고리즘 이해 과정 분석

        강흥규,심선영 한국초등수학교육학회 2010 한국초등수학교육학회지 Vol.14 No.2

        알고리즘을 지도하는 전통적인 방법은 우선 ‘표준 알고리즘’을 완성된 형태로 제시하고 이어서 간단한 사례를 통하여 이해한 다음, 보다 일반적인 문제에 적용함으로써 표준 알고리즘을 연습하는 형태이다. 그러나 이 방법은 표준 알고리즘에 지나치게 집중되어 있다는 문제점과 함께, 학생 스스로 문제에 적합한 알고리즘을 선택하거나 알고리즘 자체를 개발하는 경험을 제공하지 못한다는 제한점을 갖고 있다. 이 논문에서는 자연수 곱셈 알고리즘의 다양성을 활용하여 학생 스스로 알고리즘을 개발하고 발명할 수 있도록 지도하는 방안을 상세하게 구안하였고, 그에 따른 교수실험을 통하여 초등학교 3학년 학생의 곱셈 알고리즘에 대한 이해 과정을 분석하였다. 그 결과는 첫째, 실험적인 지도안으로 학습한 실험반은 자리값의 원리와 분배법칙의 이해에 있어서 비교반보다 높은 성취를 보였으나, 계산 능력에 있어서는 그렇지 못했다. 둘째, 비교반은 물론 실험반에서도 표준 알고리즘의 선호도가 가장 높았으며, 실험반에서는 표준 알고리즘 다음으로 격자곱셈의 선호도가 높은 것으로 나타났다. 격자 곱셈을 교육 소재로 활용하는 것을 적극 고려할 필요가 있다. 셋째, 비례표는 그것이 가지는 이론적인 장점에도 불구하고 우리나라 초등학교 3학년 학생이 배우기에는 다소 무리가 따르는 것으로 나타났다.

      • KCI등재

        알고리즘 공개와 영업비밀 보호 간의 긴장관계

        김윤명 사법발전재단 2023 사법 Vol.1 No.66

        ChatGPT와 같은 생성형(generative) AI가 AI의 새로운 흐름을 바꾸고 있다. 판단형 알고리즘은 채용이나 범죄예측 등의 활용에 사용되며 학습데이터가 갖는 한계로 인하여 편견 가능성이 크다. 또한, 추천형 알고리즘은 편견을 확증할 수 있다는 우려도 크다. 특정 정보를 추천하면서 다른 정보가 배제되는 필터버블(filter bubble) 현상이 발생할 수 있기 때문이다. 이러한 편견 등의 발생은 데이터 기반의 기계학습이 갖는 한계이기도 하다. 학습데이터로 가공되어지는 공개된 정보에는 세상의 모든 편견이나 오류가 그대로 담기기 때문이다. 인간의 문제가 투영된 데이터를 기반으로 하는 AI모델도 인간의 문제를 그대로 학습하게 된다. 그렇기 때문에 ​알고리즘에 의한 사회적 문제는 지속적으로 제기될 것이다. 예를 들면, 채용이나 신용도 등을 판단하는 알고리즘과 이를 학습하는 데이터에 편향이 담겨있는 경우, 또는 기본권의 침해가 이루어져 삶의 가치를 훼손하는 경우 등이다. 알고리즘으로 인하여 발생하는 다양한 문제를 해결하기 위한 방안 중 하나로서 알고리즘 공개를 들 수 있다. 이에 대해 플랫폼사업자는 알고리즘이 영업비밀에 해당하기 때문에 공개할 수 없다는 입장이다. 공공부문에서도 그 입장은 다르지 않다. 문제는 알고리즘 규제론자들은 알고리즘 공개에 대한 합리적인 기준을 제시하지 못한다는 점이다. 알고리즘 공개에 대한 설득력을 얻기 위해서는 정당성을 확보하기 위한 방안을 제시해야 한다. 즉, 알고리즘 공개에 대한 구체적인 이유나 방법을 규제기관이 플랫폼사업자에게 제공해 주어야 한다. 규제기관은 명확한 정책목표를 달성하고, 플랫폼사업자들은 예측가능성을 가져야 하기 때문이다. 이에 알고리즘 공개에 대한 구체적인 방안과 사업자들이 우려하는 영업비밀과의 비교교량을 통해 신뢰가능한 알고리즘을 위한 합리적인 방안을 제시하고자 한다. Generative AI such as ChatGPT is changing the new trend of AI. Judgment algorithms are used for recruitment or crime prediction, and there is a high possibility of bias due to the limitations of learning data. In addition, there is a great concern that recommended algorithms can confirm prejudice. This is because a filter bubble phenomenon in which other information is excluded while recommending specific information may occur. The occurrence of such prejudice is also a limitation of data-based machine learning. This is because public information processed as learning data contains all prejudices or errors in the world. AI models based on data in which human problems are projected also learn human problems as they are. Therefore, social problems caused by algorithms will continue to be raised. For example, algorithms for judging recruitment or creditworthiness and data learning them contain biases, or infringement of basic rights undermines the value of life. Algorithm disclosure is one of the ways to solve various problems caused by algorithms. In response, platform operators say that algorithms cannot be disclosed because they are trade secrets. The position is no different in the public sector. The problem is that algorithmic regulators cannot provide reasonable criteria for algorithm disclosure. In order to gain convincing power for algorithm disclosure, a plan to secure legitimacy must be presented. In other words, regulatory agencies must provide platform operators with specific reasons or methods for algorithm disclosure. This is because regulators must achieve clear policy goals, and platform operators must have predictability. Therefore, we would like to present a specific plan for algorithm disclosure and a reasonable plan for a reliable algorithm through comparative bridges with trade secrets that operators are concerned about.

      • KCI등재

        초중등학생 대상 알고리즘 교육을 위한 분류체계 모형 설계

        이영호,구덕회 한국정보교육학회 2017 정보교육학회논문지 Vol.21 No.3

        본 연구의 목적은 초중등학생 대상 알고리즘 교육을 위한 알고리즘 분류체계를 제안하는 것이다. 연구자는 알 고리즘의 구성요소를 정의하고, 분석합성식 방법으로 알고리즘 분류체계를 표현하였다. 연구의 내용은 다음과 같다. 첫째, 분류의 목적과 분류의 종류에 대한 이론적인 탐색을 실시하였다. 둘째, 기존에 제안된 알고리즘 내용에 대한 분류체계의 내용과 그 한계에 대해 살펴보았다. 이와 더불어 알고리즘 교육 연구에서 사용되었던 알고리즘 교육 내용 및 선정 기준에 대해 살펴보았다. 셋째, 알고리즘의 분류를 위해 알고리즘 구성요소를 NRC에서 제시 한 핵심 아이디어와 관통 개념을 사용하여 재정의하였다. 그리고 알고리즘 관통 개념을 디자인 구조와 자료구조 로 세분화하여 그 내용을 제시하였으며, 이 내용을 분석합성식 분류체계를 사용하여 표현하였다. 마지막으로 전 문가 집단의 검토를 통해 제안한 내용에 대한 타당도를 검증하였다. 알고리즘 분류체계에 대한 연구는 알고리즘 교육에 있어 내용 선정 및 교육 방법에 많은 시사점을 제공할 것으로 기대한다. The purpose of this study is to propose algorithm classification system for algorithm education for Elementary and Secondary Students. We defines the components of the algorithm and expresses the algorithm classification system by the analysis synthesis method. The contents of the study are as follows. First, we conducted a theoretical search on the classification purpose and classification. Second, the contents and limitations of the classification system for the proposed algorithm contents were examined. In addition, we examined the contents and selection criteria of algorithms used in algorithm education research. Third, the algorithm components were redefined using the core idea and crosscutting concept proposed by the NRC. And the crosscutting concept of algorithm is subdivided into algorithm data structure and algorithm design strategy, and its contents are presented using analytic synthesis classification scheme. Finally, the validity of the proposed contents was verified by the review of the expert group. It is expected that the study on the algorithm classification system will provide many implications for the contents selection and training method in the algorithm education.

      • KCI등재
      • KCI등재

        알고리즘적 무의식과 지각의 전환 - <미디어 알고리즘>의 욕망의 주체성 문제를 중심으로

        김선 중앙대학교 인문콘텐츠연구소 2024 인공지능인문학연구 Vol.16 No.-

        이 글은 미디어 알고리즘의 특성인 자동화의 구조가 주체의 의식에 끼치는 영향 관계를 비판적으로 사유한 마크 안드레예비치의 <미디어 알고리즘의 욕망: 자동화된 미디어는 우리의 일상을 어떻게 바꾸는가(Automated media, 2019)> (2021)의 쟁점을 살핀다. 그리고 이러한 미디어 알고리즘 시대에서 전환된 주체성과 글쓰기의 의미를 논해 보고자 한다. 미디어 알고리즘의 욕망이 주목한 것은 새로운 미디어 구조가 야기한 주체성의 문제이다. 안드레예비치는 매체유물론적 사유와 정신분석학에 기대어 이를 개진한다. 키틀러에서 본격적으로 전개된매체유물론적 태도는 매체 구조와 주체의 (무)의식 간의 긴밀한 관계성을 살핀다. 미디어 알고리즘의 구조는 자동화의 방식을 통해 마음의 움직임과 그것을 보완하는 미디어 장치가 정확하게 대응하거나 그 한계를 넘어서게 되며 ‘기술적 무의식(이시다 히데타카)’을 강화시킨다. 키틀러의 사유로부터 발전한 기술적 무의식의 개념을 전유하여 이 글에서는미디어 알고리즘의 구조와 의식간의 관계를 ‘알고리즘적 무의식’으로 개념화하며, 이를 통해 새로운 매체 구조가 초래한 주체성의 변화에 보다 주목하여 안드레예비치의 사유를 읽는다. 그의 사유를 따라 알고리즘 구조의 자동화와 총체성, 상관주의의 특성이 어떻게 스스로를 데이터화하는 데이터적 주체를 탄생시켰는지검토한다. 또한 알고리즘 구조가 만든 새로운 주체의 인식론과 전환될 서사적 기능에 대한 시론을 시도한다. 이를 위해 인간의 추상적이며 비판적 인식 영역인서사적 감각의 회복을 위해 공통 경험의 감각화에 주목한 안드레예비치의 대안을 살피고, 미디어 담론에서 다시금 인문학적 의미의 인식론적 성찰이 필요한 이유와 가능성을 확인한다. This text examines the issues raised in Mark Andrejevic’s “Automated Media, 2019,” which critically reflects on the effects of automation, a characteristic of media algorithms, on the consciousness of the subject. It aims to discuss the transformed subjectivity and the significance of writing in the era of media algorithms. The book highlights the subjectivity issue caused by the new media structure. Andrejevic relies on media materialism and psychoanalysis to make his argument. In this paper, the concept of “technological unconscious,” developed from Kittler’s thought, is appropriated to conceptualize the relationship between media algorithm structures and consciousness as “algorithmic unconscious.” This approach allows for a reading of Andrejevic’s thoughts, focusing more on the changes in subjectivity brought about by the new media structure. It investigates how the characteristics of automation, totality, and correlation within algorithm structures have given rise to a datafied subject. Additionally, it explores the future of writing and the epistemology of the new subject created by algorithm structures. Andrejevic’s alternative, focusing on the sensualization of shared experiences to recover the narrative sense—an abstract and critical realm of human cognition—is examined, highlighting the need and potential for epistemological reflection of humanistic significance in media discourse.

      • KCI등재

        알고리즘의 취급에 대한 법적 논의

        이제희(Lee, Je-Hee) 한국비교공법학회 2018 공법학연구 Vol.19 No.3

        알고리즘은 프로그램의 구성 논리로 알고리즘에 설계자의 의도가 반영된다는 점에서 알고리즘이 편향성을 갖는 것은 당연하다. 알고리즘 편향성의 허용 기준은 사적 영역과 공적 영역에 따라 다르다. 사적 영역에서 알고리즘이 개인과 기업의 자유로운 활동에 기초해 개발․활용된다는 점에서 법률에 위반되지 않는 한 알고리즘의 편향성은 허용된다. 반면 공적 영역에서는 공적 신뢰의 유지와 공공의 이익을 도모해야 한다는 점에서 알고리즘 편향성의 허용 범위는 제한적이다. 알고리즘은 「특허법」의 보호 대상이며, 「부정경쟁방지법」의 영업비밀에 해당한다. 알고리즘의 재산적 가치를 보호하는 동시에 알고리즘이 편향성이 사회에 미치는 부작용을 최소화하기 위해 알고리즘의 보호와 공개간 균형이 필요하다. 예를 들어, 알고리즘이 개인정보를 활용하는 경우, 정보주체의 개인정보자기결정권은 보장되어야 한다. 정보처리자는 알고리즘이 영업비밀의 성격을 유지할 수 있는 범위 내에서 정보주체가 개인정보의 활용 및 영향에 대해 이해할 수 있는 수준의 설명 의무를 갖는다고 규정할 필요가 있다. 알고리즘의 편향성은 설계자가 의도하지 않아도 데이터가 잘못 선택되거나, 알고리즘의 학습과정에서 기존 데이터에 존재하는 편향성에 기초해 나타날 수 있다. 법률행위에 대한 책임은 행위자와 결과 사이의 인과관계에 기초하는 것이 원칙이다. 그러나 비의도적인 편향성에 대한 설계자의 책임을 인정하지 않으면 가해자는 없고, 피해자만 존재하는 상황이 발생한다는 점에서 「제조물 책임법」과 유사하게 설계자의 무과실책임을 인정할 필요가 있다. 알고리즘은 복잡성과 기밀성으로 인해 알고리즘의 편향성이 법률에 위배되는지 확인하기 어렵다. 알고리즘의 편향성이 개인의 권리를 침해하는 경우, 피해자는 이에 대한 합리적 의심을 제기하는 것으로 알고리즘의 편향성이 추정되고, 알고리즘의 설계자가 이에 대한 반증 책임을 지도록 규정해야 한다. 이를 통해 알고리즘의 기밀성을 보호하는 한편 알고리즘의 편향성에 대한 설계자의 주의의무를 강화할 수 있다. An algorithm is a program of logic, which has bias due to being developed by humans. Algorithm design is based on freedom, of both individuals and businesses. Algorithms can also be treated as business secrets; thus, algorithms should be eligible for protection from disclosure. Algorithms which employ personal information may prompt inquiry for explanation of this use from affected individuals. This is based on the individual’s right of informational self-determination, which enables an individual to control the disclosure or use of his or her own personal information. An algorithms’ bias should not infringe any constitution or laws. It is very hard to detect an algorithms’ bias because of the complexity and abstraction of algorithms. Balance between creating and protecting algorithms is important because algorithms are intellectual property. When there is reasonable doubt that an algorithm violates an individual’s rights, the algorithm is presumed illegal: the algorithm’s designer bears the burden of proving the algorithms’ lack of bias.

      • KCI등재

        알고리즘 권력화와 규제 거버넌스

        김윤명 대한변호사협회 2023 人權과 正義 : 大韓辯護士協會誌 Vol.- No.515

        알고리즘 권력화란 플랫폼사업자들이 알고리즘을 도구화하여 알고리즘에 의한 지배, 통제를 통해 영향력을 높이는 것을 말한다. 알고리즘이 스스로 의식을 가지고 작동하는 것이 아니기 때문에 알고리즘이 권력화한다는 표현은 맞지 않다. 물론, 알고리즘을 권력화함으로써 여러 가지 문제가 발생한다고 하여, 알고리즘을 통제하는 것은 문제해결에 도움이 되지 않는다. 플랫폼사업자들은 기업활동을 위해 알고리즘을 개발하고 보다 효율적으로 이익을 창출하기 위하여 알고리즘을 사용한다. 그 과정에서 고의로 알고리즘을 왜곡(歪曲)하는 경우도 있음은 부인하기 어렵다. 이처럼, 알고리즘이 권력화됨으로써 다양한 사회적 문제가 발생하는 상황에서 알고리즘에 대한 규제의 필요성이 커지고 있다. 물론, 알고리즘 규제의 필요성이 있다고 하더라도 충분한 반론이 이루어지고 그에 따른 설득의 과정이 필요하다. 예를 들면, 사업자들은 알고리즘 공개를 규제라고 보고, 영업비밀을 공개할 수 없다는 주장을 편다. 그렇지만, 알고리즘 공개를 일반 대중에게 한다고 생각할 수 있을까? 그럴 필요가 없다. 정책이나 입법 과정에서 갈등이나 오해는 풀어가는 것이 무엇보다 중요하다. 정책의 목적이 정당하더라도, 절차적인 정당성을 확보하지 못할 경우에는 목적의 정당성까지 훼손될 수 있기 때문이다. 알고리즘은 기획, 개발, 운용 및 이용 과정이나 데이터를 활용하는 학습과정에서 편향과 차별이 의식적이든 무의식적이든 반영된다면 평등이나 기본권 보장 등 헌법적 가치가 훼손될 수 있다. 이러한 한계 내지 문제를 해결하기 위해서는 알고리즘 자체의 윤리성을 높이거나 관여하는 인간의 윤리적 책임 내지 법적 책임을 강화할 필요가 있다. 고의로 알고리즘을 오용하거나 남용하여 차별을 고착하는 경우라면 헌법적 가치를 훼손하는 행위로서 절대적인 규제 대상이다. 이를 위한 입법방안은 알고리즘을 문제로 전제하기보다는 알고리즘이 가져올 수 있는 파장을 차단할 수 있는 방안을 마련하기 위한 것으로, 기술중립적 측면에서의 접근방법이다. 알고리즘의 공정성 확보를 위한 규제 내지 법적 접근은 최후의 수단이며, 집단지성을 활용하거나 알고리즘에 대한 전문적인 기관을 만들어 문제해결 방안을 찾는 것은 정책적으로 판단할 사항이다. Algorithm empowerment refers to platform operators tooling algorithms to increase their influence through algorithm control and control. The expression that algorithms become powerful is not correct because algorithms do not operate with consciousness on their own. Of course, controlling the algorithm does not help solve the problem because various problems arise by empowering the algorithm. Platform operators develop algorithms for corporate activities and use them to generate profits more efficiently. Of course, it is hard to deny that there are cases where algorithms are deliberately distorted in the process. As such, the need for regulation of algorithms is increasing in situations where various social problems arise as algorithms become power. Of course, even if there is a need for algorithm regulation, sufficient counterarguments are made and a process of persuasion is required accordingly. For example, operators view algorithm disclosure as a regulation and argue that trade secrets cannot be disclosed. However, can we think of releasing algorithms to the general public? There is no need for that. It is most important to resolve conflicts or misunderstandings in the policy or legislative process. Even if the purpose of the policy is justified, the legitimacy of the purpose may be undermined if procedural legitimacy is not secured. If bias and discrimination are reflected consciously or unconsciously in the process of planning, development, operation, and use of algorithms, constitutional values such as guaranteeing equality and basic rights can be undermined. To solve these limitations or problems, it is necessary to increase the ethics of the algorithm itself or strengthen the ethical or legal responsibility of humans involved. If discrimination is fixed by intentionally misusing or abusing algorithms, it is an act that undermines constitutional value and is subject to absolute regulation. Rather than presupposing the algorithm as a problem, the legislative plan for this is to come up with a way to block the wavelengths that the algorithm can bring, and it is a technology-neutral approach. Regulatory or legal approaches to securing fairness in algorithms are the last resort, and it is a policy decision to use collective intelligence or create a specialized institution for algorithms to find solutions to problems.

      • KCI등재

        알고리즘 리터러시 함양을 위한 사회과 수업 구성에 관한 연구

        김소연 ( Kim So Yun ),박기범 ( Park Kee Burm ) 서울교육대학교 초등교육연구원 2024 한국초등교육 Vol.35 No.2

        오늘날 인공지능 기술은 사회 전반에 널리 확산되고 있고, 이러한 인공지능 기술의 핵심에는 알고리즘이 있다. 사용자는 알고리즘으로 인해 신속함과 편리함을 얻을 수 있지만 반면 알고리즘의 영향을 인지하지 못하거나 인공지능 알고리즘은 인간보다 ‘객관적’일 것이라는 인식으로 인해 이를 무비판적으로 수용함으로써 여러 문제에 노출될 수 있다. 이러한 측면에서 알고리즘을 제대로 알고 대처할 수 있는 ‘알고리즘 리터러시’가 요구되며, 이를 바탕으로 시민은 디지털 환경에서 합리적으로 의사결정을 내릴 수 있는 역량을 함양할 수 있다. 이에 본 연구에서는 디지털 환경에서의 시민성 함양을 목적으로 사회과교육에서 알고리즘 리터러시의 의미를 도출하고, Dogruel(2021)과 Swart(2021)의 연구를 종합하여 알고리즘 리터러시의 하위요소를 ‘인식’, 지식’, ‘비판적 평가’, ‘대처행동’으로 제시하였다. 이를 바탕으로 비판적 사고의 관점에서 알고리즘 리터러시 함양을 위한 사회과 수업 구성 원리를 ‘알고리즘 인식하기’, ‘알고리즘 이해하기’, ‘알고리즘 평가하기’, ‘알고리즘에 대처하기’로 제시하였다. 첫째, 알고리즘 인식하기’ 단계는 알고리즘에 대한 학습자의 ‘인식’으로 학생들의 디지털 환경에서 알고리즘이 사용되고 있다는 것을 인지하는 것을 말한다. ‘인식’단계는 4단계 수업 중 가장 필수적이자 중요한 단계이며, 학습에 ‘맥락성’을 부여한다는 점에서 의미를 가진다. 둘째, ‘알고리즘 이해하기’ 단계는 학생들이 ‘인식’한 알고리즘이 어떤 식으로 작동하고 있는지를 탐색해 보고, 이와 관련한 기본적인 작동 원리를 초등학생의 수준에 맞게 학습한다. 셋째, ‘알고리즘 평가하기’ 단계는 ‘비판적 평가’와 관련된 단계로 알고리즘과 관련된 기회와 위험, 알고리즘으로 선별된 결과가 개인 및 사회에 미치는 잠재적 영향에 대한 내용을 학습하는 단계이다. 넷째, ‘알고리즘에 대처하기’ 단계는 알고리즘을 효율적으로 사용할 수 있는 능력을 함양하기 위한 단계로, 미리 설정된 값을 수정하거나 알고리즘의 결과 값을 다른 플랫폼 등을 활용하여 비교하고, 개인의 프라이버시를 보호할 수 있는 전략 등을 실천한다. The use of artificial intelligence technology has become widespread in society. The core of artificial intelligence technology is algorithms, which offer users increased speed and convenience. However, the impact of algorithms may be overlooked, and an uncritical acceptance of artificial intelligence algorithms stemming from the belief that they are more “objective” than humans may lead to various problems. In this sense, there is a need for “algorithm literacy” among students, which refers to students’ ability to properly understand and deal with algorithms. This allows laypeople to develop the competency to make rational decisions in a digital environment. Hence, this study aims to define algorithm literacy in social studies education to foster citizenship in a digital environment. Combining Dogruel(2021) and Swart(2021), this study presents the following sub-elements of algorithm literacy: awareness, knowledge, critical evaluation, and coping behaviors. Accordingly, the principles of social studies education needed to cultivate algorithm literacy through critical thinking are presented as “awareness of algorithms,” “understanding algorithms,” “evaluating algorithms,” and “coping with algorithms.” “Awareness of algorithms” involves recognizing the presence of algorithms in students’ digital environment. “Awareness of algorithms” is the most critical aspect of the four levels of instruction because it adds “contextuality” to learning. “Understanding algorithms” involves learning the actual operating principle of an algorithm rather than an exploration of how algorithms that students are aware of work. Students learn the basic operating principles for this based on their grade level. In “evaluating algorithms”, students learn to critically evaluate an algorithm’s opportunities and risks and the impact of algorithmically selected results on individuals and society. “Coping with algorithms” involves developing the ability to use an algorithm efficiently. It modifies preset values, compares algorithm results from other platforms, and employs strategies to protect individual privacy.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼