RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        플랫폼의 불법촬영물 유통방지의무에 대한 헌법적 연구 – 유럽사법재판소의 최근 판결을 중심으로

        문의빈 경북대학교 법학연구원 2022 법학논고 Vol.- No.78

        ‘n번방 사건’에 대한 입법적 대응으로 일정 규모 이상의 플랫폼에 대하여 아동・청소년성착취물과 같은 불법촬영물 등에 대한 유통방지의무를 신설하고, 검색제한조치 및 필터링조치 등과 같은 조치를 취하도록 「전기통신사업법」이 개정되었다. 이러한 법 개정에 대하여 플랫폼에 의해 표현의 자유가 침해될 수 있다는 우려가 제기되고 있다. 특히, 필터링조치의 경우 개인이 플랫폼을 통해 영상을 전송하기 전에 해당 정보의 위법성을 소프트웨어를 통해 사전에 판단받도록 한다는 점에서 플랫폼에 일반적 감시의무를 부과하여 개인의 표현의 자유를 침해한다는 비판을 받고 있다. 이러한 현실에서 인터넷에서 표현의 자유를 침해하는 새로운 양상과 이를 설명하기 위한 이론을 검토할 필요가 있다. 인터넷 시대에 표현의 자유는 국가가 개인의 표현의 자유를 억압하는 양자 대립구조를 벗어나, 플랫폼과 같은 사적 주체가 온라인에서 개인의 표현을 보장하는 동시에 제한하는 국가-플랫폼-개인의 삼각구조를 갖게 되었다. 이에 인터넷 시대에 표현의 자유를 구현하는 중요한 주체인 플랫폼의 개념을 살펴보고, 플랫폼이 삼각구조 속에서 표현의 자유를 침해하게 되는 현상에 대한 외국에서의 논의를 소개하고 검토하려 한다. 나아가 플랫폼이 인터넷에서의 표현을 제한하는 문지기(Gatekeeper)로서 수행하는 콘텐츠 모더레이션(Content Moderation)과 사전적 콘텐츠 모더레이션의 방법인 필터링에 대한 헌법적 관점에서의 분석이 필요하다. 유럽사법재판소는 2019년 10월에 명예훼손과 관련하여 피해자가 명예훼손 게시물 자체 뿐만 아니라, 문구가 동일한 게시물 및 의미가 동등한 게시물에 대해서도 플랫폼에 삭제 및 차단을 요구할 수 있도록 필터링을 허용하는 내용의 판결을 내렸다. 또한, 유럽사법재판소는 2022년 4월에 저작권 보호를 위해 필터링을 허용하고 있는 EU저작권지침이 표현과 정보의 자유를 보장하고 있는 EU기본권헌장에 위배되지 않는다고 판결하였다. 이러한 판결들은 위법한 표현을 업로드 단계에서 여과시킬 수 있도록 허용하는 논거를 제시한다는 점에서 불법촬영물에 대한 유통방지의무를 규정하고 있는 「전기통신사업법」의 개정 규정에 대한 헌법적 타당성을 뒷받침할 수 있다.

      • KCI등재

        사상의 자유시장 이론과 플랫폼 거버넌스

        문의빈 한국헌법학회 2024 憲法學硏究 Vol.30 No.3

        The concept of ‘marketplace of ideas’ has been employed as a conventional argument to justify freedom of expression. The Constitutional Court of Korea has also been significantly influenced by this concept, presenting it as a rationale to protect freedom of expression and asserting that “the Internet is the medium most closely approximating the ‘marketplace of ideas’”. However, the proliferation of disinformation, hate speech, and the development of artificial intelligence have urged a re-evaluation of the validity of the ‘marketplace of ideas’, which posits that truth can prevail over falsehoods through unrestricted competition. ‘Marketplace of ideas’, which is advocated from a laissez-faire perspective, also encounters challenges related to market failure when examined from an economic perspective. This phenomenon occurs because market failure is not limited to the market for goods but extends to the market for ideas as well. In the context of freedom of expression, market failure can result in impediments to information distribution, insufficient dissemination of high-quality information, and democratic representation. To address market failure in the realm of free expression, it is imperative to focus on platform governance. In the United States, self-regulation by individual companies or industries, and in Europe, co-regulation by governments, have been proposed as potential solutions to market failure. The divergence between the US and European approaches to platform governance stems from the distinct constitutional traditions of freedom of expression. While platform governance mechanisms, such as self-regulation and co-regulation, offer advantages including flexibility, expedience, and professionalism, they may also generate tensions with the rule of law and potentially result in private censorship when limiting fundamental rights. To ensure the democratic legitimacy of self-regulation, limitations on freedom of expression must be implemented in a manner consistent with the rule of law. Furthermore, to prevent co-regulation from devolving into private censorship, considerable caution must be exercised to ensure that government intervention does not transform into censorship by administrative authority.

      • KCI우수등재

        사상의 자유의 재조명 ― 인공지능에 의한 의사형성과정의 조종 가능성을 중심으로 ―

        문의빈 한국공법학회 2024 공법연구 Vol.52 No.3

        헌법은 양심의 자유, 종교의 자유 및 사상의 자유 등 다양한 정신적 자유권을 보장함으로써 인간 내면의 정신활동에 대한 보호를 규정하고 있다. 그러나 지금까지 정신활동의 보호에 관한 논의는 정신활동의 결과가 외부로 표현되거나 구체적으로 실현되는 단계에서 국가가 침해하는 경우를 상정하고 있을 뿐이었다. 그런데, 인공지능이 발달함에 따라 인간의 내면에 대한 분석이 가능해지고 이를 통해 의사형성과정에 영향을 줄 수 있는 가능성이 점점 커지고 있다. 인간의 행동에 대한 데이터가 축적되고, 이에 대한 분석을 통해 의사형성과정에 영향을 줄 수 있게 되었기 때문이다. 본 연구에서는 의사형성과정에 대한 보호 필요성이 증대되는 현실을 고려하여 정신적 자유권 중 상대적으로 주목받지 못했던 ‘사상의 자유’를 심도있게 논의해보고자 한다. 인공지능의 발달은 개인의 의사형성과정에 은밀하게 개입하여 그러한 개입이 없었다면 하지 않았을 행동이나 표현을 하도록 유도하거나 왜곡할 수 있는 단계에 이르렀다. 이러한 인공지능의 위험을 ‘조종(manipulation)’이라는 개념으로 설명하고, 인공지능에 의한 조종이 정치적 의사형성과정을 왜곡할 경우 발생할 수 있는 헌법적 문제 상황을 살펴본다. 나아가, 인공지능에 의한 조종으로 인해 발생할 수 있는 선거 결과 등의 민주적 정당성 문제, 인공지능을 활용하여 기본권을 침해하는 사적 주체의 등장과 같은 문제에 대처하기 위해 사상의 자유와 같은 정신적 기본권에 대해서도 국가의 기본권보호의무가 확장될 필요성이 있음을 논증한다. 기본권보호의무를 준수하기 위하여 인공지능으로 인해 발생할 수 있는 위험으로부터 국민을 보호하기 위한 체계적인 규범이 마련되어야 할 필요성을 역설하고, 현재 발의된 법률안의 내용을 통해 인공지능에 의한 조종이 기본권에 대한 중대한 침해로 작용할 수 있음을 확인한다. The Constitution of Korea provides for the protection of people's internal intellectual activities by guaranteeing various rights to intellectual freedom, such as freedom of conscience, religion and thought. So far, discussions on the protection of intellectual activities have been based only on state interference where the results of intellectual activities are expressed or materialised externally. With the development of artificial intelligence, however, it is possible to analyse inner sanctum of human beings and to influence the decision-making process. It is possible to influence the decision-making process through the analysis of accumulated data on human behaviour. In light of the increasing need to protect decision-making processes, this paper will delve into freedom of thought, which has been relatively unexplored. The development of artificial intelligence has reached a stage where it is possible to intervene in an individual's decision-making process, inducing or distorting behaviour or expression that would not have occurred or expressed without such intervention. This article explains the danger of AI through the concept of ‘manipulation’ and examines the constitutional issues that can arise when AI manipulates political decision-making. The paper goes on to argue that the obligation of government to protect fundamental rights must be extended to intellectual fundamental rights, including freedom of thought, to address issues of democratic legitimacy, the outcome of elections that might be manipulated by AI, and the emergence of private entities using AI to infringe fundamental rights. In order to meet the obligation to protect fundamental rights, it is necessary to establish systematic rules to protect people from the risks posed by artificial intelligence, and confirms that manipulation by artificial intelligence can constitute a serious violation of fundamental rights through the content of currently proposed legislation.

      • KCI등재

        디지털 공론장에서 표현의 자유와 플랫폼 약관의 헌법적 규율

        문의빈 세계헌법학회한국학회 2025 세계헌법연구 Vol.31 No.1

        플랫폼은 디지털 시대의 공론장으로 기능하고 있다. 그러나 플랫폼이 이용자들의 게시물을 삭제하거나 계정을 차단하는 구체적인 기준은 사적인 계약에 해당하는 플랫폼의 약관에 규정됨에 따라 디지털 공론장에서 표현의 자유가 충분히 보호받지 못하는 상황이 발생하게 되었다. 디지털 공론장에서 표현의 자유가 새로운 도전에 직면하게 된 현실을 고려할 때 플랫폼이 게시물을 삭제하거나 계정을 차단하는 플랫폼에 의한 표현의 자유 법익 침해와 그 근거가 되는 플랫폼의 약관이 헌법적으로 어떤 의미를 갖는지 체계적으로 검토할 필요가 있다. 플랫폼은 직접적으로 기본권에 구속되는 국가와 달리, 기본권을 향유할 수 있는 주체이다. 플랫폼이 이용자의 게시물을 삭제하는 것은 영업의 자유에 해당하지만, 이 과정에서 이용자의 표현의 자유와 플랫폼의 영업의 자유가 서로 충돌하게 된다. 기본권의 대사인효에서 이와 같은 기본권 상충을 해소하기 위한 실마리를 찾을 수 있다. 독일 연방 헌법재판소는 2010년대 들어 사적 주체도 기본권에 기속될 수 있다는 점을 명확히 하여 기본권의 적용 대상을 확대하고 있다. 이러한 경향에 발맞추어, 최근 독일 연방 대법원에서는 기본권의 대사인효에 근거하여 혐오표현 게시물을 삭제하고 해당 게시물을 게시한 이용자의 계정을 차단한 페이스북의 약관이 무효라고 판결한 바 있다. 약관은 사적인 계약이지만 플랫폼이 게시물을 삭제하거나 이용자의 계정을 차단하는 콘텐츠 모더레이션의 근거가 된다. 이 때, 플랫폼과 이용자의 관계는 단순한 계약관계가 아니라 표현의 자유 제한에 관한 헌법적 관계로 전환된다. 객관적으로 검증가능한 기준이라는 내용적 요건과 통지 및 이의제기 기회 부여 등 절차적 요건이 모두 충족되었을 때에만 게시물 삭제 또는 계정 차단이 이루어질 수 있도록 약관을 규율함으로써 디지털 공론장인 플랫폼에서 표현의 자유가 적절하게 보호받을 수 있다. 나아가, 플랫폼에서 표현의 자유를 보다 두텁게 보호하기 위해서는 플랫폼의 약관이 기본권을 고려하여 작성될 수 있도록 명문의 규정을 입법화하는 방안까지도 제시될 필요가 있다. In the digital era, platforms serve as public forums. Nevertheless, the specific criteria for the removal of users' posts or the blocking of accounts are delineated in the platform's terms of service, which constitute private contracts. This has led to instances where freedom of expression is inadequately safeguarded in digital public forums. Given the contemporary challenges to freedom of expression in digital public spheres, it is imperative to systematically investigate the constitutional implications of platforms' infringement on the right to freedom of expression when they delete posts or block accounts, as well as the legal foundation for such actions as specified in their terms of service. Unlike the state, which is directly bound by fundamental rights, platforms are entities that can themselves enjoy these rights. The act of deleting users' posts is encompassed within the freedom of business operations; however, this action precipitates a conflict between users' freedom of expression and the platform's freedom of business operations. The principle of the substitutability of fundamental rights offers a potential resolution to such conflicts. Since the 2010s, the German Federal Constitutional Court has broadened the scope of fundamental rights by elucidating that private entities can also be subject to these rights. In alignment with this development, the German Federal Court of Justice recently determined that Facebook's terms of service, which permitted the deletion of hate speech posts and the blocking of users' accounts, were invalid based on the Art. 307 of German Civil Law. While terms of service are private agreements, they form the foundation for content moderation activities, such as the removal of posts or the suspension of user accounts. In this context, the interaction between the platform and the user evolves from a simple contractual relationship to a constitutional one, involving the limitation of freedom of expression. The deletion of posts or the blocking of accounts can only be justified when both substantive requirements—objectively verifiable criteria—and procedural requirements—such as notification and the opportunity to contest—are fulfilled, thereby ensuring the protection of freedom of expression on digital public platforms. Moreover, to enhance the safeguarding of freedom of expression on these platforms, it is imperative to consider legislative measures that mandate platforms to draft their terms of service with due consideration for fundamental rights.

      • KCI등재

        플랫폼 뉴스 서비스와 알 권리 — 정보수령권의 보장 방안을 중심으로 —

        문의빈 (사)한국언론법학회 2023 언론과 법 Vol.22 No.1

        In a democratic society, the sovereign people should be well-informed when they form opinions and make decisions on public affairs. It is undeniable that well-informed citizenry is the foundation of democracy. ‘Right to know’ has been mainly discussed with a focus on the right to access government-held information, and there has only been limited number of researches on the issue of the right to receive information. The right to receive information is a fundamental right that includes the right to receive information from generally accessible sources without being disturbed. The right to receive information has four protected legal interests: the freedom to choose information, the guarantee of exposure to diverse information, the transparency in the process of receiving information, and the freedom not to be forced to receive unwanted information. Today, personalisation is emerging as an effort to attract individual attention since what is scarce in the information society is not information, but the attention of the audience. The platform's personalised news recommendations are the best example of how the right to receive information is being infringed by personalisation service. To be more specific, personalised news recommendations limit the right to receive information through exclusion from other news, digital prior restraint or censorship, manipulation by algorithms, and forced exposure to unwanted news. This paper, therefore, examines the necessity of limiting personalised news recommendations that may infringe on the right to receive information in an information society, and aimes to present measures to ensure the protection of the right to receive information. First of all, to protecting the individual's right to receive information, the platforms must be required to obtain separate consent to personalised news recommendations and individuals must have the right to withdraw the consent. Also, it is necessary to stipulate in the law that people have the right to reqauest explanations for personalised news recommendations. The freedom to choose information is enhanced by requiring clear consent as to whether to receive personalised news recommendations and allowing the personalised news recommendation service to be canceled at any time. The process of the receiving information will be more transparent as people can understand the reasons why a piece of news is “recommended for you”. Next, with respect to the platform’s news services, it is necessary to ensure active editorial rights of the platforms so that they are able to recommend news of common interest of the society. It is also necessary to codify ex post control procedures such as assessment and audit of how news is algorithmically recommended. The right to receive information will be enhanced by designing legislative measures preventing distortion in the process of forming opinions and decision-making due to personalised news recommendations. 오늘날 인터넷의 발달과 정보의 디지털화로 인해 공급되는 정보량은 폭증한 반면, 이를 소비할 정보수요자의 관심은 부족해졌다. 이에 따라, 정보수요자인 개인의 관심을 집중시키기 위하여 개인맞춤형 서비스가 등장하였다. 특히, 플랫폼의 개인맞춤형 뉴스 추천은 개인맞춤형 서비스가 기본권인 알 권리를 어떻게 제한하고 있는지 잘 보여준다. 개인맞춤형 뉴스 추천으로 인해 다른 뉴스로부터의 배제, 필터링을 통한 사전 검열, 알고리즘에 의한 조작, 원하지 않는 뉴스에 대한 강요된 노출 등의 문제가 발생할 수 있고, 이는 민주적 의사형성과 직결된다. 민주주의 사회에서 주권자인 시민은 충분한 정보를 가진 상태에서 자유롭게 의사결정을 할 수 있어야 한다. 즉, 민주적 의사형성을 위해서는 시민이 충분한 정보를 제공받을 수 있는 환경이 조성되어야 하는 것이다. 그동안 민주적 의사형성의 전제가 되는 알 권리는 적극적인 권리인 정보공개청구권을 중심으로 논의되어 왔을 뿐, 일반적으로 접근가능한 정보원으로부터 방해받지 않고 정보를 받는 것을 내용으로 하는 소극적인 권리인 정보수령권에 대한 논의는 부족했다. 정보수령권은 정보선택의 자유, 정보 노출의 다양성 보장, 정보수령 과정의 투명성, 원하지 않는 정보를 강요당하지 않을 자유를 그 내용으로 하는바, 이 글에서는 정보수령권을 침해할 우려가 있는 개인맞춤형 뉴스 추천의 특징과 문제점을 분석하고 다음과 같은 정보수령권 보장방안을 제시한다. 먼저, 개인의 정보수령권 보호를 위해서는 개인맞춤형 뉴스 추천에 대한 별도의 동의와 설명요구권이 보장되어야 한다. 개인맞춤형 뉴스 추천을 받을 것인지 여부에 대한 명확한 동의를 요구하고, 개인이 언제든지 해당 서비스를 해지할 수 있도록 함으로써 정보선택의 자유를 증진시킬 수 있다. 또한, 어떤 뉴스가 왜 자신에게 추천되었는지 알 수 있게 된다면 정보수령 과정의 투명성도 보장될 수 있다. 다음으로, 플랫폼에 대한 규율 측면에서 플랫폼은 개인맞춤형 뉴스 추천이 없는 화면을 제공해야 하고, 이 경우 사회의 공통분모에 해당하는 뉴스를 추천할 수 있도록 적극적인 편집권을 보장할 필요가 있다. 마지막으로, 개인맞춤형 뉴스 추천의 방법에 대한 평가 및 감사 등을 통해 플랫폼 뉴스 서비스에 대한 절차적 통제 방안을 마련할 필요가 있다. 이러한 안전장치를 통해 개인맞춤형 뉴스 추천으로 인해 발생할 수 있는 민주적 의사형성 과정에서의 왜곡을 방지함으로써 궁극적으로 개인의 정보수령권을 보장할 수 있을 것이다.

      • KCI등재

        알고리즘 기반 추천과 플랫폼의 기본권 제한에 관한 비교법적 연구

        문의빈 한국헌법학회 2023 憲法學硏究 Vol.29 No.2

        In today's information society, personalization is emerging as an effort to attract individual attention since what is scarce in the information society is not information, but the attention of the audience. Platforms’ algorithmic recommendation is a good example of a personalized service provided by intelligent information technology in “attention economy” and “surveillance capitalism”. By restricting users' access to information, the platform's algorithmic recommendations play an important role in individual judgment and behavior, and furthermore, could infringe on constitutional rights such as the right to know. This study analyzes how platforms' algorithmic recommendations are contested and regulated in the United States and Europe. The United States has a strong tradition of protecting freedom of speech, and the Section 230 of the Communications Decency Act, which grants broad immunity to platforms for information posted by third parties, has provided the institutional foundation for the growth of tech giants like Google and Facebook. However, it has been argued in the United States that algorithmic recommendations made are not covered by Section 230 because they are platforms’ own contribution to information posted by third parties. This report examines the U.S. Supreme Court's recent decision and legislative trends on algorithmic recommendations. In Europe, on the contrary, in the wake of Brexit and the concern that biased recommendations by platforms could negatively affect democracy, the Digital Services Act was enacted to provide a legal basis for regulating algorithmic recommendations. The Digital Services Act stipulates measures to ensure individuals' right to know and right to self-determination of personal data, such as enhancing transparency for algorithmic recommendations and allowing individuals to choose whether or not to receive recommendations. Legislation to regulate algorithmic recommendations has been proposed in Korea, but it has not yet passed the National Assembly. Under these circumstances, I analyzed how Korea should respond to algorithmic recommendations from a constitutional perspective by comparing the American approach to algorithmic recommendations in terms of freedom of expression and the European approach to regulating algorithmic recommendations in terms of threats to democracy. 오늘날 정보사회에서 정보의 공급이 급격히 증가하는 반면 이를 소비할 정보수요자의 관심은 공급의 증가를 따라가지 못함에 따라, 정보수요자의 관심을 효과적으로 끌기 위하여 개인맞춤형 서비스가 등장하였다. 플랫폼의 알고리즘 기반 추천은 관심경제와 감시자본주의라는 사회적 변화 속에서 지능정보기술에 의해 이루어지는 개인맞춤형 서비스라고 할 수 있다. 플랫폼의 알고리즘 기반 추천은 정보수요자의 정보접근을 간접적으로 제한함으로써 개인의 판단과 행동에 큰 영향을 주고, 나아가 개인정보자기결정권, 알 권리 및 사상의 자유와 같은 헌법상 기본권에 대한 제한을 발생시킬 수 있다. 본 연구에서는 미국과 유럽이라는 큰 축을 기준으로 플랫폼의 알고리즘 기반 추천에 대한 쟁점과 규율 방식을 분석한다. 미국은 표현의 자유를 강력하게 보장하는 전통을 가지고 있고, 제3자가 게시한 정보와 관련하여 플랫폼에 대한 광범위한 면책을 허용하는 통신품위법 제230조를 통해 구글이나 페이스북과 같은 굴지의 인터넷 기업이 성장할 수 있는 제도적 기반을 제공하였다. 그러나, 플랫폼이 행하는 알고리즘 기반 추천의 경우 제3자가 게시한 정보에 대한 플랫폼 자신의 정보 제공이라는 점에서 통신품위법 제230조에 따른 면책이 적용되기 어렵다는 주장이 미국에서도 제기되고 있다. 이에 알고리즘 기반 추천에 대한 미국 연방대법원의 판결과 입법 동향을 살펴보고 시사점을 도출한다. 한편, 유럽의 경우 브렉시트 등을 겪으면서 플랫폼의 편향된 추천이 민주주의에 부정적인 영향을 줄 수 있다는 문제의식에서 디지털서비스법을 제정하여 알고리즘 기반 추천을 규율할 수 있는 법적 근거를 마련하였다. 디지털서비스법은 알고리즘 기반 추천에 대한 투명성을 강화하고, 개인이 플랫폼의 추천을 받을 것인지 여부에 관하여 선택할 수 있도록 하는 등 개인의 알 권리와 개인정보자기결정권을 보장할 수 있는 방안을 규정하고 있다. 국내에서도 알고리즘 기반 추천을 규율하려는 법률안들이 발의되고 있으나 아직 국회를 통과하여 입법이 성사되지는 않고 있다. 이러한 상황에서 ‘표현의 자유’ 측면에서 알고리즘 기반 추천을 규율하는 미국의 방식과 ‘민주주의에 대한 위협’이라는 관점에서 알고리즘 기반 추천을 규율하는 유럽의 방식을 비교・분석함으로써 우리나라가 알고리즘 기반 추천에 어떠한 방식으로 대응해야 할 것인지를 헌법적 관점에서 분석하였다.

      • KCI등재

        디지털서비스 이용자의 보호에 관한 연구 -디지털 입헌주의로부터의 시사점을 중심으로-

        문의빈 한국법학원 2025 저스티스 Vol.207 No.-

        With the advancement of digital technology, platform users have gained increased access to information and the ability to engage in open discussions. Nevertheless, platforms possess the capacity to control information dissemination from their privileged position, thereby potentially restricting users' rights to self-determination regarding personal information and their right to knowledge for commercial purposes. Consequently, it is imperative to implement measures to address these concerns. Digital constitutionalism represents an ideological framework aimed at safeguarding fundamental rights and formulating normative responses to regulate power within the digital realm. Within the European Union, digital constitutionalism is employed to address the democratic crisis in digital society and to protect individuals' fundamental rights. This concept can be characterized by its emphasis on protection from private power, a risk-based approach, proceduralism, and transparency. In line with the principles of digital constitutionalism, the European Union has recently implemented the Digital Services Act. This Act is regarded as a constitutional framework governing the Internet and digital platforms. It categorizes platforms based on their size and associated risk, including intermediary services, online platforms, very large online platforms and very large online search engines. The Digital Services Act assigns specific obligations to each category concerning content moderation and recommender systems in a tiered manner. From users perspective, content moderation is intrinsically linked to the principle of freedom of expression, while recommender systems are fundamentally associated with the rights to self-determination of personal information and the right to information. These relationships are analyzed through the lens of digital constitutionalism, which encompasses protection from private power, risk-based approaches, proceduralism, and transparency. This analysis indicates that large-scale platforms should be regulated through a differentiated framework based on a risk-based approach. Measures implemented by platforms that may limit users' freedom of expression, such as content moderation, should be governed by enhanced procedural controls rather than content controls to mitigate controversies, including private censorship. Regarding personalized recommendations, user rights can be fortified by mandating platforms to elucidate the criteria for exposure and recommendations, thereby providing personalized services to enhance transparency. The protection of digital service users necessitates an approach grounded in digital constitutionalism, emphasizing the safeguarding of freedom of expression, the right to information, and self-determination of personal information from private entities such as digital platforms.

      • KCI등재

        지능정보사회에서 기본권보호의무와 기본권의 상충에 관한 연구

        문의빈(Euibien Moon) 성균관대학교 법학연구원 2023 성균관법학 Vol.35 No.1

        지능정보사회는 정보통신기술의 발달로 사람들이 인터넷 플랫폼을 통해 정치적 의사 결정 및 경제활동을 하게 되는 사회를 의미한다. 지능정보사회에서는 플랫폼의 역할이 중요해지는데, 이 과정에서 사적 주체인 플랫폼에 의해 사람들의 기본권이 침해될 가능성이 높아지게 된다. 그동안 헌법 이론은 기본권의 상충 및 기본권보호의무를 통해 사적 주체에 의한 기본권의 침해와 그 구제를 다뤄왔다. 기본권의 상충 및 기본권보호의무는 국가가 개인의 기본권을 침해하는 양자적 관계에서 벗어나 사적 주체에 의한 기본권 관계에 국가가 개입하는 삼각관계로 설명될 수 있다. 그러나 이러한 기본권의 상충 및 기본권보호의무가 사적 주체에 의한 기본권의 침해를 어떻게 해결하는지, 그리고 사적 주체 사이의 기본권 관계를 규율할 때 어떠한 심사기준을 적용할 것인지에 대해서는 보다 심도있는 논의가 필요하다. 플랫폼에 의한 개인정보자기결정권 침해는 사적 주체 사이의 기본권 상충의 문제로 볼 수 있다. 또한, 거대 플랫폼과 개인이라는 비대칭적 관계 속에서 국가의 기본권보호의무라는 관점에서 검토가 필요하다. 따라서 본 연구에서는 사적 주체 사이의 기본권 상충을 국가의 피해자에 대한 기본권보호의무와 국가의 가해자에 대한 기본권 제한의 문제로 접근한다. 이를 해결하기 위한 방법으로 사적 주체 사이의 기본권 관계를 조정하는 입법심사기준으로 과소보호금지원칙의 기준을 재검토할 필요성이 있다. 이를 위하여, 약자인 개인의 기본권을 보다 두텁게 보장하기 위하여 과소보호금지원칙을 체계화하고, 과잉금지원칙과 과소보호금지원칙을 함께 적용하는 방안을 제시한다. The concept of an intelligence information society pertains to a societal construct whereby individuals participate in political decision-making and economic activities through internet-based platforms that have arisen as a consequence of the advancement of information and communication technology. In such a society, the role of these platforms is of critical importance, and the potential for private entities operating these platforms to infringe upon the constitutional rights of individuals is heightened. Constitutional theory is concerned with the protection and violation of constitutional rights by private entities through the juxtaposition of constitutional rights and the obligation to safeguard such rights. This collision of constitutional rights and the duty to protect them engenders a triangular relationship where the state intervenes in the constitutional rights of private entities, surpassing the binary relationship in which the state violates the constitutional rights of individuals. However, a more comprehensive discourse is warranted regarding how the collision of constitutional rights and the duty to protect constitutional rights can effectively address the infringement of constitutional rights by private entities, as well as the criteria that should be implemented when regulating the relationships between private entities and constitutional rights. Hence, this paper aims to delve deeper into the standard of review that must be considered when legislating on constitutional rights relationships between individuals and platforms, where the collision of constitutional rights and the duty to protect constitutional rights are concurrently considered. The violation of the rights to determine personal information by platforms can be considered as a collision of constitutional rights between private entities, thereby raising concerns about the State's obligation to protect constitutional rights, particularly in the context of the unequal power dynamics between dominant platforms and individuals. In light of this, the present investigation views the collision of constitutional rights between private entities as a matter of the state's responsibility to safeguard the constitutional rights of aggrieved parties and the state's regulation of the constitutional rights of offending parties. To solve this problem, it is necessary to review the standards of legislative drafting regarding the constitutional rights relationships among private entities, particularly with regards to the principle of prohibition against excessively low protection. To this end, I propose two recommendations: to establish a systematic approach for the principle of prohibition against excessively low protection to offer a more robust safeguard of the constitutional rights of individuals who are often in a weaker position. Secondly, a possible solution may involve the concurrent application of both the principle of prohibition against excessive restriction and the principle of prohibition against excessively low protection when legislating.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼