헌법

플랫폼의 불법촬영물 유통방지의무에 대한 헌법적 연구*:

문의빈 **
Euibien Moon **
Author Information & Copyright
**변호사, 법제처 사무관
**Attorney at Law, Deputy Director, the Ministry of Government Legislation

© Copyright 2022, The Law Research Institute, Kyungpook National University. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jun 26, 2022; Revised: Jul 25, 2022; Accepted: Jul 25, 2022

Published Online: Jul 31, 2022

국문초록

‘n번방 사건’에 대한 입법적 대응으로 일정 규모 이상의 플랫폼에 대하여 아동·청소년성착취물과 같은 불법촬영물 등에 대한 유통방지의무를 신설하고, 검색제한조치 및 필터링조치 등과 같은 조치를 취하도록 「전기통신사업법」이 개정되었다. 이러한 법 개정에 대하여 플랫폼에 의해 표현의 자유가 침해될 수 있다는 우려가 제기되고 있다. 특히, 필터링조치의 경우 개인이 플랫폼을 통해 영상을 전송하기 전에 해당 정보의 위법성을 소프트웨어를 통해 사전에 판단받도록 한다는 점에서 플랫폼에 일반적 감시의무를 부과하여 개인의 표현의 자유를 침해한다는 비판을 받고 있다. 이러한 현실에서 인터넷에서 표현의 자유를 침해하는 새로운 양상과 이를 설명하기 위한 이론을 검토할 필요가 있다.

인터넷 시대에 표현의 자유는 국가가 개인의 표현의 자유를 억압하는 양자 대립구조를 벗어나, 플랫폼과 같은 사적 주체가 온라인에서 개인의 표현을 보장하는 동시에 제한하는 국가-플랫폼-개인의 삼각구조를 갖게 되었다. 이에 인터넷 시대에 표현의 자유를 구현하는 중요한 주체인 플랫폼의 개념을 살펴보고, 플랫폼이 삼각구조 속에서 표현의 자유를 침해하게 되는 현상에 대한 외국에서의 논의를 소개하고 검토하려 한다. 나아가 플랫폼이 인터넷에서의 표현을 제한하는 문지기(Gatekeeper)로서 수행하는 콘텐츠 모더레이션(Content Moderation)과 사전적 콘텐츠 모더레이션의 방법인 필터링에 대한 헌법적 관점에서의 분석이 필요하다.

유럽사법재판소는 2019년 10월에 명예훼손과 관련하여 피해자가 명예훼손 게시물 자체 뿐만 아니라, 문구가 동일한 게시물 및 의미가 동등한 게시물에 대해서도 플랫폼에 삭제 및 차단을 요구할 수 있도록 필터링을 허용하는 내용의 판결을 내렸다. 또한, 유럽사법재판소는 2022년 4월에 저작권 보호를 위해 필터링을 허용하고 있는 EU저작권지침이 표현과 정보의 자유를 보장하고 있는 EU기본권헌장에 위배되지 않는다고 판결하였다. 이러한 판결들은 위법한 표현을 업로드 단계에서 여과시킬 수 있도록 허용하는 논거를 제시한다는 점에서 불법촬영물에 대한 유통방지의무를 규정하고 있는 「전기통신사업법」의 개정 규정에 대한 헌법적 타당성을 뒷받침할 수 있다.

Abstract

There is a constitutional controversy on the issue of the freedom of expression when the Telecommunications Business Act allows some value-added telecommunications business operators such as large platforms to restrict or filter information whether those information falls into sexual exploitation graphics like Child Pornography or Non-consensual Pornography. Upload filtering, in particular, is heavily criticized on the ground that it burdens platforms to carry out general monitoring obligation, which is a unjustified infringement on freedom of expression. With regard to the freedom of expression on the Internet, it is necessary to understand the circumstances of Internet regulation and the theory to explain the regulation.

As the Internet develops, people have become more dependent on platforms to acquire information or to communicate with other people. People form communities, forums to communicate with each other through the Internet. At the same time, people follow the guidance of platforms and platforms have become “the new governors” in cyberspace. This phenomenon requires a new framework to understand the freedom of speech in the digital era because intermediaries, which connect people as mere conduits, play a crucial role in regulating speech on the Internet. In order to explain this phenomenon, a theory called “pluralistic model of speech regulation” should be thoroughly examined and applied to the speech regulation on the Internet.

In addition, it is essential to review, in light of constitutional framework, the concept of content moderation which makes platforms “the Custodian of the Internet”. The Court of Justice of the European Union ruled two important decisions regarding the regulation of platform and upload filtering. Eva Glawischnig-Piesczek allows platforms to filter defamatory expression and extends the regulation to “equivalent content” as well as “identical content”. In Poland v. Parliament and Council, the CJEU interprets that the Copyright Directive of Digital Single Market article 17, which allows upload filters, strikes a balance with the protection of copyright and the freedom of expression and information stipulated in the European Charter of Fundamental Rights. These two decisions would shed lights on the constitutional controversy provoked by recently amended clause of the Telecommunications Business Act.

Keywords: 국가-플랫폼-개인: 삼각구조; 일반적 감시의무; 플랫폼; 필터링; 표현의 자유; 유럽사법재판소 C-18/18 및 C-401/19 판결
Keywords: State-Platform-Individual: Triangle; General monitoring obligation; Platform; Filtering; Freedom of expression; CJEU C-18/18 and C-401/19

Ⅰ. 서론

단체 채팅방을 통해 아동, 청소년 및 여성에 대한 성착취물 등을 거래하고 유포한 소위 ‘n번방 사건’은 사회적 공분을 일으켰다. 이러한 사태가 다시 발생하지 않도록 디지털 성범죄물의 유통방지를 주요 내용으로 하여 「전기통신사업법」, 「정보통신망 이용촉진 및 정보보호 등에 관한 법률」(이하 ‘정보통신망법’)이 개정되었다. 특히, 2020년 12월 10일부터 시행된 「전기통신사업법」 제22조의5에서는 부가통신사업자의 불법촬영물 등1) 유통방지의무에 관한 내용을 신설하면서 불법촬영물등의 범위를 확대하고, 불법촬영물등의 유통을 방지하기 위한 기술적·관리적 조치를 규정하였다. 이와 같은 불법촬영물등의 유통방지를 위한 입법적 대응은 사회문제의 해결을 위해 필요한 것이지만, 구체적인 방법이 헌법에서 허용하는 기본권 제한의 범위에 있는지 면밀한 검토가 선행될 필요가 있다.

특히, 불법촬영물등의 유통을 방지하기 위한 조치 중 이용자가 동영상파일을 업로드할 때 플랫폼이 필터링을 통해 해당 동영상파일이 불법촬영물등에 해당하는지를 감시(monitoring)할 의무를 부과하고 있어(「전기통신사업법」 제22조의5제2항) 이러한 필터링이 헌법에서 보장하고 있는 표현의 자유를 침해하는 것은 아닌지 살펴보아야 한다. 사전적 조치의무를 규정하고 있는 동 규정에 대해서는 인터넷검열이 이루어질 수 있다는 우려가 지속적으로 제기되고 있을 뿐 아니라2), 실제로 해당 규정에 대한 헌법소원심판도 제기되어 심리 중에 있다.3)

따라서 이 글에서는 표현의 자유에 대한 전통적인 침해 구조와 인터넷의 발달로 인한 새로운 표현의 자유에 대한 침해 양상을 비교하고 이에 관한 이론에 대하여 고찰한다. 이를 위하여 인터넷 시대에 표현의 자유를 관리하는 문지기(Gatekeeper) 역할을 하는 이른바 ‘플랫폼’의 개념과 플랫폼이 표현의 자유를 제한하는 방식인 콘텐츠 모더레이션(Content Moderation)을 소개하고, 플랫폼과 사전적 콘텐츠 모더레이션인 필터링(Filtering)이 우리나라 법제에서 어떻게 규정되어 있는지 살펴본다. 다음으로, 유럽사법재판소의 필터링 관련 판결 두 건을 분석하여 필터링이 허용될 수 있는 기준을 검토한다.4) 마지막으로, 이러한 유럽사법재판소 판결에서 제시하고 있는 필터링의 허용 기준이 불법촬영물등의 유통방지를 위하여 필터링을 도입한 개정 「전기통신사업법」의 헌법적 해석에 어떤 시사점을 주는지 고찰하기로 한다.

Ⅱ. 표현의 자유에 대한 새로운 도전 : 플랫폼에 의한 표현의 자유 침해

1. 전통적인 표현의 자유 침해의 구조

표현의 자유란 사상, 의견 등을 다른 사람들에게 나타내고 전달하는 행위인 표현행위를 방해받지 않고 자유로이 할 수 있는 권리를 말한다.5) 이때, 표현행위를 방해하는 주체는 전통적으로 국가나 공권력이었기 때문에 표현의 자유는 주관적 공권으로서 대국가적 효력을 가진다고 이해되어 왔다.6) 즉, 표현의 자유는 ‘국가와의 관계’에서 침해를 하지 말도록 요구하는 권리라는 개념에서 시작되어, 국가에 정보를 요구하는 등 무언가를 행할 것을 적극적으로 요구하는 권리로 확장되어 온 것이다. 표현의 자유를 소극적으로 국가의 방해를 배제하는 대국가적인 권리로 이해해왔기 때문에 표현의 자유를 제한하는 주체 역시 국가일 수 밖에 없었다. 그러나 인터넷이 발달함에 따라 기존의 국가나 공권력이 아닌 인터넷상의 행위주체들이 등장하여 정보와 표현물이 유통되는 길목을 장악함으로써 이러한 행위주체들이 인터넷상 표현의 자유를 제한하는 주체로 등장하고 있다.7)

2. 인터넷의 발달과 규제의 필요성

인터넷은 개인의 정보접근성을 확대함으로써 개인이 엄청난 양의 정보를 저장하거나 공유할 수 있도록 하였다. 이러한 풍성한 정보를 바탕으로 개인은 인터넷상에서 이전보다 훨씬 많은 표현의 자유를 누릴 수 있을 것으로 기대되었다.8) 헌법재판소에서도 인터넷 등장 초창기에 인터넷을 “가장 참여적인 시장”, “표현촉진적인 매체”라고 보아 인터넷을 질서위주의 사고를 가지고 규제하는 것을 경계한 바 있다.9) 전파자원의 희소성 등으로 인해 공적 책임과 공익성이 강조된 기존의 공중파 방송과 달리 인터넷은 진입장벽이 낮고, 쌍방향성을 갖는다는 측면에서 인터넷에 대한 규제는 신중하게 이루어져야 하기 때문이다.10)

그러나 모든 개인이 인터넷을 통해 자신의 생각을 표현하고, 표현물을 배포할 수 있게 됨에 따라 인터넷에서 유통되는 정보가 지나치게 많아지게 되었다. 특히, 아동음란물이나 저작권 침해 표현물 등 인터넷 공간에서 불법적인 정보가 범람하게 됨에 따라 표현의 자유의 남용 가능성 및 그 영향력 때문에 규제의 필요성이 제기되었다.11) 이러한 개인의 자유로운 표현에 대응하여 정보의 제공을 매개하던 플랫폼의 역할도 변화하였다. 불법적인 콘텐츠나 사회적 논란거리가 될 여지가 있는 콘텐츠를 차단·삭제하거나 이러한 콘텐츠를 반복적으로 게시하는 계정을 정지시키는 등 플랫폼도 적극적으로 관리에 나서기 시작하게 된 것이다.12) 그동안 인터넷은 국가 권력에 의해 발전한 것이 아니라, 다양한 사인들의 참여를 통해 발전했기 때문에 규제 역시 인터넷의 사적 주체인 플랫폼에 의해 자율적으로 이루어져 왔다.13) 플랫폼이 자신들의 사이트에 만들어지는 표현물에 대해 적극적으로 관리에 나서게 됨에 따라 플랫폼에 의한 인터넷상 표현의 자유의 침해에 대한 논의가 본격적으로 시작되었다.14)

3. 플랫폼의 의의 및 플랫폼에 의한 표현의 자유 침해
1) 플랫폼의 개념과 역할

일반적으로 인터넷에서의 정보제공과 관련한 주체는 인터넷콘텐츠제공자(Internet Content Provider), 인터넷서비스제공자(Internet Service Provider), 그리고 인터넷콘텐츠호스트(Internet Content Host)로 구분된다.15) 인터넷콘텐츠제공자(Internet Content Provider)는 인터넷을 통하여 콘텐츠 또는 데이터베이스를 제작·제공하는 자로, 정보통신망법에 따른 ‘정보제공자’라 할 수 있다. 인터넷서비스제공자(Internet Service Provider)는 인터넷콘텐츠제공자가 제공하는 정보에 물리적으로 접근할 수 있도록 설비를 제공하는 자로, 이용자가 인터넷에 접속할 수 있도록 서비스를 제공한다는 측면에서 「전기통신사업법」에 따른 ‘전기통신사업자’ 중 기간통신사업자가 여기에 해당한다. 마지막으로, 인터넷콘텐츠호스트(Internet Content Host)는 타인의 정보를 매개하는 자로, 정보통신망법에 따른 ‘정보제공매개자’ 또는 「전기통신사업법」에 따른 ‘전기통신사업자’ 중 부가통신사업자16)에 대응하는 개념이다. 이 글에서는 기존의 인터넷콘텐츠호스트가 매개하는 역할을 넘어 ‘관리자’의 역할까지 한다는 의미에서 플랫폼이라는 개념으로 설명하고자 한다.

플랫폼은 서로 다른 이용자 그룹이 거래나 상호작용을 원활하게 할 수 있도록 제공된 물리적, 가상적, 제도적 환경17) 또는 서로 구분되나 상호의존적인 이용자군들 간의 상호작용을 촉진하여 가치를 창출하는 매개자18)를 의미한다. 해외에서는 플랫폼에 대해서 단순히 환경을 제공하거나 매개하는 역할을 넘어, 인프라를 이용하여 정보의 유통 등 부가가치를 창출하고, 사용자 서비스를 위한 데이터를 처리하며, 광고 등을 통해 이윤을 창출하는 경제주체로 보는 관점이 등장하여 주목받고 있다.19) 이러한 플랫폼에 대한 기존의 연구들을 종합해 볼 때, 플랫폼은 다양한 이용자들을 연결·매개해주기만 하는 것이 아니라, 이들이 의사표현 등을 개진함으로써 참여할 수 있도록 하며, 결과적으로 다양한 표현 활동을 가능하게 함으로써 이윤을 만들어내는 인터넷의 “관리자(Custodian)”20) 역할을 한다고 볼 수 있다. 우리나라 법제에서 사용되는 대표적인 플랫폼의 개념은 아래와 같다.

(1) 「전기통신사업법」상 부가통신사업자

「전기통신사업법」 제2조에서는 “전기통신역무”를 전기통신설비를 이용하여 타인의 통신을 매개하거나 전기통신설비를 타인의 통신용으로 제공하는 것을 말한다(제6호)고 규정하면서 이러한 전기통신역무를 기간통신역무(제11호)와 부가통신역무(제12호)로 구분하고 있다. 이 중 기간통신역무는 전화·인터넷접속 등과 같이 음성·데이터·영상 등을 그 내용이나 형태의 변경 없이 송신 또는 수신하게 하는 전기통신역무 및 음성·데이터·영상 등의 송신 또는 수신이 가능하도록 전기통신회선설비를 임대하는 전기통신역무를 말한다. 그리고 부가통신역무는 기간통신역무 외의 전기통신역무 일체를 말하는바, 부가통신역무는 그 형태 및 종류가 다양할 수 있다.

예를 들어, 네이버(Naver)나 다음(DAUM)과 같은 포털 서비스부터 메신저처럼 기본적인 통신서비스에 컴퓨터 기능을 결합하는 서비스까지 다양한 서비스가 부가통신역무에 속한다.21) 즉, 기간통신사업자의 전기통신회선설비를 임차 또는 이용하여 검색, 이메일, 게임, 인터넷 쇼핑 등 부가통신서비스를 제공하는 인터넷 포털, 소셜 미디어 등22)이 모두 부가통신역무를 제공하는 부가통신사업자로서 플랫폼에 해당하게 되는 것이다. 이러한 「전기통신사업법」의 체계를 고려할 때, 부가통신사업에 관한 「전기통신사업법」 제2장제3절에서 불법촬영물등의 유통방지 의무를 규정한 것은 부가통신사업자에 해당하는 플랫폼이 불법촬영물등에 대하여 적극적인 조치를 할 의무를 취하도록 함으로써 플랫폼에 디지털 성범죄를 차단하는 역할을 기대하는 취지라고 할 수 있다.23)

(2) 정보통신망법상 정보통신서비스 제공자

정보통신망법 제2조제3호에서는 “정보통신서비스 제공자”를 ⅰ) 전기통신사업법 제2조제8호에 따른 전기통신사업자와 ⅱ) 영리를 목적으로 전기통신사업자의 전기통신역무를 이용하여 정보를 제공하거나 ⅲ) 정보의 제공을 매개하는 자로 규정하고 있다. 「전기통신사업법」이 통신설비를 이용하는 사업자에 대한 ‘진입규제’를 기준으로 전기통신사업자를 규정하고 있는 반면, 정보통신망법은 전기통신사업자 외에 정보제공자와 정보제공매개자와 같이 정보를 제공하거나 정보제공을 매개하는 ‘행위’에 초점을 맞추어 정보통신서비스 제공자를 규정하고 있다.24) 여기서 정보제공자는 전송, 공개, 게시, 검색, 열람 등의 방법을 통하여 직접 정보의 판매, 대여, 증여, 배포, 공유 등의 행위를 하는 자를 의미하고, 정보제공매개자는 이메일이나 P2P 서비스와 같이 정보의 공급자와 정보의 수요자를 연결하는 사업자를 말한다.25) 따라서, 정보통신망법에 따른 정보통신서비스 제공자의 경우에도 인터넷콘텐츠호스트를 포함하므로 이 글에서 정의하고 있는 플랫폼에 해당한다.

(3) 「저작권법」상 온라인서비스제공자

「저작권법」 제2조제30호에서는 “온라인서비스제공자”를 이용자가 선택한 저작물등을 그 내용의 수정 없이 이용자가 지정한 지점 사이에서 정보통신망을 통하여 전달하기 위하여 송신하거나 경로를 지정하거나 연결을 제공하는 자(가목) 및 이용자들이 정보통신망에 접속하거나 정보통신망을 통하여 저작물등을 복제·전송할 수 있도록 서비스를 제공하거나 그를 위한 설비를 제공 또는 운영하는 자(나목)로 규정하고 있다. 전자는 인터넷에 접속시켜주는 인터넷 접속서비스제공자를 의미하고, 후자는 캐싱 서비스제공자, 호스팅 서비스제공자, 정보검색 서비스제공자 등을 의미한다.26)

이와 관련하여 「저작권법」 제102조제1항은 인터넷 접속서비스를 내용의 수정 없이 저작물등을 송신하거나 경로를 지정하거나 연결을 제공하는 행위 또는 그 과정에서 저작물등을 그 송신을 위하여 합리적으로 필요한 기간 내에서 자동적·중개적·일시적으로 저장하는 행위로 규정하고 있고(제1호), 캐싱서비스를 서비스이용자의 요청에 따라 송신된 저작물등을 후속 이용자들이 효율적으로 접근하거나 수신할 수 있게 할 목적으로 그 저작물등을 자동적·중개적·일시적으로 저장하는 행위로 규정하고 있다(제2호). 또한, 「저작권법」 제102조제1항은 호스팅서비스를 복제·전송자의 요청에 따라 저작물등을 온라인서비스제공자의 컴퓨터에 저장하는 행위(제3호), 정보검색 서비스를 정보검색도구를 통하여 이용자에게 정보통신망상 저작물등의 위치를 알 수 있게 하거나 연결하는 행위(제4호)로 규정하고 있다. 이와 같이 「저작권법」에서는 저작물의 전송 경로 제공, 송수신 및 저장 기능을 중심으로 온라인서비스제공자를 규정하고 있는바, 인터넷 접속서비스 제공자를 제외한 호스팅 서비스나 정보검색 서비스를 제공하는 온라인서비스제공자가 이 글에서 정의하고 있는 플랫폼에 해당한다.

(4) 소결

「전기통신사업법」에서는 통신시장에서의 진입 규제를 기준으로 기간통신사업자를 제외한 그밖의 전기통신사업자에 해당하는 ‘부가통신사업자’의 개념을 플랫폼에 포섭할 수 있고, 정보통신망법에서는 정보통신망의 이용 행위를 기준으로 ‘정보의 제공을 매개하는 자’의 개념을 플랫폼에 포섭할 수 있다. 또한, 「저작권법」에서는 저작물의 저장·전송에서의 역할을 기준으로 호스팅서비스제공자 및 정보검색 서비스제공자의 개념에 플랫폼을 포섭할 수 있다. 이처럼 우리나라 법제에서는 개별적인 법률의 목적 및 규율 대상에 따라 플랫폼의 의미와 범위를 조금씩 다르게 규정하고 있다.

2) 플랫폼에 의한 표현의 자유 침해 구조: 국가-플랫폼-개인

인터넷이 발달함에 따라 사람들은 인터넷을 통해 가상의 공동체를 형성하고, 물리적인 거리와 관계없이 의사소통을 할 수 있게 되었다. 이러한 의사소통을 할 수 있는 공간은 사기업인 소셜미디어 회사들과 같은 플랫폼이 제공하고 있다. 그런데, 플랫폼이 개인적 차원에서 의사소통의 창구가 되고 사회적 차원에서 공적 담론을 형성하는데 중요한 역할을 수행함에 따라, 인터넷 시대에 걸맞는 표현의 자유에 대한 새로운 이론 체계가 필요해지고 있다. 오늘날에도 국가는 개인의 표현을 규제하고 있지만, 인터넷 기술로 무장한 사적인 기업체들이 개인의 표현을 제한하는 주체로 부상하여 국가의 역할을 보완하고 있기 때문이다.27) 이와 같이 국가(State)-발화자(Speaker)와 함께 플랫폼이 표현의 자유에 대한 담론을 형성하는 또다른 주체로 떠오른 상황에 대해 볼킨(Balkin)은 “표현의 자유 규제에 대한 다자주의 모델(the Pluralistic Model of Speech Regulation)”이라고 규정하면서 인터넷에서의 표현의 주체를 국가-플랫폼-발화자라는 삼각구조로 설명한다.28) 이러한 표현의 규제에 대한 새로운 이론 체계에서 플랫폼은 단순히 의사소통을 위한 도관이 아니라 “사회적 공간의 통치자(the governor of social space)”가 된다.29) 즉, 플랫폼은 이용약관(Terms of Services) 및 커뮤니티 이용 지침(Community Guidelines) 등의 형태로 규칙을 정하여 이용자들이 이를 따르도록 함으로써 인터넷에서의 표현에 막대한 영향력을 행사한다.30) 이러한 측면에서 플랫폼은 새로운 표현을 위한 수단일 뿐 아니라 표현 수단을 지배하는 “제도의 설계자(architects of the institutional design)”이기도 하다.31)

양자적인(dualist system) 모델에서는 국가가 발화자를 직접 규제하여 표현의 자유를 침해한다. 반면, 다자주의 모델에서는 국가가 플랫폼과 협력하거나, 플랫폼을 압박하여 플랫폼으로 하여금 발화자의 표현의 자유를 제한하도록 함으로써, 사적 주체에 불과한 플랫폼이 국가와 발화자 사이에서 중요한 역할을 수행하도록 만든다.32) Balkin은 국가가 플랫폼을 표현의 자유에 대한 침해 체계에 포섭하는 방식을 설명하기 위해 잊혀질 권리에 관한 유럽사법재판소의 판결33)을 예로 든다. 유럽연합과 그 회원국들은 사기업인 구글을 마치 공권력을 가진 행정기관처럼 간주하여 오래된 개인정보가 담긴 기사들이 검색결과에서 보이지 않도록 할 책임이 있다고 보았기 때문이다. 이러한 다자주의 모델에 따르면 국가 또는 EU와 같은 국가연합체가 플랫폼에 인터넷을 관리할 수 있도록 권한과 사무를 위임·위탁(deputization)하는 현상이야말로 인터넷상 표현의 자유에 대한 새로운 침해 구조를 가장 잘 설명하는 사례라고 한다.34) 이와 관련하여 국내에서도 인터넷 표현에 대한 규제의 구조를 “국가-인터넷사업자-이용자”라는 삼각구조로 이해하여, 국가가 명령이나 처벌이라는 수단을 이용하여 플랫폼으로 하여금 그 이용자의 표현의 자유를 제한한다는 주장이 제기되고 있다.35)

3) 플랫폼에 의한 표현의 자유 침해 방식: 콘텐츠 모더레이션(Content Moderation)

플랫폼이 마치 공권력을 행사하는 것처럼 자신들의 사이트를 관리하면서 개인들이 제공한 정보를 삭제하거나 그 정보에 대한 접속을 차단하는 행위를 콘텐츠 모더레이션36)이라고 한다.37) 콘텐츠 모더레이션은 21세기에 들어서면서 그 문제점이 부각되기 시작했다. 인터넷이 처음 등장했던 20세기와 달리 21세기에는 인터넷상에서의 표현이 보다 쉽게 이루어지고(cheap), 빠르며(fast), 익명성을 띠고(anonymous), 플랫폼에 의존하게(platform-dependent) 되었기 때문이다.38) 콘텐츠 모더레이션의 대상은 플랫폼에 게시되는 저작권침해 게시물, 아동 성착취물, 테러리스트 모집 게시물, 혐오표현 등 다양하다.39) 이와 같은 콘텐츠 모더레이션은 ‘간접 검열(collateral censorship)’이나 ‘디지털 방식으로 이루어지는 사전적 제한(digital prior restraint)’의 문제를 발생시킬 수 있다.40) 국가가 플랫폼에 발화자의 콘텐츠를 제거하거나 차단할 것을 명한다면 플랫폼은 그 명령이 지나치게 자신들의 영업을 방해하지 않는 한 그 명령을 따를 것이다. 이러한 구조 속에서 정부의 역할을 대신하여 플랫폼이 민주주의적 의사형성을 위한 본질적인 기본권인 표현의 자유를 제한하게 된다. 인터넷을 통한 소통과 정보의 유통이 보편화된 정보화 사회에서 플랫폼의 책임을 강화할 경우, 플랫폼이 콘텐츠 모더레이션을 무차별적으로 수행함으로써 정부 검열보다 오히려 더 폐해가 커질 수 있다는 우려가 제기되고 있다.41) 인터넷에서의 표현에 대하여 플랫폼의 법적 책임을 강화하게 되면 플랫폼은 책임을 면하기 위해 보다 적극적으로 콘텐츠 모더레이션을 할 유인이 발생하기 때문이다.42) 즉, 플랫폼의 법적 책임을 강화하는 것은 과도한 콘텐츠 모더레이션을 촉발시켜 인터넷상의 표현행위와 정보제공이 위축되는 결과(chilling effect)를 야기할 수 있는 것이다.43)

이러한 콘텐츠 모더레이션은 크게 사전(ex ante) 콘텐츠 모더레이션과 사후(ex post) 콘텐츠 모더레이션으로 구분된다. 사후적인 콘텐츠 모더레이션은 플랫폼 이용자들이 신고한 게시물에 대해 플랫폼이 고용한 인력이 커뮤니티 이용지침 등을 기준으로 해당 게시물을 삭제하거나 접근을 차단하는 행위를 의미한다. 사전적인 콘텐츠 모더레이션은 사람의 판단없이 알고리즘에 의한 자동화된 절차를 통해 이용자가 업로드하는 과정에서 아동 성착취물과 같은 불법정보를 걸러내는 행위를 의미한다.44) 이와 같은 사전적인 콘텐츠 모더레이션의 방식으로 페이스북이나 유튜브와 같은 플랫폼에서는 사진이나 동영상 등의 고유값을 부여하여 불법적인 사진이나 동영상 등의 고유값을 가진 정보를 필터링하여 업로드를 차단하고 있다.45) 우리나라에서도 불법촬영물등에 대한 필터링에 관하여 「전기통신사업법 시행령」에 규정을 둠으로써 사전적인 콘텐츠 모더레이션을 법제화하고 있다.

4) 우리나라 법제에서의 필터링 : 「전기통신사업법 시행령」을 중심으로

「전기통신사업법 시행령」 제30조의6제2항에서는 불법촬영물등의 유통을 방지하기 위한 기술적·관리적 조치를 구체적으로 규정하고 있다. 이 중에서 이용자가 게재하려는 정보의 특징을 분석하여 방송통신심의위원회에서 불법촬영물등으로 심의·의결한 정보에 해당하는지를 비교·식별 후 그 정보의 게재를 제한하는 조치(제3호)가 필터링에 해당한다. 「전기통신사업법 시행령」에서 규정하고 있는 불법촬영물등의 유통방지를 위한 다른 기술적·관리적 조치인 신고접수조치(제1호), 검색제한조치(제2호) 및 경고조치(제4호)는 불법촬영물등이 유통되었을 때 이를 ‘사후적’으로 신고접수·검색제한을 하거나 사전적으로 ‘경고’만을 하도록 설계되어 있다. 이에 반해 필터링조치는 공급자가 불법촬영물등에 해당하는 정보를 플랫폼에 업로드하지 못하도록 ‘사전 차단’하기 때문에 불법촬영물등의 유통방지를 위한 기술적·관리적 조치 중 가장 강력한 제한조치라고 할 수 있다. 이처럼 필터링은 인터넷 상에서의 정보의 제공을 원천 봉쇄할 수도 있다는 점에서 표현의 자유를 침해할 우려가 크고, 따라서 기본권을 지나치게 제한하지 않도록 필터링의 대상 및 방법을 섬세하게 규율할 필요가 있다.

4. 소결

살펴본 바와 같이, 전통적으로 표현의 자유에 대한 침해 주체는 국가였으나 인터넷의 발달로 인해 플랫폼이 인터넷에서의 표현을 관리함으로써 이용자들의 표현의 자유를 침해하는 새로운 주체로 부상하게 되었다. 플랫폼은 이용자들이 제공한 정보를 삭제하거나 정보의 게재 자체를 차단하는 방식으로 인터넷상 표현의 자유를 침해하는데, 필터링은 위법한 정보를 업로드하는지 감시하여 차단한다는 점에서 사전적인 콘텐츠 모더레이션에 해당한다. 필터링이 표현의 자유에 대한 중대한 침해인 이유는 필터링으로 인해 발화자에 대한 감시가 상시적으로 이루어짐으로써 자유로운 표현이 억제될 수 있기 때문이다.

이하에서는 전자상거래지침(Directive 2000/31/EC)이 금지하고 있는 ‘일반적 감시의무(General Monitoring Obligation)’의 의미와 허용되는 필터링의 기준을 제시하고 있는 유럽사법재판소의 Eva Glawischnig-Piesczek 판결과 저작권 침해를 방지하기 위한 플랫폼의 필터링 의무를 규정하고 있는 EU저작권지침(Directive (EU) 2019/790)의 기본권 침해 여부에 관한 Poland v. Parliament and Council 판결을 소개한다. 해당 판결들을 통해 유럽사법재판소가 어떠한 논거를 통해 필터링과 표현의 자유가 양립할 수 있다고 해석했는지 살펴본다. 인터넷 공간에서의 불법정보에 관련하여 플랫폼에 폭넓게 면책을 허용하고 있는 미국과 달리,46) 유럽에서는 인터넷 공간에서 플랫폼의 책임을 강조하면서 일정한 조건 아래에서는 명예훼손 및 저작권침해물과 같은 불법정보에 대한 필터링까지 허용함으로써 플랫폼의 역할과 책임을 강화하고 있다. 이는 인터넷 표현의 자유에 있어 플랫폼이 한 축을 담당한다는 Balkin의 다자주의 모델에도 부합한다고 볼 수 있다.

Ⅲ. 유럽사법재판소의 판결과 필터링의 허용기준

아래의 두 판결은 명예훼손과 저작권침해를 방지하기 위해 필터링을 허용한다는 점에서 「전기통신사업법」에 따른 불법촬영물등에 대한 필터링과는 대상을 달리하지만, 필터링이 허용될 수 있는 기준을 제시한다는 점에서 시사점을 준다. 특히, 2021헌마290 헌법소원심판청구서에서는 ‘일반적 감시의무 금지 원칙’에 관한 국제인권기준으로 유럽연합의 전자상거래지침을 소개하면서, 해당 내용이 한-EU FTA 제10.66조를 통해 국내법적 효력을 갖는다는 점을 강조하고 있는바, Eva Glawischnig-Piesczek 판결에서 유럽사법재판소가 ‘일반적 감시의무’를 새롭게 해석하고 있다는 점은 중요한 의미를 가진다고 할 수 있다.

1. Eva Glawischnig-Piesczek v. Facebook Ireland Limited(C-18/18)
1) 사실관계 및 쟁점

페이스북 사용자가 자신의 페이스북에 오스트리아 녹색당의 국회의원인 에바 글라비시니 피스체크(Eva Glawischnig-Piesczek)의 사진이 실린 기사를 공유하면서 그녀를 “더러운 매국노(miese Volkverräterin), 부패한 멍청이(korrupter Trampel), 파시스트 정당 당원(Faschistenpartei)”라고 비난하는 명예훼손 가능성이 있는 게시물을 작성했다. Eva Glawischnig-Piesczek는 페이스북 아일랜드(이하 “페이스북”)에 해당 게시물을 삭제할 것을 요청했으나 페이스북은 해당 게시물을 삭제하지 않았다. 이에 Eva Glawischnig-Piesczek는 오스트리아 비엔나 상사법원(Commercial Court, Vienna, Austria)에 소송을 제기했고, 비엔나 상사법원은 판결의 효력이 발생할 때까지 해당 게시물 뿐 아니라 해당 게시물과 의미가 동등한 게시물이 Eva Glawischnig-Piesczek의 사진과 함께 유포되거나 발행되는 것을 중단하도록 하는 가처분 명령을 내렸다. 이에 따라 페이스북은 해당 게시물에 대한 접근을 차단했다.

비엔나 항소법원(Higher Regional Court, Vienna, 오스트리아)에서는 문구가 동일한 게시물(the identical allegations)에 대한 1심 명령을 확정했고, 의미가 동등한 게시물(allegations of equivalent content)의 경우에는 페이스북이 해당 사건의 원고나 제3자의 신고에 의해 페이스북이 해당 내용을 인식한 경우에만 유포를 중단되어야 한다고 결정했다. 오스트리아 대법원(Supreme Court, Austria)은 페이스북과 같은 플랫폼(host provider)에 위법한 게시물, 이와 문구가 동일한(identical) 게시물 및 의미가 동등한(equivalent) 게시물을 지체없이 제거할 것을 요구하는 것이 플랫폼에 일반적 감시의무(general monitoring obligation)를 부과하는 것을 금지하는 전자상거래지침(Directive [2000/31]) 제15조제1항에 위배되는지 여부에 관하여 유럽사법재판소에 선결판단을 요청했다.

2) 대상법령의 내용47)

EU 전자상거래지침48)

제14조

(1) 회원국은 사용자가 제공하는 정보를 저장하는 것으로 형성되는 정보사회 서비스에 대하여 다음의 요건이 충족되는 경우 서비스 제공자는 사용자의 요청으로 저장된 정보에 대해 책임을 지지 않는다는 것을 보장한다.

(a) 제공자가 위법한 행위 또는 정보에 관한 실제적인 인식이 없고, 손해배상 청구와 관련하여 위법한 행위 또는 정보가 명백하다는 상황이나 사실에 대한 인식이 없는 경우

또는

(b) 제공자가 이러한 인지나 인식을 한 즉시, 정보를 제거하거나 해당 정보에 대한 접근을 차단하기 위해서 지체없이 조치를 취한 경우

제15조

1. 회원국은 제12조, 제13조 및 제14조의 의미에서의 서비스를 제공하는 자에게 전송하거나 저장하는 정보를 모니터링하거나 위법한 행위를 나타내는 정황을 적극적으로 조사하기 위한 일반적인 의무를 부과하지 않는다.

3) 유럽사법재판소의 판결 내용49)

2019년 10월 3일 유럽사법재판소는 회원국 법원이 플랫폼에50) 이미 위법하다고 결정된 게시물, 해당 게시물과 문구가 동일한 게시물 및 의미가 동등한 게시물을 삭제하거나 접근을 차단하는 가처분 명령을 내리는 것이 전자상거래지침 제15조제1항에서 금지하고 있는 일반적 감시의무 부과에 해당하지 않는다고 판결하였다.51)

유럽사법재판소는 일반적 감시의무의 의미에 관하여 먼저 판단하였다. 전자상거래지침 제15조제1항은 회원국이 플랫폼이 전송하거나 저장하는 게시물에 대한 일반적인 감시의무를 부과하는 것을 금지한다. 그러나 전자상거래지침에 대한 판단지침(recital) 47에 따르면 일반적인 감시의무를 부과하는 것이 금지된다고 하더라도 구체적인 경우에 대한 감시의무(monitoring obligations ‘in a specific case’)까지 금지되는 것은 아니다. 이 때 구체적인 경우에 대한 감시란 관련 회원국의 관할 법원에 의해 그 내용이 분석되고 판단되어 이러한 게시물이 결국 법원의 결정에 따라 위법한 것으로 결정된 게시물과 같은 특정 정보(particular information)에 대한 감시를 의미한다고 한다.52) 유럽사법재판소는 문구가 동일한(identical) 게시물과 의미가 동등한(equivalent) 게시물에 대하여 판단 근거를 나누어 설명한다.

(1) 문구가 동일한 게시물의 경우

플랫폼에 의해 저장된 게시물은 소셜 미디어를 통해 다양한 사용자들에게 신속하게 전달될 수 있기 때문에 위법하다고 판단된 게시물이라고 하더라도 다른 사용자에 의해 공유될 위험성이 존재한다. 따라서 관할법원이 추가적인 피해를 방지하기 위하여 플랫폼에 위법하다고 결정된 게시물과 문구가 동일한 게시물을 차단하거나 삭제하도록 의무를 부과하는 것은 이러한 위험을 해소하기 위한 정당한 수단이라고 보았다.53)

(2) 의미가 동등한 게시물의 경우

유럽사법재판소는 의미가 동등한 게시물을 위법하다고 판단된 내용과 본질적으로 변경되지 않은(essentially unchanged) 게시물로 보았다. 즉, 어떤 게시물이 위법한지를 판단하기 위해서는 특정 단어를 사용하거나 조합하였는지 여부를 기준으로 할 것이 아니라 위법하다고 판단된 게시물이 담고 있는 ‘내용’을 기준으로 해야 하는 것이다.54) 결국, 가처분 명령이 위법한 행위를 중지하고 이로 인한 추가적인 피해를 방지하기 위한 목적을 달성하기 위해서는 그 대상을 위법하다고 판단된 게시물과 본질적으로 같은 의미를 전달하고 있는 게시물에 대해서까지 확장되어야 한다고 보았다. 만약 의미가 동등한 경우로 확장하지 않으면, 이미 위법하다고 판단된 게시물과 거의 다르지 않은 내용을 게시함으로써 해당 가처분 명령의 효력을 쉽게 회피할 수 있고, 피해자는 각각의 게시물에 대해 개별적인 법적 절차를 거쳐야 할 수밖에 없기 때문이다.55)

그러나 전자상거래지침 제15조제1항은 플랫폼이 저장하고 있는 정보에 대하여 회원국이 일반적인 감시를 하도록 가처분 명령을 내리거나, 플랫폼이 적극적으로 위법한 게시물과 관련하여 사실관계를 확인할 것을 요구하지는 않는다. 유럽사법재판소는 의미가 동등한 정보에 대하여 플랫폼이 필터링을 하기 위해서는, 가처분 명령에 기존에 위법하다고 판단된 행위로 인한 ‘피해자의 이름, 위법성이 판단된 상황 및 위법하다고 결정된 게시물과 의미가 동등한 게시물의 예시’와 같은 구체적인 사항이 포함되어야 한다고 보았다. 유럽사법재판소에 따르면 플랫폼은 가처분 명령에 따라 단순히 집행을 할 뿐, 위법하다고 판단된 게시물과 의미상 동등한지 여부에 관하여 독자적인 판단(independent assessment)을 해서는 안된다.56)

유럽사법재판소는 문구가 동일한 게시물 뿐 아니라, 의미가 동등한 게시물에 대해서까지 가처분 명령을 내릴 수 있도록 하는 것이 플랫폼에 과도한 의무를 부과하는 것은 아니라고 보았다. 감시(monitoring) 대상은 가처분 명령에서 구체화된 세부 정보를 포함한 게시물로 제한되고, 의미가 동등한 명예훼손적인 게시물을 발견하는 것은 자동화된 검색도구 및 기술(automated search tools and technologies)의 역할인데, 이는 오늘날의 기술 수준에서 플랫폼에 과도한 부담을 지우지 않기 때문이다.57) 결국, 자동화된 기술을 통해 발견된 명예훼손 게시물의 업로드를 차단할 때, 플랫폼에 독자적인 판단을 할 것이 요구되지 않는 것이다.

2. Poland v. Parliament and Council(C-401/19)
1) 사실관계 및 쟁점

폴란드는 EU저작권지침(Directive [2019/790]) 제17조에서 서비스제공자에게 사용자들이 올리는 콘텐츠에 대하여 사전에 자동적 검증을 받도록 의무를 부과하는 것이 EU기본권헌장 제11조에서 보장하고 있는 표현과 정보의 자유를 침해한다고 주장하였다. 이에 폴란드는 EU저작권지침 제17조가 규정하고 있는 법적 책임의 구조가 EU기본권헌장 제11조에 따른 표현의 자유의 본질적인 부분을 침해하고 그러한 표현의 자유에 부과되는 제한이 비례원칙을 준수하고 있지 않기 때문에 무효라고 문제를 제기하였다.

2) 대상법령의 내용

EU저작권지침58)

제17조

1. 회원국은 온라인 콘텐츠 공유서비스 제공자가 저작권보호를 받는 저작물 또는 그 밖의 보호를 받는 작품들이 온라인 콘텐츠 공유서비스 제공자의 사용자에 의해 업로드되어 일반 공중이 접근할 수 있도록 하는 행위는 이 지침에 따른 “온라인 콘텐츠 공유서비스 제공자에 의한 공중전달 또는 공중이용제공”에 해당함을 명시하여야 한다.

따라서, 온라인 콘텐츠 공유서비스 제공자는 저작물이 공중에 전달되거나 공중의 이용에 제공되도록 하기 위하여 저작권자로부터 라이센스 동의를 얻는 등의 허가를 받아야 한다.

(중 략)

4. 저작권자의 허가를 받지 못한 경우, 온라인 콘텐츠 공유서비스 제공자는 다음 각 호의 어느 하나에 해당하는 경우를 제외하고는 무단으로 저작물 등이 공중에 전달되거나 공중의 이용에 제공되도록 한 사실에 대한 책임을 진다.

(a) 온라인 콘텐츠 공유서비스 제공자가 저작권자의 허가를 받기 위하여 최선의 노력을 다한 경우

(b) 온라인 콘텐츠 공유서비스 제공자가 전문적인 주의의무에 대한 산업계의 높은 기준에 따라 권리자가 온라인 콘텐츠 공유서비스 제공자에게 적절하고 필요한 정보를 제공한 특정 저작물이 이용될 수 없도록 최선의 노력을 다한 경우

(c) 온라인 콘텐츠 공유서비스 제공자가 권리자로부터 충분히 구체적인 통지를 받은 경우 즉시 웹사이트에서 통지받은 저작물에 대한 접근을 불가능하게 하거나 삭제하고 (b)와 관련하여 장래에 탑재되는 것을 방지하기 위하여 최선의 노력을 다한 경우

3) 유럽사법재판소의 판결 내용59)

2022년 4월 26일 유럽사법재판소는 EU저작권지침 제17조가 EU기본권헌장에서 보장하고 있는 표현과 정보의 자유를 침해하지 않는다고 판결하였다. 즉, 플랫폼이 저작권자로부터 정보 또는 통보를 받은 경우 저작권침해에 대한 책임을 지지 않기 위하여 EU저작권지침 제17조제4항 b)와 c)에 따른 최선의 노력의 일환으로 사용자가 업로드하려는 게시물에 대해 필터링을 할 수 있다고 본 것이다. 유럽사법재판소는 인터넷에 업로드되는 파일의 수와 저작권이 보호되는 대상물의 종류 등을 감안할 때 면책을 받기 위한 사전 검토를 위해서는 ‘자동화된 필터링 기술’을 사용할 수 밖에 없다고 보았다. 그리고 이러한 필터링이 온라인 콘텐츠의 전달에 있어 중대한 제약이기 때문에 플랫폼과 그 이용자의 표현의 자유를 제한한다는 점을 인정했다. 다만, EU저작권지침 제17조로 인해 발생하는 표현의 자유에 대한 제한이 EU기본권헌장 제52조에 따라 정당화될 수 있는지를 살펴보았다.60) EU기본권헌장 제52조에서는 헌장에 따른 권리들이 적법하게, 본질을 훼손하지 않는 범위에서 비례원칙에 따라 제한될 수 있다고 규정하고 있기 때문이다.

(1) 필터링이 허용될 수 있는 실질적 기준

먼저, 유럽사법재판소는 EU저작권지침 제17조에 따른 필터링이 허용되기 위해서는 적법한 콘텐츠를 업로드하는 경우에 차단되어서는 안된다고 보았다. 왜냐하면 적법한 콘텐츠와 불법적인 콘텐츠를 적절하게 구분하지 못한다면 필터링은 민주주의 사회에서 필수적인 의사소통을 저해하는 결과를 가져오고, 그 결과 EU기본권헌장 제11조에 따른 표현 및 정보의 자유에 위반될 가능성이 있기 때문이다. EU저작권지침 제17조제7항에서는 저작권의 예외로 “인용, 비판, 검토, 캐리커쳐, 패러디 및 모방” 등을 규정하고 있다. 유럽사법재판소는 이와 같이 표현의 자유와 예술의 자유의 범주에서 보호되는 표현이라면 필터링에 의해 차단되어서는 안된다고 보았다.61) 따라서, 자동화된 기술을 통해 불법적인 콘텐츠를 식별할 수 있는 경우에만 필터링은 허용될 수 있다.

또한, EU저작권지침 제17조제8항이 필터링이 일반적인 감시의무로 나아가서는 안된다고 명시적으로 규정하고 있으므로, 표현 및 정보의 자유에 대한 안전장치가 마련되어 있다고 보았다. Eva Glawischnig-Piesczek 판결에 따르면 플랫폼은 저작권자가 제공한 데이터베이스에 기반하여 저작권위반 여부에 대한 기계적인 필터링을 할 뿐, 적극적으로 저작권위반 사실을 조사하거나 판단할 수 없다. 따라서, 저작권자가 플랫폼에 제공하는 저작권 관련 정보 및 저작권위반에 대한 통지는 별도의 판단이 불필요할 정도로 상세하고 구체적이어야 한다.62) 즉, 어떤 콘텐츠를 업로드하거나 공중에 제공하는 것을 방지하기 위하여 플랫폼이 독자적인 판단(independent assessment)을 하는 것은 허용되지 않는다.

아울러, 유럽사법재판소는 EU저작권지침에 대한 판단지침(recital) 66에 따라 플랫폼이 전문적인 주의의무에 따라 최선을 다했는지 여부는 플랫폼이 성실한 운영자(diligent operator)로서 승인되지 않은 저작물이나 다른 창작물의 이용가능성을 방지하기 위해 현재의 기술력과 비용 등을 고려하여 적절한 방법을 사용했는지 여부를 기준으로 판단해야 한다고 보았다.63) 플랫폼의 필터링이 저작권 보호라는 목적 달성에 효과적이어야 하지만, 이로 인해 플랫폼에 지나친 부담이 부과되는 것은 곤란하기 때문이다.

(2) 필터링이 허용될 수 있는 절차적 기준

유럽사법재판소는 플랫폼이 어떤 콘텐츠를 삭제하거나 차단할 책임은 저작권자가 플랫폼에 적절하고 필요한 정보를 제공한 경우에만 발생한다는 점에 주목하였다. 저작권자가 저작물에 대한 침해를 방지하기 위하여 플랫폼에 정보를 제공하지 않았다면, 플랫폼은 필터링을 위한 데이터베이스를 만들 수 없고, 따라서 필터링을 통한 기본권의 제한이 발생하지 않을 것이기 때문이다.64)

또한, 유럽사법재판소는 EU저작권지침 제17조제9항에서는 필터링으로 인해 이용자가 콘텐츠를 게시하지 못한 경우, 이의제기할 수 있는 절차를 마련하도록 보장하고 있다는 점에 주목하였다. 이용자들이 이의제기 절차를 통해 잘못된 필터링으로 인한 폐단을 시정할 수 있는 기회를 갖는다는 점에서 절차적 접근권이 보장되어 침해의 최소성을 충족한다고 본 것이다. 뿐만 아니라 구제절차가 신속하게 진행되도록 함으로써 이용자들의 권리를 두텁게 보장하고 있기 때문에 필터링으로 인해 표현과 정보의 자유가 제한되더라도 비례원칙에 어긋나지 않아 정당화될 수 있다는 것이다.65)

마지막으로, EU저작권지침 제17조제10항은 플랫폼과 저작권자의 협력을 위하여 관련자 공청회(stakeholder dialogue)를 개최하도록 규정하고 있다. 유럽사법재판소는 공청회에서 논의된 사항을 고려하여 EU저작권지침의 적용에 관한 지침을 만들도록 함으로써 필터링으로 인해 발생할 수 있는 문제점에 대한 보호조치를 마련하고 있다는 점도 필터링이 허용될 수 있다고 판단한 요소 중 하나라고 보았다.66)

Ⅳ. 유럽사법재판소 판결의 의의 : 개정 「전기통신사업법」에 대한 시사점

1. 특정 정보를 발견하기 위한 필터링의 허용
1) 유럽사법재판소의 기준

그동안 유럽사법재판소는 ‘일반적인 감시의무’와 관련하여 플랫폼에 자신들의 사이트에 게시되는 정보를 일반적으로(in general) 발견할 의무를 부과한다면 이는 전자상거래지침에서 금지하는 일반적 감시에 해당한다고 보았다.67) 그러나 Eva Glawischnig-Piesczek 판결에서는 ‘법원이 명예훼손에 해당한다고 판결한 정보’에 대하여 문구가 동일하거나 의미가 동등한 정보와 같이 특정된 정보를 발견하기 위한 의무를 부과하는 것(monitoring obligation in a specific case)은 일반적인 감시의무에 해당하지 않는다고 판단하였다. Eva Glawischnig-Piesczek 판결은 ‘일반적 감시의무’에 대하여 유럽사법재판소가 기존의 해석과 달리 특정 콘텐츠를 제거·차단하기 위하여 감시하는 것을 허용한 첫 번째 판결이라는 점에서 의의가 있다고 할 것이다.

또한, Poland v. Parliament and Council 판결은 일반적 감시의무에 관한 Eva Glawischnig-Piesczek 판결을 인용하면서 플랫폼이 저작권자가 제공한 정보를 바탕으로 콘텐츠에 대한 필터링을 하도록 규정한 EU저작권지침 제17조가 일반적 감시의무를 부과한 것이 아니고, 따라서 EU기본권헌장에 위배되지 않는다고 판단하였다. 이와 관련하여 유럽사법재판소가 일반적 감시의무에 대하여 플랫폼이 무언가를 찾아보는 행위(looking at)를 일반적 감시라고 보던 것을, 어떤 목적을 가지고 찾는 행위(looking for)와 권한을 가진 주체의 요청에 의해 찾는 행위는 일반적 감시에서 제외하는 방향으로 나아갔다는 평가가 있다.68) 이러한 기준에 따르면 필터링은 무조건 금지되는 것이 아니라, 1) 법원이 위법하다고 판단한 콘텐츠를 찾거나 2) 법에 의해 보호받는 콘텐츠에 대한 권리자의 요청으로 그 콘텐츠에 대한 무단 도용이 발생했는지 찾기 위하여 플랫폼에 필터링을 할 의무를 부과하는 경우에는 허용된다. 이러한 유럽사법재판소의 판결은 일반적인 감시의무의 의미를 새롭게 해석함으로써 특정 정보를 발견하기 위한 필터링을 허용했다는 점에서 중요하다고 할 것이다.

2) 「전기통신사업법」에 따른 필터링의 대상이 특정 정보에 해당하는지

「전기통신사업법 시행령」에서는 이용자가 게재하려는 정보의 특징을 분석하여 방송통신심의위원회에서 불법촬영물등으로 심의·의결한 정보에 해당하는지를 비교·식별 후 그 정보의 게재를 제한하는 조치를 규정하고 있는바(제30조의6제2항제3호), 필터링의 대상은 ‘방송통신심의위원회에서 심의·의결된 정보’라고 할 것이다. 그렇다면 「전기통신사업법 시행령」에 따른 필터링의 대상은 ‘권한있는 기관에 의해 불법촬영물에 해당한다고 결정된 정보’로 한정된다는 점에서 특정 정보를 발견하기 위한 필터링에 불과하고, 플랫폼에 ‘일반적 감시의무’를 부과한다고 볼 수 없을 것이다.69) 또한, 불법촬영물등과 관련하여 방송통신심의위원회가 제재조치 및 시정요구를 하는 경우에는 의견진술 기회를 부여하고 있다(「방송통신위원회의 설치 및 운영에 관한 법률」 제25조제2항). 그리고 방송통신심의위원회의 심의에 따라 시정요구를 하는 경우에는 이의신청을 할 수 있다(「방송통신위원회의 설치 및 운영에 관한 법률 시행령」 제8조제5항). 이처럼 불법촬영물등으로 의심되어 신고·삭제요청을 받기만 하면 곧바로 필터링의 대상이 되는 것이 아니라, 필터링의 대상으로 확정되기 위한 절차적 기준도 마련되어 있는 것이다. 따라서 「전기통신사업법」상 불법촬영물등에 대한 필터링조치는 유럽사법재판소에서 제시하는 ‘특정 정보를 발견하기 위한 필터링’ 기준을 충족한다.

2. 자동화된 기술을 통한 독자적인 판단의 배제
1) 유럽사법재판소의 기준

유럽사법재판소는 명예훼손이나 저작권침해 콘텐츠에 대한 필터링 의무를 플랫폼에 부과하더라도 이는 자동화된 기술에 의해 뒷받침되기 때문에 과도한 부담에 해당하지 않는다고 보았다. 이와 관련하여, 두 판결은 모두 플랫폼이 자동화된 기술을 통해 필터링을 할 뿐, ‘독자적인 판단(independent assessment)’을 해서는 안된다고 보았다. 즉, 플랫폼은 ‘자동화된 기술’을 통해 법원이나 권한있는 기관이 위법하다고 판단한 정보 또는 저작권이 등록되어 있는 정보와 일치되는지 여부를 기계적으로 걸러낼 수 있을 뿐, 어떤 게시물이 명예훼손에 해당하는지 여부 또는 저작권에 위배되었는지 여부를 플랫폼이 독자적으로 판단하여 필터링을 하는 것은 허용되지 않는 것이다. 이를 위하여 유럽사법재판소는 필터링을 위하여 사용되는 자동화된 기술이 적법한 콘텐츠와 위법한 콘텐츠를 식별할 수 있어야 한다고 보았다. 이처럼 필터링이 자동화된 기술에 의해 이루어져야 한다는 유럽사법재판소의 기준으로 말미암아 필터링을 할 때 사람의 참여는 배제된다.70) 즉, 플랫폼이 필터링을 할 수 있는 자동화된 기술을 마련하면, 필터링을 위한 인력을 고용하거나 사람의 판단으로 인한 법적 책임 문제로부터 자유로울 수 있게 되는 것이다. 이를 위하여 유럽사법재판소는 Eva Glawischnig-Piesczek 판결에서 법원이 가처분 명령을 내리는 경우 “관련자의 성명, 침해가 발생하게 된 상황, 위법하다고 판단된 것과 동일한 의미를 갖는 콘텐츠”를 특정함으로써 플랫폼의 부담을 경감할 수 있도록 했다. 또한, Poland v. Parliament and Council 판결에서도 유럽사법재판소는 EU저작권지침이 저작권자가 플랫폼에 적절하고 필요한 정보(relevant and necessary information)를 제공하도록 한 것을 근거로, 저작권 보호를 위하여 플랫폼이 독자적인 판단 없이 자동화된 필터링을 하는 것은 허용된다고 보았다.

2) 「전기통신사업법」에 따른 기술의 적용으로 독자적인 판단이 배제되는지

「전기통신사업법 시행령」에서는 기술적·관리적 조치에 관한 세부사항을 방송통신위원회의 고시로 위임하고 있다(제30조의6제3항). 그리고, 「불법촬영물등 유통방지를 위한 기술적·관리적 조치 기준」(방송통신위원회고시 제2021-12호)에서는 사전조치의무사업자가 필터링을 위하여 불법촬영물등이 가지고 있는 고유한 정보를 분석하여 조합한 디지털 데이터인 “특징정보”를 방송통신심의위원회에 요청하도록 규정하고 있고(제12조제1항), 사전조치의무사업자는 이러한 특징정보를 토대로 이용자가 게재하려는 정보의 특징을 분석하여 불법촬영물등에 해당하는지를 비교·식별할 수 있는 기술을 상시적으로 적용하도록 규정하고 있다(제7조제1항). 이를 위하여 사전조치의무사업자는 불법촬영물등에 해당하는 정보인지 여부를 일정 수준 이상으로 식별하기 위하여 성능평가를 통과한 기술을 사용해야 하고, 기술 적용 결과 이용자가 게재하려는 정보가 불법촬영물등으로 식별된 경우에는 해당 정보의 게재를 제한하는 조치를 해야 한다(제7조제2항). 따라서, 사전조치의무사업자는 불법촬영물등에 해당하는지 여부를 특징정보를 식별하는 기술을 통해 확인하고, 불법촬영물등에 해당하기만 하면 게재를 제한해야 하므로 사전조치의무사업자에게 독자적인 판단이나 분석이 추가적으로 요구되지 않는다. 그렇다면, 「전기통신사업법」의 규정은 불법촬영물등으로 심의·의결된 정보를 데이터베이스화하여 사업자에게 이러한 데이터베이스를 바탕으로 불법촬영물등을 식별하여 게재를 제한하는 기술을 상시 적용하도록 한 것에 불과하기 때문에, 유럽사법재판소에서 제시한 ‘자동화된 기술을 통한 플랫폼의 독자적인 판단의 배제’라는 기준을 충족한다.

3. 유럽사법재판소 판결들이 플랫폼의 필터링에 갖는 함의

헌법재판소는 인터넷상 아동음란물의 유통방지를 위한 온라인서비스제공자의 발견의무, 삭제 및 전송방지 조치 의무 부과에 대하여 합헌이라고 결정을 내린 바 있다.71) 발견의무에 대해서는 아동음란물을 발견하기 위한 조치의 구체적인 내용을 대통령령으로 위임한 것이 포괄금지원칙에 위배되지 않는다고 본 것이다. 삭제 및 전송방지 조치의 경우에도 특정 검색어를 기반으로 자료의 검색·전송을 차단하거나, 이미 불법정보를 담고 있는 것으로 판정된 자료의 데이터를 해시값(hash)이나 데이터 고유 특성을 추출한 특징값(DNA) 목록과 대조하여 일치하는 자료를 차단하도록 하는 등의 기술적 조치가 과잉금지원칙을 준수한다는 점을 인정했다. 이러한 기술적인 조치가 불법정보의 보관·유통을 방지하기 위한 실효성 있는 수단인 동시에 침해의 최소성을 만족한다고 판단했기 때문이다.

또한, 헌법재판소는 웹하드 사업자의 불법음란정보의 유통방지를 위한 기술적 조치 등을 규정하고 있는 「전기통신사업법」 제22조의3 및 같은 법 시행령 제30조의3제1항에 대해서도 해당 조항이 웹하드 사업자들의 직업수행의 자유를 침해하지 않는다고 판단하였다.72) 이 결정에서는 ‘음란정보의 검색·전송을 차단하는 조치’를 필터링으로 정의하면서73), 온라인서비스제공자에게 불법음란정보의 유통을 일반적으로 차단할 의무를 부과하는 것이 침해의 최소성 원칙에 위배되지 않는다고 본 것이다.

이처럼 아동음란물이나 불법음란정보에 관한 일련의 헌법재판소 결정이 있기 때문에 필터링조치에 대해서는 충분한 헌법적 해명이 이루어졌다고 볼 수도 있다. 그러나 위의 두 결정에서 헌법재판소는 아동음란물에 대한 삭제 및 전송방지를 위한 구체적 적용 방법은 ‘온라인서비스제공자의 재량’에 맡겨져 있고74), 일반적으로 전문 기술을 갖춘 사업자와 체결한 계약을 통해 필터링이 이루어진다고 보았다75). 즉, 플랫폼사업자는 아동음란물을 삭제하거나 그 전송을 방지하기 위하여 적합한 방법을 선택할 수 있는데, 그 방법이 필터링이었을 뿐, 필터링조치를 할 의무를 법률 또는 시행령에서 직접 부과한 것은 아니었다. 이에 반해, 개정 「전기통신사업법 시행령」의 경우에는 불법촬영물등에 대한 플랫폼사업자의 필터링조치 의무를 명시적으로 규정하고 있다는 점에서 기존의 헌법재판소 결정의 대상이 된 법령과 구조적으로 다르다. 그렇다면, 플랫폼사업자의 필터링조치 의무가 일반적 감시의무 부과에 해당하지 않기 위한 기준은 무엇인지에 대한 헌법적 해명이 여전히 필요한 상황이다.

유럽사법재판소는 플랫폼사업자에 대하여 일반적 감시의무를 부과하는 것은 허용되지 않는다는 점을 재차 확인하였다. 그렇지만 특정 정보를 발견하기 위하여 플랫폼에 필터링 의무를 부과하는 것(monitoring obligations in a specific case)은 일반적 감시의무 부과에 해당하지 않는다고 해석함으로써 필터링의 첫 번째 허용기준을 제시하였다. 그리고 필터링이 허용될 수 있는 두 번째 기준으로 플랫폼이 자동화된 검색 도구 및 기술(automated search tools and technologies)을 사용하고 독자적인 판단(independent assessment)을 하지 않을 것을 요구하였다. 자동화된 검색 도구 및 기술은 헌법재판소에서 기존의 결정에서 언급한 불법정보에 대한 해시값(hash)이나 특징값(DNA) 목록과 대조하여 차단하는 기술과 유사하다. 유럽사법재판소는 여기서 더 나아가 ‘독자적인 판단의 배제’라는 기준을 추가함으로써 필터링이 남용될 수 있는 여지를 차단하고 있는 것이다.

이와 같은 유럽사법재판소의 기준은 플랫폼의 책임을 강화하고, 플랫폼의 자의적인 판단을 방지한다는 측면에서 타당하다. 먼저 ‘특정 정보의 발견’이라는 기준은 플랫폼의 사회적 책임을 강화할 수 있다. 플랫폼은 그동안 일반적 감시가 금지되어 불법정보의 존재를 알 수 없었음을 근거로 법적 책임을 회피할 수 있었다. 그러나 유럽사법재판소가 제시한 기준을 통해 법원의 판결이나 권한있는 자의 요청 등을 통해 특정된 정보에 대해서는 플랫폼이 필터링을 통해 적극적으로 불법정보의 유통을 방지할 책임을 갖게 되었다. 뿐만 아니라 ‘독자적인 판단 배제’라는 기준을 통해 플랫폼이 자의적으로 표현의 자유를 침해하지 못하도록 안전장치를 마련하였다. 법원의 판결이나 권한있는 자의 요청 등을 통해 특정된 정보에 해당하는지 여부는 플랫폼이 아니라 자동화된 검색 도구 및 기술이 식별하게 된다. 즉, 플랫폼은 정해진 기준에 따라 판단의 재량 없이 필터링을 해야 하는 것이다. 이처럼 유럽사법재판소에서 제시하고 있는 ‘특정 정보의 발견이라는 목적’ 및 ‘플랫폼의 독자적인 판단 배제’라는 필터링의 허용 기준은 불법촬영물등에 대한 유통방지를 위하여 필터링 조치의무를 플랫폼에 부과하고 있는 개정 「전기통신사업법」의 헌법적 정당화 논거로서 우리나라에 시사하는 바가 크다고 할 것이다.

Ⅴ. 결론

오늘날 플랫폼은 국가가 담당해왔던 표현의 자유에 대한 규제자로서의 역할을 일정 부분 수행하면서 인터넷 시대의 게이트키퍼(Gatekeeper)로서 그 영향력과 중요성이 날로 커지고 있다. 개정 「전기통신사업법」에서 불법촬영물등이 유통되는 것을 방지하기 위하여 플랫폼에 검색제한조치와 필터링조치를 취할 의무를 부과하는 것 역시 이러한 맥락에서 이해되어야 할 것이다. 인터넷상 표현의 자유와 관련하여 국가와 발화자 외에 플랫폼에 중요한 역할을 부여하고 있는 필터링에 대한 해외에서의 논의는 우리나라에도 시사하는 바가 크다. 특히, 유럽사법재판소의 판결들은 국가와 발화자 사이에서 플랫폼이 표현의 자유를 제한하는 중요한 행위주체로 자리매김했다는 점을 다시 한 번 확인시켜준다는 측면에서도 표현의 자유의 제한에 대한 다자주의 모델을 뒷받침해준다고 할 수 있다.

인터넷 초창기인 2002년에 헌법재판소는 인터넷을 “가장 참여적인 시장”인 동시에 “표현촉진적인 매체”라고 정의하면서, 인터넷상의 표현을 질서위주의 사고만으로 규제하는 것을 경계함과 동시에 “계속 변화하는 이 분야에서 규제의 수단 또한 헌법의 틀 내에서 다채롭고 새롭게 강구”할 것을 당부하였다.76) 사람들의 표현 대부분이 플랫폼을 통해 이루어지고 있는 현재의 인터넷 상황은 헌법재판소의 언급처럼 새로운 헌법의 틀에서 규제되어야 할 필요성이 있다. 성착취물에 대한 피해자를 보호하기 위해서는 인터넷에 의한 정보 유통의 특징인 신속성, 확장성과 익명성, 비대면성에 대한 보다 근본적인 해결책이 필요한 것도 사실이다. 이러한 측면에서 플랫폼에 필터링 의무를 부과하고 있는 개정 「전기통신사업법」은 표현의 자유에 대한 불가피한 제한으로 헌법적 정당성이 인정된다고 볼 수 있다.

아울러, 표현의 내용이 민주주의의 실현을 위한 여론형성과의 관계가 크면 클수록 표현의 보호가치가 더 커지고, 표현의 자유의 헌법적 한계가 그만큼 약해진다고 보아야 할 것인바77), 불법촬영물등과 같은 민주주의의 실현과 무관한 표현의 경우에는 헌법적 보호의 강도 역시 약하다고 볼 수 있을 것이다. 그렇다면, 불법촬영물등으로 인해 사생활의 비밀과 같은 기본권이 침해되는 피해자를 보호하기 위한 수단으로서 「전기통신사업법」에서 마련한 필터링조치는 정당화될 수 있다는 점도 고려되어야 할 것이다.

Notes

* 이 글에서 저자의 견해는 기관의 견해가 아닌 연구자 개인의 견해임을 밝힙니다.

1) 「전기통신사업법」 제22조의5제1항에서 규정하고 있는 ① 「성폭력범죄의 처벌 등에 관한 특례법」 제14조에 따른 촬영물 또는 복제물(제1호), ② 「성폭력범죄의 처벌 등에 관한 특례법」 제14조의2에 따른 편집물·합성물·가공물 또는 복제물(제2호), ③ 「아동·청소년의 성보호에 관한 법률」 제2조제5호에 따른 아동·청소년성착취물(제3호)을 ‘불법촬영물등’으로 통칭하기로 한다.

2) 허진성, “온라인서비스제공자의 불법정보 삭제·차단의무에 대한 연구”, 「언론과 법」 제19권 제2호, 한국언론법학회, 2020, 50면.

3) 2021헌마290(청구인 오픈넷), 2021헌마1521(청구인 가로세로연구소).

4) 이 글에서는 유럽사법재판소 판결에 대한 분석 및 시사점 도출에 중점을 두어, 해당 판결에서 다루어지지 않은 사적 검열(Private Censorship)에 관한 쟁점은 다루지 않는다. 검열의 주체 및 시기를 엄격하게 판단하는 헌법재판소의 기존 결정을 고려할 때(헌재 1996. 10. 04. 93헌가13, 헌재 1998. 12. 24. 96헌가23 등 참조), 플랫폼의 필터링이 검열에 해당한다고 보기는 어렵기 때문이다. 이러한 검열의 사전성 및 행정기관성을 인터넷상 표현에 적용하는 것이 인터넷이라는 매체의 특성을 고려할 때 타당하지 않다고 문제를 제기하는 견해로는 최규환, “인터넷서비스사업자의 사적 검열”, 「공법학연구」 제21권 제2호, 한국비교공법학회, 2020, 249-254면; 임효준, 「매체환경 변화와 검열금지」, 경인문화사, 2022, 69-71면.

5) 정재황, 「헌법학」, 박영사, 2022, 1016면.

6) 성낙인, 「헌법학」, 법문사, 2022, 1324면; 정종섭, 「헌법학원론」, 박영사, 2022, 635면.

7) 최규환, 앞의 논문(각주 4), 2020, 234면.

8) 박용상, 「언론의 자유」, 박영사, 2013, 983면.

9) 헌재 2002. 06. 27. 99헌마480.

10) 정재황 앞의 책(각주 5), 2022, 1080면.

11) 박용상, 앞의 책(각주 8), 2013, 984면; 김하열, 「헌법강의」, 박영사, 2022. 473-474면.

12) Tarleton Gillespie, Custodians of the Internet Platforms, Content Moderation and the Hidden Decisions that Shape Social Media, Yale University Press, 2018, pp. 5-9. 길레스피(Gillespie)는 플랫폼이 그 이용자들을 지나치게 공격적인 표현, 불법적인 콘텐츠들로부터 보호하기 위하여 이러한 관리를 할 수 밖에 없었으나, 이러한 활동이 공개적으로 드러나지 않도록 주의를 기울이는 등 콘텐츠 모더레이션에 대해 이중적인 태도를 취하고 있다고 지적한다.

13) 박용상, 앞의 책(각주 8), 2013, 983면; 최규환, 앞의 논문(각주 4), 2020, 227면.

14) 이와 관련한 저서로 Gillespie, op. cit.(각주 12), 2018. pp. 173-196; Julie E. Cohen, Between Truth and Power: The Legal Constructions of Information Capitalism, Oxford University Press, 2019, p.15. 이하; 논문으로, Kate Klonick, “The New Governors: The People, Rules, and Processes Governing Online Speech”, Harvard Law Review Vol. 131, 2018.; Jack M. Balkin, “Free Speech Is a Triangle”, Columbia Law Review Vol. 118, No. 7, 2018; Kyle Langvardt, “Regulating Online Content Moderation”, Georgetown Law Journal, Vol. 106, 2018. 등.

15) 황성기, “사적 검열에 관한 헌법학적 연구”, 「세계헌법연구」 제17권 제3호, 국제헌법학회 한국학회, 2011, 172면; 권헌영, “인터넷상 표현의 자유보장에 관한 헌법구조적 한계와 과제”, 「언론과법」 제10권 제2호, 한국언론법학회, 2011, 85면; 최규환, 앞의 논문(각주 4), 2020, 225면.

16) 이와 관련하여 플랫폼은 전기통신사업법상 타인통신매개 또는 타인통신용 설비제공에 해당하지 않고, 정보통신망법에 따른 정보제공에 불과하므로 부가통신사업자에 해당하지 않는다는 반론으로, 박상철, “플랫폼법”, 「저스티스」 통권 제188호, 한국법학원, 2022, 353-365면.

17) 이상규, “양면시장의 정의 및 조건”, 「정보통신정책연구」 제17권 제4호, 정보통신정책학회, 2010, 75면.

18) 박상철, 앞의 논문(각주 16), 2022, 348면.

19) Gillespie, op. cit.(각주 12), 2018, pp.33-35.

20) Gillespie, ibid., p.5.

21) 신종철, 「통신법 해설」, 진한 M&B, 2019, 45면.

22) 신종철, 위의 책, 62면.

23) 「전기통신사업법」 개정안[의안번호 제2024924호(이원욱 의원 대표 발의)] 제안이유서. 이 개정안은 다른 전기통신사업법 개정안과 통합되어 대안으로 통과되었다.

24) 김현경, “플랫폼 사업자 규제법안에 대한 비판적 검토”, 「법조」 제728호, 법조협회, 2018, 150-155면. 이러한 맥락에서 「전기통신사업법」은 불법촬영물등의 유통방지를 위한 조치를 취하지 않은 사업자에 대하여 ‘사업자의 지위’를 박탈하도록 규정하고 있으나(제27조제1항제3호의4 및 제3호의5), 정보통신망법은 불법촬영물등 유통방지 책임자를 지정하지 않은 행위에 대하여 과태료를 부과하도록 규정하고 있다.

25) 이창범·황창근·정필운, 「이론&실무 정보통신망법」, 박영사, 2021, 15면.

26) 박성호, 「저작권법」, 박영사, 2014, 698면.

27) Jack M. Balkin, “Old-school/New-school Speech Regulation”, Harvard Law Review Vol. 127, 2014. p.2297.

28) Jack M. Balkin, op. cit.(각주 14), 2018, p.2012, pp.2014-2016. 이러한 삼각구조는 기본권의 대사인적 효력(유럽사법재판소에서는 수평적 효력(horizontal effect)이라고 표현한다)과 작용 양상이 비슷하다. 기본권의 대사인효는 1958년 독일에서 Lüth 판결을 통해 처음으로 인정되고, 유럽사법재판소에서도 1974년 Walrave v. Union Cycliste Internationale(C-36/74) 판결을 통해 인정하였으나 우리나라에서는 부정되고 있다. 따라서, 인터넷의 발달과 플랫폼의 등장으로 사적 주체에 의한 기본권의 제한이 사회적으로 큰 문제가 될 수 있다는 점에서 기본권의 대사인적 효력을 인정할 것인지에 대한 고민이 필요한 시점이다. 기본권의 침해구조를 국가행위의 관점에서 접근해왔던 미국에서도 기본권의 대사인효를 인정할 필요가 있다고 연구한 문헌으로, Stephen Gardbaum, “The Horizontal Effect of Constitutional Rights”, Michigan Law Review Vol. 102, 2003, pp.394-411.

29) Jack M. Balkin, ibid., p.2021.

30) Kate Klonick, op. cit.(각주 14), 2018. pp.1631-1635. 클로닉(Klonick)은 페이스북, 유튜브 등의 담당자들과의 인터뷰를 통해 플랫폼들이 콘텐츠 모더레이션을 위한 인력을 고용하고, 이용자들이 작성한 게시물이 적절한지 여부를 판단하는 상세한 내부지침을 규정함으로써 법규와 같은 기준을 가지고 온라인상에서 허용되는 표현과 그렇지 않은 표현의 경계를 획정하고, 기준에 어긋나는 표현에 대한 제재를 가할 수 있다는 점에서 인터넷상에서 사실상 새로운 통치자(new governors)로서의 역할을 하고 있다는 데에 주목한다. 이러한 관점에서 Klonick은 그동안 미국 대법원 판결에서 인터넷 중개자(intermediaries)에 대해서는 국가행위 이론이나 공적 기능이 적용되지 않았지만, 앞으로 소셜미디어와 같은 플랫폼에 대해서 준(準) 공적 기능(quasi-municipal function)을 인정할 수 있을지 귀추가 주목된다고 한다. 이와 관련해서는 Klonick, 위의 논문, p.1611, pp.1616-1617, p 1630.

31) Kate Klonick, ibid., p.1617.

32) Jack M. Balkin, op. cit.(각주 14), 2018, p.2015. 및 p.2021.

33) Google Spain SL v. Agencia Española de Protección de Datos(C-131/12).

34) Jack M. Balkin, op. cit.(각주 14), 2018, p.2029. 플랫폼을 새로운 참여자로 보는 다자주의 모델에 대하여, 플랫폼이 국가의 역할을 대신 수행할 뿐이라는 점에서 국가행위 이론(State Action Doctrine)의 연장으로 보는 견해로는, Mark V. Tushnet, “The Kids Are All Right: The Law of Free Expression and New Information Technologies”, Harvard Public Law Working Paper No. 21-09, 2020, p.5. 이와 유사한 취지에서 국가가 법률을 통해 플랫폼에 불법정보의 유통을 방지하기 위한 기술적 조치를 취할 의무를 규정한 경우, 플랫폼은 수탁자로서 유통방지를 위한 조치를 실행할 의무를 갖게 된다는 견해로 이부하, “인터넷상 아동·청소년 성(性) 표현물의 법률적 규제에 대한 헌법적 고찰”, 「법학논고」 제60집, 경북대학교 법학연구원, 2017, 94-95면.

35) 최규환, 앞의 논문(각주 4), 2020, 242면; 표현의 자유를 제한받는 것은 이용자이지만, 명령이나 처벌의 객체는 플랫폼여서 침해의 직접성 등을 고려할 때 헌법소원 등의 사법적 권리구제가 어려울 수 있다는 점을 지적하는 견해로, 김하열, 앞의 책(각주 24), 2022, 474면.

36) 이 용어를 “통제”로 번역한 문헌으로는, 최규환, 앞의 논문(각주 4), 235면. 콘텐츠 모더레이션은 삭제 등 강력한 수단을 활용하기도 하고, 신고된 게시물임을 알리는 등 완화된 수단을 활용하기도 한다는 점에서 통제보다는 조정이나 관리에 가깝지만 영문의 느낌을 그대로 살리기 위해 이 글에서는 “콘텐츠 모더레이션”을 그대로 사용한다. 같은 취지에서 모더레이션을 그대로 사용한 문헌으로, 홍남희, “디지털 플랫폼에 의한 ‘사적 검열 (private censorship)’”, 「미디어와 인격권」 제4권 제2호, 언론중재위원회, 2018, 138면.

37) Gillespie, op. cit.(각주 12), 2018, p.5.

38) Langvardt, op. cit.(각주 14), 2018, p. 1359.

39) Cohen, op. cit.(각주 14), 2019, p.250.

40) Jack M. Balkin, op. cit.(각주 14), 2018, pp.2016-2019.

41) 최규환, 앞의 논문(각주 4), 236면.

42) Martin Husovec, “(Ir)Responsible Legislature? Speech Risks under the EU’s Rules on Delegated Digital Enforcement”, (https://ssrn.com/abstract=3784149 or http://dx.doi.org/10.2139/ssrn.3784149) 2021, p. 4. 후소벡(Husovec)은 과도한 콘텐츠의 제거(removing without need, over-compliance)는 처벌받지 않지만, 미흡한 제거(failing to remove, under-compliance)는 처벌받는다는 점에서 플랫폼이 비대칭적인 유인체계(asymmetric incentives)를 갖게 된다고 본다.

43) Husovec, ibid., pp. 3-4; 최규환, 앞의 논문(각주 4), 241면. 플랫폼의 콘텐츠 모더레이션으로 인한 사적 검열 우려에 대해서는 임효준, 최규환, 홍남희 등의 논의가 있으나, 이 글에서는 필터링에 대하여, 검열로서의 성격보다는 표현의 자유에 대한 사전적 제한으로서의 성격과 그 정당화를 검토하기 때문에 사적 검열에 대한 논의는 제외하기로 한다.

44) Kate Klonick, op. cit.(각주 14), 2018, 1635-1648면.

45) Kate Klonick, ibid., 1636-1637면.

46) 이형석·김정기, “언론과 인터넷상 사적사실공개로 인한 프라이버시권 침해에 관한 연구-미국연방대법원과 주 법원 판결을 중심으로”, 「원광법학」 제35권 제1호, 원광대학교 법학연구소, 2019, 177면.

47) 전자상거래지침 대상 규정의 번역과 관련하여 언론중재위원회, 해외언론관계판결집 제1집, 2020, 201-202면 참조.

48) Article 14.

48) 1. Where an information society service is provided that consists of the storage of information provided by a recipient of the service, Member States shall ensure that the service provider is not liable for the information stored at the request of a recipient of the service, on condition that:

48) (a) the provider does not have actual knowledge of illegal activity or information and, as regards claims for damages, is not aware of facts or circumstances from which the illegal activity or information is apparent;

48) or

48) (b) the provider, upon obtaining such knowledge or awareness, acts expeditiously to remove or to disable access to the information.

48) Article 15(1)

48) Member States shall not impose a general obligation on providers, when providing the services covered by Articles 12, 13 and 14, to monitor the information which they transmit or store, nor a general obligation actively to seek facts or circumstances indicating illegal activity.

49) 동일한 게시물 및 의미가 동등한 게시물에 대한 삭제의무와 관련한 판결의 내용으로 한정하고 역외 적용에 대한 부분은 제외하기로 한다.

50) 유럽사법재판소의 판결에서는 ‘hosting provider’라고 규정하고 있으나, 이 글의 문맥에 따라 플랫폼으로 변형하여 기술한다.

51) 유럽사법재판소가 페이스북, 트위터 등 SNS 서버 운영자에게 인권침해 내용 게시물을 의무적으로 삭제하도록 하는 판결을 내렸다고 해당 판결을 소개한 문헌으로는, 허영, 「한국헌법론」, 박영사, 2022, 623면.

52) Eva Glawischnig-Piesczek v. Facebook Ireland Limited(C-18/18), paras. 34-35.

53) 위의 판결. 36-37.

54) 위의 판결, paras. 39-40.

55) 위의 판결, para. 41.

56) 위의 판결, para. 42 & para. 45.

57) 위의 판결, para. 46.

58) Article 17(Use of protected content by online content-sharing service providers)

58) 1. Member States shall provide that an online content-sharing service provider performs an act of communication to the public or an act of making available to the public for the purposes of this Directive when it gives the public access to copyright-protected works or other protected subject matter uploaded by its users.

58) An online content-sharing service provider shall therefore obtain an authorisation from the rightholders referred to in Article 3(1) and (2) of Directive 2001/29/EC, for instance by concluding a licensing agreement, in order to communicate to the public or make available to the public works or other subject matter.

58) (중 략)

58) 4. If no authorisation is granted, online content-sharing service providers shall be liable for unauthorised acts of communication to the public, including making available to the public, of copyright-protected works and other subject matter, unless the service providers demonstrate that they have:

58) (a) made best efforts to obtain an authorisation, and

58) (b) made, in accordance with high industry standards of professional diligence, best efforts to ensure the unavailability of specific works and other subject matter for which the rightholders have provided the service providers with the relevant and necessary information; and in any event

58) (c) acted expeditiously, upon receiving a sufficiently substantiated notice from the rightholders, to disable access to, or to remove from their websites, the notified works or other subject matter, and made best efforts to prevent their future uploads in accordance with point (b).

59) 유럽사법재판소에서는 비례원칙 중 최소침해원칙에 따라 정당화될 수 있는지를 중심으로 논리를 전개하였는데, 최소침해원칙이 준수되었는지 여부를 판단하는 기준을 필자가 1) 실질적 요건과 2) 절차적 요건으로 나누어 분석하였다.

60) Poland v. Parliament and Council(C-401/19), paras. 53-55.

61) 위의 판결, paras. 86-87.

62) 위의 판결, paras. 90-91.

63) 위의 판결, para. 91.

64) 위의 판결, para. 89.

65) 위의 판결, paras. 93-95.

66) 위의 판결, para. 96.

67) 일반적인 모니터링 의무 부과에 대한 사건으로, 1) 상표권에 관한 분쟁과 관련하여 L’Oreal v. eBay(C-324/09), 2) 저작권에 관한 분쟁과 관련하여 Scarlet Extended v. SABAM (C-70/10), SABAM v. Netlog(C-360/10), Tobias McFadden v Sony Music Entertainment Germany GmbH(C-484/14)

68) Martin Senftleben & Christina Angelopoulos, “The Odyssey of the Prohibition on General Monitoring Obligations on the Way to the Digital Services Act: Between Article 15 of the E-Commerce Directive and Article 17 of the Directive on Copyright in the Digital Single Market”, Amsterdam/Cambridge, 2020, p. 9. 해당 논문에서 저자들은 일반적 감시의무를 금지하는 기존의 입장을 기본해석(Basic Interpretation: ‘What are you looking at’)으로 보고, 예외적으로 감시가 허용될 수 있는 경우를 제외하는 축소된 기본해석(Basic Interpretation Minus: ‘What are you looking for and What is the authority of the requester?’)을 유럽사법재판소의 판결을 분석하는 틀로 제시한다.

69) 방송통신심의위원회에서 심의·의결한 정보를 플랫폼에서 필터링의 대상으로 삼을 경우, 행정기관의 관여로 인해 헌법상 금지되는 검열의 문제가 발생할 수 있는지에 대한 검토가 필요할 수 있다. 그러나, 방송통신심의위원회의 심의·의결이 사후적 절차라는 점(「전기통신사업법」 제22조의5제1항 및 같은 법 시행령 제30조의5제3항) 및 필터링의 주체는 심의·의결을 한 방송통신심의위원회가 아니라 플랫폼이라는 점을 고려할 때, 방송통신심의위원회가 불법촬영물등으로 심의·의결한 정보를 플랫폼이 필터링한다고 해서 검열의 요건을 충족했다고 보기는 어려울 것이다.

70) Clara Raucheggar & Aleksandra Kuczerawy, “Injunctions to remove illegal online content under the eCommerce Directive: Glawischnig-Piesczek”, Common Market Law Review Vol. 57, 2020, p. 1507; Daphne Keller, “Facebook Filters, Fundamental Rights, and the CJEU’s Glawischnig-Piesczek Ruling”, GRUR International, Vol 69(6), 2020, pp. 618-619. 이 두 논문에서 저자들은 현재의 기술력으로는 사람에 의한 개입없이 이루어지는 자동화된 필터링 기술이 오류가 많을 수 있다는 이유로 유럽사법재판소의 판결을 비판한다.

71) 헌재 2018. 06. 28. 2016헌가15.

72) 헌재 2018. 06. 28. 2015헌마545.

73) 불법촬영물등의 유통방지를 위한 기술적·관리적 조치를 규정하고 있는 「전기통신사업법 시행령」제30조의6제2항의 경우 검색제한조치와 필터링조치를 구분하여 규정하고 있다.

74) 헌재 2018. 06. 28. 2016헌가15.

75) 헌재 2018. 06. 28. 2015헌마545.

76) 헌재 2002. 06. 27. 99헌마480.

77) 허영, 앞의 책(각주 51), 640면.

[참고문헌]

1.

김하열, 헌법강의, 박영사, 2022.

2.

박용상, 언론의 자유, 박영사, 2013.

3.

박성호, 저작권법, 박영사, 2014.

4.

성낙인, 헌법학, 법문사, 2022.

5.

신종철, 통신법 해설, 진한 M&B, 2019.

6.

언론중재위원회, 해외언론관계판결집 제1집, 2020.

7.

이창범·황창근·정필운, 이론&실무 정보통신망법, 박영사, 2021.

8.

임효준, 매체환경 변화와 검열금지, 경인문화사, 2022.

9.

정재황, 헌법학, 박영사, 2022.

10.

정종섭, 헌법학원론, 박영사, 2022.

11.

허 영, 한국헌법론, 박영사, 2022.

12.

COHEN, Julie E., Between Truth and Power: The Legal Constructions of Information Capitalism, Oxford University Press, 2019.

13.

GILLESPIE, Tarleton, Custodians of the Internet Platforms, Content Moderation and the Hidden Decisions that Shape Social Media, Yale University Press, 2018.

14.

권헌영, “인터넷상 표현의 자유보장에 관한 헌법구조적 한계와 과제”, 「언론과법」 제10권 제2호, 한국언론법학회, 2011.

15.

김문환, “EU 인터넷저작권법(지침) 에 대한 고찰”, 「저스티스」 통권 제173호, 한국법학원, 2019.

16.

김현경, “플랫폼 사업자 규제법안에 대한 비판적 검토”, 「법조」 제728호, 법조협회, 2018.

17.

박상철, “플랫폼법”, 「저스티스」 통권 제188호, 한국법학원, 2022.

18.

이상규, “양면시장의 정의 및 조건”, 「정보통신정책연구」 제17권 제4호, 정보통신정책학회, 2010.

19.

이부하, “인터넷상 아동·청소년 성표현물의 법률적 규제에 대한 헌법적 고찰”, 「법학논고」 제60집, 경북대학교 법학연구원, 2017.

20.

이형석·김정기, “언론과 인터넷상 사적사실공개로 인한 프라이버시권 침해에 관한 연구-미국연방대법원과 주 법원 판결을 중심으로”, 「원광법학」 제35권 제1호, 원광대학교 법학연구소, 2019.

21.

최규환, “인터넷서비스사업자의 사적 검열”, 공법학연구 제21권 제2호, 한국비교공법학회, 2020.

22.

허진성, “온라인서비스제공자의 불법정보 삭제· 차단의무에 대한 연구-전기통신사업법과 정보통신망법의 개정 내용을 중심으로”, 「언론과법」 제19권 제2호, 한국언론법학회, 2020.

23.

홍남희, “디지털 플랫폼에 의한 ‘사적 검열 (private censorship)’”, 「미디어와 인격권」 제4권 제2호, 언론중재위원회, 2018.

24.

황성기, “사적 검열에 관한 헌법학적 연구”, 「세계헌법연구」 제17권 제3호, 국제헌법학회 한국학회, 2011.

25.

BALKIN, Jack M., “Old-school/New-school Speech Regulation”, Harvard Law Review Vol. 127, 2014.

26.

BALKIN, Jack M., “Free Speech is a Triangle”, Columbia Law Review Vol. 118, No. 7, 2018.

27.

GARDBAUM, Stephen, “The Horizontal Effect of Constitutional Rights”, Michigan Law Review Vol. 102, 2003.

28.

HUSOVEC, Martin, “(Ir)Responsible Legislature? Speech Risks under the EU’s Rules on Delegated Digital Enforcement”, 2021.

29.

KELLER, Daphne, “Facebook Filters, Fundamental Rights, and the CJEU’s Glawischnig-Piesczek Ruling”, GRUR International, Vol. 69(6), 2020.

30.

KLONICK, Kate, “The New Governors: The People, Rules, and Processes Governing Online Speech”, Harvard Law Review Vol. 131, 2018.

31.

LANGVARDT, Kyle, “Regulating Online Content Moderation”, Georgetown Law Journal, Vol. 106, 2018.

32.

RAUCHEGGAR, Clara & KUCZERAWY, Aleksandra, “Injunctions to remove illegal online content under the eCommerce Directive: Glawischnig-Piesczek”, Common Market Law Review Vol. 57, 2020.

33.

SENFTLEBEN, Martin & ANGELOPOULOS, Christina, “The Odyssey of the Prohibition on General Monitoring Obligations on the Way to the Digital Services Act: Between Article 15 of the E-Commerce Directive and Article 17 of the Directive on Copyright in the Digital Single Market”, Amsterdam/Cambridge, 2020.

34.

TUSHNET, Mark V., “The Kids Are All Right: The Law of Free Expression and New Information Technologies”, Harvard Public Law Working Paper No. 21-09, 2020.