플랫폼 사업자의 입맛에 따라 콘텐츠 차별 가능
Al 성장 잠재력 크지만 디지털 윤리 정립 절실

구글(Google)의 비윤리적인 검열 체계가 내부고발자에 의해 고발된다.  내부고발자는 구글과 유튜브에서 자크 보르히스(Zach Vorheis) 선임  소프트웨어 엔지니어이다. 그는 950페이지가 넘는 구글의 내부 문서를 법무부에 전달한다.  내부고발 동반자로 미국 탐사보도업체 ‘프로젝트 베리타스(Project Veritas)’를 선택한다. 워싱턴포스트·뉴욕타임즈 등과 같은 기존 언론은 구글의 영향력에서 자유롭지 못하다고 판단했기 때문. 프로젝트 베리스타는 구글의 검열시스템을 대중에 알린다.  프로젝트 베리타스 창업자 제임스 오키프(James O'Keefe)의 트위터 계정은  2021년 4월15일 트위터에 의해 영구 정지된다. ‘플랫폼 조작 및 스팸 관련 정책’을 위반했다는 이유.  지난해 11월 21일 일론 머스크가 트위터를 인수한 뒤에 계정은 부활된다. 프로젝트 베리타스는 2011년 설립된 탐사보도가 전문인 비영리 저널리즘이다. 정치와 자본의 권력에서 자유롭게 활동하고 있다. 'IT공룡' 구글을 위험에 빠트린  내부고발자가 보르히스의 내부고발에 대해 알아보자. 

구글 창업자  래리 페이지(좌) 세르게이  브린(우)
구글 창업자 래리 페이지(좌) 세르게이 브린(우)

유일한 내부고발자이지만 파급 효과 미미
세계 최대 규모의 인터넷 제국을 건설한 구글과 싸우고 있는 보르히스는 2021년 7월 자신이 파악한 구글의 내부 정보를 포함해 ‘구글 폭로(Google Leaks)'라는 책을 출간한다. 책의 내용은 구글이 정치적으로 편향됐다. 자체적으로 개발한 인공지능(AI) 기술을 잘못 활용하고 있다는 것.

보르히스의 내부고발 과정을 간략하게 정리하면 다음과 같다.

보르히스가 구글의 경영정책이 정치적으로 편향됐다고 판단한 계기는 2016년 11월경으로 거슬러 올라간다. 미국 대통령에 공화당 후보인 도널드 트럼프가 당선된다.  진보 진영은 망연자실해 진다. 반이민정책과 ‘미국 우선주의’와 같은 트럼프의 공약이 그동안 미국이 추구하던 가치와 정반대라고 생각했기 때문.

구글의 경영진도 트럼프의 당선이 외국인에 대한 혐오와 증오의 승리라고 비난하며 대책을 마련해야 한다고 판단한다. 특히 트럼프의 당선에 언론의 오보와 가짜 뉴스가 결정적으로 기여했다고 판단한다. 가짜 뉴스를 퇴출하기 위해 인공지능(AI)을 활용해야 한다는 내부 목소리가 높아진다.

구글은 2020년 10월부터 유튜브에 있는 가까 뉴스 채널을 삭제한 이른바 ‘디지털 윤리 청소’를 단행한다. 당시 퇴출된 채널 대부분이 트럼프를 지지하는 채널이었다는 것이 보르히스의 주장이다. 구글은 모든 사용자에게 안전한 공간을 만들기 위해 커뮤니티 가이드를 위반한 콘텐츠를 삭제했다고 반박한다. 

유튜브가 채널을 폐쇄하는 3가지 이유는 △콘텐츠 형태와 관계없이 커뮤니티 가이드 또는 서비스 약관을 반복적으로 위반(악의적이거나 증오심을 조장하거나 인신 공격성 동영상 또는 댓글을 반복적으로 게시하는 경우) △1회 이상 심각한 서비스 악용(약탈적 행위, 스팸 또는 음란물 등) △정책을 위반하는 콘텐츠(증오심 표현, 명의 도용 등)를 주로 게시 등이다.

보르히스는 구글의 채널 삭제 조치에 대항해 투쟁하는 중이다.

2020년 10월 크라우드 펀딩 사이트인 코펀드미(GoFundMe)에서 소송비를 마련해 해당 채널을 복구하라는 소송을 제기한다. 하지만 곧바로 긴급 가처분은 기각을 당힌다. 항소를 한다. 받아들여질 가능성도 낮다.

보르히스는 2021년 3월 프로젝트 베리타스와 인터뷰하며 각종 의혹을 추가한다. 이어서 동년 7월 자신이 구글에서 쌓은 경험과 정책에 관한 의견을 포함한 책을 출간한다. 구글의 유일한 내부고발자라는 호칭과 어울리지 않게 책은 흥행에 실패한다.

디지털 윤리(Digital Ethics)라는 용어조차 익숙하지 않은 국내에서는 이 책에 관심을 가진 독자가 많지 않아 번역서도 출간되지 않았다. 내부고발 자체가 불법행위보다 정치적 이슈와 관련됐다는 점도 성공 가능성을 낮췄다. 

구글 내부고발자 자크 브리히스
구글 내부고발자 자크 브리히스

디지털 윤리 논의 정치 편향 해결 필요

트럼프 전 대통령은 비주류 정치인이다. 사회관계망서비스(SNS)를 적극 활용하며 정치적 기반을 쌓아 대통령에 당선된다.

극우의 정치 논리를 대변하며 백인 남성과 중장년층의 지지를 이끌어낸다. 하지만 지지층의 외연을 넓히지는 못했다. 구글의 내부고발이 주는 사회적 시사점은 다음과 같다.

첫째, 구글 경영진이 자신들의 정치성향을 회사의 경영정책을 수립하는데 반영해도 되는지 여부다. 구글 경영진은 진보적인 정치성향을 갖고 있다. 공화당보다 민주당을 지지한다. 구글뿐 아니라 실리콘밸리에 있는 ICT기업 경영진 대부분은 진보에 속한다. 

보수의 주장 중 일부 내용을 가짜 뉴스라고 판단해 삭제하면서 논란이 촉발된다. 미국의 대통령은 4년마다 민주적인 절차를 거친 선거를 통해 결정된다. 때문에 구글과 같은 막강한 영향을 가진 ICT기업이 개입해서는 안 된다는 것이 보르히스가 내부고발을 단행한 논리다. 

하지만 미국 언론사나 대기업도 정치성향을 적나라하게 드러내고 지지후보를 밝히기 있다.  구글이 거대 기업이라는 이유로 예외라는 주장은 맞지 않다는 것이 전문가들의 견해다. 경영진은 주주로부터 실적을 평가받고 있다.  사용자의 니즈를 충족하기 위해 노력하기 때문이다.  

둘째, 구글이 플랫폼에 올라온 게시물이 자사 서비스정책에 부합하지 않는다는 이유로 검열하는 것은 바람직하지 않다는 주장이다. 비판론자는 콘텐츠를 규제할 수 있다는 약관을 미리 공개했다. 약관에 동의하지 않으면 서비스에 가입하지 않으면 된다는 논리로 반박한다. 

유튜브 뿐만 아니라 트위터·메타 플랫폼도 사용자를 규제하는 정책을 갖고 있다. 2020년 5월26일 트위터는 트럼프 대통령의 계정에 팩트 체크 버튼을 붙였다. 트럼프가 ‘대선 우편투표(mail-in ballots)가 선거 조작으로 이어질 수 있다’는 트윗을 날렸기 때문. 팩트 체크가 필요하다는 것은 주장이 거짓일 가능성이 높다는 의미다. 

트럼프는 ‘언론 자유를 억압한다’는 주장을 펼쳤지만 받아들여지지 않았다. 트위터·페이스북·유튜브 등 SNS는 엄밀하게 언론이 아니며 SNS는 자신들이 발행·방송하는 내용에 대해 책임을 져야 하는 신문사·방송사·출판사와 달리 플랫폼에 게재된 콘텐츠의 법적 책임에서 자유롭다.

문제는 가짜 뉴스에 대한 법적 책임을 부담할 필요가 없는데도 엄격한 서비스 정책을 유지한다는 점이다. 하지만 대부분의 전문가는 사용자를 보호해 서비스를 활성화시키기 위한다는 목적에 동의한다. 미국 통신품위법(Communication Decency Act·CDA) 230조는 SNS 기업에 이용자가 올린 게시물에 관한 법적 책임을 면제하고 있다.

셋째, 가짜 뉴스와 증오 발언을 필터링하기 위해 개발된 머신러닝과 같은 AI 기술의 용도에 관한 논란이다. 보르히스는 AI를 사회 정의를 구현하기 위해 사용하면 ‘공정’하지만 정치 개입은 공정하지 않다는 주장한다. 

우리나라에서도 네이버·다음과 같은 포탈이 정치 관련 뉴스를 편향적으로 편집한다는 논란이 자주 제기되고 있다. 가짜 뉴스와 혐오 발언의 용어를 명확하게 정의하기 어려운 점도 정치권과 포탈의 갈등을 부추긴다. 어느 나라를 막론하고 정치인은 항상 아전인수식으로 뉴스를 소비하며 상대 진영을 공격한다.

AI가 공정성을 스스로 판단할 수 있을 정도로 개발되지 않은 점도 논란을 가중시킨다. 트럼프가 반이민정책을 추진하며 내세운 근거가 논리적 비약에서 출발했다는 비판도 겸허하게 수용해야 한다. 그렇다고 구글의 AI 개발자가 공정을 판단한 합리적인 기준을 갖고 있다고 믿기 어렵다.

넷째, 구글이 개발한 AI가 디지털 윤리를 준수하고 있는지 여부다. 2016년 구글 딥마인드가 개발한 알파고(AlphaGo)가 우리나라 이세돌 9단과 대결해 4 대 1로 승리하며 AI의 성장 가능성에 대한 기대감이 커졌다. 인간의 두뇌를 뛰어넘어 감정까지 가진 AI가 나올 수 있기 때문이다. 

구글의 AI는 △잘못된 언어 학습의 위험 △악용될 여지 △감정을 표현할 능력 보유 등과 같은 부작용이 예견되고 있다. 머신러닝 자체가 다량의 데이터를 통해 학습해야 하는데 인종·성차별 등과 관련된 데이터가 섞일 가능성이 높다. 

또한 가짜 뉴스를 찾아낼 수 있을 뿐만 아니라 가짜 뉴스를 만들어 유포하는데 활용될 여지도 충분하다. 챗봇(chat bot)에 사용되는 람다(Language Models for Dialogue Application·LaMDA)는 인간과 같이 감정을 표현할 능력이 있다는 주장마저 제기됐다. AI의 활용 용도에 따라 ‘학대’인지를 판별하는 윤리적 이슈가 검토돼야 하는 이유다.

 

관련기사

저작권자 © 공정뉴스 무단전재 및 재배포 금지