
선거 공정성에 대한 신뢰 훼손, 민주주의의 합의 정신 침식
인공지능이 생성하는 콘텐츠가 세계적으로 선거의 중요한 요소가 되었지만, 이들 콘텐츠는 대부분 ‘악의적으로 유권자들을 오도하고 민주적 절차의 신뢰성을 떨어뜨리고 있다’고 뉴욕타임스가 보도했다.
뉴욕타임스는 최근(6월 27일 자) 허위 정보에 관한 기사를 쓰는 스티븐 리 마이어스와 스튜어드 톰슨, 두 저널리스트의 오피니언 기고문을 통해 그같이 밝히고, 지난 2년 동안 폭발적으로 증가한 생성형 인공지능 기술이 선거에서 상대편의 품위를 손상하거나 명예를 훼손시켜 선거 결과에 처음으로 영향을 미치기 시작했다고 말했다.
두 사람의 기고문에 따르면, 무료이고 사용하기 쉬운 AI 도구 덕분에 선거에서 후보자나 지지자가 하지도 않은 말을 한 것처럼 만든, 가지도 않은 장소에 간 것처럼 만든 가짜 사진과 영상이 넘쳐났으며, 이러한 콘텐츠는 온라인에서 익명성을 유지하며 비교적 처벌받지 않고 퍼져 나갔다.
이를테면, 폴란드 틱톡 사용자들 사이에 유포된 AI 조작 영상에는 트럼프 대통령이 극우 지도자 슬라보미르 멘첸을 지지하는 모습이 담겨 있었다. 하지만 트럼프 대통령은 그런 지지를 표명한 적이 없었다. AI는 아르헨티나의 전 대통령인 마우 리시오 마크리의 목소리와 입술 움직임을 편집하는 데 사용되었고, 당시 한국 대선 후보 였던 이재명 현 대통령의 침대에서 단식 투쟁을 가장한 가짜 영상이 돌았다.
AI 기술은 사회적 그리고 당파적 분열을 증폭시켰으며 정부에 대한 반감, 특히 극우 감정을 더 촉발했다. 최근 치러진 독일, 폴란드, 포르투갈 선거에서 이 같은 현상이 급증했다.
루마니아 정부 관료의 말에 따르면, 루마니아에서 AI를 사용하는 러시아인 인플루엔서 운영자가 지난 대선 1차 투표를 더럽혔다. 루마니아 법원은 해당 결과를 무효화하고 지난달 재투표를 강행하면서 새로운 조작설이 쏟아졌다. 이는 AI가 결과에 결정적인 역할을 한 최초의 주요 선거였으며, 이번 선거를 마지막으로 끝날 가능성은 거의 없다.
이들 공무원과 전문가들은 “이런 메커니즘은 정말 정교해서 아주 짧은 시간 안에 콘텐츠를 바이럴 마케팅으로 만들어 낼 수 있다”면서 “인공지능 기술이 발전함에 따라 선거의 공정성에 대한 신뢰가 훼손되고 민주 사회가 기능하는 데 필요한 정치적 합의가 침식되고 있다”고 경고했다.
상상을 뛰어넘는 AI를 이용한 딥페이크의 속도와 규모
AI를 활용하는 모든 것이 비도덕적인 건 아니다. 패널이 조사했던 AI가 사용된 선거 사례 가운데 25%가 후보들이 AI를 자기 자신을 위해 사용한 것이다. 즉 연설과 플랫폼을 지방 방언으로 번역하기 위해 그리고 닿을 수 있는 유권자들의 구역을 확인하기 위해 AI에 의존하고 있다.
「텍사스 대학교 오스틴 캠퍼스의 미디어 참여센터」의 연구에 따르면, 인도에서 후보자 복제 관행은 흔한 일이 되었다-“유권자들에게 다가가기 위해서뿐만 아니라 당원들에게 동기를 부여하기 위해서도" 이루어졌다. 그러나 동시에 수십 건의 딥페이크(실제 인물을 재현한 사진이나 영 상)가 AI를 이용하여 후보자나 뉴스 방송의 목소리를 복제했다. 국제정보환경패널(IPE)의 조사에 따르면, AI는 이러한 사례의 69%에서 해로운 역할을 하는 것으로 나타났다.
지난해 미국 대선에서 수많은 악의적인 사례가 발생하였고, 이 때문에 사이버보안 및 인프라 보안국, 국가정보국장실, 연방수사국(FBI)의 관계자들이 대중에게 경고했다.
그런데 트럼프 대통령이 집권하자 해당 기관들은 그러한 노력을 이끈 팀을 해체했다. AI를 속임수로 적극 활용하는 나라는 러시아, 중국, 이란과 같은 나라들로 이들은 자국 국경 너머의 나라에서 치러지는 선거에 개입하려는 독재 국가들이다. 그 기술은 그들로 하여금 자신들의 세계관에 순종적인 후보자들에 대한 지지를 증폭시키기 위해-아니면 단순히 민주적 통치 아이디어 자체에 대한 존경심을 떨어뜨리기 위해 사용된다.
지난달 폴란드 대선을 앞두고 반우크라이나 감정을 조장하기 위해 러시아의 한 캠페인이 시도되었다. 폴란드에는 많은 우크라이나 난민이 이주했다. 캠페인은 우크라이나인들이 투표를 방해하기 위한 공격을 계획하고 있다는 내용의 가짜 영상을 제작한 것이다. 이전 선거에서 선거에 미치려는 해외의 노력은 번거롭거나 비용이 많이 들었다. 그들은 소셜 미디어 계정과 콘텐츠를 생성하기 위해 악의적 댓글부대의 인력에 의존했고, 종종 부자연스러운 언어와 문화적으로 잘못된 말을 사용했다.
AI를 이용하면 방송 매체와 신문이 정치뉴스의 주요 출처였던 시절에는 상상도 할 수 없었던 속도와 규모로 이러한 노력을 할 수 있다. 올해 독일과 폴란드 선거를 통해 AI 기술은 해외 캠페인뿐만 아니라 국내 정당에도 얼마나 효과적인지 처음으로 보여준 걸 계기로 앞으로 민주주의에 중대한 영향을 미칠 것이다.
플랫폼 기업들의 유해 콘텐츠 제거 시도, 성공적일까?
상업적으로 이용이 가능한 도구의 발전, 이를테면 「미드 저니(Midjourney)」의 이미지 제작 도구나 Google의 새로운 AI 오디오-비디오 생성기인 「Veo」와 같은 것이 출현 함으로써 허구와 현실을-특히 흘끗 훑어본다면 허상과 실상을 구분하기가 더욱 어려워졌다.
일론 머스크가 개발한 AI 챗봇이자 이미지 생성기인 「그록(Grok)」은 정치인을 포함한 유명 인사의 이미지를 손쉽게 재생산할 수 있다. 이러한 도구로 인해 정부, 기업, 연구자들은 점점 더 정교해지는 캠페인을 식별하고 추적하기가 더욱 어려워졌다. AI 이전에는 규모와 품질-특히 인간 댓글부대에서 나오는 것-사이에서 하나를 선택하면 됐다. 하지만 지금은 둘을 가질 수 있다.
이것이야말로 정말 두려운 영역이다. 페이스북, X, 유튜브, 틱톡 등 주요 소셜 미 디어 플랫폼은 AI 오용을 규제하는 정책을 시행하고, 선거를 포함한 여러 사례에 관해 조치했다. 하지만 관련 연구원들은 “이러한 플랫폼들은 사용자가 계속해서 스크롤링(scrolling, 스마트폰이나 컴퓨터 화면을 위아래로 움직이며 내용을 보는 것) 하도록 유도하는 기술에 기득권을 가진 기업들에 의해 운영되고 있다”고 지적하면서 “플랫폼들이 오해의 소지가 있거나 유해한 콘텐츠를 제한하기 위해 더 노력을 기울여야 한다”고 주장하고 있다.
그것은 단순한 가짜 콘텐츠를 넘어선다. 지난해 AI 도구가 생성한 가짜 계정은 8대 주요 소셜 미디어 플랫폼 (링크드인, 마스토돈, 레딧, 틱톡, X, 그리고 메타의 세 플랫폼인 페이스북, 인스타그램, 스레드)에서 탐지를 쉽게 피할 수 있었다.
생성형 AI 제품의 흐름을 선도하는 회사들 역시, 조작을 금지하는 정책을 펴고 있다. 2024년에 OpenAI는 르완다, 미국, 인도, 가나, 유럽 연합의 의회 선거 기간 동안 유권자를 대상으로 한 5명의 인플루엔서 작업을 방해했다. 이달, 해당 회사는 지난 2월 독일 총선 당시 ChatGPT를 이용한 러시아의 영향력 행사를 감지했다고 밝혔다.
해당 작전은 X에 봇 계정을 생성하여 2만 7천 명의 팔로워를 확보하고, 극우 정당인 독일을 위한 대안(AfD)을 지지하는 콘텐츠 를 게시했다. 한때 비주류 정당으로 여겨졌던 AfD는 2위 로 도약하며 의회 의석수를 두 배로 늘렸다. 그렇게 된 이유가 뭐였을까?
가장 파괴적인 사례는 작년 말 루마니아 대선에서 발생했다. 11월 1차 투표에서 잘 알려지지 않은 극우 후보 칼린 조르제스쿠가 러시아의 비밀 작전의 도움을 받아 1위를 차지했는데, 특히 틱톡에서 가짜 캠페인을 조율한 덕을 봤다는 것이 그 예다.
미국 부통령 J.D. 밴스와 머스크를 포함한 비평가들은 법원이 투표 자체를 무효라고 하는 건 비민주적이라고 비난 한다. 밴스는 지난 2월에 "외국에서 수십만 달러에 달하는 디지털 광고로 민주주의가 파괴될 수 있다면, 애초에 민주 주의가 강력하지 않은 것"이라고 말했다.
법원은 지난달 재선거를 명령했다. 형사 수사를 받고 있던 조르제스쿠는 재출마가 금지되었고, 또 다른 민족주의 후보인 조르제 시미온에게 기회가 생겼다. 불가리아-루마니아 디지털 미디어 관측소 연구원들에 따르면, 트럼프 대통령이 현직 지도자들을 비판하는 것처럼 보이게 만든 가짜 영상을 포함한 유사하게 조작된 콘텐츠가 잇따라 등장했다.
부쿠레슈티의 중도파 시장인 니쿠소르 단이 지난 5월 18 일 2차 투표에서 승리했다. 유럽연합(EU)은 틱톡이 플랫폼 내 조작 행위와 허위 정보의 급증을 억제하기 위해 충분한 조치를 했는지 조사를 시작했다. 또한, 아일랜드와 크로아티아의 선거 운동에서 틱톡이 어떤 역할을 했는지도 조사하고 있다.
틱톡은 성명을 통해 자사 정책을 위반하는 게시물을 신속하게 삭제했다고 주장했다. 루마니아 2차 투표 2주 전에는 AI가 생성했지만, AI로 식별되지 않은 게시물을 포함하여 7,300개 이상의 게시물을 삭제했다고 밝혔다. 틱톡은 이러한 성명 외에는 그들이 당면한 상황을 밝히지 않았다.
우리나라, AI 리터러시 민주시민교육 확대해야
우리나라의 경우, 지난해 국내 유명 대학에서 여학생을 합성한 딥페이크 영상물이 텔레그램 대화방에 유포된 사건이 발생했고, 일부 K-팝 아이돌 딥페이크도 논란이 되었다. 이에 2024년 10월 16일 <성폭력범죄의 처벌 등에 관한 특례법>, <아동·청소년의 성보호에 관한 법률>에서 딥페이크 관련 처벌을 강화했다.
선거 기간 정치 딥페이크 관련해서도 <공직선거법>이 지난 2023년 12월 개정되어, 선거일 90일 전부터 AI 영상, 이미지 등을 이용한 선거 운동을 금지하는 규정(제82조의 8 제1항)을 신설하고 위반하면 최대 7년의 징역형에 처하게 하였다. 그리고 선거 운동 기간이 아니라도 가상정보라는 점을 명시하지 않으면 같은 형벌에 처하도록 규정하고 있다.
AI 기반 가짜 정보의 확산은 우리 사회에서 정보 신뢰도를 떨어뜨릴 수 있고, 선거 시기 딥페이크나 허위 조작 정보 현상이 누적되면 정치에 피로감을 느끼게 만든다. 또 잘못된 정보를 믿음으로써 혼란이 가중되어 우리가 알고 있는 인식의 왜곡 또는 믿고 싶은 것만 믿게 되는 확증편향 등의 사회적 문제가 나타나게 된다.
지금은 「메타」로 이름을 바꾼 Facebook은 2019년 9월에 Microsoft, MIT, 옥스퍼드대학의 전문가들과 딥페이크 감지 기술 경연 대회를 개최했다. 우리나라도 언론계와 플랫폼, 학계 등이 협업하여 한국인 딥페이크를 모니터하는 방법을 강구하고 시민으로서 올바른 정보를 생산, 소비할 수 있는 능력을 키우는 미디어, AI 리터러시 민주시민교육을 확대해야 하지 않을까 싶다.
그렇지 않고 물을 흐리는 미꾸라지처럼 가짜 AI가 살 수 있도록 한다면 우리나라는 AI가 대신 말하는 사회가 되고 민주주의는 결코 안녕할 수 없을 것이다. 가짜나 사기꾼을 가려내는 일은 참으로 힘든 기술이다. 사기를 치는 사람은 절대로 자신이 사기를 친다고 하지 않으니까 말이다. 민주주의가 사느냐 죽느냐, 그것은 진짜와 가짜를 가려내는 데 달려 있다.
