print

인공지능은 양날의 칼

인공지능은 양날의 칼

AI 시스템이 가짜 뉴스 가려낼 수 있지만 감쪽같은 합성 이미지 ‘딥페이크’ 제작에도 이용될 수 있어
2022년에 가면 선진국 사회에 진짜 정보보다 가짜 뉴스가 더 많아질 수 있다. / 사진:BRYNN ANDERSON-AP-NEWSIS
가짜 뉴스가 진짜 뉴스보다 더 빨리 그리고 더 널리 확산된다는 건 이미 학자들 사이에 알려진 사실이다. 내 조사에서도 비슷하게 가짜 의료정보가 담긴 온라인 게시물은 정확한 의료 콘텐트를 가진 게시물보다 조회수·댓글·좋아요가 더 많았다. 독자의 주의력에 한계가 있고 선택할 콘텐트가 넘쳐나는 온라인 세계에서는 가짜 정보가 독자에게 종종 더 매력적이거나 흥미를 끄는 듯하다.

문제가 갈수록 심각해지고 있다. 2022년에 가면 선진국 사회에 진짜 정보보다 가짜 뉴스가 더 많아질 수 있다. 그에 따라 과학자들이 말하는 이른바 ‘현실 현기증(reality vertigo)’ 현상이 초래될 수 있다. 컴퓨터가 상당히 설득력 있는 콘텐트를 만들어내 보통 사람은 무엇이 진실인지 분간하는 데 어려움을 겪게 되는 상황이다.
 거짓 탐지하기
인공지능의 한 유형인 머신러닝(기계의 자율적인 학습과 성능향상 과정) 알고리즘이 수십 년 동안 스팸 이메일 퇴치에 성공적으로 이용돼 왔다. 메시지의 문장을 분석해 특정 메시지가 실제로 사람이 보낸 진짜 통신문인지 아니면 대량으로 배포되는 약품 선전이나 큰돈을 벌게 해주겠다는 나이지리아 사기인지 판별하는 방법이다.

스팸퇴치의 이런 문장분석 기법을 토대로 온라인에 공유되는 게시물의 문장 또는 제목이 실제 콘텐트와 얼마나 잘 일치하는지 인공지능 시스템으로 평가할 수 있다. 또 다른 방법은 관련 기사들을 조사해 다른 뉴스 매체에 다른 팩트가 실렸는지 확인하는 방법도 있다. 가짜 뉴스를 퍼뜨리는 특정 계정과 출처 사이트를 확인할 수 있는 비슷한 시스템도 있다.
 끝없는 순환
그러나 그런 방법은 가짜 뉴스를 퍼뜨리는 사람들이 수법을 바꾸지 않는다는 가정을 바탕으로 한다. 하지만 그들은 가짜 게시물을 더 사실처럼 보이게 하기 위해 종종 전술을 바꿔 콘텐트를 조작하기도 한다.

인공지능을 이용해 정보를 평가하면 사회의 특정 편견을 노출(그리고 증폭)시킬 수 있다. 이는 성별·인종적 배경 또는 지역적 편견과 관련될 수 있다. 특정한 관점의 표현을 제한할 소지가 있어 정치적으로도 영향을 미칠 수 있다. 예컨대 유튜브는 특정 유형 동영상 채널의 광고를 차단해 제작자에게 불이익을 안겨줬다.

문맥도 중요한 역할을 한다. 세월의 흐름에 따라 단어의 의미도 바뀔 수 있다. 같은 단어도 진보 사이트냐 보수 사이트냐에 따라 의미가 다를 수 있다. 예컨대 진보 성향 사이트의 ‘위키리크스’(폭로 전문 웹사이트)와 ‘DNC’(민주당전국위원회) 같은 용어가 포함된 게시물은 뉴스일 가능성이 더 크지만 보수 성향 사이트에선 특정 유형의 음모론을 가리킬 수 있다.
 인공지능을 이용해 가짜 뉴스 만들기
그러나 인공지능을 이용해 가짜 뉴스를 감지하는 방법의 가장 큰 문제는 기술경쟁이 벌어질 수 있다는 점이다. 머신러닝 시스템은 이른바 ‘딥페이크(deepfakes)’를 만들어내는 섬뜩하게 뛰어난 능력을 보여주고 있다. 사람 얼굴을 다른 사람 것으로 감쪽같이 바꿔치기 한 사진과 동영상이다. 스타가 노출 사진을 촬영하거나 유명인사가 실제로 한 적이 없는 말을 한 듯이 보이게 만들기 위해서다. 이런 기능을 갖춘 스마트폰 앱도 등장해 할리우드 수준의 동영상 편집 기술이 없어도 거의 누구나 이런 식의 합성 이미지를 만들 수 있다.

과학자들은 인공지능을 이용해 가짜 콘텐트를 가려낼 준비를 하고 있다. 예컨대 동영상 확대 기술을 이용해 사람 맥박의 변화를 감지해 동영상 속 인물이 진짜인지 아니면 컴퓨터로 합성한 가짜인지 판별할 수 있다. 그러나 가짜 콘텐트 제작 기술이든 그것을 가려내는 기술이든 똑같이 발전해 나갈 것이다. 반박하거나 외면하기가 매우 어려울 정도로 정교한 가짜도 등장할 수 있다. 간단한 언어를 이용해 허점이 금방 드러나는 초창기 가짜 세대와 크게 다르다.
 인간 지능에 진짜 열쇠가 있다
가짜 뉴스의 확산을 막는 최선의 방법은 사람에게 있을지 모른다. 정치적 분극화 조장, 당파성 확대, 주류 미디어와 정부에 대한 신뢰 잠식 등 가짜 뉴스는 사회에 막대한 영향을 미친다. 그 문제의 심각성을 더 많은 사람이 알게 된다면 정보에 더 주의를 기울일지 모른다. 특히 감정을 자극해 관심유발 효과를 극대화하려는 경우엔 더욱 그렇다.

사람의 분노심을 유발하는 게시물을 볼 때는 즉시 공유하기보다는 정보의 진위를 조사하는 편이 현명하다. 공유행위는 게시물에 신뢰성을 더해준다. 그것을 보는 다른 사람은 아는 사람이 공유했다는 생각에서 필시 적어도 어느 정도는 더 신뢰해 정보의 원래 출처가 의심스럽지 않은지 알아볼 가능성이 떨어진다.

유튜브와 페이스북 같은 소셜미디어 사이트가 자발적으로 콘텐트를 분류하는 방식을 선택하는 방법도 있다. 뉴스처럼 보이는 항목이 신뢰할 만한 정보원의 검증을 받았는지 명확하게 표시할 수 있다. 페이스북 CEO 마크 저커버그는 의회 증언에서 페이스북 이용자 ‘커뮤니티’를 동원해 회사 알고리즘을 이끌어 나가려 한다고 말했다. 페이스북이 검증 노력을 대중에게 맡기는 크라우드소싱도 가능하다. 자원봉사자들이 전문적으로 정보를 추적해 검증하는 위키피디아 방식도 하나의 모델이 된다.

페이스북은 언론매체와의 파트너십과 자원봉사자를 활용해 인공지능을 교육시키면서 가짜 뉴스 배포자의 주제와 전술 변화에 따라 계속적으로 시스템을 수정해 나갈 수 있다. 이렇게 해도 온라인에 게시된 모든 뉴스를 검증하지는 못하겠지만 대중이 팩트와 거짓을 가려내기가 더 쉬워질 것이다. 그렇게 하면 여론을 오도하는 가짜 스토리가 온라인에서 화제를 모을 확률을 줄일 수 있다.

다행히 정확한 뉴스에 어느 정도 노출된 사람들은 진짜와 가짜 정보를 더 잘 가려낸다. 열쇠는 온라인에 게시되는 정보의 일부는 진실이어야 한다는 것이다.

- 안자나 서새리아



※ [필자는 미시건주립대학 정보시스템학과 부교수다. 이 기사는 온라인 매체 컨버세이션에 먼저 실렸다.

ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지

많이 본 뉴스

1한은 총재 “돈 나눠준다고 문제 해결되지 않아”

2권은비부터 김지원까지...부동산 큰손 ‘연예인 갓물주’

3현대차그룹 계열사 KT?...대주주 심사 받는다

4尹, 24일 용산서 이재명 회담?...“아직 모른다”

51000만 영화 ‘파묘’ 속 돼지 사체 진짜였다...동물단체 지적

6비트코인 반감기 끝났다...4년 만에 가격 또 오를까

7‘계곡 살인’ 이은해, 피해자 남편과 혼인 무효

8“적자 낸 사업부는 0원”...LG화학, 성과급 제도 손질

9“말만 잘해도 인생이 바뀝니다”…한석준이 말하는 대화의 스킬

실시간 뉴스

1한은 총재 “돈 나눠준다고 문제 해결되지 않아”

2권은비부터 김지원까지...부동산 큰손 ‘연예인 갓물주’

3현대차그룹 계열사 KT?...대주주 심사 받는다

4尹, 24일 용산서 이재명 회담?...“아직 모른다”

51000만 영화 ‘파묘’ 속 돼지 사체 진짜였다...동물단체 지적