print

"일단 써라, 추천 기능은 꺼라"...AI시대, 미디어 수용자가 가져야 할 태도는 [스페셜리스트 뷰]

알고리즘에서 벗어나 정보 통제를 스스로
AI 도움은 받되 최종 결정은 사람의 몫

사람들이 AI를 활용해 미디어를 보고 있는 모습. [사진 챗GPT]

[오세욱 한국언론진흥재단 책임연구위원] 필자는 기술이 저널리즘에 미치는 영향과 그 활용 방안에 대해 주로 연구하고 있는데 요새는 좀 힘들다. 나름 이 분야를 연구하면서 관련 흐름을 놓치지 않으려 노력하고 있지만, 최근 인공지능을 둘러싼 기술의 발전은 그 흐름마저 따라가기도 어렵다. 하루가 멀다고 새로운 기술과 서비스들이 발표되고 어떤 부분이 개선되었다고 하는데 그 내용을 이해하는 것을 넘어 발표된 내용을 정리하는 것만으로도 벅찰 경우가 많다. 그나마 어느 정도 전문가라는 이야기를 듣는 필자가 이러한데 아이들은 어떨지 걱정이 될 때도 많다. 이는 기우일 뿐 그 아이들은 노느라 게임을 하느라 이쪽은 신경도 쓰지 않고 있다. 또 돌이켜보면, 인공지능뿐만 아니라 새로운 기술은 항상 우리에게 어려움을 던져줬다. 당시에는 이해할 수 없는 내용들로 새로운 기술이 하루가 멀다고 등장한 경우를 수 차례 지켜봐 왔다. 인터넷이 등장했을 때도, 빅데이터라는 단어가 유행할 때도, 모바일이 세상을 바꾼다고 할 때도, 블록체인, 메타버스 등등 세상을 바꿀 것이라는 기술, 아니 이미 바꾸고 있다는 뉴스가 넘쳐났었다. 물론, 개인적으로 인터넷, 모바일에 이어 인공지능이 세 번째 ‘빅웨이브’라는 평가에 동의하기는 한다.

‘챗GPT’의 등장이 던져 준 놀라움이 상당하다 보니 이에 대한 설명 요청을 많이 받는다. 필자가 속한 기관에서 <대규모 언어모델과 저널리즘>이라는 제목의 보고서를 작성하기도 했으며, 지난 2년간 개인적으로 굉장히 많은 기고 혹은 강의 요청을 받기도 했다. 하지만 불과 1년 전인 2023년 11월에 발행한 이 보고서의 내용 중 절반 이상은 현재 기술 환경과 맞지 않으며, 매 강의 요청에 응할 때마다 내용의 상당 부분을 고쳐 나가야 했다.

처음에는 ‘챗GPT’ 등 생성AI가 등장한 기술적 배경 등도 설명하였지만, 지금 그러한 기술적 내용은 ‘챗GPT’에게 설명을 요청하는 것이 낫다. 이 글은 ‘AI시대, 미디어 수용자가 가져야 하는 태도’라는 주제를 부탁받아 쓰고 있다. 하나 고백하자면 필자는 생성AI를 어떻게 제대로 활용해야 하는지 말하기 어렵다. 당장 내일 어떻게 변할지도 확신이 없어서다. 그저 현재 등장하고 있는 다양한 서비스들을 이것저것 편견 없이 써보면서 나만의 활용법을 찾아가는 중이다. 인터넷과 모바일에 이어 인공지능이 새로운 기술의 주류가 되어 앞으로 미디어의 핵심이 될 것이라는 점은 분명해 보이기 때문이다. 그나마 이 분야의 연구자로서 다양한 생성AI 서비스들을 먼저 써본 후 말할 수 있는 사안을 전달한다. 

먼저 가능한 한 상세히 검색하길 추천한다. 생성AI가 적용된 검색은 편리하다. 챗GPT에도 검색 기능이 적용됐고, 퍼플렉시티, 네이버 ‘QUE’, 구글 등 다양한 플랫폼에서 생성AI가 적용된 검색 결과가 제공되고 있다. 생성AI가 적용된 검색이 기존 검색과 가장 큰 차이는 검색 결과의 내용을 종합하여 하나의 답변처럼 생성해 준다는 점이다. 예를 들어, ‘우크라이나와 러시아 전쟁 상황’이라고 검색하면 기존 검색 결과는 관련된 뉴스 기사나 링크들을 목록형으로 보여줬다면, 생성AI가 적용된 검색은 “러시아-우크라이나 전쟁은 2022년 2월 24일에 시작되어 현재까지 약 3년째 지속되고 있습니다. 전쟁의 주요 특징과 최근 상황은 다음과 같습니다.” 등과 같은 문구로 시작하여 지금까지의 전쟁 경과를 종합하여 제시한다. 이때 이러한 답변에 사용한 기사 혹은 자료들이 일부만 출처 링크로 표시된다. 이용자로서는 굉장히 편리할 수밖에 없다. 내가 검색한 내용의 의미를 이해해서 필요한 답변을 제공해 주기 때문이다. 기존 검색에서는 관련 기사 및 자료를 하나씩 들어가서 내용을 확인한 후 내가 필요한 부분을 별도로 확인해야 했다. 게다가 링크된 문서의 양도 많아서 무엇을 참고해야 할지 모를 때도 많다.

생성AI가 적용된 검색은 해당 검색어에 대한 모든 링크를 고려하여 답변을 생성하는 것이 아니라 해당 내용을 가장 적절하게 포함하고 있을 것이라고 판단되는 일부 링크를 바탕으로만 답변을 생성한다. 또한, 최근의 사안들은 완전히 학습한 것이 아니라 RAG(검색증강생성, Retrieval-Augmented Generation)라는 기술을 활용한 것이다. RAG는 과거 내용을 학습한 대규모 언어모델(LLM)의 한계를 보완한 것으로 최신의 외부 데이터베이스, 문서, 정보 등을 검색하여 검색어와 관련한 필요한 맥락을 제공하는 방식이다. 이때, 검색된 링크의 모든 정보를 획득하여 답변하는 것이 아니다. 검색된 정보는 해당 LLM의 입력값으로 제공되며, 생성 모델이 이를 바탕으로 증강하여 응답을 생성한다. 즉, 현재의 검색어에 대한 일부 검색 결과를 해당 대규모 언어모델이 학습한 과거의 내용으로 증강하는 것으로 현재의 맥락이 과거와 다를 경우 ‘환각’과 같은 오류를 생성할 가능성이 여전히 높다. 최종적인 사실 확인을 위해서는 여전히 과거와 같은 세밀한 검색이 필요하다.

구글의 고급 검색 페이지 화면. [사진 화면 캡처]
일반적인 검색어만 넣고 나온 수많은 페이지들 중 추천되는 상단의 내용들은 생성AI가 참고하는 페이지들과 그 내용이 거의 유사하다. 생성AI가 검색 답변 생성에 활용하는 내용보다 더 상세한 맥락과 사실 확인을 위해서는 더욱 세밀하게 검색할 필요가 있다. 위 [그림]은 구글의 고급 검색 페이지인데, 저 기능들은 일반 검색창에서도 [그림] 오른쪽 내용과 같이 검색 명령어로 활용이 가능하다. 예를 들어, 겹따옴표(“”) 명령어를 활용하면 해당 문장이 포함된 문서를 바로 찾아낼 수 있다. 이렇듯 조금만 더 세밀하게 검색한다면, 우리는 생성AI가 적용된 검색 결과 답변보다 훨씬 정확하고 맥락적인 정보를 얻어낼 수 있다.

두 번째로는 유튜브 추천 기능을 끄길 바란다. 밴드 ‘데이식스’가 지난 3월 발표한 노래 ‘HAPPY’의 가사를 보면, “알고리즘엔 잘된 사람만 수도 없이 뜨네요”라는 내용이 있다. 그 시대에 유행하는 노래에는 그 시대를 반영하는 가사가 담기기 마련이다. 유튜브의 추천 알고리즘은 기본적으로 이용자의 클릭을 목표로 할 수밖에 없다. 이용자가 해당 사이트에 조금이라도 더 머물게 하는 것이 목적이기 때문이다. 유튜브가 단순히 조회 수가 많은 영상을 추천하지 않을 것이다. 너무 단순해 쉽게 간파당할 수 있기 때문이다. 다양한 요인들이 적용되고 있지만 대부분의 경우 알고리즘은 기업의 영업 비밀과 마찬가지이기 때문에 공개되지 않는다. 하지만, 모든 추천 알고리즘의 기본은 해당 이용자의 과거 이용 행태다.

유튜브 시청 기록 수집을 중단했을 시 유튜브 초기 화면. [사진 화면 캡처]
위 [그림]은 나의 계정으로 접속했을 경우 유튜브 초기 화면이다. 아무런 영상도 화면에 제시되지 않고 있음을 볼 수 있다. 유튜브가 나의 시청 기록 수집하는 것을 설정 기능을 통해 차단했기 때문이다. 필자는 2019년에 <유튜브 추천 알고리즘과 저널리즘>이라는 책을 쓴 바 있다. 이때 유튜브 추천 영상 20여만 개를 분석에 활용했는데 개인 시청 이력이 중요하게 작동함을 알 수 있었다. 그 이후 시청 기록 수집을 못하게 설정하였다. 이후 필요한 영상은 검색을 통해서만 찾아 보고 나온다. 앞서 제시했던 검색 명령어들도 유튜브에서 작동한다. 나에게 주어지는 정보를 내가 통제하겠다는 의지다. 생성AI의 답변들도 유튜브 추천 알고리즘과 같다. 내가 알고 싶은 내용을 상세하게 물어보거나 지시하지 않으면, 추천 알고리즘처럼 ‘잘 된 사람’만 제시한다. 유튜브 시청 기록 수집을 중단하려면, 구글 계정에 로그인한 후 내 구글 활동에 접속해 유튜브 기록을 클릭한다. 이후 기록 관리를 클릭한 후, 자동 삭제를 선택하면 된다. 원하는 기간만 수집을 중단하는 것도 가능하다. 

또 원리는 몰라도 일단 사용하길 바란다. 개인적으로 생성 AI를 실제로 활용해 본 사람들과 대화를 나누어 보면, 절반 이상이 부정적인 관점을 내비치는 경우가 많았다. 특히 AI가 만들어 내는 ‘환각’ 현상이나 비약적 오류 때문에 신뢰하기 어렵다는 지적, 글쓰기나 사고 능력이 점차 퇴화할 수 있다는 우려 모두 공감이 간다. 반면 공학을 연구하는 분들과의 대화에서는 “지금이야말로 인공지능을 배울 수 있는 마지막 시기”라는 얘기를 자주 듣는다. 이 역시 공감이 간다. 문제는 모든 사용자가 이 같은 기술적 원리를 깊이 이해하기가 쉽지 않다는 데 있다. 사실 우리 일상에서도, 대부분 사림은 TV나 라디오 방송을 어떻게 전송하는지 기술적으로 자세히 알지 못함에도 불구하고, 해당 방송에서 다루는 내용에 관해서는 활발하게 논의하고 비판하며 이해해 나간다. 이미 익숙해진 미디어 환경을 오래도록 접해왔기에, 미디어가 제공하는 정보를 능동적으로 해석하고 받아들이는 능력이 자연스럽게 형성된 것이다.

오늘날 인공지능 기술은 하루가 다르게 발전하고 있으며, 관련 연구자조차 그 속도를 따라가기가 쉽지 않을 정도다. 이런 상황에서 가장 중요한 것은 우선 많이 써보는 것이라고 생각한다. 기술의 문제나 한계를 학습하고 비판하기에 앞서, 발전 과정에서 제공되는 다양한 기능을 직접 경험해보며 활용 가능성과 한계를 체감하는 일이 더 중요해 보인다. 인공지능이 어떤 상황에서 잘 작동하고, 어디에서 한계를 보이며, 어떠한 부작용이 나타나는지를 직접 체험함으로써, 그 가능성과 위험성을 더욱 생생하게 파악할 수 있기 때문이다. 그 과정에서 얻은 시행착오와 통찰력이 곧 개인의 역량이 되고, 더 나아가 사회 전반에 걸쳐 건강한 비판 문화와 기술 활용 역량을 형성할 밑바탕이 될 것이다.

AI 수용자가 잊지 말아야할 자세 중 하나로는 도움은 받되 결정은 자기가 하는 것이다. 생성AI로 할 수 있는 것들은 참 많다. 여기서 어디까지 할 수 있는지를 서술하는 것이 의미가 없을 정도로 이미 많이 알려져 있다. 게다가 할 수 있는 범위는 더욱 늘어나고 있다. 최근 오픈AI는 ‘GPT-o3’(o2를 빼고 o3로 바로 간 것은 영국의 모바일 서비스 O2와 상표 분쟁이 생길 수 있기 때문임)를 발표했는데, 발표 내용만 보면 인간 수준이나 그 이상의 지적 능력을 갖춘 인공지능을 뜻하는 일반 인공지능(AGI, Artificial General Intelligence) 수준이란 주장까지 나오고 있다. 구글도 이보다 조금 앞서 ‘제미나이(Gemini)2’를 발표하고, 이를 활용한 프로젝트 ‘Astra’의 시연 영상을 공개했다. 

구글의 프로젝트 ‘Astra’ 시연 화면. [사진 유튜브 화면캡처]
위 [그림]과 같이 세탁기 사용법을 모를 때 해당 화면을 보여주면서 “사용법을 알려달라”고 말하면 음성과 텍스트로 사용법을 알려준다. 여기에 활용된 것은 ‘멀티모달(Multi Modal) 모델’이다. 대규모 언어모델이라는 명칭에서 알 수 있듯이 생성AI는 주로 텍스트를 기반으로 작동하였지만, 점차 텍스트를 넘어 텍스트, 이미지, 음성, 영상 등 다양한 데이터 양식(modality)을 함께 처리하는 멀티모달(Multi Modal) 모델로 발전해 나가고 있다. 생성AI로 할 수 있는 것들이 우리 삶 모든 영역으로 들어올 수 있음을 보여주는 사례다. 한편으로 생성AI를 활용하면서 가장 중요한 원칙이 이 사례에 숨어 있다. 위 사례처럼 사용법을 알려주지만 최종적으로 세탁기의 스위치를 조작하는 것은 사람이기 때문이다. 생성AI의 결과물은 사실 너무나 그럴듯하므로 그 결과물을 그대로 활용하는 경우를 자주 확인할 수 있다. 하지만, 도움은 받더라도 최종적인 결정은 사람이 해야 하며, 그러므로 그 결과물을 그대로 활용하는 것이 아니라 마지막 수정, 확인 등의 조치는 사람이 해야 한다. 생성AI 활용 관련 준칙들 모두가 최종 결정 주체는 사람임을 강조하는 이유다.

마지막으로 책을 많이 읽고 상상력을 키우길 바란다. 필자는 지금, 이 글을 쓰면서 일부러 생성AI 서비스 접속을 피하고 있다. 일단 써보자고 제안한 것처럼 2년 정도 되는 동안 개인적으로 생성AI 관련 서비스들을 정말 열심히 이용했다. 생성AI 활용에 익숙해지면서 어느 순간부터 나도 모르게 귀찮고 사소한 것들은 그것에 맡기는 경향이 생겼다. 그런데, 디테일을 맡기다 보니 상상력이 줄어든다는 느낌을 스스로 갖게 됐다. 큰 작업만 생각하니 그 아래 세세한 것들이 부여하는 세밀한 맥락을 놓치게 되었기 때문이다. 사회과학 연구자지만 기술을 중심으로 연구하다 보니 솔직히 그동안 긴 맥락의 책보다 기술적 지식을 높일 수 있는 짧은 문서들을 더 볼 수밖에 없었다. 그러한 짧은 문서들의 내용은 생성AI를 통해 훨씬 더 쉽게 받아들일 수 있다. 이에 지난해 말부터 스스로 결심한 것이 생성AI 활용으로 조금은 아끼게 된 시간에 소설이라도 좋으니 긴 맥락의 책을 읽자였다.

책을 읽는 것이 정답은 아니고 고리타분하게 들릴 수도 있다는 점도 잘 알지만, 책을 읽는 것이 상상력에 도움되는 점도 분명하다. 생성AI를 적극 활용하면서 느낀 문제를 해결하기 위한 나름의 해결책을 책에서 찾을 수 있다. 생성AI의 기능을 잘 알고 활용하면서 좀 더 창의적으로 이용하기 위한 나름의 방안이다. 

오세욱 한국언론진흥재단 책임연구원.
오세욱 책임연구원은_한국언론진흥재단 책임연구위원으로 기술이 저널리즘에 미치는 영향에 대해 연구하고 있다. 신문사와 방송사에서 기자 생활을 했고 자동 배열 이전 포털에서 뉴스 편집 일을 한 적이 있다. 저널리즘 가치에 따른 뉴스 배열을 목적으로 한 뉴스 트러스트 알고리즘, KPF-BERT 개발 책임을 맡은 바 있고, 현재는 한국언론진흥재단에서 언론의 디지털 혁신을 목적으로 하는 사업과 연구를 담당하고 있다. 도서 '알고리즘의 블랙박스' 저자이기도 하다. 

ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지

많이 본 뉴스

1한화오션, 獨선사와 1.7조 규모 LNG선 수주 가능성↑

2심각한 ‘직장 내 괴롭힘’...직장인 51% “참거나 모른 척”

3 北, 러시아와 ‘드론’ 공동 개발…올해부터 '양산'되나

4롯데, 14억 인구 시장 ‘정조준’...인도 푸네 新공장 준공

5日 이시바 “트럼프, 자동차 관세·방위비 증액 언급 안해”

6한강, ‘입춘’에 얼어붙었다

7침몰 어선 실종 7명 중 1명 발견…의식불명 상태

8초코파이서 설탕 뺐더니 대박...“제로 마케팅 통했어요”

9"일단 써라, 추천 기능은 꺼라"...AI시대, 미디어 수용자가 가져야 할 태도는?

실시간 뉴스

1한화오션, 獨선사와 1.7조 규모 LNG선 수주 가능성↑

2심각한 ‘직장 내 괴롭힘’...직장인 51% “참거나 모른 척”

3 北, 러시아와 ‘드론’ 공동 개발…올해부터 '양산'되나

4롯데, 14억 인구 시장 ‘정조준’...인도 푸네 新공장 준공

5日 이시바 “트럼프, 자동차 관세·방위비 증액 언급 안해”