"일단 써라, 추천 기능은 꺼라"...AI시대, 미디어 수용자가 가져야 할 태도는 [스페셜리스트 뷰]
알고리즘에서 벗어나 정보 통제를 스스로
AI 도움은 받되 최종 결정은 사람의 몫
![](/data/ecn/image/2024/12/24/ecn20241224000088.800x.0.png)
[오세욱 한국언론진흥재단 책임연구위원] 필자는 기술이 저널리즘에 미치는 영향과 그 활용 방안에 대해 주로 연구하고 있는데 요새는 좀 힘들다. 나름 이 분야를 연구하면서 관련 흐름을 놓치지 않으려 노력하고 있지만, 최근 인공지능을 둘러싼 기술의 발전은 그 흐름마저 따라가기도 어렵다. 하루가 멀다고 새로운 기술과 서비스들이 발표되고 어떤 부분이 개선되었다고 하는데 그 내용을 이해하는 것을 넘어 발표된 내용을 정리하는 것만으로도 벅찰 경우가 많다. 그나마 어느 정도 전문가라는 이야기를 듣는 필자가 이러한데 아이들은 어떨지 걱정이 될 때도 많다. 이는 기우일 뿐 그 아이들은 노느라 게임을 하느라 이쪽은 신경도 쓰지 않고 있다. 또 돌이켜보면, 인공지능뿐만 아니라 새로운 기술은 항상 우리에게 어려움을 던져줬다. 당시에는 이해할 수 없는 내용들로 새로운 기술이 하루가 멀다고 등장한 경우를 수 차례 지켜봐 왔다. 인터넷이 등장했을 때도, 빅데이터라는 단어가 유행할 때도, 모바일이 세상을 바꾼다고 할 때도, 블록체인, 메타버스 등등 세상을 바꿀 것이라는 기술, 아니 이미 바꾸고 있다는 뉴스가 넘쳐났었다. 물론, 개인적으로 인터넷, 모바일에 이어 인공지능이 세 번째 ‘빅웨이브’라는 평가에 동의하기는 한다.
‘챗GPT’의 등장이 던져 준 놀라움이 상당하다 보니 이에 대한 설명 요청을 많이 받는다. 필자가 속한 기관에서 <대규모 언어모델과 저널리즘>이라는 제목의 보고서를 작성하기도 했으며, 지난 2년간 개인적으로 굉장히 많은 기고 혹은 강의 요청을 받기도 했다. 하지만 불과 1년 전인 2023년 11월에 발행한 이 보고서의 내용 중 절반 이상은 현재 기술 환경과 맞지 않으며, 매 강의 요청에 응할 때마다 내용의 상당 부분을 고쳐 나가야 했다.
처음에는 ‘챗GPT’ 등 생성AI가 등장한 기술적 배경 등도 설명하였지만, 지금 그러한 기술적 내용은 ‘챗GPT’에게 설명을 요청하는 것이 낫다. 이 글은 ‘AI시대, 미디어 수용자가 가져야 하는 태도’라는 주제를 부탁받아 쓰고 있다. 하나 고백하자면 필자는 생성AI를 어떻게 제대로 활용해야 하는지 말하기 어렵다. 당장 내일 어떻게 변할지도 확신이 없어서다. 그저 현재 등장하고 있는 다양한 서비스들을 이것저것 편견 없이 써보면서 나만의 활용법을 찾아가는 중이다. 인터넷과 모바일에 이어 인공지능이 새로운 기술의 주류가 되어 앞으로 미디어의 핵심이 될 것이라는 점은 분명해 보이기 때문이다. 그나마 이 분야의 연구자로서 다양한 생성AI 서비스들을 먼저 써본 후 말할 수 있는 사안을 전달한다.
먼저 가능한 한 상세히 검색하길 추천한다. 생성AI가 적용된 검색은 편리하다. 챗GPT에도 검색 기능이 적용됐고, 퍼플렉시티, 네이버 ‘QUE’, 구글 등 다양한 플랫폼에서 생성AI가 적용된 검색 결과가 제공되고 있다. 생성AI가 적용된 검색이 기존 검색과 가장 큰 차이는 검색 결과의 내용을 종합하여 하나의 답변처럼 생성해 준다는 점이다. 예를 들어, ‘우크라이나와 러시아 전쟁 상황’이라고 검색하면 기존 검색 결과는 관련된 뉴스 기사나 링크들을 목록형으로 보여줬다면, 생성AI가 적용된 검색은 “러시아-우크라이나 전쟁은 2022년 2월 24일에 시작되어 현재까지 약 3년째 지속되고 있습니다. 전쟁의 주요 특징과 최근 상황은 다음과 같습니다.” 등과 같은 문구로 시작하여 지금까지의 전쟁 경과를 종합하여 제시한다. 이때 이러한 답변에 사용한 기사 혹은 자료들이 일부만 출처 링크로 표시된다. 이용자로서는 굉장히 편리할 수밖에 없다. 내가 검색한 내용의 의미를 이해해서 필요한 답변을 제공해 주기 때문이다. 기존 검색에서는 관련 기사 및 자료를 하나씩 들어가서 내용을 확인한 후 내가 필요한 부분을 별도로 확인해야 했다. 게다가 링크된 문서의 양도 많아서 무엇을 참고해야 할지 모를 때도 많다.
생성AI가 적용된 검색은 해당 검색어에 대한 모든 링크를 고려하여 답변을 생성하는 것이 아니라 해당 내용을 가장 적절하게 포함하고 있을 것이라고 판단되는 일부 링크를 바탕으로만 답변을 생성한다. 또한, 최근의 사안들은 완전히 학습한 것이 아니라 RAG(검색증강생성, Retrieval-Augmented Generation)라는 기술을 활용한 것이다. RAG는 과거 내용을 학습한 대규모 언어모델(LLM)의 한계를 보완한 것으로 최신의 외부 데이터베이스, 문서, 정보 등을 검색하여 검색어와 관련한 필요한 맥락을 제공하는 방식이다. 이때, 검색된 링크의 모든 정보를 획득하여 답변하는 것이 아니다. 검색된 정보는 해당 LLM의 입력값으로 제공되며, 생성 모델이 이를 바탕으로 증강하여 응답을 생성한다. 즉, 현재의 검색어에 대한 일부 검색 결과를 해당 대규모 언어모델이 학습한 과거의 내용으로 증강하는 것으로 현재의 맥락이 과거와 다를 경우 ‘환각’과 같은 오류를 생성할 가능성이 여전히 높다. 최종적인 사실 확인을 위해서는 여전히 과거와 같은 세밀한 검색이 필요하다.
![](/data/ecn/image/2024/12/24/ecn20241224000085.548x.0.jpg)
두 번째로는 유튜브 추천 기능을 끄길 바란다. 밴드 ‘데이식스’가 지난 3월 발표한 노래 ‘HAPPY’의 가사를 보면, “알고리즘엔 잘된 사람만 수도 없이 뜨네요”라는 내용이 있다. 그 시대에 유행하는 노래에는 그 시대를 반영하는 가사가 담기기 마련이다. 유튜브의 추천 알고리즘은 기본적으로 이용자의 클릭을 목표로 할 수밖에 없다. 이용자가 해당 사이트에 조금이라도 더 머물게 하는 것이 목적이기 때문이다. 유튜브가 단순히 조회 수가 많은 영상을 추천하지 않을 것이다. 너무 단순해 쉽게 간파당할 수 있기 때문이다. 다양한 요인들이 적용되고 있지만 대부분의 경우 알고리즘은 기업의 영업 비밀과 마찬가지이기 때문에 공개되지 않는다. 하지만, 모든 추천 알고리즘의 기본은 해당 이용자의 과거 이용 행태다.
![](/data/ecn/image/2024/12/24/ecn20241224000084.548x.0.jpg)
또 원리는 몰라도 일단 사용하길 바란다. 개인적으로 생성 AI를 실제로 활용해 본 사람들과 대화를 나누어 보면, 절반 이상이 부정적인 관점을 내비치는 경우가 많았다. 특히 AI가 만들어 내는 ‘환각’ 현상이나 비약적 오류 때문에 신뢰하기 어렵다는 지적, 글쓰기나 사고 능력이 점차 퇴화할 수 있다는 우려 모두 공감이 간다. 반면 공학을 연구하는 분들과의 대화에서는 “지금이야말로 인공지능을 배울 수 있는 마지막 시기”라는 얘기를 자주 듣는다. 이 역시 공감이 간다. 문제는 모든 사용자가 이 같은 기술적 원리를 깊이 이해하기가 쉽지 않다는 데 있다. 사실 우리 일상에서도, 대부분 사림은 TV나 라디오 방송을 어떻게 전송하는지 기술적으로 자세히 알지 못함에도 불구하고, 해당 방송에서 다루는 내용에 관해서는 활발하게 논의하고 비판하며 이해해 나간다. 이미 익숙해진 미디어 환경을 오래도록 접해왔기에, 미디어가 제공하는 정보를 능동적으로 해석하고 받아들이는 능력이 자연스럽게 형성된 것이다.
오늘날 인공지능 기술은 하루가 다르게 발전하고 있으며, 관련 연구자조차 그 속도를 따라가기가 쉽지 않을 정도다. 이런 상황에서 가장 중요한 것은 우선 많이 써보는 것이라고 생각한다. 기술의 문제나 한계를 학습하고 비판하기에 앞서, 발전 과정에서 제공되는 다양한 기능을 직접 경험해보며 활용 가능성과 한계를 체감하는 일이 더 중요해 보인다. 인공지능이 어떤 상황에서 잘 작동하고, 어디에서 한계를 보이며, 어떠한 부작용이 나타나는지를 직접 체험함으로써, 그 가능성과 위험성을 더욱 생생하게 파악할 수 있기 때문이다. 그 과정에서 얻은 시행착오와 통찰력이 곧 개인의 역량이 되고, 더 나아가 사회 전반에 걸쳐 건강한 비판 문화와 기술 활용 역량을 형성할 밑바탕이 될 것이다.
AI 수용자가 잊지 말아야할 자세 중 하나로는 도움은 받되 결정은 자기가 하는 것이다. 생성AI로 할 수 있는 것들은 참 많다. 여기서 어디까지 할 수 있는지를 서술하는 것이 의미가 없을 정도로 이미 많이 알려져 있다. 게다가 할 수 있는 범위는 더욱 늘어나고 있다. 최근 오픈AI는 ‘GPT-o3’(o2를 빼고 o3로 바로 간 것은 영국의 모바일 서비스 O2와 상표 분쟁이 생길 수 있기 때문임)를 발표했는데, 발표 내용만 보면 인간 수준이나 그 이상의 지적 능력을 갖춘 인공지능을 뜻하는 일반 인공지능(AGI, Artificial General Intelligence) 수준이란 주장까지 나오고 있다. 구글도 이보다 조금 앞서 ‘제미나이(Gemini)2’를 발표하고, 이를 활용한 프로젝트 ‘Astra’의 시연 영상을 공개했다.
![](/data/ecn/image/2024/12/24/ecn20241224000086.548x.0.jpg)
마지막으로 책을 많이 읽고 상상력을 키우길 바란다. 필자는 지금, 이 글을 쓰면서 일부러 생성AI 서비스 접속을 피하고 있다. 일단 써보자고 제안한 것처럼 2년 정도 되는 동안 개인적으로 생성AI 관련 서비스들을 정말 열심히 이용했다. 생성AI 활용에 익숙해지면서 어느 순간부터 나도 모르게 귀찮고 사소한 것들은 그것에 맡기는 경향이 생겼다. 그런데, 디테일을 맡기다 보니 상상력이 줄어든다는 느낌을 스스로 갖게 됐다. 큰 작업만 생각하니 그 아래 세세한 것들이 부여하는 세밀한 맥락을 놓치게 되었기 때문이다. 사회과학 연구자지만 기술을 중심으로 연구하다 보니 솔직히 그동안 긴 맥락의 책보다 기술적 지식을 높일 수 있는 짧은 문서들을 더 볼 수밖에 없었다. 그러한 짧은 문서들의 내용은 생성AI를 통해 훨씬 더 쉽게 받아들일 수 있다. 이에 지난해 말부터 스스로 결심한 것이 생성AI 활용으로 조금은 아끼게 된 시간에 소설이라도 좋으니 긴 맥락의 책을 읽자였다.
책을 읽는 것이 정답은 아니고 고리타분하게 들릴 수도 있다는 점도 잘 알지만, 책을 읽는 것이 상상력에 도움되는 점도 분명하다. 생성AI를 적극 활용하면서 느낀 문제를 해결하기 위한 나름의 해결책을 책에서 찾을 수 있다. 생성AI의 기능을 잘 알고 활용하면서 좀 더 창의적으로 이용하기 위한 나름의 방안이다.
![](/data/ecn/image/2024/12/24/ecn20241224000083.gif)
ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지
많이 본 뉴스
1한화오션, 獨선사와 1.7조 규모 LNG선 수주 가능성↑
2심각한 ‘직장 내 괴롭힘’...직장인 51% “참거나 모른 척”
3 北, 러시아와 ‘드론’ 공동 개발…올해부터 '양산'되나
4롯데, 14억 인구 시장 ‘정조준’...인도 푸네 新공장 준공
5日 이시바 “트럼프, 자동차 관세·방위비 증액 언급 안해”
6한강, ‘입춘’에 얼어붙었다
7침몰 어선 실종 7명 중 1명 발견…의식불명 상태
8초코파이서 설탕 뺐더니 대박...“제로 마케팅 통했어요”
9"일단 써라, 추천 기능은 꺼라"...AI시대, 미디어 수용자가 가져야 할 태도는?