print

챗GPT, 작가로 인정받을 수 있을까… 저작권 등 문제 수면 위로

[진짜가 나타났다 챗GPT '누구냐 넌!']⑥
“개념 상상하면 기계가 구체화해, 생산성 극적으로 높아질 것”
생성 AI 논문 저자로 인정할지 여부 학계 의견 갈려
사진·일러스트 작가 저작권 문제로 이미지 소송

챗GPT를 개발한 오픈AI가 선보인 인공지능 이미지 생성 애플리케이션 달리(Dall-E). [AFP=연합뉴스]

[한세희 IT 칼럼니스트] “은행 계좌 없이 수표를 현금으로 바꾸려면?”, “복리(複利)란 무엇인가요?”

미국의 주요 테크 매체 중 하나인 C넷의 ‘머니’ 섹션에 실린 기사들이다. 이슈가 되는 사안을 보도하는 ‘뉴스’는 아니고, 사람들이 관심을 두고 자주 찾아보는 사안에 대한 기본적 정보를 설명하는 정보성 콘텐츠에 가깝다. 인터넷에는 이처럼 자주 검색되는 키워드들을 겨냥한 콘텐츠들이 많이 있다. 

똑똑한 AI 인턴 기자 고용한 언론사

하지만 이들 기사는 C넷의 여타 기사와 다른 점이 있다. 바로 인공지능(AI)이 쓴 기사라는 것이다. C넷은 지난해 11월부터 머니 섹션에 들어가는 개념이나 용어 설명 기사를 자체적으로 개발한 AI가 쓰게 한 후 편집자가 확인해 발간하는 실험을 ‘조용히’ 실시했다. C넷이 쓴 AI가 요즘 화제인 챗GPT는 아니다. AI가 기사를 썼다는 사실을 기사에는 밝히지 않았다. 이런 식으로 75개의 기사가 나왔다. 

그러다 1월 들어 C넷은 AI가 쓴 기사들의 바이라인을 ‘C넷 머니’로 변경했다. AI가 쓰고 편집자가 교정했다는 내용을 기사에 명시했다. AI가 온라인에 공개된 정보를 바탕으로 독자에게 도움이 되는 정보를 담은 기사를 쓰고, 나아가 심도 깊은 분석 기사를 쓸 수 있는지 확인하는 실험이라고 설명했다. 

AI가 기사를 썼다고 밝힌 것은 실제 현장에 적용할 수 있을 정도의 성능을 확인했기 때문인지, 기사 작성 과정의 불투명성에 대해 내부적으로 논란이 있었기 때문인지 불분명하다. 하지만 이 일이 알려진 후 역풍은 있었다. 

내부 직원조차도 기사 작성 AI가 어느 기사에 어떤 식으로 쓰였는지 거의 알지 못했다. 어떤 기사가 사람이 쓴 것인지, AI가 쓴 것인지도 알지 못 했다. 편집국장은 회사를 떠나면서 남긴 작별 이메일에서 회사의 AI 활용 행태를 비판했다. 이런 불투명성에 더해 AI가 작성한 기사가 부정확한 내용을 담고 있거나 다른 글을 표절한 부분이 있다는 비판도 나왔다. 

C넷 논란이 있고 얼마 후 또 다른 주요 온라인 매체인 버즈피드가 비슷한 AI 활용 계획을 밝혔음에도 별다른 논란이 없었다. 오히려 스마트한 행보라는 식의 평가를 받았음을 생각하면 더욱 그렇다. 

버즈피드는 리스트 형식 기사나 퀴즈 같은 재미있는 콘텐츠를 만들어 페이스북 같은 소셜미디어에서 바이럴을 일으키는 방식으로 주목받아 상장까지 한 디지털 매체다. 하지만 인터넷 환경 변화로 소셜미디어를 활용한 성장 전략이 한계에 부딪혔다. 이를 해결하기 위해 챗GPT 같은 생성 AI를 활용해 퀴즈나 독자 맞춤형 로맨스 소설을 만드는 등의 AI 중심 콘텐츠 전략을 새로 제시했다. 

C넷이나 버즈피드에서 일어난 일은 현재 챗GPT 같은 초거대 모델에 기반한 생성 AI를 둘러싼 기대와 우려, 논란의 지점을 압축적으로 보여 준다. 훌륭한 결과물을 빠르고 저렴하게 대량 생산할 수 있는 가능성을 보여주지만, 이 결과물의 신뢰도와 저작권, 윤리와 사회적 파장 등의 문제에 대해 뚜렷한 정답을 제시하기 어렵다. 

AI는 아주 훌륭한 창작 보조자가 될 수 있다. AI는 이제 프로야구 경기 결과나 주가 등락 등 단순 보도 기사를 넘어 여러 자료를 종합한 정보나 오락 콘텐츠까지 만들 수 있게 되었다. 챗GPT는 몇 가지 입력 데이터와 정보를 바탕으로 브레인스토밍 회의를 위한 밑바탕 자료 제시나 생일 파티 준비를 위한 할 일 목록 작성, 프로그램 코드 작성, 대략의 구상만 있는 소설에 대한 초안 쓰기 등을 할 수 있다. 

이는 지식 노동에서 가장 고통스러운 부분인 아이디어 구체화와 초안 작성 과정을 극적으로 줄여줄 가능성을 보여준다. 생성 AI 응용 서비스 스타트업인 뤼튼테크놀로지스 이세영 대표는 최근 열린 한 세미나에서 “언어 기반 인터페이스를 가진 생성 AI 덕분에 이제 인간은 기계에 모호한 명령을 내릴 수 있게 되었다”라며 “개념만 상상하면 기계가 구체화하기 때문에 생산성이 극적으로 높아질 것”이라고 말했다. 
마이크로소프트는 1월 23일 챗GPT 개발사인 오픈AI와의 파트너십을 연장했다. [AFP=연합뉴스]

적은 비용 그럴듯한 결과, 흐릿해지는 신뢰

어떤 면에선 창작 보조 도구가 아니라, 창작의 주도자라 해도 손색없는 수준으로도 보인다. 그러나 이렇게 훌륭해 보이지만 창작 주체로서 인정하기 어려운 여러 문제가 있다는 점이 고민에 빠뜨린다. 

C넷의 AI 작성 기사들 중 절반 정도에서 잘못된 내용이 발견되어 새로 수정해야 했다. 챗GPT는 많은 경우 ‘그럴듯한 헛소리’를 당당히 내뱉는다. 필자가 챗GPT에 방탄소년단의 군대 문제에 대해 질문했더니, 일부 멤버는 이미 제대했다는 답을 내놓았다. 지금도 소셜미디어나 인터넷 커뮤니티, 카카오톡 단톡방, 네이버 지식인 등에 나도는 근거 불명의 정보들이 인터넷 공간을 혼탁하게 한다. 조만간 AI가 만들어낸 진짜 같은 엉터리 정보들도 이 대열에 합류할지 모를 일이다. 하나의 정답을 제시하는 AI가 여러 결과를 함께 보여주는 지금의 검색을 대체하리라는 예상이 현실이 되면, AI의 신뢰도는 더 중요한 문제가 된다. 

AI를 잘 활용하고, AI가 만든 내용을 잘 검증하면 되겠지만 말처럼 쉽지는 않다. 이미 AI를 논문 공저자로 내세운 논문이 등장하기 시작한 과학계에서도 입장은 미묘하게 갈린다. 

학술지 <네이처>나 <셀> 등은 챗GPT 같은 생성 AI를 논문 저자로 인정하지는 않되 도구로 쓸 수는 있다는 입장이다. 반면, <사이언스>는 챗GPT가 만든 텍스트나 이미지 등도 넣어선 안 된다며 강경하다. 

디자인에 쓰이는 스톡 이미지 분야에서는 AI가 생성한 이미지를 포용하는 셔터스톡과 인정하지 않겠다는 게티이미지의 정책이 갈린다. 저작권도 문제다. 스톡 이미지 사이트에 사진과 일러스트를 제공하는 작가들은 이미지 생성 AI가 무단으로 자신들의 작품을 가져다 학습했다며 소송을 걸었다. 

적은 비용으로 끝없이 만들어져 쏟아지는 그럴듯한 콘텐츠 속에서 자칫 신뢰도, 투명성도 모두 흐릿해져 아무것도 제대로 판단할 수 없는 불안의 시대를 살게 될 수도 있다.

ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지

많이 본 뉴스

1 “미모의 여자 친구...” 유병재 열애 공개

2‘옥씨부인전’ 임지연 처절한 생존 연기 터졌다…4.2% 출발

3전년比 1.4%↑...11월 수출 14개월 연속 '플러스'

4성공한 사람 책장에 꼭 있다는 '이 책'

51148회 로또 1등 ‘3·6·13·15·16·22’

6“재산 절반 옆에 있는 여자에게...” 조영남 유서 깜작 공개

7한동훈 “민주, 李방탄 예산 감액…호남도 버렸다”

8고점 또 돌파한 리플 코인…한달 만에 264% 상승

9서학 개미에게 희소식…하루 23시간 거래 가능한 미 증권거래소 내년 개장

실시간 뉴스

1 “미모의 여자 친구...” 유병재 열애 공개

2‘옥씨부인전’ 임지연 처절한 생존 연기 터졌다…4.2% 출발

3전년比 1.4%↑...11월 수출 14개월 연속 '플러스'

4성공한 사람 책장에 꼭 있다는 '이 책'

51148회 로또 1등 ‘3·6·13·15·16·22’