네이버·카카오보다 빨랐다…LG, 차세대 AI ‘엑사원 2.0’ 공개
구광모 대표 의지 반영…빅테크와 견줄 생성형 AI 개발
AI 환각 부작용 최소화…전문가 도울 정도의 정확도 탑재
모델 크기 다양…고객사 맞춤형 기능 구현 ‘차별화’
[이코노미스트 정두용 기자] 가전·전자·배터리·디스플레이…. 제조 산업에서 두각을 나타내는 LG그룹이 국내 양대 플랫폼 기업인 네이버·카카오보다 먼저 차세대 인공지능(AI) 모델을 19일 공개했다. LG의 차세대 초대규모 AI 모델 이름은 ‘엑사원(EXAONE) 2.0’이다.
2022년 11월 챗GPT 등장한 후 구글·메타 등 세계 빅테크를 중심으로 차세대 초대규모 AI 모델을 속속 공개하고 있다. 국내 대기업 중에서 신규 AI 모델을 내놓은 건 ㈜LG가 처음이다. 네이버는 차세대 초대규모 AI 모델 ‘하이퍼클로바X’를 8월 24일 공개할 예정이고, 카카오는 ‘코(Ko)-GPT 2.0’의 연내 출시가 목표다. ㈜LG 측은 “빅테크가 개발한 AI 모델과 비교해 성능·기능 면에서 어깨를 나란히 할 정도”라고 자신했다. 생성형 AI(Generative AI) 패권 경쟁에 뒤처지지 않겠다는 의지가 읽힌다.
LG가 이처럼 빨리 차세대 AI 모델을 공개할 수 있었던 배경으론 구광모 ㈜LG 대표의 의지가 꼽힌다. 구 대표는 2018년 취임한 후 AI를 LG그룹 미래 성장 동력으로 삼았다. 2020년에는 ‘LG AI연구원’을 설립하고 ‘그룹사 전반에 녹여낼 수 있는 AI 기술개발’의 역할을 맡겼다. 지난해에는 AI·데이터 분야 연구개발에 3조6000억원을 투입하겠단 계획을 내놓기도 했다.
‘멀티모달 AI’ 엑사원 2.0
LG AI연구원은 이날 서울 강서구 마곡 LG사이언스파크 컨버전스홀에서 ‘LG AI 토크 콘서트 2023’을 개최하고, 엑사원 2.0을 “전문가가 사용할 수 있는 ‘초거대 멀티모달(Multimodal) AI”라고 설명했다.
엑사원 2.0은 범용적인 서비스 제공보다 연구원·개발자를 돕기 위한 기능을 갖췄다는 특징을 지닌다. LG AI연구원은 이를 위해 2021년 12월 출시한 ‘엑사원’의 학습 데이터를 4배 높여 성능을 끌어올렸다. 파트너십을 통해 확보한 특허·논문 등 약 4500만건의 전문 문헌과 3억5000만장의 이미지를 학습했다.
LG AI연구원이 엑사원 2.0을 ‘멀티모달 모델’이라고 정의한 이유다. 멀티모달은 AI가 사람처럼 정보를 인식하는 방식을 말한다. 정보는 글·이미지·음성·영상 등 매우 다양한 형태를 지닌다. 모달리티(Modality) 이런 정보 하나하나를 의미한다. 사람은 다양한 형태의 정보를 복합적으로 인식하는 반면, AI의 인식 범위는 모달리티에 머물렀다. 멀티모달은 한 형태의 정보만 학습해 발생하는 AI 한계를 극복하기 위해 비교적 최근 개발된 기술이다.
멀티모달 기술이 접목된 AI 모델은 글·이미지 정보를 복합적으로 학습, 다양한 기능을 구현할 수 있다. 실제로 엑사원 2.0은 이날 시연에서 논문에 게재된 도표·화학식·제품 사진 등을 정확하게 읽고, 핵심 정보를 축출하는 모습을 보였다.
엑사원 2.0은 멀티모달의 장점을 갖추고, 성능 면에서도 ‘세계 빅테크’와 견줄 수 있는 수준으로 공개됐다. 생성형 AI 서비스 모두 초대규모 모델을 기반으로 작동된다. 생성형 AI의 대표 격인 챗GPT 역시 GPT-4란 초대규모 AI 모델을 통해 구현됐다. 구글의 AI 챗봇 바드 역시 초거대언어모델 팜2(PaLM2)를 기반으로 한다.
매력적인 생성형 AI 기능 구현은 초대규모 모델의 성능에 달린 셈이다. 초대규모 AI의 성능은 통상 매개변수(파라미터) 수로 가늠한다. 챗GPT 초기 모델에 사용된 GPT-3.5의 파라미터 수는 1750억개, 구글 바드에 사용된 팜2는 5300억개다. 네이버가 개발 중인 하이퍼클로바X의 파라미터 수는 2040억개로 알려져 있다. 엑사원 2.0의 최대 파라미터 수는 3000억개로, 빅테크가 내놓은 서비스 수준으로 생성형 AI 기능을 구현할 수 있다.
다만 파라미터 수의 증가는 생성형 AI를 무겁게 만드는 요인으로 작용한다. 스마트폰과 같은 개인용 기기에 도입이 어렵다는 의미다. LG AI연구원은 이 때문에 엑사원 2.0의 모델 크기를 세분화했다. 고객사의 요청에 따라 적합한 모델을 적용, 최적화를 이루겠단 취지다. 엑사원 2.0은 ▲17억개 ▲88억개 ▲250억개 ▲700억개 ▲1750억개 ▲3000억개의 파라미터 수를 가진 모델로 구분된다.
배경훈 LG AI연구원장은 “다양한 고객사의 니즈(요구)에 맞게 엑사원 2.0을 제공할 수 있다”며 “서비스에 맞는 AI 모델을 적용해 최적화된 기능을 구현할 수 있다는 것도 차별화 지점”이라고 말했다. 고객사가 원하는 용도나 예산에 맞게 모델의 크기는 물론 언어·비전·멀티모달 등 종류, 그리고 사용 언어까지 맞춤형으로 설계가 가능하단 설명이다.
‘전문가’ 위한 3가지 생성형 AI 플랫폼 공개
LG AI연구원은 엑사원 2.0을 기반으로 구현된 ‘전문가 AI’ 서비스 3가지도 함께 공개했다. 현존하는 전문 지식 데이터 상당수가 영어로 기술돼 있다는 점을 고려해 이중 언어(Bilingual) 모델로 엑사원 2.0을 제작하기도 했다. 한국어와 영어 모두를 지원한다.
▲전문가용 대화형 AI 플랫폼 유니버스(Universe) ▲신소재·신물질·신약 관련 탐색에 적합한 AI 플랫폼 디스커버리(Discovery) ▲이미지를 언어로 표현하고, 언어를 이미지로 시각화할 수 있는 멀티모달 AI 플랫폼 아틀리에(Atelier)를 통해 생성형 AI 시장에서 성과를 올리겠단 포부를 내비쳤다.
배 원장은 유니버스에 대해 “각 분야의 전문가들이 믿고 정보를 탐색하며 인사이트를 찾을 수 있는 플랫폼”이라며 “생성형 AI 약점으로 꼽히는 ‘잘못된 정보 제공’을 줄이기 위해 전문성·신뢰성을 높이는 데 주력했다”고 설명했다. 유니버스는 질문에 대한 답변과 함께 연관성이 가장 높은 전문 문헌과 AI가 답변하는 과정에서 활용한 단락을 표시한다.
디스커버리는 논문·특허 등 전문 문헌의 텍스트는 물론 분자 구조·수식·차트·표·이미지 등 다양한 형태의 정보도 인식이 가능하다. 심층 문서 이해(DDU) 기술을 통해 ▲전문 문헌 검토 ▲분자 정보 추출 ▲소재 구조 설계(UMD) ▲소재 합성 예측(NCS) 등 후보 소재를 찾아내 합성 결과를 예측하는 기능을 갖췄다. 한세희 LG AI연구원 랩장은 “디스커버리를 통해 1만회가 넘었던 합성 시행착오를 수십회로 줄이고, 연구개발 소요 시간은 40개월에서 5개월로 단축할 수 있을 것”이라고 설명했다.
아틀리에는 이미지 생성과 이미지 이해에 특화된 기능을 제공한다. 처음 보는 이미지를 자연어로 설명할 수 있고, 이미지 검색에 활용할 수 있는 정보인 문장이나 키워드 등의 메타 데이터를 생성할 수 있는 기능을 갖췄다. LG AI연구원은 올해 3분기에 그룹 내외부의 전문 디자이너를 대상으로 엑사원 아틀리에 서비스를 시작할 방침이다.
배 원장은 “LG는 국내에서 유일하게 이중 언어 모델과 양방향 멀티모달 모델을 모두 상용화한 기업”이라며 “세상의 지식을 이해하고 발견하는 상위 1%의 전문가 AI를 개발하고 있다”고 강조했다.
ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지
많이 본 뉴스
1'살기 좋은 빌라촌' 꿈꾼다...종로·회현 등 32곳에 '뉴:빌리지' 조성
2한화투자증권, 온기를 나누는 ‘따뜻한 겨울나기’ 물품 지원 성료
3혁신 담았다...세라젬, 전신 안마의자 ‘파우제 M8’ 론칭
4BNK금융, 조직개편·경영진 인사...“핵심사업 경쟁력 강화”
5셀트리온, 자가면역질환 치료제 앱토즈마 국내 품목허가 획득
6국민은행, ‘메시지 모아보기’ 서비스…스미싱 범죄 예방
7프라우드넷, 안양대학교와 업무협약 체결…혁신인재 양성 및 게임 개발 나선다
8이도, 포항 유기성 슬러지 에너지화 사업 계약
9"눈물 머금고 내가 산다"...전세사기 피해자 '셀프 경매낙찰' 10년만 최다