국제 경제
구글 AI, 국제수학올림피아드서 '금메달' 점수 공식 인정…"인간과 동일 조건"
- 제미나이 딥싱크, IMO 실전서 42점 만점에 35점

구글 딥마인드는 IMO 채점자들이 '제미나이 딥 싱크'(Gemini Deep Think)의 고급 버전이 제출한 답안을 인간 참가자들과 똑같은 조건과 채점 기준으로 평가한 결과 42점 만점에 35점이 나왔다고 21일(현지시간) 블로그 게시물을 통해 밝혔다.
지난달 호주의 선샤인코스트에서 열린 올해 IMO에는 110개국 국가대표 630명이 참가했으며 이 중 67명이 금메달, 103명이 은메달, 145명이 동메달, 132명이 등외 장려상을 받았다.
금·은·동메달 커트라인은 각각 35점, 28점, 19점이었다.
IMO 위원장인 그레고르 돌리나르 류블라냐대 교수는 구글 딥마인드가 내놓은 서술형 답안에 대해 "여러 가지 면에서 놀라웠다"며 "IMO 채점자들은 이 답안들이 명확하고 정밀하며, 답안 대부분이 전개를 따라가기 쉽다고 평가했다"고 설명했다.
구글 딥마인드가 온라인으로 공개한 답안을 보면 AI 모델은 문제마다 단계별로 보조정리(lemma)와 정리(theorem) 등을 스스로 고안해내 체계적이고 일목요연하고 엄밀하게 답안을 서술했다.
이 AI 모델은 올해 IMO 참가자들과 마찬가지로 인간 언어로 문제지를 받아 인간 언어로 답안을 제출했으며, 총 6문제 중 5문제를 완벽하게 풀었다.
제한 시간도 4시간 30분씩 이틀간으로 인간과 똑같이 적용됐다.
이는 구글 딥마인드가 '알파지오메트리 2'와 '알파프루프'가 작년 대회 문제에서 거둔 성과에 비해 훨씬 더 앞선 것이다.
작년에는 이 두 AI 모델이 42점 만점에 은메달에 해당하는 28점을 받았다고는 했으나, 계산 시간이 이틀 내지 사흘이 걸렸고 인간 언어로 문제를 읽고 답안을 제출한 것도 아니었다.
당시에는 인간 전문가들이 달라붙어서 컴퓨터가 수학 문제를 쉽게 풀 수 있도록 고안된 특수 프로그래밍 언어로 문제를 번역해준 후, 컴퓨터가 결과를 내놓으면 이를 인간 언어로 다시 번역해줘서 답안을 작성해줬다.
올해 쓰인 제미나이 딥싱크의 고급 버전은 아직 일반이 사용할 수 있도록 공개되지는 않았다.
구글 딥마인드는 앞으로 수학자 등 신뢰할만한 테스터들에게 이 모델을 제공해 시험해보도록 한 후, 월 구독료가 249.99 달러(약 34만6천원)인 '구글 AI 울트라' 구독자들에게 제공할 예정이다.
또 다른 유명 AI 기업인 오픈AI의 추론 부문에서 일하는 앨릭스 웨이 박사는 자사 AI 모델에 인간 참가자들과 똑같은 조건으로 올해 IMO 문제를 풀어보도록 한 결과 금메달 수준의 점수가 나왔다고 지난 19일 소셜 미디어를 통해 발표했다.
다만 이는 오픈AI 자체적으로 실시한 내부 평가다.
ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지
당신이 좋아할 만한 기사
브랜드 미디어
브랜드 미디어
유한양행, 피로회복 비타민B 드링크 '유한메가비타액' 출시
바이오 성공 투자, 1%를 위한 길라잡이이데일리
팜이데일리
이데일리
‘90억 연봉’ 윤석민 “갑질 당하고 싶다” 왜?
대한민국 스포츠·연예의 살아있는 역사 일간스포츠일간스포츠
일간스포츠
일간스포츠
[단독]또 '1.8점 감점'이 결정적?…현대重·한화오션, 이번엔 '수중전'
세상을 올바르게,세상을 따뜻하게이데일리
이데일리
이데일리
[마켓인]KBI국인산업, 라온저축은행 인수 순항…PF는 여전히 ‘뇌관’
성공 투자의 동반자마켓인
마켓인
마켓인
'美 짐머가 판 깔았다'…오스테오닉 '스포츠메디신', 작년 52억, 올해는 155억
바이오 성공 투자, 1%를 위한 길라잡이팜이데일리
팜이데일리
팜이데일리