FEATURES ARTIFICIAL INTELLIGENCE - 학습 능력 갖춘 컴퓨터 등장한다 - 이코노미스트

Home > >

print

FEATURES ARTIFICIAL INTELLIGENCE - 학습 능력 갖춘 컴퓨터 등장한다

FEATURES ARTIFICIAL INTELLIGENCE - 학습 능력 갖춘 컴퓨터 등장한다

시간이 지날수록 지식을 축적해 어린이에 가까운 지능을 갖추게 된다



피츠버그의 컴퓨터 한 대가 지난 7월 이후 하루 24시간 일주일 내내 오로지 수백만 장의 사진만 들여다 본다. 분 단위로 자동차·비행기·거북이·거위 같은 평범하고 일상적인 사물들의 이미지를 1000여 장씩 넘겨가며 훑어본다. 그러면서 이 컴퓨터는 조금씩 관찰 대상에 관해 배워간다.

카네기 멜론 대학의 ‘무한 이미지 학습 프로그램(NEIL)’은 급속히 확대되는 새 컴퓨팅 모델 중 하나다. 인간이 입력하는 명령어에 의존하는 방식에서 탈피했다. 이 신세대 컴퓨터는 스스로 생각하고 세상을 인식할 수 있다고 과학자들은 말한다. NEIL이 4개월 가량 이미지를 훑어본 결과 이미 1500종의 물체를 식별했으며 관측대상 사물과 관련된 2500개 개념을 학습했다. NEIL은 프로그래머가 정보를 입력하지 않아도 주식거래소가 혼잡하고, 에어버스 A330은 비행기이며, 아기가 두 눈을 갖고 있다는 사실을 알 수 있다.

“시간이 지날수록 컴퓨터가 더 많이 배워 어린이에 가까운 지능을 갖게 된다.” 카네기 멜론 로봇공학 연구소의 압히나브 굽타 연구 조교수가 뉴스위크에 말했다. 굽타와 2명의 박사과정 파트너가 그 컴퓨터를 ‘무한’이라고 부르는 데는 이유가 있다. 그들은 학습 정보를 컴퓨터가 얼마나 더 계속 축적해 나갈 수 있을지 궁금해 한다. 이들은 그것을 인간이 항상 습득하는 ‘상식적’ 지식에 비유한다.

굽타의 연구는 로봇과학자들에게는 컴퓨터 비전으로 알려진 분야에 속한다. 1970년 대 전장의 비행기나 전차를 컴퓨터가 인식할 수 있을지 군사학자들이 흥미를 가지면서 시작됐다. 최초의 시도는 윤곽선에 초점을 맞췄다고 캘리포니아공대의 피에트로 페로나가 말했다. 디지털 이미지는 단순한 숫자이기 때문에 “선의 특징적인 패턴”을 컴퓨터가 찾을 수 있다면 큰 발전이 된다고 페로나가 뉴스위크에 말했다.

1995년에는 컴퓨터가 단 하나의 이미지를 처리하는 데도 애를 먹었다고 리사 브라운이 말했다. 당시 박사학위를 취득한 그녀는 현재 IBM의 컴퓨터 비전 과학자다. “도로가 비스듬히 기울었는가? 우리는 단순히 그것을 인식하는 방법을 알아내려 애썼다”고 브라운이 돌이켰다.

기술이 더 발전하면서 형태와 조직에 기초해 사물의 종류(예를 들어 램프 또는 커피머그)를 파악하도록 컴퓨터를 프로그램할 수 있었다. 인간은 흔히 100만 종을 넘어 계속 불어나는 사물 중 3만 종을 인식한다고 페로나가 말했다. 오늘날 컴퓨터 비전은 우리 삶에서 갈수록 더 큰 부분을 차지한다. 예컨대 페이스북과 구글 글라스는 얼굴 인식 능력을 갖췄다.

앞으로 컴퓨터 비전을 이용해 의사들이 종양을 찾아내고, 군용 폭탄이 표적을 추격하고, 소비자들이 핀터레스트(소셜 사진공유 사이트)에 게시하기 좋아하는 종류의 핸드백을 소매업체들이 알아낼 수 있게 된다고 과학자들은 예견한다. 그러나 한 가지 문제가 있다.

이미지가 바뀔 때마다 ‘얼굴’ ‘종양’ ‘프라다’라고 라벨을 붙이는 작업을 하며 하루 종일 앉아 있고 싶어 하는 사람은 없다. 그러기에는 컴퓨터 비전에 너무 많은 돈과 노력이 들어가기 때문에 실용성이 떨어진다. 바로 그런 점에서 인공지능의 필요성이 대두된다. 지난 10년 동안 컴퓨터가 스스로 시각 인식능력을 습득하도록 하는 더 낫고 빠른 방법을 찾기 위한 노력이 계속돼 왔다.

“처음에는 결과에 자신이 없었다”고 굽타가 말했다. 그러나 결과적으로 하나의 작은 요령으로 문제가 해결됐다. 사진이 수백만장씩 이미 분류돼 나오는 구글 이미지 검색을 사용하는 방법이다. 굽타 연구팀이 초기알고리즘을 설치하고 무엇을 배울지 NEIL에게 명령하면 나머지는 컴퓨터가 알아서 했다. NEIL과 200여개의 중앙처리장치가 수백만 장의 사진을 샅샅이 훑으면서 장면·물체·속성 그리고 그들간의 관계를 분석했다.

NEIL에 도움이 필요한 경우는 헷갈리는 동음이의어에 맞닥뜨릴 때뿐이라고 그들은 말한다. ‘핑크’는 색깔이면서 팝 가수 이름이며, ‘애플’은 과일이지만 회사 이름이기도 하다. NEIL은 그 차이를 구별하지 못하기 때문에 사람이 개입해야 한다. 그러나 “이것은 상식적 지식의 첫걸음”이라고 굽타가 설명한다.

주변 환경을 이해하고 인간과 상호작용할 수 있는 인간형 로봇의 세계가 멀지 않았을지도 모른다. 스마트폰에 이미 음성인식 기술이 깔려 있다. 기계가 맛의 특성을 모방할 수 있다. 매사추세츠 공대에선 두뇌 및 인지과학이라는 한 학과 전체가 인간의 학습을 가능케 하는 신경학적 프로그래밍 연구를 전담한다. 교수진이 온통 컴퓨터과학자들로 이뤄졌다.

한편 IBM의 한 과학자가 개발 중인 노인도우미 로봇은 시각과 청각을 통한 학습이 가능하다고 브라운이 전한다. 예컨대 “이게 내가 아침에 복용해야 하는 약”이라는 말을 이해할 수 있다고 그녀가 말했다. “우리는 학습법을 어떻게 익혀야 하는지를 알아내고자 한다”고 브라운이 말했다.
Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)

많이 본 뉴스

실시간 뉴스