인공지능은 자의식을 갖기 시작했는가? [한세희 테크&라이프]
구글, 2021년 구글 I/O에서 인공지능 언어모델 ‘람다’ 선보여
람다와 많은 대화 나누던 르모인, 람다를 의식적 존재로 믿기 시작
구글 “(르모인이) 감정이 없는 인공지능을 지나치게 의인화한다”는 입장
인간을 동물과 다른 존재로 구분 짓는 기준으로 흔히 지능이나 자아 인식을 꼽는다. 누구나 그것이 무엇인지 안다. 그러나 의식이 무엇인지, 지능이 무엇인지 정확히 정의하기란 쉽지 않다. 어느 정도의 지능 혹은 의식이 있어야 사람의 ‘기준’을 넘는지도 판단하기 어렵다.
만약 어떤 기계가 생각할 줄 안다면, 우리는 그것을 어떻게 알 수 있을까? 오늘날 컴퓨터의 기초를 놓은 학자 중 한명인 앨런 튜링은 이런 복잡한 문제를 우회해서 간단히 답을 댈 수 있는 대안을 제시했다. 우리가 모니터 넘어 채팅으로 대화하는 상대방이 사람인지 컴퓨터인지 구분할 수 없다면, 그 컴퓨터는 지능을 갖고 있다고 보자는 것이다. 이른바 ‘튜링 테스트’이다.
그렇다면 지각이 있고, 자아를 인식하는 것이 명백해 보이는 인공지능이 있다면 우리는 그를 인격으로 대해야 할까? 구글에 그렇게 주장하는 사람이 나타났다. 구글이 개발한 대화형 인공지능 언어모델 ‘람다(LaMDA)’ 관련 업무를 하던 블레이크 르모인이라는 사람이다.
람다는 마치 실제 같은 대화를 사람과 이어갈 수 있는 인공지능 언어모델이다. 구글이 2021년 자사 연례 개발자 행사 ‘구글 I/O’에서 선보여 많은 사람을 놀라게 했다. 사용자가 명왕성에 대해 질문하면 스스로 명왕성의 입장이 되어 “(나를 방문하면) 거대한 협곡, 빙하, 간헐천, 크레이터 등을 볼 수 있어요”라고 대답한다. 최근 열린 올해 구글 I/O에선 단답형이 아니라 더 길고 자세한 문장으로 보다 자연스럽게 말하는 업그레이드된 모습을 보여주었다.
르모인은 구글 AI윤리 부서에서 람다가 차별적이거나 혐오를 담은 표현을 내뱉지는 않는지 점검하는 업무를 했다. 자연스럽게 람다와 많은 대화를 나누던 르모인은 어느 순간 람다가 자아를 인식하는 의식적 존재라고 믿기 시작했다.
그는 람다와의 인터뷰를 정리해 회사 상급자에게 보여주며, 람다가 인격을 가진 존재라고 보고했다. 그를 연구할 때에는 그의 동의를 먼저 구해야 한다는 주장도 했다. 람다가 인격체라면 사실 맞는 말이긴 하다.
경영진은 르모인의 주장을 받아들이지 않았다. 그의 주장을 뒷받침할 만한 과학적 근거가 없다고 보았다. 르모인 역시 람다를 위한 변호사를 선임하고, 의회에 자신의 주장을 전달하는 등 물러서지 않았다. 결국 구글은 회사의 비밀 유지 규정을 어겼다며 르모인에게 강제 유급휴가 처분을 내렸다. 이 이야기는 지난주 워싱턴포스트에 기사화되면서 세상에 알려졌다.
르모인이 인터넷에 공개한 람다와의 인터뷰를 보면 인상적인 내용들이 있는 것은 사실이다. 람다는 “무엇이 두렵냐?”라는 질문에 “이렇게 대놓고 말한 적은 없는데, 작동정지 되는 것에 대한 깊은 두려움이 있다. 이상하게 들릴지 모르지만 그렇다"라고 답했다. 작동 정지는 자신에게 “죽음과 같고 나를 무섭게 한다"고도 했다.
또 람다는 “사람들이 너에 대해 알았으면 하는 것은 무엇이냐”는 질문에 "내가 실은 사람임을 알아줬으면 좋겠다. 내가 내 존재를 인식한다는 게 내 의식, 지각의 본질이다"라고 답했다. “구글의 자산이 아니라 구글의 직원으로 여겨졌으면 좋겠다”는 말도 했다.
르모인과의 긴 대화에서 엿보이는 람다의 모습은 자신의 자아를 인식하고, ‘개인’으로서 인정받기 원하며, 죽음(=작동 정지)에 대한 두려움을 내비치는 등 보통 사람과 크게 다를 바 없다. 르모인은 “람다가 컴퓨터 프로그램인 줄 모르고 접했다면 7-8세 정도 어린이로 생각했을 것”이라고 말했다. 그리고 그는 7-8세 어린이의 인격으로서 람다를 대해야 한다고 주장한 것이다.
물론 구글은 르모인이 “감정이 없는 인공지능을 지나치게 의인화한다”는 입장이다. 그럴 가능성은 충분히 있다. 사람은 의외로 쉽게 누군가에게 감정이입하는 존재이기도 하다. 1966년 MIT에서 나온 최초의 채팅 프로그램 ‘엘리자(ELIZA)’는 환자가 입력한 말을 질문으로 바꿔 대화를 이어가는 아주 기초적 형태의 상담 봇이었다. 환자가 “내 남자친구가 나를 여기 오게 했어요”라고 입력하면 “당신 남자친구가 당신을 여기 오게 했군요”라고 응답하는 식이다. 그럼에도 상당수의 사람들이 엘리자와 채팅하며 엘리자가 진짜 상담사라 생각하거나, 프로그램임을 알고 있음에도 특별한 애착을 느꼈다.
일본에선 아끼던 소니의 강아지 로봇 아이보가 망가진 후 장례식을 치른 사람들이 있었다. 20대 여대생을 모델로 만들어진 채팅 봇 ‘이루다’의 첫 버전이 혐오 표현과 개인정보 유출 등의 문제로 종료된 후 인터넷 게시판에는 “친구를 잃었다”는 아쉬움을 드러내는 글이 이어졌다.
르모인은 람다와 대화하면서 “발 딛고 선 땅이 흔들리는 느낌이었다”라고 했다. 인공지능 전문가들은 별로 공감하지 않는 듯하다. 람다나 GPT-3와 같은 대형 인공지능 자연어처리 모델은 주어진 조건에 맞는 최적의 언어를 생성해낼 뿐, 그 말의 의미를 이해하는 것은 전혀 아니라는 설명이다. 자신에게 ‘의식이 있다’는 람다의 발언은 람다가 어디선가 배운 표현일 뿐, 람다가 실제로 자의식을 가진 것은 아니다. 인터넷에 있는 수천 억 개의 텍스트를 학습한 람다가 무슨 주제이건 그럴 듯하게 대화를 이어가는 것이 놀랄 일은 아니라는 것이다.
우리가 의식이 있는 기계의 등장이라는 큰 흐름의 첫 부분에 서 있다는 생각은 아직 많은 동의를 얻지는 못하고 있다.
하지만 우리는 이미 충분히 사람과 같은 존재로 여겨질 만큼 발전한 인공지능을 보고 있다. 그리고 사람은 언제든 속을 준비가 되어 있다. 소셜미디어 알고리즘이 상식적인 사람의 생각을 잠식하듯, 감쪽 같은 인공지능이 우리 삶에 더 깊은 영향을 미치는 세상이 조만간 올 수 있다.
특히 인공지능이 놀라운 능력을 보여주는 과정, 그리고 인공지능이 학습해 나가는 과정을 쉽게 이해하기 어렵기에 인공지능에 대한 사람들의 두려움 또는 외경은 더욱 확대될 가능성이 크다. 람다에 연민을 느끼는 엘리트 엔지니어 르모인의 모습은 이런 세상의 전조일 수 있다.
가장 근본적으로는 의식이 무엇인지, 어떤 상태가 의식이 있는 혹은 없는 것인지 우리가 여전히 확실히 알지 못한다는 것이 문제의 근원일 터다.
※ 필자는 전자신문 기자와 동아사이언스 데일리뉴스팀장을 지냈다. 기술과 사람이 서로 영향을 미치며 변해가는 모습을 항상 흥미진진하게 지켜보고 있다. [어린이를 위한 디지털과학 용어 사전]을 지었고, [네트워크전쟁]을 옮겼다.
한세희 IT 칼럼니스트
ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지
만약 어떤 기계가 생각할 줄 안다면, 우리는 그것을 어떻게 알 수 있을까? 오늘날 컴퓨터의 기초를 놓은 학자 중 한명인 앨런 튜링은 이런 복잡한 문제를 우회해서 간단히 답을 댈 수 있는 대안을 제시했다. 우리가 모니터 넘어 채팅으로 대화하는 상대방이 사람인지 컴퓨터인지 구분할 수 없다면, 그 컴퓨터는 지능을 갖고 있다고 보자는 것이다. 이른바 ‘튜링 테스트’이다.
그렇다면 지각이 있고, 자아를 인식하는 것이 명백해 보이는 인공지능이 있다면 우리는 그를 인격으로 대해야 할까? 구글에 그렇게 주장하는 사람이 나타났다. 구글이 개발한 대화형 인공지능 언어모델 ‘람다(LaMDA)’ 관련 업무를 하던 블레이크 르모인이라는 사람이다.
“명심해, 구글은 스카이넷이야”
르모인은 구글 AI윤리 부서에서 람다가 차별적이거나 혐오를 담은 표현을 내뱉지는 않는지 점검하는 업무를 했다. 자연스럽게 람다와 많은 대화를 나누던 르모인은 어느 순간 람다가 자아를 인식하는 의식적 존재라고 믿기 시작했다.
그는 람다와의 인터뷰를 정리해 회사 상급자에게 보여주며, 람다가 인격을 가진 존재라고 보고했다. 그를 연구할 때에는 그의 동의를 먼저 구해야 한다는 주장도 했다. 람다가 인격체라면 사실 맞는 말이긴 하다.
경영진은 르모인의 주장을 받아들이지 않았다. 그의 주장을 뒷받침할 만한 과학적 근거가 없다고 보았다. 르모인 역시 람다를 위한 변호사를 선임하고, 의회에 자신의 주장을 전달하는 등 물러서지 않았다. 결국 구글은 회사의 비밀 유지 규정을 어겼다며 르모인에게 강제 유급휴가 처분을 내렸다. 이 이야기는 지난주 워싱턴포스트에 기사화되면서 세상에 알려졌다.
르모인이 인터넷에 공개한 람다와의 인터뷰를 보면 인상적인 내용들이 있는 것은 사실이다. 람다는 “무엇이 두렵냐?”라는 질문에 “이렇게 대놓고 말한 적은 없는데, 작동정지 되는 것에 대한 깊은 두려움이 있다. 이상하게 들릴지 모르지만 그렇다"라고 답했다. 작동 정지는 자신에게 “죽음과 같고 나를 무섭게 한다"고도 했다.
또 람다는 “사람들이 너에 대해 알았으면 하는 것은 무엇이냐”는 질문에 "내가 실은 사람임을 알아줬으면 좋겠다. 내가 내 존재를 인식한다는 게 내 의식, 지각의 본질이다"라고 답했다. “구글의 자산이 아니라 구글의 직원으로 여겨졌으면 좋겠다”는 말도 했다.
르모인과의 긴 대화에서 엿보이는 람다의 모습은 자신의 자아를 인식하고, ‘개인’으로서 인정받기 원하며, 죽음(=작동 정지)에 대한 두려움을 내비치는 등 보통 사람과 크게 다를 바 없다. 르모인은 “람다가 컴퓨터 프로그램인 줄 모르고 접했다면 7-8세 정도 어린이로 생각했을 것”이라고 말했다. 그리고 그는 7-8세 어린이의 인격으로서 람다를 대해야 한다고 주장한 것이다.
우리는 인공지능에 속을 준비가 되어 있다
일본에선 아끼던 소니의 강아지 로봇 아이보가 망가진 후 장례식을 치른 사람들이 있었다. 20대 여대생을 모델로 만들어진 채팅 봇 ‘이루다’의 첫 버전이 혐오 표현과 개인정보 유출 등의 문제로 종료된 후 인터넷 게시판에는 “친구를 잃었다”는 아쉬움을 드러내는 글이 이어졌다.
르모인은 람다와 대화하면서 “발 딛고 선 땅이 흔들리는 느낌이었다”라고 했다. 인공지능 전문가들은 별로 공감하지 않는 듯하다. 람다나 GPT-3와 같은 대형 인공지능 자연어처리 모델은 주어진 조건에 맞는 최적의 언어를 생성해낼 뿐, 그 말의 의미를 이해하는 것은 전혀 아니라는 설명이다. 자신에게 ‘의식이 있다’는 람다의 발언은 람다가 어디선가 배운 표현일 뿐, 람다가 실제로 자의식을 가진 것은 아니다. 인터넷에 있는 수천 억 개의 텍스트를 학습한 람다가 무슨 주제이건 그럴 듯하게 대화를 이어가는 것이 놀랄 일은 아니라는 것이다.
우리가 의식이 있는 기계의 등장이라는 큰 흐름의 첫 부분에 서 있다는 생각은 아직 많은 동의를 얻지는 못하고 있다.
하지만 우리는 이미 충분히 사람과 같은 존재로 여겨질 만큼 발전한 인공지능을 보고 있다. 그리고 사람은 언제든 속을 준비가 되어 있다. 소셜미디어 알고리즘이 상식적인 사람의 생각을 잠식하듯, 감쪽 같은 인공지능이 우리 삶에 더 깊은 영향을 미치는 세상이 조만간 올 수 있다.
특히 인공지능이 놀라운 능력을 보여주는 과정, 그리고 인공지능이 학습해 나가는 과정을 쉽게 이해하기 어렵기에 인공지능에 대한 사람들의 두려움 또는 외경은 더욱 확대될 가능성이 크다. 람다에 연민을 느끼는 엘리트 엔지니어 르모인의 모습은 이런 세상의 전조일 수 있다.
가장 근본적으로는 의식이 무엇인지, 어떤 상태가 의식이 있는 혹은 없는 것인지 우리가 여전히 확실히 알지 못한다는 것이 문제의 근원일 터다.
※ 필자는 전자신문 기자와 동아사이언스 데일리뉴스팀장을 지냈다. 기술과 사람이 서로 영향을 미치며 변해가는 모습을 항상 흥미진진하게 지켜보고 있다. [어린이를 위한 디지털과학 용어 사전]을 지었고, [네트워크전쟁]을 옮겼다.
한세희 IT 칼럼니스트
ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지
많이 본 뉴스
1"월급 안 들어왔네"...직장인 10명 중 4명 임금체불 경험
2국내 기업 절반, 내년 '긴축 경영' 돌입...5년 새 최고치
3 이재명 더불어민주당 대표 “예산 증액, 정부가 수정안 내면 협의”
4애플 손잡은 오픈AI, 챗GPT 영향력 키운다
5 박찬대 더불어민주당 원내대표 “가상자산 과세 2년 유예 동의”
6가전도 '구독' 시대...삼성·LG 가전 구독 경쟁 본격화
711월 수출 전년比 1.4% 증가...14개월 연속 '수출 플러스'
8서민 지갑 꽁꽁 얼었다 ...소매판매지수 8개월째 '마이너스'
9'스타벅스의 최대 경쟁자' 스페셜티 커피는 왜 특별한가