활짝 열린 AI 시대...보안이 이토록 중요한 이유는 [이코노 인터뷰]
[AI시대 숨은 키 '보안']② 김휘강 고려대 정보보호대학원 교수
딥페이크 등 일반 피해 사례도 증가
자율주행 등 이동체 산업 위협도

[이코노미스트 박세진 기자] 보안은 어느 분야에서나 필수적이다. 개인의 사생활 보호부터 기업의 정보 보호, 나아가 국가 안보까지 보안이 필요하지 않은 영역은 단 한 곳도 없다. 최근 들어 보안의 중요성은 더욱 강조되고 있는데, 그 중심에는 인공지능(AI)의 발전이 있다. AI 기술이 빠르게 성장하면서 그만큼 보안 위협도 증가하고 있기 때문이다.
AI 보안 위협의 현재와 미래
여러 전문가들은 AI 시대에서 보안이 중요한 이유에 대해 다양한 의견을 타진하고 있다. 김휘강 고려대학교 정보통신대학원 교수도 마찬가지다. 김 교수는 최근 AI 시대가 도래함에 따라 보안에 대한 국민들의 경각심이 커지고 있다고 설명했다. 어느덧 우리 사회에 AI가 가까워진 만큼, AI 보안 문제로 인한 피해를 더욱 피부로 체감할 수 있다는게 그의 설명이다.
김휘강 고려대학교 정보통신대학원 교수는 “국민들이 AI 보안에 대해 큰 경각심을 갖지 않다가, 최근 반년 사이에 인식이 크게 바뀌었다”며 “그 대표적인 이유가 바로 딥페이크(Deepfake)”라고 설명했다. 그는 “딥페이크 기술이 등장하면서 보이스피싱, 음란물 합성, 사칭 등으로 악용되고 있으며, 내 목소리가 상대방에게 녹음되면 이를 이용해 내가 하지도 않은 말을 AI가 만들어낼 수도 있다”고 경고했다.
이어 “AI 기술이 발전하면서 단순한 데이터 유출 문제를 넘어, 물리적인 피해까지도 발생할 가능성이 커졌다”며 “최근에는 청소년을 대상으로 한 딥페이크 영상 제작 사례도 늘어나면서 AI 보안의 중요성이 더욱 부각되고 있다”고 덧붙였다.
김 교수는 일반 소비자들이 AI 보안 위협을 예방할 수 있는 몇 가지 방법을 제시했다. 아주 기초적인 방법이지만, 이를 실천하는 것이 일반 소비자를 향한 위협을 가장 효과적으로 막을 수 있다며 다음과 같이 조언했다.
그는 “SNS에 얼굴 사진을 과도하게 올리지 않는 것이 좋다”며 “딥페이크 피해를 예방하기 위해 본인과 가족의 사진을 최소한으로 공개하는 것이 현명하다”고 강조했다. 또한 “보이스피싱을 막기 위해 문자 인증이나 다단계 인증(MFA)을 적극 활용하고, AI 기반 IoT 기기(로봇청소기, AI 스피커 등)를 사용할 때는 국내 보안 인증을 받은 제품을 선택하는 것이 중요하다”고 덧붙였다.
다음으로 김 교수는 AI 보안 위협을 현재 발생할 수 있는 위험과 향후 5년 안에 발생할 가능성이 있는 위험으로 나누어 설명했다. 그는 당장 기업의 데이터 유출 문제와 함께, 훗날 개발될 기술에서도 위험이 존재한다고 경고했다.
김 교수는 “기업들이 직원들에게 AI 서비스를 업무에서 사용하지 말라고 권고하는 경우가 많다. 그 이유는 AI가 온디바이스(AI가 기기 내에서만 작동하는 경우)인지, 서버 기반인지에 따라 보안 위험이 다르기 때문”이라며 “예를 들어, 갤럭시 AI나 애플 인텔리전스 같은 기능들은 편리하지만, 이 기능들이 서버와 연결되면서 사용자의 기밀 데이터가 외부로 유출될 가능성이 존재해 당장의 큰 위험”이라고 말했다.
이어 “AI가 로봇, 자율주행차, 스마트 기기에 결합되면서 더 큰 물리적 피해가 발생할 가능성이 커진다”며 “예를 들어, 자율주행차의 AI가 해킹되면 차량이 의도적으로 중앙선을 넘거나 보행자를 인식하지 못하는 사고가 발생할 수도 있다. 미래에는 AI가 실생활과 직접 연결되면서 보안 사고가 단순한 데이터 유출이 아니라 실제 물리적인 위협이 될 수 있다”고 우려를 표했다.

AI를 공격하는 대표적인 방식에는 네가지(데이터 추출 공격·데이터 오염 공격 ·AI 모델 복제 ·AI 알고리즘 조작)가 있다. 이 네가지 방식을 적극 활용 할 경우 AI는 보안적인 측면에서 여러 위협을 받게 된다. 김 교수는 4가지 공격 방식에 대해 설명하며 AI 보안의 중요성을 다시금 강조했다.
김 교수는 “AI 공격의 첫 번째는 데이터 추출이다. 해커가 특정 질문을 AI에게 반복적으로 입력하면서 AI가 학습한 데이터를 추출하는 방식인데, 이렇게 되면 AI가 학습한 개인정보나 기업의 기밀 데이터가 외부로 유출될 가능성이 커진다”고 설명했다.
이어 "두 번째는 데이터 오염 공격이다. AI가 학습하는 데이터를 조작해 잘못된 정보를 학습하도록 만드는 공격 방식인데, AI는 학습 데이터에 따라 판단을 내리기 때문에, 누군가 악의적으로 데이터를 조작하면 잘못된 결론을 도출할 수 있다”말했다.
계속해서 그는 “예를 들어, AI가 악성 코드가 포함된 데이터를 학습하도록 유도하면 정상적인 보안 시스템조차도 이를 탐지하지 못할 수도 있습니다”고 덧붙였다.
세 번째 방식으로는 AI 모델 복제를 꼽았다. 김 교수는 “말그대로 AI 모델 자체를 복제해서 악용하는 방식인데, 최근 뉴욕타임스가 오픈AI를 상대로 소송을 제기한 것도 이와 같은 문제 때문”이라며 “AI가 무단으로 기사 데이터를 학습하면서 저작권 침해 논란이 불거졌다”고 설명했다.
마지막으로 그는 AI 알고리즘 조작을 언급했다. 그는 “이것은 AI의 의사결정 과정을 조작해서 특정 행동을 유도하는 방식인데, AI가 추천하는 콘텐츠나 검색 결과를 조작하는 것도 이에 해당한다”고 말했다.
이어 “예를 들어, AI가 특정 정치적 성향의 정보를 의도적으로 많이 노출하거나, 소비자가 특정 제품을 더 많이 구매하도록 유도하는 방식이 될 수도 있다. 이러한 조작은 사용자들에게 큰 영향을 미칠 뿐만 아니라 사회적으로도 심각한 문제가 될 수 있다”고 말했다.
AI를 위협하는 다양한 공격 방법이 있는 가운데, 김 교수가 보안이 특히 중요하다고 강조하는 분야는 바로 이동체다. 자율주행차, 자율 선박, 드론 등 이동체 관련 기술을 다루는 산업군에서 보안의 중요성이 크다는 그다. 이 중에서도 그는 자율주행차의 AI 보안이 대표적이라고 덧붙였다.
김 교수는 “자율주행차의 AI가 해킹될 경우 차량이 의도적으로 중앙선을 넘거나, 보행자를 인식하지 못하게 돼 큰 사고로 이어질 수 있다. AI 보안이 뚫릴 경우 인명피해가 발생할 수 있는 셈”이라며 “실제로, 자동차 센서를 조작해서 AI를 속이는 공격도 가능하다. 중국의 해커 팀이 도로 표지판을 조작하여 AI가 잘못된 판단을 하도록 유도한 사례도 있었다”고 경고했다.
끝으로 그는 AI 보안 영역에서 직면한 가장 큰 문제는 역설적이게도 ‘인구 절벽’이라고 말했다. AI 보안 분야를 갈고 닦을 인재들이 서서히 줄어듦에 따라, 근본적으로 이를 연구할 수 있는 인력도 함께 감소하고 있다는게 그의 설명이다.
김 교수는 “결국 앞으로 AI를 발전시켜 나갈 사람은 후대인데, 인구가 계속 감소함에 따라 이를 연구하고, 개발할 인력이 줄어들고 있다”며 “가뜩이나 대학생 수도 적은데, 그 적은 대학생 중에서도 AI 전공할 사람들은 더 적은 실정”이라고 했다.
이어 “인재는 항상 돈이 있는 곳에 몰린다”며 “정부에서 AI 분야를 전폭적으로 지원해서 투자금도 늘고, 기업들도 AI 인재를 양성하는데 집중을 하면 인재들이 몰릴 가능성이 높아진다”고 말했다. 이어 “다만, 지금 당장은 인재들이 의대로 집중돼 아쉽다. 현재 대한민국은 AI 기술과 관련해 기존 연구진들의 개인 기량으로 겨우 따라가고 있는 상황”이라고 덧붙였다.
ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지
많이 본 뉴스
1트럼프, 때아닌 '마이크의 습격'? 침묵 깬 한마디는…
2KBO 흥행, 20대 여성 주도…개막전 '예매 전쟁' 불 켜졌다
3‘토허제’에 집값 들썩...금융당국, 은행권 호출 “가계부채 관리 강화”
4HK이노엔, 아토피 피부염 치료제 임상 2상 승인
5삼성重, 셔틀탱커 9척 수주...1.9조 규모
6국민의힘, '배우자 상속세 전면 폐지' 상속세법 당론 발의
7韓 주주보호·배당성향 하위권…기업가치 높이려면
8韓 비트코인 ETF 시대 열리나...가상자산 ETF법 발의
9"강남3구 준식축 아파트, 값 끌어올렸다"... 국평 ‘평균 20억’ 웃돌아