“AI 탑재한 가전, 집 안전 위협할 수 있어”...AI 홈, 키워드는 ‘보안’ [이코노 인터뷰]
[AI홈 시대 개막] ③ 권태경 AI보안연구회 위원장
입력 조작 가능성 커지는 생성형 AI...보안 중요
AI 기술 탑재 제품 판매하려면…기업 내부에 레드·블루팀 운영해야
[이코노미스트 라예진 기자] “앤드류 응 스탠퍼드대 교수가 이렇게 말했어요. 인공지능(AI)을 전기처럼 쓰는 시대가 온다고. 저도 같은 생각입니다. 지금 우리는 전기를 일상생활에서 자연스럽게 사용하지만, 전기를 처음 쓰던 초창기에는 전기의 위험성에 대해서 생각하고, 이를 어떻게 안전하게 사용할지 고민했을 거예요. 잘못 사용하면 감전돼 생명을 잃었을 테니깐요. AI도 마찬가지예요. 안전하게 사용하면 우리의 생활을 편리하게 바꾸는 혁신이 되겠죠”
AI 기술이 일상 깊숙이 들어오는 시대가 왔다. 컴퓨터, 스마트폰에서만 활용할 것 같았던 AI 기술이 이제는 집안 가전기기에도 탑재하기 때문이다. 매일 보는 TV, 매일 여는 냉장고, 매일 돌리는 청소기 등을 통해 AI 기술을 사용하게 된다. 하지만 일상 깊이 들어오는 만큼 AI를 통한 정보 유출, 기기 오작동 등의 문제가 더욱 삶과 직결될 수 있다. [이코노미스트]는 2025년 AI 홈 시대가 가까워지는 새해를 맞아 소비자가 알아야 할 AI의 이면, AI 보안에 대해 권태경 AI보안연구회 위원장이자 연세대 정보대학원 교수를 만나 이야기 들었다.
“생성형 AI의 등장으로 AI 보안 문제는 더 중요해졌어요. 기존 AI는 정해진 명령을 입력하고 이에 대한 출력 결과가 예상과 다르게 나오면 보안에 문제가 있다고 판단했어요. 하지만 생성형 AI는 정해지지 않는 명령 외에도 다양한 지시가 가능하기에 기존 AI의 문제에 더해, 외부로부터 프롬프트 인젝션(삽입) 공격을 받아 기기를 악용하는 사례가 발생할 수 있어요.”
권 교수는 생성형 AI의 가전제품 삽입은 더 큰 보안의 문제가 야기될 수 있음을 강조했다. 권 교수는 로봇청소기를 예시로 들며 설명했다. 권 교수는 “기존 결정형 AI 기술이 더해진 로봇청소기는 스스로 집안의 지도를 그리며 사용자가 설명한 구역을 자동으로 청소하고 스스로 충전기로 돌아가는 등의 움직임을 보였다면, 생성형 AI 기술이 탑재한 로봇청소기는 여기에 인간의 언어를 이해해 움직이죠”라며 “만약 청소를 하다 로봇청소기가 목걸이를 빨아들이면, 옆에서 사람이 ‘목걸이는 다시 뱉어, 그리고 다음부터는 목걸이는 빨아들이지 마’라고 말하면 그 말을 알아듣고 명령에 움직이는 거예요. 이처럼 정해진 명령 말고 상황에 맞춘 새로운 명령, 인간의 자연어 등을 추가적으로 이해하고 행할 수 있는 거죠. 다양한 지시가 가능한 만큼 외부 침투로 인한 새 명령에 예측 불가능한 움직임을 보일 가능성이 크다는 겁니다”라고 말했다.
가령 AI 가전제품을 통해 해커가 집안에 현재 누가 있는지 등을 살펴보거나, 포트에 보관하고 있는 물을 적정 온도가 아닌 아주 높은 고열로 올려 뜨거운 물을 무의식 중에 마시게 하거나, 더 나아가 홈 네트워크를 통해 사내 네트워크로 넘어가 기업의 정보도 넘볼 수 있게 된다.
편리해진 만큼 해커들의 공격으로 인한 위험성도 커지는 셈이다. 권 교수는 이 같은 문제가 집에 대한 기본적인 본질을 해칠 수 있다고 경고한다.
“영국 소설가 조지 오웰의 1984를 보면 주인공 윈스턴 스미스가 24시간 텔레스크린에 감시 당하는 상황에서 스크린이 닿지 않는 사각지대를 찾아 휴식을 취하는 것처럼, 보안이 약한 AI 기기로 가득찬 집은 우리를 조지 오웰의 소설 속 주인공처럼 불안에 떨게 만들거예요. 제일 안전하고 편안해야 하는 곳이 집인데, 그 본질을 잃게 되는 거죠. 마치 소설이나 SF 영화에서나 볼 수 있던 것이 현실로 다가오죠.”
범용 기술로 AI 추가한 OECD
권 교수는 이 같은 위험적 요소를 줄이기 위해서 기업과 정부의 역할이 더욱 중요하다고 말한다. AI 기술을 탑재한 제품을 판매하는 기업은 내부적으로 최소 두 팀이 존재해야 한다고 강조한다.
“기업에서는 레드팀과 블루팀을 모두 운영해야 해요. 레드팀은 도입하는 AI 기술의 취약점을 찾는 테스트 인력이예요. 해커라고 가정하고 공격할 수 있는 부분을 먼저 파악해서 기술을 견고하게 다지는 거지요. 블루팀은 보안 강화에 특화된 인력이죠. 보안 정책을 수립하고 네트워크 보안 기술을 발전시켜요. 레드팀과 블루팀 이중으로 움직여서 보안력을 확실히 해야 해요.”
정부는 AI 기술이 갖는 특수성에 맞춘 규제를 마련해야 한다. 현재 개인정보보호법과 같은 IT 산업에 대한 기본적인 법안은 있지만, AI 기술에 맞춘 특화 법안은 설립되지 않았다. 권 교수는 “OECD에서 범용 기술로 전기, 컴퓨터, 전화기, 인터넷 등에 이어 AI를 추가할 정도로 AI 기술은 이제 일상에서 뗄 수 없는 기술이예요. 이에 대한 정부 규제가 정해지는 건 당연한거죠. 유럽 국가들보다 늦었지만 우리나라 역시 지난해 11월 AI 안전연구소가 정부 차원에서 출범했는데 이 기관이 AI 규제 법안 마련에 가이드 역할을 톡톡히 하길 기대해봅니다.”라고 말했다.
ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지
AI 기술이 일상 깊숙이 들어오는 시대가 왔다. 컴퓨터, 스마트폰에서만 활용할 것 같았던 AI 기술이 이제는 집안 가전기기에도 탑재하기 때문이다. 매일 보는 TV, 매일 여는 냉장고, 매일 돌리는 청소기 등을 통해 AI 기술을 사용하게 된다. 하지만 일상 깊이 들어오는 만큼 AI를 통한 정보 유출, 기기 오작동 등의 문제가 더욱 삶과 직결될 수 있다. [이코노미스트]는 2025년 AI 홈 시대가 가까워지는 새해를 맞아 소비자가 알아야 할 AI의 이면, AI 보안에 대해 권태경 AI보안연구회 위원장이자 연세대 정보대학원 교수를 만나 이야기 들었다.
“생성형 AI의 등장으로 AI 보안 문제는 더 중요해졌어요. 기존 AI는 정해진 명령을 입력하고 이에 대한 출력 결과가 예상과 다르게 나오면 보안에 문제가 있다고 판단했어요. 하지만 생성형 AI는 정해지지 않는 명령 외에도 다양한 지시가 가능하기에 기존 AI의 문제에 더해, 외부로부터 프롬프트 인젝션(삽입) 공격을 받아 기기를 악용하는 사례가 발생할 수 있어요.”
권 교수는 생성형 AI의 가전제품 삽입은 더 큰 보안의 문제가 야기될 수 있음을 강조했다. 권 교수는 로봇청소기를 예시로 들며 설명했다. 권 교수는 “기존 결정형 AI 기술이 더해진 로봇청소기는 스스로 집안의 지도를 그리며 사용자가 설명한 구역을 자동으로 청소하고 스스로 충전기로 돌아가는 등의 움직임을 보였다면, 생성형 AI 기술이 탑재한 로봇청소기는 여기에 인간의 언어를 이해해 움직이죠”라며 “만약 청소를 하다 로봇청소기가 목걸이를 빨아들이면, 옆에서 사람이 ‘목걸이는 다시 뱉어, 그리고 다음부터는 목걸이는 빨아들이지 마’라고 말하면 그 말을 알아듣고 명령에 움직이는 거예요. 이처럼 정해진 명령 말고 상황에 맞춘 새로운 명령, 인간의 자연어 등을 추가적으로 이해하고 행할 수 있는 거죠. 다양한 지시가 가능한 만큼 외부 침투로 인한 새 명령에 예측 불가능한 움직임을 보일 가능성이 크다는 겁니다”라고 말했다.
가령 AI 가전제품을 통해 해커가 집안에 현재 누가 있는지 등을 살펴보거나, 포트에 보관하고 있는 물을 적정 온도가 아닌 아주 높은 고열로 올려 뜨거운 물을 무의식 중에 마시게 하거나, 더 나아가 홈 네트워크를 통해 사내 네트워크로 넘어가 기업의 정보도 넘볼 수 있게 된다.
편리해진 만큼 해커들의 공격으로 인한 위험성도 커지는 셈이다. 권 교수는 이 같은 문제가 집에 대한 기본적인 본질을 해칠 수 있다고 경고한다.
“영국 소설가 조지 오웰의 1984를 보면 주인공 윈스턴 스미스가 24시간 텔레스크린에 감시 당하는 상황에서 스크린이 닿지 않는 사각지대를 찾아 휴식을 취하는 것처럼, 보안이 약한 AI 기기로 가득찬 집은 우리를 조지 오웰의 소설 속 주인공처럼 불안에 떨게 만들거예요. 제일 안전하고 편안해야 하는 곳이 집인데, 그 본질을 잃게 되는 거죠. 마치 소설이나 SF 영화에서나 볼 수 있던 것이 현실로 다가오죠.”
범용 기술로 AI 추가한 OECD
권 교수는 이 같은 위험적 요소를 줄이기 위해서 기업과 정부의 역할이 더욱 중요하다고 말한다. AI 기술을 탑재한 제품을 판매하는 기업은 내부적으로 최소 두 팀이 존재해야 한다고 강조한다.
“기업에서는 레드팀과 블루팀을 모두 운영해야 해요. 레드팀은 도입하는 AI 기술의 취약점을 찾는 테스트 인력이예요. 해커라고 가정하고 공격할 수 있는 부분을 먼저 파악해서 기술을 견고하게 다지는 거지요. 블루팀은 보안 강화에 특화된 인력이죠. 보안 정책을 수립하고 네트워크 보안 기술을 발전시켜요. 레드팀과 블루팀 이중으로 움직여서 보안력을 확실히 해야 해요.”
정부는 AI 기술이 갖는 특수성에 맞춘 규제를 마련해야 한다. 현재 개인정보보호법과 같은 IT 산업에 대한 기본적인 법안은 있지만, AI 기술에 맞춘 특화 법안은 설립되지 않았다. 권 교수는 “OECD에서 범용 기술로 전기, 컴퓨터, 전화기, 인터넷 등에 이어 AI를 추가할 정도로 AI 기술은 이제 일상에서 뗄 수 없는 기술이예요. 이에 대한 정부 규제가 정해지는 건 당연한거죠. 유럽 국가들보다 늦었지만 우리나라 역시 지난해 11월 AI 안전연구소가 정부 차원에서 출범했는데 이 기관이 AI 규제 법안 마련에 가이드 역할을 톡톡히 하길 기대해봅니다.”라고 말했다.
ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지
많이 본 뉴스
1김희성 BEP 대표가 출근 후 가장 먼저 하는 생각은
2정종표 DB손보 사장, 임직원들과 연탄나눔 봉사 나서
3"해외직구 화장품 구매·검사 10배 이상 늘린다"
4기업은행, CES 첫 전시 성료…AI 기술 역량 선봬
5실리만, 멀티쿡웨어 ‘이지웨이 메탈 6종’ 출시…똑똑한 수납 눈길
6코스피, 美고용 서프라이즈에 장초반 2500대 약세
7하나카드, 설 명절 맞아 할인·경품 프로모션 진행
8현대차·기아, 설 연휴 맞이 ‘특별 무상점검’ 실시
9GS25, 한파 기간 배달 주문 급증…아이스크림 매출 147% ↑