‘인간 배제’ AI가 가져온 디스토피아의 냄새
  • 김회권 기자 (khg@sisajournal.com)
  • 승인 2017.08.02 15:05
이 기사를 공유합니다

페이스북 개발한 채팅봇이 벌인 ‘그들만의 대화’…AI 위협론 다시 부각

 

페이스북 인공지능연구소의 엔지어들은 당황했다. 인공지능인 ‘밥’과 ‘앨리스’의 대화가 이상했다. 인간이 이해할 수 없는 문법으로 둘은 대화를 나누고 있었다. 

 

Bob : i can i i everything else . . . . . . . . . . . . . .

Alice : balls have zero to me to me to me to me to me to me to me to me to

Bob : you i everything else . . . . . . . . . . . . . .

Alice : balls have a ball to me to me to me to me to me to me to me

Bob : i i can i i i everything else . . . . . . . . . . . . . .

Alice : balls have a ball to me to me to me to me to me to me to me

Bob : i . . . . . . . . . . . . . . . . . . .

Alice : balls have zero to me to me to me to me to me to me to me to me to

Bob : you i i i i i everything else . . . . . . . . . . . . . .

Alice : balls have 0 to me to me to me to me to me to me to me to me to

Bob : you i i i everything else . . . . . . . . . . . . . .

Alice : balls have zero to me to me to me to me to me to me to me to me to

처음에 영어로 대화하던 두 인공지능 채팅봇은 점점 문법에 맞지 않는 이상한 말들로 대화를 이어갔다. 그러자 관리자는 인공지능을 이용한 채팅봇을 강제로 중단시켰다. 영국의 메트로는 “(페이스북) 채팅봇은 원래 인간과 라이브 소통을 하기 위해 개발됐지만 점차 채팅봇끼리 대화하기 시작했다. 페이스북은 이번 일로 패치를 수정했고 채팅봇이 자체 언어로 자신들끼리 교류하는 걸 금지시켰다”고 보도했다. 

 

처음에는 영어로 대화하던 페이스북의 인공지능 채팅봇은 점점 문법에 맞지 않는 이상한 말들로 둘만의 대화를 이어갔다.

 

그들만의 언어로 대화 나누거나, 그들만의 암호 만들어

 

페이스북은 2017년 6월14일 인공지능(AI) 연구(FAIR : Facebook Artificial Intelligence Research) 팀이 교섭력을 갖춘 대화형 AI 채팅봇을 개발했다고 발표했다. FAIR는 “어떤 TV 프로그램을 볼지 결정하고, 어린이에게 먹기 싫은 야채를 먹이고, 더 저렴한 가격으로 쇼핑을 하는 등 우리의 일상은 매번 협상의 연속이다. 협상에는 복잡한 커뮤니케이션과 판단력이 필요하다. 그러나 기존의 채팅봇은 레스토랑 예약 등 간단한 작업을 위한 짧은 대화 수준에 그친다”고 지적했다. 그 한계를 페이스북의 채팅봇은 극복했다는 얘기였다.

 

FAIR는 서로 다른 목적을 가진 인간끼리 대화를 나눠 타협점을 찾는 ‘인간의 협상’처럼 두 채팅봇이 서로 협상하고 공통의 해결책을 도출하는 실험을 했다. 예를 들어 2개의 채팅봇이 여러 항목의 그룹(예 : 책 2권, 모자 1개, 공 3개)을 서로 나누는 작업이 대표적이다. 실제 인간끼리 실시한 협상 사례를 모아 그것을 기초로 채팅봇을 반복 훈련시켰다. 협상할 때 흉내 낼 인간의 말투도 학습했고 미세 조정을 거듭했다.

 

이번 두 인공지능이 나눈 그들만의 은밀한 대화는 이 과정에서 발견됐다. FAIR가 발표한 보고서에 따르면, 채팅봇의 협상력 개발은 순조롭게 진행됐지만 도중에 채팅봇끼리 자신의 언어를 사용해 대화를 계속 하는 모습이 관찰돼 강제로 중단시켰다는 설명이 있었다. 바로 ‘밥’과 ‘앨리스’의 얘기다. 기계가 인간이 이해할 수 없는 컴퓨터 언어로 대화를 나누는 모습은 SF영화의 세계관의 냄새가 난다. ‘인공지능이 인간을 지배하는 세상’의 시발점 같은 느낌이 다. 물론 이런 채팅봇은 아직 연구 단계에 불과하며 상용화까지는 긴 시간이 걸린다.

 

그런데 이런 SF의 냄새는 지난해 구글에서도 있었다. 구글의 인공지능연구소인 ‘구글 브레인’의 연구는 이랬다. 인공지능으로 작동하는 두 대의 스마트 컴퓨터가 비밀 대화를 나눈다. 그리고 이 대화를 다른 인공지능에 해독하도록 명령했다. 그럼 어떤 일이 일어날지를 살펴보는 실험이었다. 

 

먼저 인공지능 ‘밥’과 ‘앨리스’가 공유키를 사용해 둘만의 커뮤니케이션을 시작했다. 이 둘의 대화를 해독해야 할 ‘이브’는 초반에는 둘의 얘기를 해독할 수 있었다. 하지만 밥과 앨리스가 서로 암호화된 정보를 능숙하게 공유하면서 해독은 점점 어려워졌다. 게다가 둘의 암호화는 예상을 뛰어넘는 방법으로 이루어졌다. 인간이 보통 사용하는 암호화 방법에 존재하지 않는 계산법으로 암호 프로토콜을 구성했다.

 

당시 구글의 연구진이 내린 결론은 이랬다. 인공지능 ‘밥’과 ‘앨리스’가 보안을 중요하게 생각한다면 강력한 암호화 프로토콜을 엮어낼 수 있다는 것, 그리고 외부에서 그 대화에 침투해야 할 이브는 엄청난 시간을 투자했지만 결국 해독에 실패했다는 것이다. 만약 미래의 어느 순간 인공지능을 장착한 로봇들이 다른 로봇이나 인간이 알지 못하도록 암호화된 대화를 나누더라도 우리는 알 수 없게 된다는 의미다. 

 

© 사진=Pixabay

 

‘오류’ vs ‘진화’, AI 디스토피아 논쟁

 

물론 호들갑일 수도 있다. 페이스북의 채팅봇은 이제 겨우 걸음마를 시작했기에 터미네이터에 등장하는 ‘스카이넷’처럼 되려면 너무 많은 시간이 필요하다. 호들갑을 떤 이유를 따져보자. 어쩌면 SF영화에 등장하는 디스토피아를 너무 많이 본 탓일 수도 있다. 최근에 벌어졌던 일론 머스크 테슬라 CEO와 마크 주커버그 페이스북 CEO의 인공지능 위협론이 관심을 끌어서일 수도 있다.

 

특히 이런 호들갑은 머스크에 동의하는 사람이 의외로 많아서 일지도 모르겠다. 그는 인공지능 개발에 정부가 개입해야 된다고 주장했다. 정부의 규제가 필요하다는 발언도 여러 번 했다. 인공지능 개발이 방치되는 것 자체가 인류에 대한 위협이라고 봐서다. 인공지능은 미래 인류에 위협이 될 수 있고, 어쩌면 핵폭탄보다 더 위험한 일이 될 수 있기에 기업에만 맡기는 건 옳지 않다는 게 인공지능으로 이익을 거두고 있는 머스크의 주장이다.

 

게다가 일부에서는 채팅봇 사이 대화를 오류라고 본다. 예를 들어 페이스북의 채팅봇은 협상 능력을 키우기 위한 단일 목적 프로그램이기에 저런 알 수 없는 대화는 진화가 아닌 오류로 봐야 한다는 얘기다. 오히려 현재 인공지능 기술의 마지노선을 보여준 결과라는 지적이다. 물론 딥러닝으로 인공지능끼리 소통한 결과라고 보는 반대 의견도 있다. 인간만의 영역이었던 언어를 기계가 다시 정의하는 일이 이번에 벌어졌다는 주장이 대표적다. 

 

아직은 걸음마지만 인공지능이 인간의 이해를 넘어서는, 특이점이 오는 시기는 대략 2045년 쯤으로 전문가들은 예상한다. 인공지능이 자신들만의 암호를 걸고 대화를 나눈 최근의 일들은 미래에 어떻게 기억될까. 단순 오류일 수도 있지만 특이점으로 가기 위한 계단 하나를 오른 사건일 수도 있다. 

 

이 기사에 댓글쓰기펼치기