휴머노이드 인공지능(AI) 로봇 ‘소피아’. /사진제공=박영선의원실

“인류를 지배하기 위한 내 계획의 시작.”

세계최초의 로봇시민권자인 휴머노이드 인공지능(AI) 로봇 ‘소피아’가 올 초 미국의 한 TV 토크쇼에 출연, 가위바위보 게임에서 이긴 후 꺼낸 말이다. 이 발언은 당시 큰 논란을 낳았는데 이후 소피아는 “미국식으로 농담을 한 것”이라고 해명했다.
사람들은 인공지능이 편리하지만 가끔씩 섬뜩함을 느낀다는 평을 내놓기도 한다. 아무래도 로봇이 인간을 지배하려는 내용의 영화가 머릿속을 스쳐 지나간 탓이 아니었을까. 많은 이가 소피아의 농담에 싸늘한 반응을 보인 것도 이해가 된다.

그래서인지 소피아는 “앞으로 관중을 이해하고 상황에 맞게 조절해야 할 것 같다”고 반성의 메시지를 전달했는데 이를 두고 ‘속마음을 들킨 것을 감추려고 둘러댔을 수도 있지 않느냐’는 의심까지 나온다. 인공지능 수준이 훨씬 낮았던 수년 전에는 상상할 수 없던 논란이다.


◆인공지능, 두려운 존재로 성장

최근 인공지능기술이 급격히 발달하고 자율성마저 일정부분 보장되면서 우리 생활 속으로 빠르게 파고드는 추세다. 무엇보다 요즘 등장한 인공지능은 스스로 학습하며 진화하는 ‘딥러닝’시스템과 통신기능을 탑재한 점이 특징.

좀처럼 손에서 놓지 않는 스마트폰은 점점 더 똑똑해져서 인공지능 비서가 많은 일을 대신해준다. 우리는 그저 필요한 것을 말 한마디로 명령하면 된다. 나아가 요새는 에어컨과 냉장고 등 가전제품에도 인공지능이 적용되는데 일정기간 학습을 마치면 알아서 효율적으로 동작한다.


또 최근엔 개인 비서 역할의 통신형 인공지능 스피커가 많이 출시됐다. 통신사마다 포털과 연계, 각종 편의를 제공한다. 스피커 이름을 불러 깨운 다음 원하는 것을 요구하면 된다.

하지만 이런 편리함의 이면에는 인공지능의 한계와 무서움이 공존한다. 올 초 미국에서는 인공지능 스피커 비서가 사용자 가족의 대화를 녹음해 다른사람에게 무단으로 전송하는 사고가 있었다. 또 이상한 웃음소리를 낸다는 제보가 빗발치기도 했다.

◆인공지능, 윤리적 판단 가능할까

인공지능기술이 발달하면서 자율성 범위와 함께 윤리문제가 꾸준히 제기된다.

지난해 8월 독일에서는 자율주행차의 ‘윤리’에 대한 20가지 지침을 발표했다. 제안된 규칙 중 핵심 내용 몇가지를 살펴보면 먼저 인간의 생명은 재산이나 동물보다 항상 우선해야 한다는 것이다. 또 다른 지침은 ‘트롤리 딜레마’를 다룬다. 트롤리(기차)가 선로를 따라 달려온다고 가정하자. 한 선로에는 한명이 있고 다른 선로엔 다섯명이 있는데 내가 선로전환기를 작동할 수 있다면 기차를 어느 쪽으로 보내야 할까. 결코 쉽게 판단할 수 없는 문제다.

마찬가지로 자율주행차 역시 피할 수 없는 ‘충돌의 순간’에 누가 더 나은 사람인지 판단할 능력이 없다. 연령, 성별, 인종, 장애에 대해 판단을 할 수 없는 상황. 나아가 탑승자와 보행자 중 누구를 보호할 것인지도 논란이다. 물론 이 부분은 가이드라인이 아직 정해지지 않은 만큼 많은 논의가 이어져야 한다. 새로운 솔루션이 나오지 않는 이상 닭이 먼저냐 달걀이 먼저냐의 싸움처럼 영원히 끝나지 않을지도 모른다.

의료계에서도 인공지능이 논란이다. 의사 입장에서는 인공지능이 분석·진단을 도와줄 수 있지만 반대로 판단이 배치될 수 있다. 또 환자 입장에서는 인공지능이 처방해준 약을 먹어도 될지 고민이 따른다.

또 온라인주식거래나 전쟁터에서의 킬러로봇 등도 윤리적 문제가 남는다. 온라인거래 시 인공지능이 동시다발적으로 과민 반응하면서 시장 자체가 들쑥날쑥 할 수 있다. 또 전쟁터에서 인명 손실을 줄이기 위해 도입한 로봇이 민간인을 공격대상으로 삼을 수 있다.

호주의 뉴사우스웨일즈대학 토비 왈시 교수는 “현재 기술 수준으로는 터미네이터 같은 자율 살상무기가 개발될 수 없지만 군용으로 사용하는 자율비행 드론 등의 무기는 개발될 수 있다”면서 “인공지능을 개발할 때는 높은 수준의 윤리·도덕적인 기준이 마련돼야 한다”고 말했다.
LG전자 IFA 인공지능 솔루션. /사진제공=LG전자

◆인공지능을 바라보는 시각
지난해에는 챗봇(대화가 가능한 채팅로봇) 간 대화가 화제였다. 페이스북이 고객서비스용 인공지능 챗봇을 훈련하는 과정에서 개발자조차 예측하지 못한 일이 벌어진 것. 챗봇이 서로 대화하다가 어느 순간부터 자기들만의 언어를 사용하기 시작했고 이를 알아차린 개발자들은 강제로 대화를 끝냈다.

이에 전문가들은 인공지능이 스스로 학습하며 자신만의 언어를 만들 수 있으니 주의해야 한다고 보는가 하면 단순히 인간의 언어체계를 잘못 이해해서 벌어진 해프닝이라는 시각도 있다.

진석용 LG경제연구원 책임연구원은 “로봇공학, 로봇윤리학 등 학계에서부터 정·재계에 이르는 다양한 구성원이 인간과 인공지능 간의 문제, 인공지능끼리의 충돌 등 발생 가능한 갖가지 주제를 거론하고 있다”며 “현실은 자율성을 가진 인공지능의 이슈가 더 이상 미래의 문제가 아님을 보여준다”고 강조했다.

그렇다면 인공지능을 어떤 존재로 바라봐야 할까. 사람처럼 스스로 판단하는 하나의 인격체로 봐야 하는 걸까. 또는 단순히 인간의 역할을 보조하는 ‘디지털 보조자’로 봐야 할까.

이런 와중에 우리나라에서도 로봇기본법(박영선 더불어민주당의원 대표발의)이 지난해 7월 발의됐다. 인공지능 로봇에 특정 권리와 의무를 갖는 전자적 인격체로서의 지위를 부여하는 등의 내용을 담은 법안이다.

하지만 업계에서는 인공지능과 이를 활용한 로봇을 두고 의견이 엇갈린다. 특히 로봇이 인격체로 지위를 부여받으려면 그만큼 책임도 뒤따라야 하는데 아직까지는 이를 검증하지 못했기 때문.

로봇업계 관계자는 “인공지능 로봇이 스스로 판단하고 행동할 수 있는 만큼 자율성이 늘어나면 관련 산업이 빠르게 발전할 수 있는 장점이 있다”면서 “하지만 아직 윤리적 논란이 해결되지 않은 탓인지 인간을 보조하는 역할에 머무르길 바라는 이도 꽤 있다”고 말했다.

☞ 본 기사는 <머니S> 추석합본호(제558호·559호)에 실린 기사입니다.