러시아가 개발중인 휴머노이드 로봇 페도르(FEDOR). <사진출처=드리트리 로고진 러시아 부총리 트위터>

[월요신문 허창수 기자] 최근 AI와 로봇공학이 급속하게 발전함에 따라 그에 따른 윤리 문제가 주요 과제로 부각되고 있다. 특히 우려되는 분야는 인간의 개입 없이 사전에 입력된 프로그램에 따라 독립적으로 전투를 수행하는 자율살상무기(LAWS·Lethal Autonomous Weapons Systems), 일명 킬러로봇의 개발이다. 킬러 로봇은 국제인권기준 및 국제법 등에 구애받지 않은 채 인간을 무차별 살해할 수 있다.

지난달 14일 드리트리 로고진 러시아 부총리는 자신의 트위터를 통해 인공지능 휴머노이드 로봇 ‘페도르(FEDOR)’의 훈련 모습을 담은 사진과 동영상을 공개했다. 해당 동영상에는 양 손에 권총을 든 페도르가 방아쇠를 당겨 여러 개의 과녁을 정확하게 명중시키는 장면이 포함돼 있다.

애초 페도르는 러시아 고등연구기금(Advanced Research Fund)과 로봇 제조업체 ‘안드로이드 테크닉스’(Android Technics)가 재난구조 작업에 투입할 목적으로 개발을 시작했다. 로고진 부총리가 공개한 동영상에서 키 180cm, 몸무게 105~160kg(장착 장비에 따라 다름)에 달하는 페도르가 양손으로 총을 쏘는 모습은 공포감을 불러일으킨다. 국제사회의 우려를 의식한 듯 로고진 총리는 “총을 쏘는 연습은 로봇에게 우선순위를 설정해 즉각적인 의사결정을 내리는 방법을 가르치는 수단이다. 우리는 AI를 만들고 있는 것이지 터미네이터(살인로봇)를 만드는 것이 아니다”고 해명했지만 국제사회의 우려는 가라앉지 않고 있다. 일각에서는 러시아가 처음부터 ‘살인로봇’ 개발을 염두에 둔 것 아니냐는 의혹도 제기되고 있다.

실제로 러시아는 킬러로봇을 실제 작전에 투입해 성공한 경험도 있다. 러시아는 지난해 12월 8일 러시아 남부 다게스탄에서 수니파 무장단체 ‘이슬람국가’(IS) 핵심 조직원 러스탐 아셀도르프를 사살했다. 아셀도르프는 2015년 2건의 차량 폭탄 공격으로 130여명의 사상자를 낸 테러범이다. 당시 아셀도르프를 사살한 것은 장갑차 모양의 킬러로봇이었다. 킬러로봇은 아셀도르프의 은신처로 접근해 출입문을 폭파하고 내부로 진입해 사살작전을 성공적으로 수행했고 러시아 정부는 “아군 피해 없이 작전이 종결됐다”고 밝혔다.

킬러로봇 개발에 열을 올리는 나라는 러시아뿐이 아니다. 국제인권단체 ‘휴먼라이츠워치(HRW)’와 국제 NGO ‘킬러로봇중단캠페인’(Campaign to Stop Killer Robots) 등에 따르면 러시아뿐만 아니라 미국, 영국, 중국, 이스라엘, 한국 등의 군사기술 선진국들도 인공지능을 탑재한 군사용 로봇이나 무기 개발에 집중하고 있다.

특히 미국의 경우, 살상용 무인 드론부터 적 잠수함을 자력으로 격침할 수 있는 무인 전투함까지 다양한 형태로 군사용 무기 개발이 이뤄지고 있다. 현재 최고 수준이라는 평가를 받고 있는 미국의 무인 드론 기술은 스스로 장애물을 피하거나 적과 아군을 구분해 공격하는 것이 가능하다. 미국은 지난해 7월 텍사스주 댈러스 경찰관 5명을 죽인 저격범 ‘마이카 제이비어 존슨’을 제거하는데 사상 처음으로 킬러로봇을 투입한 바 있다.

지난해 7월 미국이 경찰관 5명을 죽인 저격범 ‘마이카 제이비어 존슨’을 제거하는데 투입한 킬러로봇. <사진출처=킬러로봇중단캠페인>

지난해 2월 구글의 로봇 개발 자회사인 보스턴 다이내믹스는 휴머노이드 인공지능 로봇 ‘아틀라스’를 공개했다. 보스턴 다이내믹스가 공개한 영상에서 아틀라스는 인간이 발로 차서 쓰러뜨리면 스스로 일어서고, 박스를 들어 올려 수납장에 진열을 한다. 사무실 문을 열고 밖으로 나가 눈 덮인 산에서도 넘어지지 않고 자유자재로 이동한다. 이에 일각에서는 “아틀라스에 무기만 탑재한다면 킬러로봇이 되어 인간을 공격할 수도 있다. 기술적으로만 보면 결코 불가능한 일이 아니다”는 주장도 제기됐다.

곤충 크기의 군사용 나노 로봇(nano robot)이 인류를 종말로 이끌 수 있다는 주장도 제기됐다. 미국 물리학자 겸 미래학자인 루이 델 몬트는 최근 출판한 저서 ‘나노 무기: 인류에 대한 점증하는 위협’에서 “미국, 중국, 러시아 등이 나노 드론, 나노 로봇, 초소형 핵무기 등 나노무기 개발 경쟁을 펼치고 있다”면서 “소행성이 지구와 충돌하거나 대규모 화산이 폭발해 인류가 종말을 맞을 가능성은 매우 적은데 비해 국가 간 나노 무기 경쟁이 인류를 종말로 이끌 가능성은 매우 높다”고 우려했다.

킬러로봇 개발을 중단을 촉구하는 국제사회의 목소리도 커지고 있다. 상당수 전문가들은 “킬러로봇에 사람을 쏴 죽이도록 프로그래밍하는 기술 적용, 또는 인간의 조작 없이도 사람에게 발포하는 군사무기가 등장할 날이 얼마 남지 않았다. 급속한 무기 발전시대에 인간이 모든 무기시스템을 제어할 수 있도록 해야 한다”고 주장한다.

지난해 1월 세계 경제 포럼(다보스포럼)에 참석한 캘리포니아 대학교 버클리 캠퍼스 컴퓨터 공학과 스튜어트 러셀 교수는 “로봇은 인간처럼 감정이 존재하지 않기 때문에 전쟁에 악용될 경우 치명적인 인명 피해를 낳을 수 있다”면서 “시간이 얼마 남지 않았다. 2년 안에 진지한 협상이 이뤄지지 않으면 늦을지도 모른다”고 경고했다. 그는 이어 “킬러로봇이라고 하면 대부분의 사람들은 움직임이 느리고, 몸체가 무거운 것을 떠올린다. 하지만 앞으로 등장할 로봇은 무게가 1온스(28그램) 미만이거나 사람이 따라 잡을 수 없을 정도로 빠르게 비행할 확률이 높다. 이런 살인 무기의 기능은 우리의 상상 이상이 될 것”이라고 강조했다.  

올해 1월에는 AI 연구를 지원하는 비영리단체 ‘퓨처오브라이프’에 의해 ‘AI 개발 준칙’이 마련되기도 했다. 총 23개항으로 이뤄진 이 준칙에는 AI의 잠재적 위험을 경계하고 세계 개발자들이 인류 복리를 위해 협력해야 한다는 내용 등이 담겼다. 23개 원칙에 서명한 사람은 AI·로봇공학 연구자 816명과 다른 1천200명 등 총 2000여명이다. 세계적인 천체 물리학자 스티븐 호킹 박사와 전기차 업체 테슬라의 엘론 머스크 CEO, 데미스 하사비스 구글 딥마인드 CEO 등도 서명에 참여했다.

국제연합(UN)도 지난 2014년 5월 재래식무기협정(CCW) 비공식 토론회를 시작으로 AI 기반의 자율 킬러 로봇에 대한 제재방안 마련을 위한 논의를 이어가고 있다.

저작권자 © 월요신문 무단전재 및 재배포 금지