HOME 글로벌 글로벌
호킹 박사가 지지한 'AI 23개 원칙' 살펴보니…
<사진출처=FLI>

[월요신문 허창수 기자] 인공지능(AI) 기술에 대한 23개 원칙이 나왔다. 이른바 ‘아실로마 AI 원칙’(Asilomar AI Principles)이다.

아실로마 AI 원칙은 지난달 6일부터 3일간 미국 캘리포니아 아실로마에서 열린 AI 컨퍼런스(Beneficial AI 2017)에서 도출된 것으로 AI의 급부상과 함께 제기된 우려가 배경이 됐다. 

지난달 17일 미국 비영리연구단체 ‘퓨처 오브 라이프 인스티튜트’(Future of Life Institute, FLI)가 공개한 23가지 AI 원칙에는 ‘AI에 기반한 무기경쟁을 피해야 한다’, ‘반복적인 자기개선 및 자기복제가 가능한 AI 시스템은 철저한 통제를 따라야 한다’, ‘초지능(superintelligence)은 널리 공유된 윤리적 이념에 따라 모든 인류의 이익을 위해서만 개발돼야 한다’ 등 AI 기술의 안전기준 확립 및 잠재적 위험에 대처하는 내용이 포함됐다.

현재 AI/로봇공학 연구자 816명을 포함한 2천여명이 이 원칙에 서명했다. 여기에는 20세기를 대표하는 물리학자인 스티븐 호킹, 전기차회사 테슬라의 최고경영자 일론 머스크, 알파고를 개발한 구글 딥마인드의 데미스 하사비스 최고경영자, 인공지능이 인간을 넘어서는 ‘특이점’이 2045년에 온다고 말한 미래학자 레이 커즈와일, 영화 배우이자 감독인 조셉 고든-레빗도 이름을 올렸다.

아래는 ‘아실로마 AI 원칙’ 전문.

연구 문제(Research Issues)

1. 연구목적: AI 연구목적은 방향성 없는 지능이 아니라 유익한 지능을 만드는 것이어야 한다.

2. 연구비 지원: AI에 대한 투자는 컴퓨터 과학, 경제학, 법학, 윤리학, 사회과학 등의 분야에서 논란의 여지가 있는 문제들을 포함, 그것의 유익한 사용을 보장하기 위한 연구자금이 동반되어야 한다.

3. 과학 정책 연계: AI 연구자 및 정책 입안자 간 건설적이고 건강한 교류가 있어야한다.

4. 연구 문화: AI 연구자 및 개발자들 사이에 협력, 신뢰, 투명성의 문화가 육성되어야 한다.

5. 경쟁 회피 : AI 시스템 개발 팀은 안전기준 미달 사태를 방지하기 위해 적극적으로 협력해야 한다.

윤리와 가치(Ethics and Values)

6. 안전: AI 시스템 운영 과정에서의 안전과 보안이 확보되어야 한다.

7. 실패 투명성: AI 시스템으로인한 피해가 발생할 경우 그 이유를 확인할 수 있어야 한다.

8. 사법적 투명성 : 자율 시스템에 의한 사법적 의사결정(judicial decision-making)에 대해서는 유능한 인간 기관의 만족스러운 설명이 제공되어야 한다.

9. 책임: 고급 AI 시스템의 설계자는 그것의 사용, 오용, 행동과 관련해 도덕적 의미에서의 이해관계자다.

10. 가치 정렬: 고도로 자율화된 AI 시스템은 그들의 목표와 행동이 인간의 가치에 부합할 수 있도록 설계되어야 한다.

11. 인간의 가치: AI 시스템은 인간의 존엄성, 권리, 자유, 문화적 다양성과 공존할 수 있도록 설계·운영되어야 한다.

12. 개인 개인 정보 보호: 인간은 AI 시스템이 생성하는 데이터에 접근, 관리, 제어할 수 있어야 한다.

13. 자유와 개인 정보 보호: 개인 정보에 대한 AI의 적용은 사람들의 실제적 혹은 인지된 자유를 축소하지 않아야 한다.

14. 공유된 이점: AI 기술은 가능한 많은 사람들에게 도움을 주고 힘을 실어주어야 한다.

15. 공유된 번영: AI에 의해 생성 된 경제적 번영은 모든 인류와 광범위하게 공유되어야 한다.

16. 인간의 제어 : 인간은 인간이 선택한 목표를 달성하기 위해 AI 시스템에 결정을 위임할지의 여부와 방식을 선택해야 한다.

17. 비(非) 파괴: 고도의 AI 시스템을 제어함으로써 부여된 권한은 사회와 시민 프로세스를 파괴하는 것이 아니라 존중하고 개선해야 한다.

18. AI 무기 경쟁: 치명적인 자율 무기 경쟁을 방지해야 한다.

장기적인 문제(Longer-term Issues)

19. AI 역량에 대한 주의: 미래의 인공지능이 얼마만큼의 역량을 가지게 될 것인가에 대한 일치된 의견은 없다. AI 능력의 상한에 대한 강한 가정은 피해야 한다.

20. 중요성 : 고도의 AI는 지구 생명체의 역사에 심오한 변화를 가져올 수 있으므로 그에 상응하는 방식으로 계획·관리되어야 한다.

21. 위험 : AI 시스템으로 인해 발생 가능한 치명적·실존적 위험에 상응하는 계획 및 완화 노력이 병행되어야 한다.

22. 재귀적 자체개선: 반복적인 자체 개선 및 자기복제가 가능해 양과 질을 급격하게 증가시크는 AI 시스템은 엄격한 안전 관리 및 통제의 대상이 되어야 한다.

23. 공공선: 초지능(superintelligence)은 널리 공유된 윤리적 이념에 따라 한 국가나 조직이 아니라 모든 인류의 이익을 위해서만 개발되어야 한다.

 

<저작권자 © 월요신문, 무단 전재 및 재배포 금지>

[제보 받습니다] 월요신문 MDN이 독자 여러분의 소중한 제보를 기다립니다.
뉴스 가치나 화제성이 있다고 판단되는 기사 제보 및 사진·영상 등을
월요신문 편집국(wolyo2253@daum.net / 02-2253-4500)으로 보내주시면 적극 반영하겠습니다.

기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
여백
여백
여백
여백
여백
여백
여백
여백
여백
여백
여백
여백
여백
여백
여백
여백
Back to Top