이주선 논설위원, 기업&경제연구소장, 연세대 경영대 연구교수

이주선 논설위원
이주선 논설위원

인공지능(AI)은 1637년 르네 데카르트가 ‘방법서설’에서 “인간은 기계”라고 주장한 데서 출발했다. 그는 인간이 동물처럼 육체라는 기계이나 경험을 쌓는 기계이고 뇌는 그 태엽이라고 주장했다. 이 인간론이 컴퓨터와 AI 출현의 철학적 기반이 되었다. 그로부터 300여 년이 지난 1936년 ‘컴퓨터 과학의 아버지’라 불리는 앨런 튜링이 컴퓨터를 의미하는 튜링기계(Turing Machine)를 제안했고, 1940년대 디지털 컴퓨터가 발명되었다. 튜링은 1950년 그의 논문 ‘계산 기계와 지능’에서 ‘생각하는 기계’의 구현 가능성을 제시하고, 컴퓨터가 사람을 흉내낼 경우 이를 분별하기 위한 튜링 테스트(Turing Test)를 제안했다.

1956년 미국에서 존 매커시, 마빈 민스키, 클로드 섀년 등이 ‘다트머스 회의(Dartmouth Conference)’를 소집했다. 이 회의는 생각하는 기계에 인공지능(Artificial Intelligence)이라는 이름을 붙이고, 정식 연구 분야로 채택하여 AI 발전의 공식적 출발점이 되었다. 이후 AI는 ‘기호주의 인공지능,’ ‘전문가 시스템,’ ‘기계학습 인공지능,’ ‘딥러닝’으로 진화했다. 그리고 최근 ‘챗-GPT’ 등 거대 ‘생성 인공지능’으로까지 발전했다.

이미 튜링이 튜링 테스트를 제안했던 순간부터 사람들은 상상 속에 있던 생각하는 기계가 초래할 위험과 불확실성을 우려하고 있었다. 이런 우려는 “인공지능이 사람을 넘어선 초지능이 되고, 사람의 마지막 발명은 이 최초의 초지능 발명으로 종료되며, 그 후에는 기계만 발명을 하는 세상이 올 것”이라는 어빙 굿(Irving Good)의 예언을 필두로 다양한 경고가 등장했다.

마침내 2016년 세계경제포럼(WEF)은 AI가 인류에 공헌하는 동시에 위험과 불확실성을 초래할 수 있다고 경고하기에 이르렀다. AI가 게임과 과학적 발견에서 사람을 능가하기 시작하자, 스티븐 호킹, 맥스 테그마크, 닉 보스트롬, 일론 머스크 등 AI 관련 과학자와 전문가들이 2017년 미국 아실로마에서 ‘아실로마 원칙(Asiloma Principles)’을 공표했다. 그리고 그 우려는 지금 거대 AI 개발 선두에 있는 오픈 AI·구글·MS 책임자들까지 범세계적 AI 규제 필요성을 인정하게 만들었다.

왜 이들이 아실로마에 모였을까? 아실로마는 1975년 2월 150명의 과학자들이 유전자 조작 기술의 위험성과 생물 재해 대처를 위한 유전공학 규제를 논의한 곳이다. 여기서 과학자들은 새로운 유전자 조합 창조에 따른 위험 관리 안전지침을 마련하였고, 이를 미국 국립보건원이 규칙으로 제정해서 유전자 조작 기술의 위험을 관리하는 데 성공한 바 있다. 이 역사적 배경이 인류의 새 도약 기회와 공멸 위험을 동시에 품은 AI의 불확실성과 위험을 다루기 위한 회의가 아실로마에서 열리게 했다.

아실로마 원칙은 AI 연구는 사람에게 유익한 지능 창조가 목적이어야 하며, 유익한 이용 보장을 위해서 연구 투자를 법·윤리·사회 연구 등 연관 분야 연구지원과 함께하도록 권하고 있다. 또 과다한 경쟁을 지양하고 연구자 간 협력과 신뢰, 투명성에 기반한 안전기준 우회 방지 협력을 권하고 있다. 이를 위해서 AI의 안전성, 안전성 검증, 손상 발생 시 원인 규명과 이를 위한 개발자 책임 부과를 제안하고 있다. 특히 ‘강 인공지능(strong AI)’은 인간의 가치에 부합하는 설계와 가동은 물론, 인류공영에 기여하고, 통제할 수 있어야 하며, 이를 이용한 치명적 자동화 무기 개발 경쟁도 억제되어야 함을 호소하고 있다. 또 개인의 데이터 소유권·프라이버시·자유의 보장과 초지능이 초래할 인류의 실존적 위험에 대한 고려도 호소하고 있다.

아실로마 원칙 천명 후 6년이 지난 금년 11월 영국 주도로 과학자와 전문가들뿐만 아니라 전 세계 28개국과 EU의 정상들이 블레츨리 파크에 모여서 ‘블레츨리 선언(Bletchley Declaration)’을 발표했다. 이 선언은 최첨단 AI가 재앙적 피해를 초래할 수 있으므로, 인간중심적이고 신뢰할 수 있으며 책임감 있는 AI를 보장하기 위한 세계 각국의 포용적 협력 합의를 담고 있다. 이를 위해서 공통의 AI 위험을 식별하여 과학적 이해를 공동으로 구축하며, 국가별로 접근방식을 달리하더라도 위험에 대처하는 정책을 수립해서 공조하기로 했다. 이 선언의 구체화를 위해 내년 5월 한국이 영국과 함께 미니 화상정상회의를 열고, 11월엔 프랑스가 제2회 회의를 개최할 예정이다. 국가와 민간이 AI 위험과 불확실성 대처를 위한 전선에 함께 선 것은 핵무기, 유전자 조작 등 인류 공멸의 도전에 성공적으로 대처했던 역사를 재현한 의의가 있다.

이 회의가 블레츨리 파크에서 개최된 것도 의미심장하다. 블레츨리 파크는 제2차 세계대전이 한창일 때, 앨런 튜링이 동료들과 함께 독일의 ‘에니그마’라는 암호를 해독해서 연합군의 승리에 결정적인 역할을 한 영국군 암호해독본부가 자리했던 장소다. 이곳에서 세계 각국 정상들과 민간 최고 전문가들이 AI가 초래할 인류 공멸 위기 해결을 위한 논의와 공동지침에 합의한 것은 향후 인류가 이를 기필코 성공시키겠다는 의지와 집념을 보여준 것이다.

세계는 ‘대혼돈(great chaos)’으로 전환하고 있다. 범인류적 협력으로 해결해야 할 기후변화 등 다양한 실존적 위협들은 증폭되는데, 냉전 이후 세계화로 구축된 협력과 연대는 형해화되고 전쟁과 테러가 확장하고 있는 중이다. 이런 상황에서 나온 블레츨리 선언은 범세계적 공조의 새 페이지를 썼다는 점에서 그 의의가 자못 크다. 내년 우리나라와 프랑스에서의 회의가 이 선언이 구체화되는 큰 진전을 이루기를 간절히 바란다. 그래서 인류가 지금까지 이룩한 평화와 번영을 진보시키는 방향으로 다시 전진할 수 있기를 강력히 희망한다.

저작권자 © 데일리임팩트 무단전재 및 재배포 금지