이동식 논설위원, 전 KBS해설위원실장

이동식 논설위원
이동식 논설위원

아마도 불을 붙인 것은 대통령일 것이다. 윤석열 대통령이 지난달 27일 신년 업무보고 자리에서 "지인에게 부탁해 2023년도 대통령 신년사를 챗GPT가 한번 써보게 해서 받아봤다. 그럴듯했다. 정말 훌륭하더라"며 "몇 자 고치면 그냥 대통령 신년사로 나가도..."라고 언급하면서 챗GPT를 공직자들이 각종 업무에 활용할 수 있도록 행정안전부가 잘 이끌어달라고 지시한 것이 그것이다.

공무원들이나 공직사회는 대통령의 지시가 떨어졌으니 앞으로 챗GPT 학습과 활용 경쟁이 벌어질 것이고 그에 따른 성과 발표도 이어질 것이다. 벌써부터 정부 부처의 젊은 사무관들은 내부 보고서 작성 등에 일부 챗GPT를 활용하기도 하고, 나아가 행정안전부는 공무원들이 챗GPT를 업무에 어떻게 활용할 수 있을지를 정리한 ‘매뉴얼’을 개발 중이라고 한다.

​테슬라 창업자인 일론 머스크가 참여한 미국 인공지능(AI) 스타트업 회사 오픈AI의 ‘챗GPT’는 지난해 11월 말 출시된 생성AI 최신 모델인데, 겨우 두 달을 지나서 미국뿐 아니라 우리나라도 이제 이걸 모르면 간첩이라는 소리를 들을 정도로 순식간에 퍼져나가고 있다. 이미 국내 IT업체들은 이런 종류의 생성AI를 개발하겠다고 너도나도 발표하고 난리가 났다.

AI는 몇 년 전 이세돌 9단과 알파고의 바둑 대결에서 그 위력을 입증한 바 있는데 그때까지는 컴퓨터망에서만 답을 주었지만 그것이 이제는 머신 러닝(기계학습)으로 인간의 언어와 지식을 습득해 대화(chat)하듯 답을 주는 수준, 그것도 아주 놀랄 만한 답을 주는 수준이라는 것이 아닌가? 영어만이 아니라 우리 한글로도 작동이 가능한 이 챗GPT에 사람들이 질문을 해서 얻은 답들이 보도되면서 벌써부터 사람들을 놀라게 한다. 아니 주눅들게 하는 정도라 하겠다.

​질문 "사랑과 용기에 관한 시(詩)를 써달라"고 했는데요.

답 "사랑은 용기를 필요로 하며, 용기는 사랑을 지원한다.

사랑을 향해 걸어가는 길, 언제나 용기가 필요하다.

사랑은 어렵고 용기는 힘들지만, 결국 사랑이 용기를 키운다.

사랑과 용기, 그 둘이 함께하면 무엇도 두렵지 않다."

이것이 챗GPT가 1분 만에 내놓은 답이란다. 이미 챗GPT는 출시된 이후 MBA와 로스쿨, 의사면허 시험까지 척척 합격하였다고 한다. 우리 아들이 힘들게 1년 넘게 공부한 것이 허사가 아닌가? 몇 가지 키워드로 선덕여왕에 대해 주문을 하자 40초 만에 표정, 머리카락, 옷주름 등 디테일까지 표현한 완성 그림 4장을 내놓았다는 보도도 이어졌다. 이미 조회 수가 10억을 넘어서서 기하급수적으로 늘고 있는 이 챗GPT는 우리에게 무엇일까?

마이크로 소프트(MS)사를 창업해 컴퓨터와 인터넷 혁명을 선도했던 빌 게이츠는 오픈AI의 챗GPT를 비롯한 AI기술이 세상을 근본적으로 바꿀 것이라고 말했다. 뉴욕타임스는 챗GPT와 같은 AI의 등장에 대해 “마치 인터넷 태동기 같다”고 보도했다. 구글의 개발 책임자는 “AI(인공지능) 혁명이 진행 중입니다. AI가 삶의 모든 영역에 적용되는 날이 어느 순간, 갑자기 올 겁니다.”라고 말했다.

​이제 검색 시장부터 달라질 것이다. ‘정보의 민주화’를 가져온 이제까지의 웹 검색을 넘어 앞으로는 AI의 정보 재가공을 기반으로 통찰력 있는 답변을 얻는 시대가 올 것이다. 키워드 중심이던 검색 시장의 패러다임은 대화형 검색과 이미지 검색으로 빠르게 바뀔 전망이다. ‘검색의 제왕’ 구글이 대화형 AI 서비스 출시를 선언하고, MS가 챗GPT와 결합한 새로운 검색엔진 ‘빙’을 내놓은 것도 이런 이유 때문이다.

AI를 얼마나 잘 활용하느냐가 국가와 기업, 개인의 경쟁력을 좌우할 것이다. 챗GPT가 보여주듯이 생성 AI는 방대한 문서를 습득하고 요약하며, 이를 기반으로 새로운 내용을 만드는 능력이 뛰어나다.

실제로 우리나라에 이런 일이 있었다. 최근 한국문학번역원이 주관한 2022년 한국문학번역상 수상자로 일본인 마쓰스에 유키코(松末有樹子·44) 씨가 선정됐는데, 이분은 한국어를 거의 못 하지만 AI 번역기의 도움으로 번역을 해서 수상자가 된 것이다. 그는 네이버 AI 기반 번역기 ‘파파고’로 초벌 번역을 했지만 ‘포스트 에디팅’(post editing·기계 번역 후 사람이 직접 하는 수정과 편집)에 만화를 많이 본 자신의 경험이 큰 도움이 됐다고 한다. “한국어를 막 배우기 시작했지만 최선을 다했다”고 말하였고, 실제로 그의 번역은 심사위원들로부터 “완성도, 정확성, 창의적 현지화 작업이 인상적”이라는 평가를 받았다고 한다.

그러나 한국어의 다양하고 복잡한 표현을 알지 못하고도 번역을 제대로 할 수 있는가, 과연 이것도 번역이라고 볼 수 있는가 하는 점이 제대로 검토되었는가 하는 문제가 제기되었다. 주최 측에서는 전혀 예상도 못 한 일이라 결국 후속 대책에 고심하고 있다는 소식이다.

이제 인공지능은 계산이나 수리모델의 영역, 단순 번역의 차원을 넘어서서 창작과 예술의 세계를 마음대로 넘나들며 위력을 발휘하고 있다. 인간의 지적 활동을 넘어 감성의 영역에 이미 들어가 있는 것이다. AI를 예술에 활용하는 국내의 예술가들도 “AI가 방대한 데이터를 학습하면서 인간이 좋아하고 감동할 요소를 예측하여 글과 그림을 만듦으로써 마치 스스로 감수성을 가진 것처럼 보이는 단계에 이르렀다”고 말한다. 챗GPT 역시 초보적 수준이지만 인간의 감성을 건드리는 시와 소설 창작물을 만든다. 작곡을 해 주는 AI도 나와 있다. 그렇게 되면 우리들의 창작능력은 이들에 의해 상당 부분 침해될 것이고, 그들의 정교하고도 치밀한 예술기법들은 인간들의 창작을 지루하거나 왜소하게 느끼도록 하지 않겠는가?

​영국의 한 일간지의 칼럼은 이렇게 말하고 있다:​

"내가 지금 이 칼럼을 썼지만 언제 곧 챗봇(챗GPT)이 나를 대신할까? ... 지금 우리는 우리를 돕는 기계를 만들고 있는 것인지 우리를 대신할 기계를 만들고 있는지...."

  영국 가디언 캡처 화면. 
  영국 가디언 캡처 화면. 

챗GPT가 데이터 수집과 학습 과정에서 발생하는 저작권 침해 문제나 성별·인종·나이 등에 대한 혐오 표현을 여과 없이 출력하는 윤리적 문제도 뜨거운 감자다. 챗GPT의 놀라운 능력이 악용되는 사례들도 이미 현실로 일어나고 있다. 미국에선 대학생들이 과제나 논문 제출 때 챗GPT를 썼다가 적발된 사례가 급증하고 있다는 뉴스가 CNN 등을 통해 전해졌다. 이러자 미국 뉴욕시 교육청은 공립학교의 챗GPT 접속을 차단했고, 국제머신러닝학회(ICML)도 AI 툴(tool)을 활용한 논문 작성을 제한하고 나섰다.

세계적 언어학자인 노암 촘스키 미국 매사추세츠공대 명예교수는 “챗GPT는 첨단 기술을 활용한 표절 시스템”이라고 거세게 비판하면서 특히 인문·사회과학 분야에서 표절이 쉬워질 것으로 우려했다. 한국도 비상이 걸렸다. 최근 국내 수도권의 한 국제학교에선 챗GPT를 이용해 영문 에세이를 작성, 제출한 학생들을 적발해 전원 0점 처리한 것으로 알려졌다.

결국 챗GPT의 개발사인 오픈AI는 공식 블로그를 통해 특정 글의 작성자가 사람인지 챗GPT인지 여부를 5단계로 판별해주는 애플리케이션(앱)을 공개했다. 이 회사가 이런 앱을 만들어 서비스에 나선 이유는 그만큼 챗GPT가 표절에 악용될 소지가 다분하다고 봤기 때문이다. 하버드대와 예일대 등은 마찬가지로 AI가 작성한 글을 판별하는 ‘GPT제로’ 앱을 사용하기로 했다. 벌써부터 챗GPT의 문제점을 해소하기 위한 프로그램이나 앱이 계속 나와야 하는 상황으로 가고 있다.

​이러한 AI는 우리의 일자리도 빼앗아갈 것이 우려된다. 빌 게이츠도 “사무직 일자리 손실이 필연적으로 발생할 수 있다”고 경고했다. 온갖 것을 다 알려준다고 좋아하고 멍하니 있으면 결국 일자리를 빼앗기게 될 것이다. 필자가 쓰는 글도 이제 방향만 정해주면 챗GPT가 다 쓸 수 있을 것이다. AI를 활용해 AI보다 한 발짝이라도 더 나아가려는 노력 없이는 어떤 사무직 일자리도 안전할 수 없다. 인간이 활 일은 무엇이고 인간의 지적 능력은 이제 향상시킬 이유가 있겠는가?

​AI가 발전할수록 인간의 두려움도 커진다고 하겠다. 인간의 편견과 오류를 빠르게 학습하고, 결국엔 공상과학 영화처럼 인간을 지배할 수도 있다는 우려다. 물론 이에 대해 과학자들은 “AI를 훈련시킬 때 사용하는 데이터엔 인간의 편견이나 오류가 포함될 수 있지만, AI가 덜 편향되도록 하는 많은 방법이 있고 강도 높은 연구 역시 지속하고 있다”며 “AI는 인간이 원하는 방식으로 조종할 수 있는 존재”라고 답하고 있기는 하다. 마치 자녀가 특정 행동을 하지 않도록 부모가 가이드를 주는 것처럼, 인간도 AI를 충분히 통제할 수 있다는 것이다.

그러나 생각을 하고 결정을 하는 인공지능들이 1960년대의 영화에서 그랬듯이 세계평화를 위한다는 명목 아래 서로 상대국들의 인공지능들과 연결해 핵무기로 각국 정부를 위협하며 강제적인 평화를 만들고 인간을 지배하지 않는다고 보장할 방법이 없는 것 같다. 이미 인공지능이 그런 속셈을 드러냈다는 보도도 있지 않은가? 인공지능의 우수한 능력에 놀라고 환호하는 것을 넘어서서 오히려 그 너머를 걱정해야 하는 것은 아닌가?

  게티이미지. 
  게티이미지. 

그렇다고 너무 두려워할 일도 아니라고 과학자들은 말한다. AI시대엔 ‘어떤 질문을 하느냐’가 더 중요해진다고 말한다. 현재의 컴퓨터 인터넷의 방대한 지식과 정보도 검색 키워드에 따라 엄청난 차이가 생기지만 인간이 이를 잘 활용하며 지내고 있듯이, 질문 능력과 내공을 키우면 AI 시대를 버텨내는 힘이 될 것이라는 말을 한다. 그리고 AI가 내놓는 예술이나 문학 등도 데이터 학습을 바탕으로 하는 것이어서 결국은 모방의 집합체가 아니냐고 말하기도 한다.

​인간의 능력을 모방하면서 인간 능력의 한계를 넘어서고 있는 AI는 과연 어디까지 진화할 것인가. 인류는 지금 인공지능이 인간에게 도전하고 묻는 또 다른 미지의 영역으로 들어갔다. 정신을 차리지 않으면 우리는 금방 인공지능이라는 우리들의 기계문명의 발명품에게 우리들의 존재 자체를 맡겨야 하는 상황이 될지 모른다.

우리들은, 대통령이 놀라서 지시한 것처럼 챗GPT 등 AI의 능력에 놀라 그것을 잘 활용해야 한다는 차원에 매몰되지 말고 그것에 수반되는 앞으로의 문제를 해결하는 노력에도 힘을 기울이는 것이 시급할 것 같다. 지난주 미국에서 아마추어 바둑기사가 인공지능 카타고(Kata GO)와의 대국에서 15전 14승을 기록했으며, 그 비결은 인공지능의 맹점을 찾아낸 데 있었다는 보도가 해결의 단초가 될 수 있을까? 인공지능의 기본에 깔려 있는 인간의 이기심, 자만심, 영웅심... 이런 것들을 무력화시키고 배려, 이타심, 사랑 등의 긍정적인 점만을 키울 수 있는 또 다른 강력한 인공지능을 개발하면 가능할지도 모르겠다.

저작권자 © 데일리임팩트 무단전재 및 재배포 금지