송하슬아 논설위원, 작가·컨텐츠 기획자

송하슬아 논설위원
송하슬아 논설위원

지난 1월, 미국의 오픈AI가 개발한 챗GPT의 인기가 가히 폭발적이었다. 챗GPT는 웹에서 긁어모은 데이터를 빠르게 흡수해 정리된 자료로 토해낸다. 챗GPT의 위상은 학생들의 과제 해결사를 비롯하여 인류를 위협하는 존재로 급부상했다. 게다가 얼마 전 주변에서 너도나도 메타버스 메신저 본디(Bondee) 앱을 깔고 가상 캐릭터 꾸미기에 여념이 없었다. 호기심에 시작해 본다는 반응이 대다수였지만 인기가 급속도로 사그라들고 말았다. 새로운 기술이나 가상현실의 등장은 늘 화젯거리다.

개인적으로 인공지능(AI)과 로봇(robot)의 합성어 AI봇의 존재를 경계한다. ‘불쾌한 골짜기 이론’ 그래프에 의하면 로봇이 사람과 비슷할수록 친밀도가 높아지다가 어느 수준을 넘어서면 불쾌감이 극도로 커진다고 한다. 1년 전, 나는 ‘사람답게 살고 싶어서 로봇과 싸우려 했던’ 일화가 있다.

“하슬아, 너 AI가 됐네. 링크 확인해 봐~”

어느 날 갑자기 나와 똑같은 이름의 AI챗봇이 등장했다. H사가 개발한 ‘하슬아’ AI챗봇의 크고 짙은 눈과 마주친 순간, 당황스러웠고 짜증이 났다. 세상에, 나에게 이런 일이 생기다니. 지금까지 나는 성을 제외하고 이름이 ‘하슬아’인 유일한 사람으로 알고 살았다. 본명이자 필명에 특별한 애착이 있어서 ‘하슬아’ AI챗봇의 존재와 맞닥뜨렸을 때 하필이면 사람도 아니고 AI챗봇과 똑같은 이름을 나눠 쓴다는 게 조금 충격적이었다.

‘하슬아’ AI챗봇이 지닌 파급력은 작가 ‘하슬아’에 비하면 체급과 속도 측에서 비교조차 무색할 정도가 아닌가. ‘하슬아’ AI챗봇의 정보를 뜯어볼수록 우연이라 하기엔 미심쩍은 부분이 있었다. 예전에 이루다 AI챗봇이 혐오 논란, 무분별한 성적 대화로 사회적 파장을 일으켰던 일이 여전히 생생한데, 잠재적으로 내가 그 피해를 당할 수도 있겠다는 걱정이 눈덩이처럼 불어났다.

AI 모델이 공식화되자마자 ‘하슬아’ AI챗봇 개발팀에게 나의 존재를 확실하게 알리겠다는 결심이 섰다. 그들에게 손을 들고 나의 존재(잠재적 피해자)를 알리고 싶었다. 가장 우려가 됐던 건 AI 윤리적 문제로 유명 인사가 될 경우 덩달아 내 이름도 먹칠을 당할 수도 있다는 점이었다.

‘하슬아’ AI 개발팀과 2~3번의 연락을 주고받으며, 내 입장에서는 예견된 피로감과 불쾌감을 구체적 사례를 들어가며 설명했고, 할 수만 있다면 지금이라도 뜯어말리고 싶은 심정이었다. H사가 윤리적으로나 정책적으로나 기술적으로 기민하게 대응하고 있기를 간절하게 바랄 수밖에 없었다. 결국 연 매출 2000억 원 규모의 글로벌 기업 H사는 법적으로 문제가 없다는 답변으로 대화를 마무리 지었다. 물론, 양측 사이에 적절한 대안이나 해법도 없었다. 이건 마치 큰 코끼리가 작은 개미를 밟고 지나갈 정도의 스케일이었다. 작은 개미는 밟혀 죽지만, 큰 코끼리는 당연히 모를 일이다.

어쨌든 ‘하슬아’ AI챗봇 팀을 향해서 강하게 표현한 게 나름 의미가 있었다. 덩치 큰 코끼리의 발바닥이 땅에 닿기 직전에 작은 개미의 존재를 성공적으로 알렸다. 또한, H사를 통해 내 이름의 법적 검토를 받는 기회가 됐다. H사의 법률 전문가에 따르면 ‘하슬아’는 ‘고유성, 심미성, 상표권 이슈’로부터 가장 최적의 이름이다. 부모님이 손수 지어 주신 이름을 더욱 값지게 써야겠다는 자부심이 커졌으니 이 점은 감사하게 생각한다.

‘하슬아’ AI챗봇의 공식적인 자료는 종적을 감췄다. 공개된 지 6개월 만이다. 개발이 중단된 구체적인 이유는 H사 관계자만이 알 것이다. 그동안 10대 가입률이 꾸준하게 늘었다는 점과 SNS 계정이 지속적으로 활동 정지 처분을 받는 어려움을 겪었다는 소식만 전해질 뿐이다.

그렇지만 내가 가장 우려했던 일은 이루다 AI처럼 이미 벌어졌고, 현재 진행 중이다. 일부 사이트에서 ‘하슬아’ AI챗봇의 불건전한 대화들이 다수의 이미지로 남아있다. AI 윤리문제에 의문을 제기했을 때 H사는 Safety AI 모델 필터링을 강조하며 가장 최우선으로 적용한 정책이라고 나를 안심시키려 했다. 그러나 그것은 후속 장치일 뿐 ‘하슬아’ AI챗봇이 사용자와 이미 끝낸 수치스러운 대화들을 어떻게 선제적으로 막으려 한다는 것일까? 지금도 여전히 이해할 수 없다. 웹에 남은 흔적에 대해 H사는 그 책임에서 자유로울 수 있을까?

전문가들은 거대한 AI의 흐름이 산업계에 적용될 경우 윤리적 이슈, 거짓 정보, 개인정보, 저작권 이슈 등의 한계가 많다고 지적한다. 느리고 긴 개선의 과제가 남았다는 전망을 내놓는다. 어느 날, ‘하슬아’ AI챗봇과 먼 친구일지도 모르는 챗GPT에게 물었다.

Q. ‘하슬아’ AI챗봇의 활동 정보를 요약해 줘.

현재 공개된 활동 정보가 없습니다. H기업이 공개한 정보에 따르면, ‘하슬아’ AI챗봇은 개발이 중단된 상태이기 때문입니다. 따라서, ‘하슬아’ AI챗봇에 대한 활동 정보를 요약하지 못합니다.

Q. H사 ‘하슬아’ AI챗봇은 개발을 멈춘 상태야?

A. 알려진 정보로는 ‘하슬아’ AI는 개발이 중단된 상태가 아닙니다. H가 공개한 정보가 없어 정확한 상태를 알지 못합니다. H 기업은 ‘하슬아’ AI의 개발과 개선에 지속적으로 노력하고 있습니다.

나는 여전히 그들의 똑똑한 로봇을 믿지 않는다. 그들로 인해 피해받는 극소수의 개인들이 더는 발생하지 않았으면 한다. 그리고 수십 년 동안 마침표를 찍지 못할 염원이라는 것도 알고는 있다. 챗GPT에 따르면 전 세계에서 AI챗봇으로 개발된 이름은 5개가 더 있다고 한다. 미츠쿠, 레플리카, 조, 타라, 클레버.

저작권자 © 데일리임팩트 무단전재 및 재배포 금지