원미숙 논설위원, 동의대 융합부품소재핵심연구지원센터 부소장

원미숙 논설위원
원미숙 논설위원

인간의 지적 능력을 기계로 구현하는 과학기술인 AI(Artificial Intelligence, 인공지능)는 우리의 일상과 함께하는 용어가 되고 있다. AI란 말 그대로 컴퓨터 시스템이 사람처럼 인지하고, 학습하고, 추론하고, 의사 결정을 지원하여 문제를 해결할 수 있도록 만들어주는 기계로부터 만들어진 지능이다. 인간을 포함한 동물이 가지고 있는 지능, 즉 NI(Natural Intelligence, 자연지능)과는 다른 개념이다.

AI의 기초 개념은 영국의 수학자이자 논리학자인 앨런 튜링(1912~1954)이 1950년, ’계산기계와 지성‘이라는 논문에서 최초로 제시하였다. 그 후 AI라는 용어는 1956년 여름, 미국의 다트머스대학에서 개최되었던 콘퍼런스에서 컴퓨터 과학자인 존 매카시(1927~2011)가 처음 사용했다. 다트머스 콘퍼런스 이후 수십 년 동안 AI는 눈부신 발전을 이룩하였으나, AI 연구의 결과물은 정보 처리능력과 정보량에 따라 달라지기 때문에 하드웨어 기술 개발과 함께 상당한 예산과 시간이 요구된다. 신경정보망 연구를 중심으로 하는 AI 연구는 정보 처리능력의 한계 등으로 인하여 1970년대, 1980년대에 2번의 AI 겨울을 겪었다.

그러나 2000년대에 들어 AI 연구는 데이터의 가용성 증대, 거대 클라우드 컴퓨팅 파워의 성장 및 AI 연구진에 의해 개발된 더욱 강력한 알고리즘에 힘입어 급격히 진보하고 있다. 2006년, 영국의 컴퓨터 과학자인 제프리 힌턴에 의해 ’딥 러닝‘ 논문이 발표되면서 불가능이라 여겨졌던 비지도 학습에 의한 머신러닝이 가능해졌고 이미 몇 가지 분야에서는 인간의 수준을 뛰어넘는 결과물이 나타나고 있다.

2016년 화제를 모았던 이세돌 9단과의 바둑 대국에서 4승 1패를 기록했던 알파고는 머신러닝 기반 최강의 인공지능 바둑 프로그램이다. 이외에도 2017년 10월 미국 뉴욕 유엔본부에서 열린 유엔 경제사회이사회(ECOSOC) 정기 회의에서 발언권을 얻었던 소피아는 사람처럼 행동하고 사고하는 AI 휴머노이드 로봇이다. 구글 딥마인드에서 개발한 알파폴드 2는 단백질 폴딩(접힘)을 예측해 단백질 구조를 파악하는 AI로 50년 동안 풀리지 않았던 단백질 접힘 문제의 실마리를 찾는 차별화된 성과를 나타내기도 했다.

인권침해가 크게 문제시되지 않는 중국이 2017년 AI를 활용, 범죄 용의자를 식별하는 기술을 도입해 화제가 됐다. 현재의 AI는 사람의 능력보다 얼굴 인식률과 사물 인식력이 더 높은 결과를 나타내고 있어, 빠른 속도로 사람의 능력을 추월할 수 있다는 의식이 확산되고 있다.

흔히 우리는 인공지능과 로봇을 혼동, 혼용하는 경우가 많으나 AI와 로봇은 추구하는 목적이 다른 기술이다. 2020년 말에 선보인 보스턴 다이나믹스의 로봇개 ‘스팟(spot)’의 복잡하고 정교한 움직임과 자세는 인간이 고도의 제어공학과 각종 센서, 알고리즘을 응용하고 설계하여 만든 것이며, 조종도 인간이 하는 것이다. 복잡한 정보와 대량의 데이터를 토대로 새로운 정보를 창출하는 AI와는 전혀 다른 기술이다. 물론 로봇프로세스 자동화에 사용하는 소프트웨어를 AI 및 기계학습 능력과 함께 사용하는 경우는 많다.

AI는 기계학습을 통하여 전문가의 영역을 혁신하고 있다. 예측과 진단, 더 나아가 새로운 문제 제기에 이르는 AI의 활용영역 확대는 기대와 함께 미래의 일자리 감소에 대한 우려로도 이어진다. 현재 선망의 직업인 변호사, 법무사, 회계사, 의사, 기자, 금융인 등 전문직이 미래에는 AI로 대체될 수 있어 많은 일자리가 사라질 것이라 염려한다. 그러나 AI 전문가에 의한 인간 역할 대체는 기술적, 윤리적으로 불가능하므로 대결이 아닌 협력구도에 의한 AI와의 공존을 고민하여야 한다.

향후 AI의 발전에 의한 일자리와 업무의 급격한 변화로 많은 산업 분야에서 핵심 인재가 부족해질 것이며, AI기술과 연계된 다양한 직업이 창출될 것이라 한다. 또한, AI와 클라우드 컴퓨팅이 주도하는 온디맨드(On-demand) 경제의 등장으로 근로자의 역량과 소비자/기업의 요구가 매칭되어 근로자가 선택하여 일할 수 있는 일자리가 만들어질 것이라는 전망이라 일자리 감소에 대한 걱정을 덜게 한다.

AI 기술은 요리에서부터 의료에 이르기까지 우리의 일상 속에서 다양한 방식으로 활용되고 있다. 앞으로도 우리 삶의 새로운 영역에서 지속적으로 발전, 성장할 것이며 모든 산업에서 점점 더 중요해지고 있다. 그러나 AI기술의 활용과 AI 기반의 제품‧서비스 확산에 따라, 보안 위협의 증가뿐만 아니라 오남용, 알고리즘 차별, 프라이버시 침해 등과 같은 새로운 형태의 역기능도 나타나고 있다. 따라서 AI 확산으로 생길 수 있는 역기능과 보안 위협에 대비하기 위하여 사회적 공론화와 공감대 형성을 바탕으로 한 사람 중심의 AI 윤리규범을 확립하고 가장 안전한 AI 이용환경을 조성할 필요가 있다.

2020년 12월 스캐터랩이 정식 서비스를 시작했던 AI 챗봇 ‘이루다’는 자연스럽고 생동감 있는 대화 서비스로 출시 3주 만에 약 80만 명의 이용자를 확보하는 등 선풍적인 인기를 얻었다. 그러나 개인정보 노출, 성희롱 및 인종, 성차별 등 혐오·차별 발언 논란으로 출시 20일 만에 서비스를 잠정 중단하는 사태에 이르렀다. 이루다 사건은 AI 개발자의 윤리의식과 책임감이 무엇보다 중요함을 깨우치는 계기가 되었다.

세계 각국은 4차 산업혁명 대응과 AI 주도권 확보를 위하여 국가적 노력을 기울이고 있으며 안정성, 법적 책임, 인간 고유성 담보 등 AI 윤리 문제에 대응하기 위한 규범 마련을 본격화하고 있다. AI의 3대 원칙을 정리하자면 첫째, 인간에게 해가 되지 않도록 해야 한다는 인간존엄성 원칙, 둘째, 많은 사람의 안녕과 행복이라는 가치를 추구한다는 사회의 공공선 원칙, 그리고 인류의 삶에 필요한 도구라는 목적과 의도에 맞게 개발· 활용되어야 하며 그 과정도 윤리적이어야 한다는 기술의 합목적성 원칙을 들 수 있겠다. 이러한 원칙들을 철저히 지키면서 AI를 개발하고 적극 활용함으로써 인간은 AI와 공존하며 더욱 편리한 삶을 영위해 나갈 수 있을 것이다.

저작권자 © 데일리임팩트 무단전재 및 재배포 금지