인공지능의 미래를 바라보는 상반된 시각

인공지능의 미래를 바라보는 상반된 시각

 

김진호 교수 (SSM Seoul, https://www.ssmseoul.kr/)

 

대화형 인공지능 챗GPT 등 AI가 급속도로 진화하면서 인공지능이 인간처럼 추론하는 능력을 갖고 있는지가 논란이 되고 있다. 최근 마이크로소프트의 과학자들은 AI가 인간의 개입 없이 스스로 추론해 성장하는 단계인 범용인공지능(AGI)’이라는 지점에 접근했다고 주장했다. 실제로 많은 사람들이 ChatGPT를 접하면서 드디어 특이점이 온 것은 아닌지 우려하고 있다.  특이점(singularity)이란, 더 정확히 말하면 기술적 특이점(technical singularity)이란 미래에 기술의 급격한 변화로 인간의 일상생활이 이전으로 되돌아갈 수 없는 시점을 말한다. 이 특이점을 넘어서는 순간부터 사람들의 힘으로는 기술을 이해하거나 따라잡지 못하게 된다. 쉽게 표현하면 인공지능이 사람과 유사한 혹은 그 이상의 지능을 갖게 되면 인류는 로봇의 노예가 되거나 멸종한다는 말이다. 폭발적인 웹의 성장, 로봇 의족/의수, 1998년 이전에 컴퓨터가 체스 세계 챔피언을 이길 것, 자동 운전 자동차의 상용화 등을 예견한 것으로 유명한 미래학자 레이 커즈와일(Ray Kuzweil)은 인공지능의 특이점은 2045년이라고 매우 구체적으로 예측하고 있다.

 

과연 특이점이 언제 올까? 조만간에 올 것이라는 시각과 절대로 오지 않을 테니까 걱정도 하지 말라는 정반대의 예상이 대립하고 있다. 예를 들면 페이스북의 설립자인 저커버그(Mark Zuckerberg)와 테슬라 자동차의 CEO인 머스크(Elon Musk) 간에 벌어지고 있는 최근의 논쟁은 그런 대립을 극명하게 보여준다. 머스크는 트위터에서 “당신이 AI의 안전성에 관해 걱정하지 않는다면, 반드시 걱정해야만 할 것”이라며 “북한의 핵과 미사일 위협보다 AI가 엄청나게 더 위험하다”고 말했다. AI를 선제적으로 규제하지 않으면 영화 ‘터미네이터’에서처럼 인류의 근본적인 생존과 미래를 크게 위협하게 될 것이라는 평소 지론을 강조한 것이다. 이에 대해 저커버그는 인공지능에 대해 부정적인 생각을 하는 사람들에 대해 “아주 무책임하다”고 비난하면서, 인공지능은 병 진단이나 자율 자동차 등 생명을 살리는 서비스에 잘 활용될 수 있다고 반박했다. 그러자 머스크는 “저커버그의 인공지능에 대한 지식은 제한적”이라고 다시 반박하였다. 저커버그가 인공지능을 잘 몰라서 하는 말이라는 의미다.

 

유명한 물리학자인 고(故) 스티븐 호킹 박사도 인공지능에 대해 매우 비관적이었다. 그는 지금까지 개발된 인공지능이 유용한 것은 맞지만 결국에는 인간보다 높은 지능을 가진 강한 인공지능이 출현할 수밖에 없으므로 인공지능은 인류 문명사의 최악의 사건이라고 확언했다. 심지어 호킹 박사는 앞으로 100년 이내에 새로운 행성에 식민지를 개척하지 못한다면 인류는 멸종할 것이라고 경고하기도 했다. 또한 ‘딥러닝의 대부’로 널리 알려진 제프리 힌턴 박사도 최근에 구글을 그만두며 “자신의 업적을 후회하고 있고 AI 챗봇으로 인한 위험 중엔 ‘매우 무서운’ 내용도 있다“고 경고했다.

 

인공지능이 인류에게 큰 재앙이 될 것으로 우려하는 사람들은 공통적으로 “인간과 유사하거나 더 높은 수준의 지능을 가진 강한 인공지능”이 조만간에 출현한다고 확신하기 때문이다. 하지만 이런 시각과는 정반대로 “강한 인공지능”은 결코 등장할 수가 없다고 믿는 전문가들도 많다. 이들은 “인공지능은 특정 과업을 잘 수행하는 똑똑한 하인”과 같기 때문에 크게 우려할 필요 없이 잘만 부려먹는다면 사람들의 생활에 편리할 것으로 생각한다. 이런 관점의 바탕에는 모라벡의 역설이 자리하고 있다. 로봇공학자이자 카네기 멜론 대학 교수인 한스 모라벡은 “지능 검사나 체커 같은 보드게임에서 어른 수준의 성능을 발휘하는 컴퓨터를 만들기는 상대적으로 쉬운 쉽지만, 지각과 동작에 관련해서는 한 살짜리 아기만 한 능력을 갖춘 컴퓨터를 만드는 일은 어렵거나 불가능하다.“ 고 했다. 이를 풀어서 얘기하면 지능 검사나 체스처럼 사람에게 어려운 것은 로봇에게 쉽고, 지각이나 움직임 같이 사람에게 쉬운 것은 로봇이 구현하기가 불가능하다는 말이다. 같은 맥락에서 인지심리학자인 하버드 대학의 스티븐 핑커 교수는 “지난 35년간의 인공지능 연구가 주는 가장 큰 교훈은 어려운 문제들은 쉽고 쉬운 문제들은 어렵다.”라고 말했다. 이를 역시 풀어서 설명하면 인간의 능력 중에서 인공지능으로 구현하기가 매우 어렵다고 생각한 문제들은(예를 들면 바둑에서 최선의 수를 찾는 것과 같은 매우 복잡하고 어려운 계산) 알고 보니까 쉽고(그래서 결국에는 알파고를 개발했고) 인공지능으로 구현하기가 쉽다고 생각한 문제들은(예를 들면 생각을 하거나 움직이거나) 알고 보니까 매우 어려워서 그런 능력을 가진 인공지능을 만들기가 어렵다는 말이다. 따라서 인공지능 바둑 프로그램인 알파고는 만들었지만 강한 인공지능을 개발하기 위해서는 필수적인 의식이나 동작 측면에서 한 살짜리의 능력을 갖는 인공지능을 만들기는 불가능하다는 것이다.

 

모라벡 교수는 인공지능이 지각과 동작에 관해서는 한 살짜리의 기능도 따라가기가 불가능한 것은 진화 때문이라고 설명한다. 사람들의 모든 기능은 긴 진화의 과정을 거치면서 자연선택(natural selection) 혹은 자연도태(自然淘汰)에 따라 생물학적으로 학습되고 실행된다. 진화의 과정에서 생존에 유리한 기능이 보존, 개선되고 최적화되므로 사람들의 오래된 기능은 그만큼 아주 오랜 기단 동안에 자연도태 과정을 거쳐서 개선된 것이다. 사람들이 별로 애를 쓰지도 않고 무의식적으로 수행하는 기능들은 대부분 첫 10억년 동안의 아주 격렬한 경쟁과정에서 진화되었다. 따라서 사람들은 이런 오래된 기능을 무의식적으로 별다른 노력 없이 잘 수행한다.

 

수억 년의 진화를 거쳐서 개발된 사람들의 기능들을 몇 개만 예를 들면 얼굴을 인식하는 것, 공간에서 움직이는 것, 다른 사람들의 행위에 대해 동기를 판단하는 것, 날아오는 공을 받는 것, 목소리로 누구인지 알아내는 것, 목표를 세우는 것, 흥미 있는 것에 대해 집중하는 것 등이다. 주로 대부분이 지각, 움직임, 사회적 관계 등 관련된 기능들이다. 이런 기능들은 오랜 기간의 진화 과정에서 최적화된 것이기 때문에 로봇공학자들이 그 기술적인 원리를 전혀 알아낼 수가 없는 것이다. 따라서 이런 기능을 구현하는 인공지능을 만들기가 불가능하다.

 

반면에 사람들의 추상적인 사고는 아주 최근에(기껏해야 수백 년 전에) 개발된 것이라 사람들이 열심히 노력해야 할 수 있는 기능이며 특히 그 기술적인 원리들은 이미 잘 알려져 있다. 따라서 추상적 사고 기능은 그만큼 인공지능으로 구현하기가 쉬운 것이다. 최근에 획득된 사람들의 기능들은 몇 개만 예를 들면 수학, 공학, 게임, 법, 의학, 금융, 행정, 논리적이고 과학적인 사고, 깡통 따기 등이다. 이런 것들은 사람들의 몸과 두뇌가 아직 잘 맞도록 진화된 기능들이 아니기 때문에 사람들이 잘 하지 못하지만 인공지능은 눈부신 성능을 자랑하는 중이다.

 

요약하면 인간은 수 억 년의 점진적인 진화 덕분에 걷기, 느끼기, 듣기, 보기, 의사소통 등의 일상적인 행위는 매우 쉽게 할 수 있다. 반면에 비교적 최근에 얻어진 계산과 같은 추상적 사고를 하기 위해서는 많은 시간과 에너지를 소비하여야 한다. 인공지능은 인간이 하는 일상적인 행위를 수행하기 매우 어렵지만 수학적 계산, 논리 분석 등은 이제 쉽게 구현할 수 있다. 사람들에게는 너무나 어려운 천문학적 단위의 수를 계산하거나 복잡한 수식을 푸는 것을 인공지능은 너무 쉽게 할 수 있다. 그렇게 때문에 사람들이 무의식적으로 쉽게 하는 듣고, 느끼고, 인식하는 모든 일상의 행위도 인공지능은 더 쉽게 할 수 있으리라 생각했지만 실제로는 컴퓨터에게 도무지 가르칠 방법이 없다는 것을 깨달은 것이다. 결과적으로 인간의 기능이 진화과정에서 개발되는 데 소요된 기간이 길면 길수록 인공지능이 그 기능을 구현하기가 매우 어렵거나 불가능하다.

 

Share your thoughts