본문 바로가기
주제별 글모음/인공지능에 대한 글

컴퓨터는 지능을 가질 수 있을까?

by 격암(강국진) 2023. 11. 20.

23.11.20 미국 다트머스 대학교의 수학과 교수였던 존 매카시는 1955년에 한 학술회의에 대한 제안서를 제출하면서 인공지능이라는 말을 처음 만들었다. 이 제안서에서 그는 이제까지 인간만이 풀 수 있는 것으로 남겨진 문제를 해결하는 기계의 연구를 이야기하면서 이것을 인공지능의 연구라고 불렀던 것이다. 그런데 이 말을 곰곰히 생각해 볼 때 우리는 사람들이 인공지능의 연구를 지능을 가진 기계 혹은 지능을 가진 컴퓨터를 만드는 일이라고 생각하는 착각을 종종 저지르고 있다는 것을 알게 된다. 이 두가지는 서로 같은 것이 아니며 그런 착각은 나쁜 결과를 가져오게 된다. 

 

일단 지능을 잠정적으로 정의하면서 시작해 보자. 누군가는 지능의 정의를 다르게 할 수도 있으며 지능은 결코 완벽히 정의 될 수 없는 것이라고도 주장할 수 있겠지만 충분히 합리적인 지능의 잠정적인 정의에서 출발해서 우리가 문제를 발견하게 된다면 우리는 우리가 빠지기 쉬운 착각에 대해서도 더 깊게 이해하게 될 것이다. 나는 지능을 문제를 해결하는 능력이라고 정의할 것이다. 이 표현은 존 매카시의 제안서에서도 등장한다. 그는 인간만이 풀 수 있는 것으로 남겨진 문제들을 해결하는 기계를 이야기하고 있다. 

 

그런데 여기서 우리는 문제를 해결하는 것에 대해 생각해 볼 필요가 있다. 욕망과 감정이 없는 도구가 문제를 가질 수 있을까? 애초에 풀어야 할 문제가 없는데 그 문제를 해결한다는 말은 무슨 뜻일까? 그 문제는 누구의 문제인가? 여기서 우리는 의인화에 대해 조심해야 한다. 예를 들어 의자가 하나 있다고 해보자. 이 의자에 아주 무거운 사람이 앉으면 이 의자는 부서질지 모른다. 따라서 이 의자는 무거운 사람을 지탱해야 하는 문제를 가질까? 그렇지 않다. 이것은 의자를 인간으로 의인화한 것이다. 욕망과 감정이 없는 의자는 자신이 부서지든 말든 아무 문제를 가지지 않는다. 그 문제는 그 의자를 소유한 사람이나 그 의자를 사용하는 인간이 가지는 것이다. 그런데도 우리는 무의식적으로 사물을 의인화하고 그 사물이 문제를 가진다라고 생각하기 쉽다. 

 

이렇다고 할 때 그것이 의자같은 단순한 도구가 아니라 복잡한 슈퍼컴퓨터라고 할 지라도 상황은 마찬가지다. 우리는 간단하게 컴퓨터가 문제를 가질 수 있다라고 말할 수는 없다. 물론 우리는 욕망과 감정을 가져서, 문제를 가진다라고 말할 수 있는 컴퓨터가 존재가능하다는 것을 부정하는 논증을 한 게 아니다. 의자같지 않고 복잡한 컴퓨터는 어쩌면 그런 일을 해낼 수 있을지도 모른다. 다만 글자를 아는 것과 명작이 될 소설을 쓰는 것이 서로 다르듯, 컴퓨터 이기만 하면 욕망과 감정을 당연히 가진다고 말하기에는 욕망과 감정이라는 성질이 그리 간단하지 않다는 것이다. 그러므로 컴퓨터가 문제를 가진다는 말도 의자만큼이나 의인화의 결과일 가능성이 크다. 사과를 자동으로 수확하는 로보트는 사과가 수확되던 말던 상관하지 않는다. 사과가 수확되지 않고 썩어가는 것은 인간의 문제이지 자동 수확 기계의 문제가 아니다. 

 

그런데도 컴퓨터나 인공지능과 관련해서는 이 의인화가 일어나기가 더욱 쉬운 또다른 이유가 있다. 앞에서 소개한 인공지능의 연구 제안서에서 말하고 있듯이 인공지능 분야의 목표는 이제까지는 인간만이 해결가능하다고 생각되어지는 문제를 해결하는 기계를 만드는 것이다. 그런데 우리는 인간만이 해결가능한 문제를 해결하기 위해서는 기계에게 한가지가 필요할 것이라는 가정에 빠지기가 쉽다. 그것은 바로 인간이 가지는 욕망과 감정을 그 기계가 가져야 한다는 것이다. 예를 들어 철학 에세이를 쓰거나 음악을 작곡하는 인공지능이 있다고 해보자. 이런 인공지능이 인간의 감정을 이해하지 않고도 그렇게 할 수 있을까?

 

우리는 인간만이 해결할 수 있는 문제를 해결하는 인공지능은 인간같은 감정을 가져야 할 것같다는 생각에 빠지기 쉽다. 이것을 인간성의 가정이라고 부르도록 하자. 그리고 이것이 가정이라는 점을 분명히 기억하도록 하자. 다시 인공지능에 대한 논의의 처음으로 돌아가서 전체를 보면 우리는 우리의 애초의 의도는 문제를 해결하는 것이었지 기계가 인간같은 욕망과 감정을 가지도록 하는게 아니었다는 것을 알 수 있다. 그런데 인간만이 풀 수 있는 문제를 풀려면 인간성의 가정이 사실일 필요가 있다는 생각을 우리는 은근슬쩍 집어넣은 것이다. 어쩌면 어떤 문제의 해결에서는 그것이 사실일 수도 있다. 그래도 인간성의 가정은 가정이고 우리의 애초의 관심사도 아니었다. 

 

그럼에도 불구하고 인간성의 가정은 즉각적으로 다른 문제를 만들어 낸다. 인간성을 갖춘 기계는 인간의 감정과 욕망을 가지고, 인공지능까지 가지게 되면 그야말로 그 자체가 하나의 인간처럼 느껴지게 된다. 이때문에 인공지능을 다룬 수많은 소설과 영화는 자기 정체성을 고민하는 로보트를 등장시키는 데 스티븐 스필버그 감독의 영화 AI가 한 예일 것이다. 인간성의 가정을 받아들이고 나면 이제 인공지능을 가진 로봇은 그냥 노예제도가 있던 시대의 인간 노예처럼 느껴지게 된다. 그렇다고 할 때 인간이 노예를 해방시켜 온 것처럼 인공지능을 가진 기계를 해방시켜줘야 하지 않을까 하는 생각도 들고,  노예의 반란처럼 인공지능을 가진 기계의 반란을 상상하게 된다. 

 

그런데 인간성의 가정이 어디까지나 가정이라는 점과 애초의 우리의 관심사는 문제를 해결하는 것이었다는 점을 생각해 보면 이런 걱정과 예측은 어처구니 없는데가 있다. 예를 들어 앞에서 말한 것처럼 철학 에세이를 쓰는 문제를 해결하는 것을 생각해 보자. 이 것을 위해 인간의 감정을 가지는 것이 필요하다고 가정한다면 이는 인간의 감정을 가지는 일을 너무 사소하게 여기는 것이다. 즉 수단으로 요구한 조건이 원래의 문제보다도 훨씬 더 어렵기 때문에 인간성의 가정은 비현실적이다. 그건 단팥빵을 사려면 제빵회사를 소유해야 한다는 식의 주장이나 마찬가지다. 인간이 지금과 같은 인간본능을 가지게 된 것은 아주 오랜기간 진화과정을 통해 진화한 결과이다. 그것이 컴퓨터에서 구현되는 것이 설혹 가능하다고 해도 그것이 간단하다고 말하는 것은 절대 사실이 될 수 없다. 물론 모든 인간은 감정을 가지고 있다. 하지만 인간에게 쉬운 것이 컴퓨터에게도 쉽다고 착각하지는 말아야 한다. 그것은 불가능에 한없이 가깝게 어려운 것이다. 컴퓨터에게 쉬운 일이 인간에게는 어렵고 인간에게 쉬운 일이 컴퓨터에게는 어렵다. 철학 에세이따위 절대 쓰지 못하는 멍청한 인간도 인간의 감정을 가지니까 철학 에세이를 쓸 수 있는 컴퓨터는 인간의 감정따위는 쉽게 가질 수 있을거라고 생각해서는 안된다. 

 

최근에는 인공지능 역사에서 기념비적인 사건이라고 부를 수 있는 일들이 몇가지 있었다. 그 중 두 개를 거론한다면 인간 바둑 챔피언을 바둑으로 이긴 알파고와 아주 그럴듯하게 인간의 언어를 구사하는 거대 언어 모델 챗GPT일 것이다. 이 두 인공지능은 모두 적어도 어느 정도 인간만이 해낼 수 있다는 일을 해내거나 인간보다 더 잘하고 있다. 그런데 이런 예들에서 인간성의 가정이 어떤 역할을 했을까? 인간 바둑 챔피언을 바둑으로 이기거나 철학 에세이를 쓰는 일을 해내는 기계를 만들기 위해 전문가들은 먼저 인간의 감정을 가진 기계를 만들고 그 기계를 써서 바둑을 이기는 문제나 언어를 구사하는 문제를 해결했는가? 절대 그렇지 않다. 어떤 사람들은 언어구사같은 복잡한 일을 해내는 인공지능은 인간의 감정을 이해하는 것같다는 주장을 할 수 있을지도 모른다. 옳고 그른 것을 떠나 이런 주장이 있을 수는 있다. 그러나 적어도 문제 해결을 위해서는 인간성의 가정이 먼저 충족될 필요가 있다는 주장은 사실이 아니다. 그것은 문제가 해결된 뒤에 나온 주장이다. 

 

다시 처음의 질문으로 돌아가 보자. 컴퓨터는 지능을 가질 수 있을까? 지능의 정의가 문제를 해결하는 능력이라고 할 때 애초에 문제를 가지지 않는 컴퓨터가 문제를 해결하는 능력을 가진다는 말은 다시 한번 의인화의 착각이 작동하고 있다는 느낌을 준다. 우리는 문제가 해결되기 바라고 그 문제란 결국 인간이 가진 문제이다. 스스로 문제를 가지고 지능을 가진 컴퓨터는 존재 가능할 수도 있지만 우리의 원래 관심사는 그런 것이 아니었고 그것을 만드는 일은 인간이 풀어야 할 어떤 다른 문제보다도 더 어렵다. 예를 들어 자율주행 인공지능을 만드는 일이 인간의 감정을 가지는 컴퓨터를 만드는 일보다 훨씬 더 쉽다. 운전이란 인간이 인위적으로 만든 단순한 게임에 불과하기 때문이다. 

 

이렇다고 할 때 실질적으로 컴퓨터는 지능을 가질 수 없다는 결론에 도달하게 된다. 이 말은 인공지능이 불가능하다는 뜻이 아니다. 다만 그 인공적으로 만들어진 지능은, 다시 말해 인공적으로 새롭게 만들어진 문제해결의 능력은 여전히 그 도구를 쓰는 인간에게 속하게 된다는 뜻이다. 인공지능의 연구는 스스로 고민하고 살아가려고 노력하는 생명체를 만드는 것이 목표가 아니다. 그런 착각은 인공지능 연구를 위험하게 만들고, 그것이 유익한 결과물들을 만들어 내지 못하게 할 것이다. 인공지능은 인간의 지능을 확장하기 위한 것이다. 그리고 인공지능과 함께 우리는 새로운 인간을 만들어 갈 것이다. 

 

 

 

 

 

 

 

 

댓글