본문 바로가기
주제별 글모음/인공지능에 대한 글

이해할 수 없는 것들의 시대 5 : 철학적 답변들

by 격암(강국진) 2024. 1. 23.

5. 철학적 답변들

철학과 자연의 거울을 쓴 리처드 로티는 철학자들이 자신의 문제를 영속적인 것으로 말하는 경향이 있다고 지적했다. 물론 그의 결론은 그것이 틀렸다는 것이다. 구술 문화와 문자 문화를 쓴 월터 옹은 문자 문화가 번성하기 시작한 후에 사람들이 가지게 된 철학의 과업은 구술 문화에서부터 내려온 기존의 사람들의 믿음을 정당화하는 것이라고 말했다. 즉 그들의 철학적 과제는 새로운 방식으로 살게 된 사람들이 기존의 방식의 삶과 조화를 이뤄낼 수 있게 하는 것이었다고 봐야 한다. 이런 과거에서 유추할 수 있는 것은 적어도 철학의 과제중의 하나는 기술적 발전으로 인해 생긴 변화를 사회적으로 수용가능하며 우리가 이해할 수 있는 것으로 만드는 일이라는 것이다. 그것이 없이는 기술적 발전은 계속 일어날 수 없다. 우리는 비슷한 과제를 과학혁명과 산업혁명 시대에 활동하며 철학을 발달 시킨 사람들에게서도 발견한다. 

 

인공지능 시대를 앞둔 지금 우리는 지금 비슷한 과제를 가지게 된다. 즉 과학혁명의 시대에 지식에 대한 이론인 인식론이 지식이 어떻게 가능한가를 논했듯 새로운 제 3의 지식인 인공지능의 시대에 우리는 인공지능이 어떻게 가능하고, 믿을 수 있는 것인가를 해명하는 작업이 필요해 진 것이다. 그것은 어떻게 과학 시대에 우리가 가졌던 믿음과 공존할 수있으며 인간에 대한 우리의 생각을 어떻게 바꾸는가? 인공지능은 윤리적인가 아니면 여전히 윤리적 판단은 인간 고유의 것인가? 우리는 이런 질문들에 답해야 한다. 이러한 작업이 존재하지 않는다면 새로운 인공지능 패러다임은 기존의 사회적 관습과 충돌하여 또 다른 순교자를 만들거나 확산되는 것이 금지당하고 인간이 행복하게 살아갈 수 있는 사회도 만들지 못할 것이다. 

 

이 작업은 언뜻 보면 공학적인 과제같고 당연히 공학적 이해와 지식이 필요한 것이다. 하지만 과학에 대해 생각하는 것이 과학이 아니고 형이상학이듯이 인공지능에 대한 생각은 단지 인공지능이라는 공학적 분야의 일이 아니라 그걸 포괄하는 메타적 생각이 되어야 한다. 그리고 그것은 기존의 패러다임이라고 할 수 있는 과학 패러다임과 인공지능 패러다임의 비교를 포함해야 한다. 그래야 두 가지 다른 패러다임이 공존하는 것이 가능해 진다. 이는 데카르트가 마음과 물질의 이원론을 도입해서 종교와 과학의 공존을 이야기한 것과 정성적으로는 비슷한 것이다. 마음은 종교나 윤리적 진리를 위한 것이고 물질은 과학적 진리를 위한 것이다. 

 

내가 지난 몇 편의 글에서 적은 것들은 이런 과제를 위한 일들이었다고 할 수 있다. 그렇다면 다시 한번 명확히 질문해 보자. 인공지능은 어떻게 가능한가? 우리는 인공지능을 우리가 익숙한 기계로 여기거나 또 하나의 인간으로 여기지 말고 새로운 종류의 지식인 제 3의 지식으로 여겨야 한다. 그것은 과학적 지식이 우리의 문제를 해결하는데 쓰여왔듯 우리의 문제들을 해결하는 데 사용될 수 있는 지식이다. 우리는 과학적 지식을 생산하는 것을 과학 패러다임으로 인공지능이라는 또 다른 형식의 지식을 생산하는 것을  인공지능 패러다임으로 부를 수 있을 것이다. 그러나 인공지능 패러다임에서의 지식은 과학 패러다임에서 생각했듯이 객관적이고 보편적이며 영원한 진리같은 것이 아니라 우리가 가질 수 있는 최선의 추측이다. 그것은 컴퓨터 최적화와 데이터를 통해 개선 되어지며 많은 데이터는 우리로 하여금 그것이 의지할만한 추측이라는 것을 믿게 하는 근거가 된다. 따라서 우리가 인공지능이라는 지식을 제대로 쓰기만 한다면 더 많은 데이터를 쌓아올리면서 이제까지 풀 수 없었던 문제를 풀 수가있다. 이것은 모든 사람들이 더 자유롭고 더 지능적이며 더 의미있게 살아가는 세상을 만들 수 있게 할 것이다. 

 

인공지능에 대해 생각해 볼 때 우리는 기존의 인본주의에서 말하던 이성적 인간상을 바꿀 필요가 있다. 그 인간상이란 인간은 이성적 능력을 타고나며 이 점에서 동물과 다르다는 것이다. 하지만 사실 인간은 인위적인 기술에 의해서 그 이성이 확장되어진 존재이며 우리는 단순하게 동물은 이성이 없고 인간은 이성이 있다는 식으로 말할 수 없다. 그것은 언어 더 구체적으로 문자 기술의 발달이 잘 보여주는데 문자 기술이라는 인위적 기술의 발달 이후에야 우리는 우리가 말하는 인간적 이성을 갖추게 되었다. 이렇게 이성적 인간이란 실은 인위적 문자 기술로 인해 그 이성이 확장된 인간 즉 사이보그이기 때문에 나는 문자 문화의 인간을 사이보그 1이라고 부른다. 지금의 학교교육은 바로 이 사이보그 1을 만들어 내는 과정이다. 아주 오래전의 인물들인 플라톤이나 공자같은 철학자들이 현대인과도 여전히 의미가 통하는 사람들로 여겨지는 이유는 그들이나 현대인이 모두 문자 문화로 이어진 사이보그 1이기 때문이고 같은 상식과 문제의식을 공유하기 때문이다. 인공지능의 시대가 주목받아야 하는 이유는 그 시대를 살아갈 사람들이 완전히 새로운 패러다임으로 만들어지는 인공지능으로 지능을 확장한 인간들이기 때문이다. 즉 그것은 사이보그 2의 시대이다. 

 

그러나 인간이 사이보그 1이냐 2냐를 논하기 이전에 우리는 먼저 지능이란게 모두 타고나는 것이 아니라 외적인 존재와의 연결을 통해서 확장되는 것이라는 점을 기억할 필요가 있다. 기존의 인본주의는 인간은 그저 날 때부터 이성의 씨앗을 가지고 태어나서 진리를 알아 볼 수 있게 된 숭고한 존재라는 식의 태도를 가졌고 이때문에 개인주의적인 것이 되었다. 하지만 연결을 통해서 이성이 확장되는 것이라는 점을 기억할 때 새로운 인본주의는 보다 겸손한 것이 되어야 한다. 세상은 여전히 인간중심일 수 있지만 여기서 말하는 인간이란 도구들과의 연결속에서 혹은 다른 인간과의 연결속에서 그 이성이 확장된 존재이기 때문이다. 즉 환경과 동떨어져서 홀로 이성적일 수 있는 존재가 아니다. 인간은 도구와 인간으로 이뤄진 망과 연결되면서 더 지능적으로 진화한 상태의 존재다. 인간은 타고날 때는 침팬지보다 그다지 뛰어날 것이 없는 생명체이다. 하지만 교육과 사회적 환경에 의해서 이성적인 존재가 되고 그래서 과학적 지식뿐만 아니라 인공지능을 만들어 낼 능력을 가질 수 있다. 인간이 뛰어난 인공지능을 만들어 낼 수 있는 것은 스스로의 이성이상으로 그 인간이 연결된 사회적 환경들, 사람과 도구들 덕분이며 이 도구에는 이미 인간이 만들어 낸 인공지능들이 포함될 것이다.

 

가장 훌룡한 야구선수는 야구라는 게임이 없이 존재할 수 없으며 가장 뛰어난 파일럿은 비행기라는 발명품이 없이는 존재할 수 없는 것이다. 그리고 야구선수가 야구라는 게임을 만드는게 아니고, 파일럿이 비행기를 만드는 엔지니어도 아니다. 인공지능의 시대는 인공지능과 그걸 만드는 엔지니어들의 시대인 것 이상으로 인공지능과 연결되어 지능적 행동을 하고 새로운 일들을 개척해 나가는 인간들의 시대일 것이다. 인간이 인공지능들을 계속 만들어 갈 수 있는 힘의 상당부분은 이미 존재하는 인공지능들이 무의식적으로 해나갈 수 있는 일들을 담당해 줘서 인간들이 새로운 영역을 탐험하는데 집중할 수 있도록 한다는 사실에서 나올 것이다. 즉 새로운 경험을 통해 새로운 데이터를 더 많이 그리고 더 빨리 만들 수 있게 한다는 사실에서 나올 것이다.

 

예를 들어 기계화 이전에는 농사를 짓거나 공장을 운영하려면 수많은 사람의 노동력이 필요했지만 그것이 기계로 대체되어 보다 적은 수의 사람들로 그것을 하는 것이 가능해졌듯이 인공지능의 시대에는 아이디어만 있다면 아주 작은 수의 사람들로도 거대하고 복잡한 사업을 시작하는 것이 가능해 질 것이다. 이전에는 직원들이 해줘야 했을 일들을 인공지능이 대신해 줄 것이기 때문이다. 이것은 사업을 시작할 수 있는 문턱을 훨씬 낮출 것이다. 실제로 이미 챗GPT같은 인공지능이 등장하자 많은 벤처 회사들은 그것에서 위기를 느끼고 있다고 한다. 왜냐면 그들이 전통적인 방식으로 기업을 써서 개발하고 있는 서비스가 인공지능에 의해서 너무 쉽게 구현되는 것이 가능해 보이기 때문이다. 이것은 기존 회사들의 위기일 수 있지만 생각해 보면 혁신의 속력을 훨씬 앞당길 사업 환경의 근본적인 변화라고도 생각할 수 있다. 아이디어와 재능이 있다면 그 사람이 사업을 시작하기가 훨씬 쉬워질 것이기 때문이다.

 

하지만 이같은 사실들은 모순적으로 보이기도 한다. 앞에서 말했듯이 과학 패러다임의 시대를 살고 있는 지금, 인간의 삶은 이미 불안하다. 세상이 변하는 속력과 세상이 가진 복잡성이, 세상이 만들어 내고 누적되고 있는 지식과 데이터의 양이 전통적 방식으로는 감당할 수 없는 수준이기 때문이다. 종교적 신화들이 새로운 관찰 사실들의 도전을 받듯 지금의 세상에서 설명을 내놓기 힘든 현상들이 누적되어 갈 때 사회적 구심력과 상식을 지키려는 노력이 무너질 것이고 사회는 산산히 흩어질 것이다. 음모론과 가짜 뉴스와 사이비 종교가 퍼지고 정치적 실패와 경제적 투기가 흔해질 것이다. 언어가 망가지고 어느새 사람들은 서로 소통하기 어려워하게 될 것이다. 사람들은 전문화라는 수단을 통해 그런 변화에 대처했지만 전문화가 심해짐에 따라 그 문제점도 생겨나게 되었다. 전문화는 지식의 증가를 더 빠르게 하고 누구도 문제의 다양한 측면을 모두 알 수 없게 만든다. 이렇게 이미 과학 패러다임 속에서 세상이 너무 빨리 변하고 복잡해진 것이 문제였는데 인공지능이 그걸 더 빠르게 변하고, 더 복잡하게 만든다면 어떻게 이런 과정이 계속될 수가 있겠는가?

 

그 답은 두가지로 할 수 있다. 첫째로 우리는 세상과 삶에 대해서 전체적이고 본질적인 이해를 하려는 노력을 포기 한다. 적어도 어떤 대상들에 대해서는 말이다. 과학적 이상은 뇌나 사회같이 논리적인 이해가 불가능한 대상이 있다는 것을 인정하지 않고 모든 것을 환원주의적으로 이해가능한 것으로 보려는 노력을 계속하게 했지만 우리는 이제 세상에는 인간의 두뇌로는 이해불가능한 대상들이 많이 있다는 것을 인정하지 않을 수 없다.

 

그러나 이런 포기는 오히려 발전의 계기가 될 수도 있다. 비슷한 일은 이미 과학혁명때도 있었던 것이다. 과학혁명에 있어서도 사람들은 법칙에 대해서는 이해불가능하다는 점을 인정하지만 반대로 그걸 인정하고 수학적 전개를 통해 자연 법칙의 결과를 탐구하는 일에 집중한 결과 풍부한 결실을 맺었던 것이다. 즉 중력이 뭔지를 질문하기를 멈추고 거리의 제곱에 반비례한다는 중력법칙의 수학적 의미를 탐구한 결과 고전역학으로 많은 것을 설명할 수 있었고 그 결과 신비주의나 종교적 미신이 만드는 혼돈에서 벗어날 수 있었다. 마찬가지로 과학적 의미에서는 이해할 수 없는 대상이 존재한다는 것을 인정하면서 우리가 할 수 있는 일을 찾을 때 우리는 새로운 종류의 지식과 결과들을 얻을 수 있을 지 모른다. 그것이 인공지능 패러다임이다. 우리는 다른 사람들을 다 이해할 수 없지만 그들과 함께 사는 방법들을 배운다. 인생도 다 이해할 수 없는 것이지만 우리는 살아가는 의미와 방식을 어떻게든 찾는다. 우리가 이해할 수 없는 대상을 이해할 수 있는 것으로 전제하고 그것에 접근하려는 노력을 반복할 때 오히려 우리는 실수를 저지르고 발전을 할 수 없다. 마찬가지로 인공지능 자체는 이해할 수 없는 것이며 우리에게 우리의 문제나 환경에 대한 과학적이고 논리적인 이해를 주지 못하는 지식이지만 여전히 그것은 우리의 문제를 해결해 준다. 

 

두번째로 우리는 인공지능을 통해서 안전을 보장받을 수 있다는 것이다. 인공지능은 세상을 더 빠르게 변하고 복잡하게 만들테지만 동시에 해결책도 제시한다. 인공지능은 더 많은 데이터를 다루는 기술 즉 통계확률적 기술이기도 하기 때문이다. 다시 말해 어떤 전문가도 모두 고려하기 어려운 문제의 아주 복잡한 측면들을 한꺼번에 고려할 수 있다. 그것이 인공지능 기술이 현대인들에게 꼭 필요한 이유다. 인공지능 기술은 말하자면 정보의 적체현상이라는 현대병에 대한 치료제다. 그것이 다소의 위험성이 있다고 해서 그걸 위험한 것으로만 여긴다는 것은 잘못된 백신이 사람을 죽일 수 있다고 해서 백신개발을 멈추고 깊어가는 병을 내버려 두는 것과 같다. 인공지능이 없어도 세상의 병은 이미 깊고 점점 더 깊어져 갈 것이다. 인공지능 기술은 그 병을 치료하는 치료제다. 

 

마지막으로 아주 중요한 질문이 남아 있다. 그것은 인공지능은 윤리적인가 아니면 여전히 윤리적 판단은 인간 고유의 것인가하는 질문이다. 결론적으로 말해서 윤리적 판단은 여전히 인간 고유의 것으로 남을 것이다. 다만 우리는 윤리적 판단이란 무엇인가에 대해서 더 깊이 이해하게 될 뿐이다. 인공지능은 모두 하나의 과정을 전제한다. 그것은 주어진 환경에서 만들어진 데이터를 주어진 목적을 위해 최적화한다는 것이다. 인공지능이 풀 문제를 설정한다는것은 이 환경을 설정하고 목적을 제시하는 것이다. 인공지능은 추상적인 철학적 에세이같은 것이 아니다. 이미 만들어진 인공지능에 대해서 그것을 인간과 비교하고, 그것이 어떤 지능을 가졌는가를 말하고, 그것이 의식을 가지게 되는가를 묻는 질문을 우리는 던질 수는 있지만 그런 추상적 단어들은 결코 기술적인 언어가 될 수 없으며 정확한 정의도 없기에 인공지능을 만드는 단계에서 쓸 수는 없다. 즉 실제로 인공지능을 만드는 엔지니어는 그런 추상적인 단어에서 영감은 받을 수 있을지언정 그걸로 구체적으로 어떤 인공지능을 만들 것인가를 정할 수는 없는 것이다. 

 

인공지능은 문제를 풀기 위한 것이다. 그리고 문제는 기술적 수학적 용어가 될 수 있을만큼 구체적일 수 있다. 즉 앞에서 말한대로 우리는 이 인공지능이 어떤 환경에서 어떤 목적을 위해 컴퓨터 최적화를 거치는가를 정확히 정의할 수 있다. 인공지능이 어떤 윤리적으로 보이는 판단을 내린다면 그 판단의 궁극적인 이유는 바로 그 인공지능을 만들 때 설정했던 문제의 정의 즉 환경과 목적이다. 그리고 이것을 인공지능에게 제공하는 것은 인공지능을 만드는 인간이다. 그래서 윤리적 판단은 여전히 궁극적으로 인간의 몫이 되는 것이다. 

 

물론 우리는 스스로 문제를 찾고 푸는 인공지능을 찾을 수는 없는가라던가 인공지능을 만드는 인공지능도 있을 수 있지 않냐는 질문을 던질 수 있다. 하지만 어떤 경우에건 결국 우리는 제 1 원인으로서 처음 문제를 설정하는 존재와 만나게 되고 그것은 인간일 수 밖에 없다. 이것은 마치 이유의 이유의 이유를 찾다가 모든 일의 첫번째 원인으로서 신이 존재해야 한다고 주장하는 것과 비슷하다. 우리는 인간이 멸종하고 인공지능만이 작동하는 미래를 상상할 수 있다. 그래도 그들은 처음에 인간이 있었다는 사실을 부정할 수 없다. 왜냐면 처음에 인간의 문제설정이 있었기에 인공지능이 만들어 진 것이지 그냥 아무 이유없이 인공지능이 만들어 진 것이 아니기 때문이다. 그런 지능적 존재도 있을 수 있지만 그것은 인공지능 패러다임에서 말하는 인공지능이 아니다. 

 

인간들 사이에서도 윤리적 갈등이 존재하는 이유는 바로 이 문제설정에 있다. 서로가 서로 다른 테두리로 세상을 보면서 서로 다른 목적을 가정할 때 우리의 판단은 달라지게 된다. 시체는 물질이지만 살아있는 인간은 단순한 물질이 아니다. 그래서 시체에게 칼을 대는 것과 인간을 찔러 죽이는 것은 다르다. 우리는 국가를 위해 목숨을 바치기도 하는데 그것은 어떤 한 개체의 생명을 한 개체가 아니라 그보다 더 넓은 사회적 테두리 안에서 파악하기 때문에 있을 수 있는 것이다. 가치판단이나 윤리적 판단의 핵심은 우리가 세상을 어떤 테두리에서, 어떤 문맥에서 바라보는가 하는 것에서 나오고 이 시각은 어딘가에 고정되어져 있지 않고, 논리적으로 설명될 수 있는 것도 아니다. 인간의 윤리적 판단은 바둑같은 게임에서 이기는 것이 목적이라는 것처럼 확실한 테두리안의 확실한 목적을 바탕으로 고정되어 선택되어지지 않는다. 

 

인공지능이 뭘 하건 그것은 어떤 인간의 눈에는 비윤리적인 것으로 보일 수 있다. 그것은 법률에서 일어나는 일과 같다. 예를 들어 국가가 가정의 일에 개입하여 아동학대를 막기위해 아동을 부모로 떼어내는 일이 사회적 시각으로 보면 분명히 윤리적인 일이지만 가족 공동체라는 시각에서 보면 비윤리적인 일로 보일 수도 있는 것과 같다. 우리는 결국 무엇이 학대라는 말의 기준인가를 가지고 싸우게 되고 부모의 역할과 책임을 국가가 대신해 줄 수 있는가 같은 문제로 고민하게 된다. 

 

다시 말하지만 인공지능은 문제를 풀기 위한 것이고 그래서 우리는 인공지능을 쓰면서 그것이 어떤 문제를 풀려고 만들어 진 것인가를 확인하고 기억하고 관리할 필요가 있다. 인공지능이 위험해 지는 것은 우리가 어떤 문제를 푸는지 모르면서 인공지능을 만들거나 인공지능을 한가지 문제를 풀기 위해 만들어 놓고 엉뚱한 문제를 푸는 일에 쓰기 때문이다. 예를 들어 인공지능을 인간과 비교하는 일이 많은 덕분에 사람들은 더 인간과 유사한 행동을 하는 기계를 더 뛰어난 인공지능으로 여기는 일이 많다. 사람들은 인간과 채팅을 하면서 인간인지 컴퓨터인지를 구분할 수 없는 행동을 하는 프로그램을 보거나 인간과 매우 유사한 표정을 짓는 로보트 같은 것을 보여면 인공지능의 발달이 여기까지 왔다고 감탄 하는 일이 많다. 이 경우 우리는 물어야 한다. 인간과 유사하다는 것이 뛰어난 인공지능이라는 뜻인가? 인간과 유사해 진다는 것이 목적인 로보트나 인공지능은 도대체 어떤 환경에서 그렇다는 것이며 어떤 문제를 풀고 있는 것인가? 그것은 궁극적으로 뭘 위해 만들어 지는가? 우리도 그 환경과 목적을 모르는 채 즉 우리도 무슨 문제를 풀고 있는지 모르는 채 인공지능을 만든다면 그것이 윤리적으로 문제되는 행동을 한다고 해도 이상할 것이 없다. 우리는 애초에 우리가 뭘 만드는지도 생각해 보지 않고 인공지능을 만든 것이기 때문이다. 

 

앞에서도 말했지만 인간이나 지능같은 단어들은 너무 추상적이라 기술적 용어가 될 수 없다. 그래서 인공지능의 연구는 인간을 만드는 일이 될 수 없다. 왜냐면 이제까지의 내 글도 보여주고 있지만 우리는 인간이 무엇인가를 기술적이고 수학적인 용어가 될 수 있을만큼 정확히 이해하고 있지 않다. 우리도 인간이 뭔지 모르는데 인간을 어떻게 만들겠는가? 설사 만든다고 해도 그것은 그 엔지니어가 마음대로 정의한 대로의 인간일 것이다. 그렇게 만들어진 인공지능이 누군가의 눈에는 비윤리적으로 행동한다고 해도 그것은 전혀 놀라운 일이 아니다. 

 

인간은 여러개의 윤리적 기준을 동시에 가지고 있다. 살아있는 개체로서 자기의 몸을 지키려는 목적도 잊지 않지만 가족이나 국가를 위해서라면 죽어도 좋다고 여기기도 하고, 반대로 자신의 생명이나 가족을 위해서는 국가를 배신하고 인류를 배신해도 어쩔 수 없다고 생각하기도 한다. 인공지능은 이런 존재가 아니다. 그것은 구체적인 문제를 풀기 위해 최적화된 것이다. 그 문제도 나중에는 추상적으로 더 복잡해 질 수 있겠지만 그 문제는 인간이 정하는 것이다. 사과를 자동 수확하는 인공지능 로봇은 사실 사과가 수확되지 못하는 것을 걱정하지 않을 것이다. 사고를 수확하고 싶은 욕망도 없다. 그 인공지능 로봇은 자신의 문제를 푸는 게 아니라 인간이 준 문제를 풀고 있다. 누구의 문제를 푸는가 하는 것이 지능을 누가 소유하는가를 결정한다면 이런 의미에서는 인공지능은 지능이 없다. 인공지능은 인간이 지정해 준 인간의 문제를 풀고 있기 때문이다. 

 

 

댓글