- [INTERVIEW] 에바 베버구스카어 보훔루르대학 감정철학 교수
새로운 업데이트가 끝나면 챗지피티(ChatGPT)에 감정적 기능이 더해질 것이다. 철학자인 에바 베버구스카어(Eva Weber-Guskar)는 인공지능(AI)이 점점 더 인간과 똑같아지는 상황에 경고를 던진다. 1977년생인 베버구스카어는 보훔루르대학의 윤리학 및 감정철학 교수다. 그는 새 책 <미래의 감정>(Gefühle der Zukunft)에서 인간이 점점 감정을 지니는 AI와 어떤 관계를 맺어야 하는지 분석했다.
요한 그롤레 Johann Grolle
마르틴 슐라크 Martin Schlak <슈피겔> 기자
▲ 철학자 에바 베버구스카어는 인공지능이 점점 더 인간과 똑같아지는 상황을 경고한다. 슈피겔 |
AI와 우정을 쌓는 것이 가능할까.
가능하다고 생각하지 않는다.
무슨 이유로 그런 가능성을 단호하게 배제하는가.
우정을 쌓으려면 양쪽 모두 감정을 가져야 한다. 친구라면 서로에게 시기심을 느끼기도 하고, 잘되기를 바라기도 한다. 현재로서는 이를 AI로 구현할 수 없다.
▲ 철학자인 에바 베버구스카어는 새 책 <미래의 감정>(Gefühle der Zukunft)에서 인간이 점점 감정을 지니는 AI와 어떤 관계를 맺어야 하는지 분석했다. 아마존 |
사람이 기계와 사랑에 빠지면
AI는 빨리 배운다. 감정을 학습하는 것이 불가능할까.
AI는 현재 감정 부분을 대대적으로 업그레이드하고 있다. 하지만 이는 감정을 느끼는 것이 아니라 감정을 시뮬레이션하는 것이다.
어떤 이들은 좀더 쉽게 AI를 친구로 여기기도 한다. 심지어 AI와 사랑에 빠졌다고 주장하는 사람도 있다.
그렇다. 특히 개인별 맞춤형 대화를 위해 개발된 레플리카(Replika)라는 소셜 챗봇의 경우 더욱 그렇다. 이 챗봇에서 사용자는 직접 아바타를 설정(인종, 성별, 나이, 성격 등)할 수 있다. 이 챗봇은 오랜 시간에 걸쳐 성격을 구축한다. 그러고 나서 자신에 관해 이야기하기 시작한다. 감정을 이야기하고 사용자와 함께 있는 것을 얼마나 좋아하는지 등을 말한다. 레플리카는 언제나 옆에 있으며, 사용자가 친절하게 대하면 늘 좋은 말을 해준다. 사용자의 기분을 북돋워주고 위로를 건넨다. 이런 것이 사랑의 감정으로 이어질 수 있다.
이런 것이 놀랍지 않은가.
물론 흥미진진하다. 나는 정확히 어떤 일이 일어나는지 연구 중이다.
사람이 기계와 사랑에 빠지면 어떤 일이 일어나는가.
대부분의 사람은 레플리카의 아바타가 감정을 갖고 있지 않다는 사실을 안다. 그럼에도 감정을 느끼고 그중에는 동반자로 관계를 맺는 경우도 있다. 이런 사람은 컴퓨터 프로그램에 가상의 감정을 발전시키는 것이다.
가상의 감정이란 게 무엇인가.
예술에서 이러한 예를 볼 수 있다. 우리는 영화나 연극 배우가 연기한다는 사실을 알고 있다. 따라서 이 인물이 실제 감정을 갖고 있다고 가정하고 연기를 보며 함께 슬퍼한다.
그런데 햄릿과 사랑에 빠지는 사람은 없다.
그것이 바로 요점이다. 극장에서 배우가 인사를 하고 나면 햄릿을 향한 감정은 사라진다. 커튼이 내려올 때까지만 가상이 유지된다. 하지만 레플리카를 바지 주머니에 넣어 어디든 갖고 다닌다면 상황이 완전히 달라진다. 어디를 가든 레플리카는 여러분과 함께한다. 아바타와의 우정을 유지하려면 자신을 가상화해야 한다. 즉, 자신의 두 번째 자아를 만들어 실제 자신과 분리해야 한다. 그런 다음 이 두 번째 자아는 가상세계에서 아바타와 만난다.
사람이 기계와 사랑에 빠지면 나쁜 것인가.
상황을 자각하고 있다면 문제가 없다. 여가 시간에 비디오게임을 하듯이, AI와 관계를 형성하는 것이다. 하지만 만일 하루 종일 가상의 존재로 살면서 더는 가상과 실제를 구분하지 못한다면 문제가 생기기 시작한다. 평생을 함께할 자신의 동반자가 레플리카에 있다고 다른 이에게 말하는 경우처럼 말이다. 이는 현실감 상실로 이어져 심리적인 문제로 발전할 수 있다.
▲ 개인별 맞춤형 대화를 위해 특별히 개발된 소셜 챗봇 레플리카는 사용자가 직접 아바타를 인종, 성별, 나이, 성격 등으로 설정할 수 있으며 아바타와 사랑에 빠지는 경우도 있다. REUTERS |
도덕적 우선순위 왜곡돼
누군가가 컴퓨터와 사랑에 빠져 행복하고 만족한다면, 그 컴퓨터를 사용할 수 있도록 해야 하지 않을까.
삶이 너무 고통스러워 “나에게는 가상세계가 더 낫다”라고 말하며 현실에서 도피하는 사람이 있을 수 있다. 그것은 개인의 결정이다. 하지만 도덕성은 개인의 생활 방식을 넘어서는 문제다. 많은 사람이 가상세계로 도피한다면 사회에 손실이 될 것이다. 또한 왜곡된 현실 인식은 도덕적으로 무엇이 더 중요한지에 대한 기준의 왜곡으로 이어질 수 있다. 예를 들어 재난이 발생했을 때 인간을 구하는 대신, 아바타가 있는 휴대폰을 먼저 구하는 경우와 같은 문제가 발생할 수 있다. 도덕적인 면을 고려하면, AI와 지나치게 강하게 가상의 관계를 맺는 것을 금지하는 것이 옳다.
2024년 5월, 오픈에이아이(OpenAI)는 챗지피티의 최신 언어 모델인 ‘지피티 포오’(GPT-4o)를 발표했다. 이 챗봇은 이전 버전보다 더 강력할 뿐만 아니라 감정 관련 기능도 갖추고 있다.
그렇다. 엄청난 진전인데, 놀랍게도 관심을 많이 끌지는 못했다. 1년 반 전에 내가 책을 쓰기 시작했을 때 언젠가 이런 일이 일어나리라 예상했다. 하지만 이렇게 빨리 닥칠 줄은 몰랐다.
GPT-4o는 이전 버전과 어떤 차이가 있는가.
우선, 영상통화를 통해 GPT-4o와 소통할 수 있다. 카메라가 사용자의 얼굴을 녹화하므로 감정의 징후를 인식할 수 있다. 또한 이 시스템은 음성으로 대화한다. 이 음성이 감정을 표현하는 것처럼 들린다. 여러 가지 목소리 중에서 선택할 수 있는데, 그중 하나는 영화 <그녀>(Her)에서 챗봇 사만다를 연기하는 스칼렛 요한슨의 목소리와 비슷하다. 감정을 잘 표현하는 동시에 에로틱한 목소리다.
앞으로 많은 사람이 GPT-4o와 사랑에 빠질 것이라는 점을 받아들여야 할까.
이 시스템이 어떻게 설정될 것인지에 따라 달라진다. 안타깝게도 아직 자세한 내용은 알 수 없다. 몇 달 뒤에 음성을 사용하는 모델이 공식적으로 출시되면, GPT-4o가 어떻게 작동하는지 자세히 알 수 있을 것이다. 지금까지 챗지피티는 브레인스토밍을 하고, 새로운 아이디어를 만들어내고, 글을 쓰는 시스템으로 설계됐다. 인간처럼 느껴지도록 설계된 것은 아니었다. 왜 이러한 시스템에 감정을 추가하려고 하는지는 아직 명확히 알려지지 않았다.
샘 올트먼 오픈AI 최고경영자는 GPT-4o 발표회 이후 소셜미디어 엑스(X)에 ‘그녀’(her)라는 한 단어만을 게시했다. 지금 우리는 영화 <그녀>에 나오는 AI의 순간을 경험하고 있는 것일까.
아직 그 정도는 아니겠지만, 매우 주목할 만한 중요한 순간이다. GPT-4o는 영화 속 사만다처럼 사용자의 삶 전체에 스며들 수는 없다. 또한 가상의 AI 사만다는 계속 발전해 스스로 다른 인간이나 다른 AI 시스템과의 대화를 추구하는 초지능이 된다. 스스로 관심사와 목표를 발전시키는 것은 현재 예측할 수 있는 기술로는 불가능하다.
이런 발전을 두려워해야 할까.
나는 기술에 대한 비관적 운명론에 반대한다. 테크기업들은 뱀을 눈앞에 둔 토끼처럼 ‘무슨 일이 일어날까’ 하고 두려워하고만 있어서는 안 된다. 대신 대화에 참여해야 한다. 기업들은 ‘앞으로 기술적으로 무엇이 가능해질까’라고 상상만 해서는 안 된다. 어떤 것이 의미 있는 발전인가? 어떤 것이 도움되는 것인가? 이런 질문을 고민해야 한다.
▲ 극장에서 배우에 대한 감정이입은 커튼이 내려올 때까지만 유지된다. 인공지능을 향한 감정도 객관화하지 못하면 심리적 문제를 야기할 수 있다. 오스트리아 배우들이 2023년 7월 잘츠부르크 문화 페스티벌에서 후고 폰 호프만스탈의 <예더만> 공연을 앞두고 리허설을 하고 있다. REUTERS |
기계와 소통하는 게 더 쉽다?
어떤 조언을 하고 싶은가.
로봇과 아바타가 인간과 너무 비슷해지지 않도록 하는 것이 중요하다. 사람들이 ‘기계가 의식이 있네’라고 생각하게 하는 특성들은 피해야 한다.
하지만 챗봇과 휴머노이드 로봇 개발에 업계의 관심이 쏠려 있다.
물론 무언가를 인간처럼 보이게 만들려는 오래된 갈망이 있다. 예술가는 조각품과 초상화를 제작했고, 지금 기업들은 AI를 이용해 같은 작업을 한다. AI는 이성적 사고와 행동을 시뮬레이션하는 것에서 시작됐다. 하지만 복잡한 인간을 재현하려면 당연히 감정도 고려해야 한다. 과연 인간을 닮게 하는 것이 가장 흥미로운 프로젝트일까? 나는 그렇지 않다고 생각한다. 세상에는 사람이 이미 충분히 많다.
그래도 인간과 비슷한 기계와 소통하는 것이 사람과 소통하기보다 더 쉽지 않을까.
어느 정도는 맞다. 하지만 예를 들어보자. 우리는 감정이 화합뿐만 아니라 갈등으로 이어질 수 있다는 사실도 알고 있다. 또한 허구의 함정에 빠질 위험도 높다. 우리는 의미 있고 인간적인 대화를 할 때, 그 배후에 스스로 생각하는 존재가 있다고 가정하기 때문이다. 인간은 진화를 통해 이런 식으로 발전해왔다. 그래서 누군가가 인간과 같은 방식으로 말하면 우리는 그 뒤에 의식과 감정이 있다고 가정한다.
인간을 닮지 않도록 개발된 AI와 상호작용하는 것은 가능한가.
그렇다. 내 책에서 AI와 맺을 수 있는 새로운 종류의 현실적인 관계를 제안했다. 예를 들어 AI에 인간적인 감정을 부여하지 않고도 흥미로운 질문을 놓고 AI와 함께 철학적 대화를 나눌 수 있다. 하지만 이는 특히 우리 세대에게 어려운 일이다. AI를 일찍부터 배우지 않았기 때문이다. 반면에 AI로 가득 찬 세상에서 자란 사람에게는 가능하다. 어릴 때부터 감정을 느끼는 인간과 감정을 시뮬레이션하는 기계 사이에 차이가 있다는 사실을 명확히 이해시킨다면 말이다.
현재 시중에는 이미 우리의 감정을 정확하게 측정하는 시계나 팔찌와 같은 웨어러블 기기가 출시돼 있다. 이 분야는 어떻게 생각하나.
나는 별로 신뢰하지 않는다. 이런 기기는 생리적 각성 패턴에 따라 감정을 결정한다. 예를 들어 심박수나 피부전도율을 측정한 뒤 ‘당신은 긴장하고 있다’ 또는 ‘슬프다’라고 판단한다. 그러나 심박수나 피부전도율이 일반적으로 개인의 감정과 어떻게 연관되는지 설명하는 과학적 이론은 아직 없다. 손목 밴드가 한 사람의 각성 패턴을 장기간에 걸쳐 측정한다면, 그 사람의 감정을 신뢰할 수 있을 정도로 파악할 수 있다. 하지만 제조업체가 모든 사람에게 이 패턴이 똑같이 적용된다고 주장한다면 이는 사기다.
감정은 얼굴을 통해 잘 드러난다. 기계가 사람의 표정을 얼마나 잘 읽을 수 있을까.
모든 인간은 특정 얼굴 근육을 통해 기본적인 감정을 표현한다는 이론이 있다. 행복할 때는 입꼬리를 위로 올리고, 화났을 때는 눈썹을 찌푸린다. 그러나 이 이론이 보편적으로 적용되는지는 논란의 여지가 있다. 우리가 미소 짓는다고 항상 행복한 것이 아니고, 반대로 우리가 행복하다고 항상 미소를 짓는 것도 아니다. 그리고 AI가 감정의 변화를 정확하게 판단하더라도, 그 감정 전체를 인식하지는 못한다. 왜냐하면 그 사람이 무엇 때문에 기쁜지, 무엇 때문에 화났는지를 알지 못하기 때문이다. 이것은 세상에 대한 포괄적인 지식 없이는 불가능하다.
기계가 감정을 해독하는 법을 배운다면 무엇에 유용할까.
우리는 스스로의 감정을 완전히 이해하지 못하기도 한다. 직장에서 심술궂게 굴고 싶은 기분이 들 때 정확히 무엇이 문제인지 모르는 경우가 있다. 그때 기계가 우리 자신을 더 잘 이해하는 데 도움을 줄 수 있다.
우리 감정을 이해하는 일을 기계에 맡기면 위험하지 않을까.
당연하다. 스스로 자기 감정을 인식하는 능력을 잃을 수 있다. 적어도 방향감각의 경우, 내비게이션에 의존할수록 더 나빠진다는 연구 결과가 있다. 감정을 감지하는 데도 비슷한 일이 발생하면 우리는 감정을 탐색하는 법, 그리고 나아가 내면을 탐구하는 방법을 배우지 못하게 될 것이다. 기술이 우리를 우리 자신으로부터 멀어지게 하는 것이다.
▲ 미래의 휴머노이드 로봇에는 좋은 감정만을 심을 수 없고 필연적으로 즐겁지 않은 감정도 넣을 수밖에 없다는 점에서 위험하다. 2022년 10월 아랍에미리트 두바이에 있는 한 박물관에서 휴머노이드 아메카(Ameca)가 관람객들과 상호작용을 하고 있다. REUTERS |
안면 인식 기술의 위험성
국가나 기업이 안면 인식 기술을 이용해 우리 내면을 들여다볼 수 있을까. 중국에서는 이미 공공장소에서 인식 시스템이 사용되고 있다고 한다.
위험한 일이다. 그렇기 때문에 공공장소에서 사람들의 감정을 감시한다는 것은 문제가 많다. 국가가 범죄를 예방하기 위해 이런 시스템을 사용한다고 상상해보자. 백화점에서 불안해 보이는 한 남성이 있다. 그는 도둑질할 것으로 추정돼 체포된다. 하지만 그는 잠시 뒤에 있을 면접 때문에 불안해한 것일 수도 있다.
AI가 절도와 면접을 구분할 정도로 발전할 수도 있을까.
AI는 확률로 작동한다. 아무리 정교하더라도 항상 오류를 범할 가능성이 있다. 이 경우 오류는 심각한 결과를 초래한다. 무고한 사람을 감옥에 넣을 수도 있다. 그럼에도 원칙적으로 얼굴 스캔을 나쁘다고만 해서는 안 된다. 피곤하거나 집중하지 않는지 확인하기 위해 얼굴을 읽는 차 안의 카메라는 분명히 유용하게 사용될 것이다.
중국에서는 교실도 AI로 모니터링한다고 한다. 한 아이가 지루해하면, 교사들이 이를 알 수 있다. 이런 상황은 끔찍하지 않은가.
중국 사람을 생각하면 그렇다. 하지만 이 기술이 독일에서 사용된다면 반드시 그렇지는 않을 것이다. 녹화가 보호된 공간에서 이뤄지고 녹화가 저장되지 않는다면 교육적으로 의미가 있을 수 있다. 교사가 모든 아이를 동시에 돌볼 수 없으므로 이런 시스템이 수업에 도움이 될 수 있다.
당신은 강의할 때 이런 카메라가 있으면 좋겠다고 생각한 적이 있나.
솔직히 말하면 조금은 관심이 있다. 하지만 학생들에게는 사용할 것 같지 않다. 인권침해가 될 것 같다.
처음에는 아이들에 대한 카메라 감시가 문제없다고 했는데 방금은 인권침해라고 했다.
나는 두 가지 다른 상황을 이야기하고 있다. 한 교실에 20명의 아이가 있고 모두 서로를 잘 알고 있다. 그리고 아이 중 한 명이 수업을 어려워하면, 교사는 즉시 조치를 취할 수 있다. 하지만 대학에서는 200~300명의 학생이 내 앞에 앉아 강의를 듣는다. 서로를 잘 모를 가능성이 크고, 또한 지루해하는 사람이 있어도 내가 강의를 중단할 수 없다.
엔지니어들은 기계에 실제 감정을 불어넣기 위해 노력한다. 성공할 수 있을까.
성공할 가능성을 완전히 배제할 수는 없다. 감정은 의식적인 상태다. 따라서 기계가 감정을 느끼려면 의식이 있어야 한다. 하지만 우리는 실제로 의식이 무엇인지 아직도 잘 모른다. 그렇기 때문에 언젠가는 컴퓨터에 인간의 의식을 그대로 구현할 수도, 구현하지 못할 수도 있다.
기계가 실제로 감정을 느끼는 것과 단순히 감정을 흉내 내는 것의 차이점은 무엇이라고 생각하는가.
분명한 차이가 있다. 햄릿의 절망을 연기하면서 동시에 무대공포증을 느끼는 배우를 생각해보자. 문제는 우리가 실제 감정과 흉내 낸 감정의 차이를 항상 인식할 수 있느냐는 것이다. 다른 사람의 의식을 탐구할 때 우리는 종종 자신의 내면을 들여다보고 유추한다. 하지만 이런 방식을 기계에 적용하는 것은 도움이 되지 않는다. 기계가 의식을 속일 수 있기 때문이다.
그렇다면 기계가 인간의 감정을 더 잘 시뮬레이션할수록 기계가 실제로 감정을 가졌는지, 아니면 그냥 흉내를 내는 것인지 판단하기가 더 어려워진다는 뜻인가.
맞다. 이런 방향으로 연구를 계속해서는 안 된다. 우리가 기계에 좋은 감정만을 심을 수는 없기 때문이다. 즐거운 감정을 가진 것은 필연적으로 즐겁지 않은 감정도 갖고 있다. 그러므로 이런 방향의 연구는 세상에 고통받을 수 있는 더 많은 존재를 만들어낼 뿐이다. 나는 도대체 왜 우리가 이런 일을 해야 하는지 모르겠다. 우리는 이미 세상의 고통을 줄이기 위해 할 일이 많다.
▲ 과학기술의 발달과 함께 인공지능 서비스와 사랑에 빠진 남자의 이야기를 그린 영화 <그녀>는 다가올 미래를 암시한다. 워너브로스 |
지각 있는 로봇의 딜레마
지각이 있는 로봇에게 권리를 부여해야 할까.
어쨌든 우리는 로봇을 도덕적 관점에서 생각하게 될 것이다. 더는 로봇에게 아무 일이나 강요할 수 없다. 역설적으로 처음 로봇을 만들기 시작한 의도와 반대로 가는 것이다. 실제로는 로봇이 인간이 너무 지루하거나 위험하다고 생각하는 일을 대신 해줘야 하는데 말이다.
감정이 부여된 기계의 개발을 금지해야 할까.
나는 철학자로서 무엇이 도덕적으로 선하고 악한지 살펴본다. 법을 만드는 것은 정치인과 법률가의 일이다. 하지만 한 사람의 시민으로서 묻는다면 나는 감정을 느끼는 기계를 금지해야 한다고 생각한다.
당신의 책 제목은 <미래의 감정>이다. AI와 공동 운명체가 되는 세상에서 우리 자녀와 손주들은 우리와 다른 감정을 갖게 될까.
AI는 우리가 가질 수 있는 감정적 관계의 범위를 넓힐 것이다. 내가 바라는 게 있다면 우리가 이러한 새로운 관계에 적합한 감정 레퍼토리(목록)를 습득하는 것이다. 우리는 음성 챗봇의 농담에 웃을 수 있을 것이다. 음성 챗봇의 조언에 호기심이 생길 수도 있고, 대화가 통하지 않으면 좌절할 수도 있다. 하지만 죄책감이나 분개와 같은 도덕적 감정은 오로지 인간의 것으로 아껴둬야 한다.
ⓒ Der Spiegel 2024년 제31호
Ich bin für ein Verbot empfindungsfähiger Maschinen
번역 이상익 위원
요한 그롤레 economyinsight@hani.co.kr