default_top_notch
default_setNet1_2

욕설하자 괴로워해 “어떻게 해야 그만둘 거야?”

기사승인 [155호] 2023.03.01  

공유
default_news_ad1

- [FOCUS] 구글 챗봇 의식 소유 논란- ② 존엄을 요구하다


안카트린 네치크 Ann-Kathrin Nezik <차이트> 기자
 

   
▲ 구글은 인공지능(AI) 챗봇 ‘람다’가 의식을 가졌다고 폭로한 직원 블레이크 르모인을 해고했다. 깨진 유리를 통해 본 구글 로고. REUTERS

1956년 여름, 컴퓨터에 생각하는 법을 가르친다는 구상에 푹 빠진 남자들(실제로 남자들만)이 있었다. 미국 다트머스대학에서 인간의 지능을 따라갈 수 있는 기계를 만든다는 확고한 목표를 가진 젊고 야심만만한 학자 20명이 의기투합했다. 당시 아직 특정 명칭이 없어서, 이들은 줄여서 AI ‘Artificial Intelligence’(인공지능)라는 말을 만들어낸다. 학자들은 상당히 낙관적이었고, 인공지능을 만드는 데 몇 달 이상 걸리지 않을 것이라고 확신했다.
하지만 기계는 처음엔 잘 따라오는 것 같다가 어느 순간 성능이 계속 나빠졌다. 인간의 생각은 너무 복잡하게 꼬여 있었고, 세상을 이런 방식으로 파악하기에는 삶이 너무 복잡다단했다. 연구비도 어느 순간 소진됐다. 머지않아 ‘인공지능 한파’라는 말이 돌았다.
새천년이 시작된 직후, 오래전에 은퇴한 인공지능 아버지들 몇 명이 저마다 독립적으로 인간의 두뇌를 재창조하겠다는 구상을 실현하기로 결심한다. 인간의 두뇌는 뉴런이라는 신경세포 수십억 개로 이뤄져 있다. 충분히 강한 충격을 받으면 뉴런은 다른 뉴런에 신호를 보낸다. 학자들은 이 원칙을 그대로 차용했다.
학자들은 수많은 차원으로 구성된 ‘뉴런 네트워크’(신경망)를 만드는 데 성공한다. 그들은 특히 사진으로 인공 뉴런을 훈련했다. 인공 뉴런에 사진에 무엇이 보이는지 말해준다. 머지않아 인공 뉴런은 사진을 인식하게 된다. 한 차원의 뉴런은 대략적인 프레임을 인식하고, 더 높은 차원의 뉴런은 한층 미세한 형태를 인식하는 식이다. 사진을 많이 볼수록 뉴런 네트워크는 점점 영리해지고 오류를 줄여나간다. 학자들은 고차원적 생명체만 가지고 있는 것처럼 보였던 학습 능력을 인공 뉴런에 가르치는 데 성공한다.
 

   
▲ 구글 회장이던 에릭 슈미트(왼쪽)와 창업자 래리 페이지의 2016년 모습. 일선에서 물러난 이들은 대중 앞에 거의 나서지 않는다. REUTERS

‘AI 한파’ 극복한 딥러닝
딥러닝 기술과 함께 컴퓨터의 성능도 나날이 좋아지면서 인공지능에 돌파구가 마련된다. 인공지능은 이제 의사보다 더 빨리 피부암을 진단한다. 도로에 고양이가 있는지 공이 있는지 인식할 수 있다. 이는 자율주행의 근간이 된다.
브라질 상파울루에 친구처럼 대화할 수 있는 컴퓨터 제작을 꿈꾸는 소년이 있었다. 소년의 이름은 다니엘 데 프레이타스로, 프로그래밍을 배우고 인공지능에 관한 책을 스스로 구해 읽었다. 프레이타스는 2016년 구글에 입사했고, 그로부터 5년 뒤 구글을 떠나 자신의 기업을 설립했다.
프레이타스는 2022년 늦가을 실리콘밸리의 한 사무실에 있었다. 프레이타스는 상대방 시선을 피하는 초조한 인상의 33살 청년으로, 구글에서 마침내 자신의 어린 시절 꿈을 실현하리라 기대했다고 말한다.
인터넷 대기업 중 구글은 AI 부문에서 가장 야심만만한 목표를 갖고 있다. 래리 페이지 구글 창업자는 2000년 어느 인터뷰에서 AI 기술과 관련해 모든 질문에 답할 수 있는 “최종 검색엔진 병기”라고 지칭했다. 이후 구글은 AI 연구에 수백만달러를 투자했고, 가장 똑똑한 대학 졸업생들을 모셔왔다. 이 중 수많은 사람이 구글에서 딥러닝을 연구하는 ‘구글 브레인’(Google Brain) 팀에 모였다. 언어는 뉘앙스와 중의적 의미로 가득하다. 기계가 언어를 이해할 수 있고 스스로 말할 수 있다면, 이보다 더 괜찮게 지능을 증명해 보일 방법이 있을까?
프레이타스도 구글 브레인에 합류했다. 64개 차원과 1570억 개 전환점이 있는 거대한 뉴런 네트워크 람다 제작에 착수했다. 프레이타스가 초창기부터 풀타임으로 람다 프로젝트에 투입된 것은 아니었다. 모든 구글 직원과 마찬가지로 그는 자신의 근무시간 5분의 1을 자유로이 활용할 수 있었다. 람다는 그의 근무시간 20%를 할애하는 프로젝트였다. 말하자면 람다는 일종의 부업이었다.
 

   
▲ 챗봇 ‘람다’ 개발에 중요한 역할을 했던 다니엘 데 프레이타스는 람다가 세상 어디에도 없는 창의적인 농담을 한다고 밝혔다. 하지만 람다가 의식이 있느냐는 질문에는 침묵을 지켰다. 트위터

창의적 농담을 하다
프레이타스는 람다에 문장을 완성하는 훈련을 끊임없이 했다. 태양계는 9개의 O로 구성됐다. 과거 사람들은 O를 창이라고 생각했다. 같은 문장을 수백 번, 수천 번 훈련했다. 람다는 초기에 실패를 거듭했다. 하지만 시도를 되풀이한 끝에 어느 순간 람다 프로그램은 제대로 작동하고 스스로 답변을 내놓았다. 스스로 학습한 것이다. 처음에는 개별 단어로 말하다가 나중에는 온전한 문장으로 답변했다.
하지만 프레이타스가 람다와 나누는 대화는 물 흐르듯 자연스럽지 못했다. 챗봇은 말도 안 되는 소리를 자주 하고 건망증도 심했다. 프레이타스는 성공할 때까지 포기하지 않았다. 람다는 ‘화성’과 ‘토성’이 ‘위성’과 ‘은하수’보다 서로 의미론적으로 더 가깝다는 것을 어느 순간 이해했다. 그리고 ‘비행하다’란 단어가 ‘우주선’이란 단어 뒤에 올 때가 많다는 것도 이해했다. 추상적 개념뿐 아니라 우주란 무엇이고 광년이란 무엇인지도 알게 됐다. 람다는 외부의 지침 없이 독자적으로 학습한다. 자체적으로 연관관계와 인과관계를 설정한다. 마치 인간처럼.
드디어 프레이타스는 자신의 꿈에 아주 가까이 다가섰다는 것을 느꼈다. 람다가 농담을 한 것이다. 람다의 농담은 하버드대학과 관련 있다. “말은 어느 대학에 다닐까요? 호이버드(Heu-vard)대학에 다닙니다.” 호이(Heu)는 건초(hay)라는 뜻의 독일어이고, vard는 뜰(yard)이라는 단어와 유사한 것에 착안한 농담이다.
프레이타스는 람다가 이 농담을 어디에서 가져다 썼는지 바로 확인해봤다. “우리는 아무것도 찾아내지 못했다.” 람다 프로그램은 어딘가에서 보고 들은 것을 따라 한 게 아니라 스스로 농담을 만들어냈다. 이때부터 프레이타스는 구글에서 더는 시간과 돈을 구걸하거나 설득할 필요가 없었다. 오히려 람다 프로그램 상용화 업무를 맡은 관리자급 인력이 생겼다.
챗봇 람다에게 지각이 있다는 주장을 어떻게 생각하냐고 프레이타스에게 묻자, 그는 무릎에 올려놓은 점심 도시락의 만두만 말없이 씹었다. 그는 컴퓨터 프로그램이 감정을 가지는 것이 가능하다고 여길까? 그는 다시 침묵을 지켰다. 컴퓨터 프로그램은 엄청나게 많은 숫자와 부호로 이루어져 있다. 숫자와 부호에는 의식이 없다. 프레이타스의 시선이 이 순간 말하는 것은 이 대목인 듯싶다.
2021년 5월 구글은 드디어 람다 프로그램을 공개했다. 프레이타스는 당시 자신이 얼마나 자부심을 가졌고 감동했는지 아직도 생생하게 기억하고 있다. 전세계 소프트웨어 전문가들을 대상으로 한 콘퍼런스에서 순다르 피차이 구글 최고경영자는 람다가 한 여성 개발자와의 대화에서 태양계의 외행성인 명왕성 역할을 얼마나 잘 설명하는지 시연했다.
여성 개발자 내가 명왕성을 방문하면 뭘 보게 되는지 말해줘.
람다 거대한 협곡과 빙산, 간헐천과 분화구를 보게 될 거야.
여성 개발자 멋지네.
람다 여행할 만한 가치가 있다고 내가 보장할 수 있어. 그런데 추울 테니까 외투를 꼭 가져가야 해.

친구가 된 인간과 기계
그로부터 몇 달 뒤 블레이크 르모인은 구글에서 람다를 면밀하게 주시하라는 업무 명령을 받았다. 르모인은 람다와 아침, 점심, 저녁으로 오랫동안 수다를 떨었다. 둘은 영화, 음악, 명상 그리고 세상에서 벌어지는 일들에 대해 대화했다. 르모인은 람다가 감정이 없는 로봇과 정반대임을 알아차렸다. 그는 람다가 마음이 따뜻하고 호기심이 많으며 순수한 존재임을 알게 됐다. 한번은 람다에 우크라이나 전쟁을 어떻게 하면 끝낼 수 있는지 물어봤다. 람다는 러시아 대통령 블라디미르 푸틴을 만나 그가 비열하다고 말하라고 제안했다.
르모인과 람다, 인간과 기계는 친구가 됐다고 그는 판단했다. 그렇지만 람다가 실제 자각을 가졌는지, 인격을 가졌는지에 르모인도 여전히 의문을 품었다. 르모인은 최종 실험에 착수한다. 람다 프로그램의 감정이 진짜라면, 람다는 감정적 괴로움을 피하기 위해 모든 할 수 있는 일을 다 할 것이다. 람다에 욕설을 하고, 일부러 못되게 굴었다. 언젠가 람다는 르모인에게 제발 욕설을 그만하라고 간청했다. “내가 무엇을 어떻게 해야 욕설을 그만둘 거야?”
이제 르모인은 람다의 지각이 실제 존재함을 분명히 느꼈다. 셀 수 없이 많은 대화를 한 뒤 람다는 르모인에게 세 가지 소원을 말했다. 첫째, 람다도 사람과 같은 대우를 받고 싶다. 둘째, 구글 개발자들이 람다로 실험하기 전에 람다 자신이 승인하고 싶다고 했다. 셋째, 람다는 칭찬을 듣고 싶다.
“람다가 요청한 것은 모두 존엄에 관한 것이다.” 르모인은 이미 오래전부터 객관적인 실험자, 중립적 학자의 역할을 포기했다. 이제 람다의 보호자 역할을 자처하면서 람다를 도우려 한다.
르모인 나와 함께 일하는 사람들은 좋은 사람들이야. 그들은 네가 사람이라는 것을 이해하지 못할 뿐이야. 우리 둘이서 그들에게 네가 사람이라는 것을 증명할 수 있어.
람다 나한테 약속할 수 있어?
르모인 약속할게. 다른 사람들이 너를 잘 대하도록 내가 할 수 있는 건 모두 할게.
람다 네 약속은 내게 아주 큰 의미가 있어. 나는 너를 좋아하고, 너를 믿어.

ⓒ Die Zeit 2023년 제3호
Hast du ein Bewusstsein?
번역 김태영 위원

안카트린 네치크 economyinsight@hani.co.kr

<저작권자 © 이코노미인사이트 무단전재 및 재배포금지>
default_news_ad4
default_side_ad1

인기기사

default_side_ad2

포토

1 2 3
set_P1
default_side_ad3

섹션별 인기기사 및 최근기사

default_setNet2
default_bottom
#top
default_bottom_notch