- [COVER STORY] 거대한 ‘페이크 머신’ AI- ④ 대담
알렉산더 뎀링 Alexander Demling <슈피겔> 기자
![]() |
||
▲ 아미타이 에치오니(오른쪽)는 미국 사회학계의 거두이자 철학자이고, 그의 아들 오렌 에치오니는 인공지능(AI) 연구자다. 죽기 전 마지막 인터뷰에서 아버지 아미타이는 아들 오렌과 AI의 위험과 기회를 토론했다. <슈피겔> |
아미타이 에치오니(94)는 20세기 미국에서 가장 영향력 있는 지식인 중 한 명이고, 그의 아들 오렌(59)은 인공지능(AI) 연구의 선구자다. 두 사람은 살면서 수많은 인터뷰를 했지만 둘이 함께 인터뷰한 것은 이번이 처음이다. 2023년 5월 중순 미국 워싱턴 워터게이트호텔 근처 아미타이의 아파트에서 이들은 약 2시간을 토론했다. 두 사람의 인생 주제인 챗지피티(ChatGPT) 혁명과 그것이 우리 사회에 미칠 영향을 놓고 대화가 이어졌다. 아버지는 다소 비관적이고 아들은 다소 낙관적이다. 그리고 당시에는 아무도 예상치 못했는데 이 대담이 아미타이 에치오니의 마지막 인터뷰였다. 독일 쾰른에서 태어난 이 사회학자는 2주 뒤 세상을 떠났다.
![]() |
||
▲ ‘미국 배우·방송인 노동조합’(SAG-AFTRA) 소속 배우들과 ‘미국 작가조합’ 소속 작가들이 2023년 7월17일 캘리포니아주 로스앤젤레스에서 할리우드 영화사들이 대본 작성에 AI를 활용하려는 움직임 등에 항의하는 시위를 벌이고 있다. REUTERS |
첫 질문은 두 사람 모두에게 묻는다. AI가 두려운가.
오렌 에치오니 AI는 골렘이나 프랑켄슈타인 등 괴물 같은 인공생명체가 아니라 매우 강력하긴 하지만 그저 도구일 뿐이다. 도구는 두렵지 않지만, 인간이 그 도구를 어떻게 사용할지 두렵다. 예를 들어 악의적인 행위자나 불량국가 같은 이들이 사용한다면 말이다.
아미타이 에치오니 산업혁명 중간의 어느 시점에서 인간은 기술과 경제발전의 통제력을 잃었다. 그 뒤 인간은 이 통제권을 되찾으려 달리고 있다. AI는 이런 노력을 너무나 빨리 어렵게 한다. 동시에 이런 힘이 지배하는 사회를 원치 않는 새로운 움직임도 나타난다.
![]() |
||
▲ 아미타이 에치오니. <조지워싱턴대학 투데이> |
지능과 자율성 구분해야
AI에 반대하는 시위를 봤는가.
아미타이 적어도 그런 조짐을 보이는 이들이 있다. 코로나19 대유행이 끝난 뒤 사무실로 돌아가기를 거부하는 사람들도 그 일부다. 그들은 가족과 더 많은 시간을 보내고 싶고, 교통체증에 시간을 보내는 대신 비디오게임을 하고 싶다고 말한다. 결국 AI는 우리 사회에 깔린 더 큰 갈등을 보여주는 빙산의 일각에 불과하다. ‘인간이 중심인가, 기계가 중심인가?’라는 갈등 말이다.
오렌 아버지와 나는 이 부분에서 의견이 일치하지 않는다. 데이터센터에서 인류를 상대로 음모를 꾸미고 미쳐 날뛰며 살육을 벌이는 AI는 공상과학소설에나 나오는 이야기라고 생각한다. 기술은 확실히 중립적이지 않지만 결국 결정은 인간이 내린다. 그리고 이런 도구를 사용하는 힘 있는 사람들은 정치인이 아니라 기술 기업가다. 마크 저커버그 메타 최고경영자와 일론 머스크 테슬라 최고경영자가 그런 힘을 가지고 있다. 알파고(2017년 보드게임 바둑에서 세계 1위를 차지한 AI 프로그램)가 그런 힘을 가진 게 아니다.
현재 AI 붐의 과학적 토대를 마련한 과학자 제프리 힌턴은 이제 자신의 창조물이 두렵다고 한다.
오렌 지피티-4(GPT-4)와 같은 대형 언어모델에서는 이제 지능과 자율성을 구분해야 한다. 우리는 종종 직관적으로 이 두 특성을 하나로 묶는다. 인간이 지능적이고 자율적이기 때문이다. 지피티-4는 정교하고 어떤 면에서는 지능적이지만 자체적인 의지가 없다. 이 도구에 얼마나 많은 자율성을 부여할지는 기술 문제가 아니라 정치 문제다. 그것은 인간이 결정한다.
아미타이 나는 그 말에 동의하지 않는다. 모든 신약의 경우 미국에서 식품의약국(FDA)의 승인을 받아야 한다. 하지만 샌프란시스코에서 오늘 밤 몇몇 사람이 더 괜찮은 딥페이크를 만드는 기술을 발명한다면, 우리의 가치와 정치적 의지에 반하더라도 그 기술과 함께 살아야 한다. 우리가 원한다 해도 금지할 수조차 없다.
왜 그런가.
아미타이 아이는 이미 우물에 빠졌고, 기술은 세상에 나왔다. 중국과 협약한다 해도 러시아, 베네수엘라, 예멘 같은 국가가 그 협약을 지키겠는가?
샘 올트먼 오픈에이아이(OpenAI) 최고경영자조차 AI 업계를 규제해야 한다고 요구한다.
아미타이 그것은 순전히 홍보 전략일 뿐이다.
오렌 나도 그게 최선의 방법은 아니라고 생각한다. 표적화된 규제가 필요하다. 단 하나의 AI법으로 챗봇부터 핵무기 통제에 이르기까지 모든 사안을 포괄해야 하는가? 오히려 저작권, 의약품 연구, 그리고 다른 분야의 기존 법률을 이 새로운 현실에 맞게 조정해야 한다.
아미타이 독일에서 강연할 때 나는 항상 데이터보호법에 따라 기업이 개인 데이터의 공유를 요청한 적이 있는지 물어본다. 손을 드는 사람이 한 명도 없다. 법률에 허점이 너무 많기 때문이다. 일상생활에 관한 AI 법률이 너무 포괄적이면 미국 대형 은행들이 금융규제 당국을 장악했던 것처럼, 법을 시행해야 할 당국이 업계에 장악당할 수 있다.
이런 강력한 도구를 사용하는 사람들이 가져올 위험을 이야기해보자. 구체적으로 어떤 점이 두려운가.
오렌 2024년에 미국 대통령선거가 있다. 그 이후의 모든 선거도 두렵다. 구텐베르크의 인쇄술은 정보의 복사를 사실상 무료로 만들었고, 인터넷은 정보를 전세계에 배포했다. 그리고 이제 정보 생산도 무료화되고 있다. 유권자는 일론 머스크나 앙겔라 메르켈 전 독일 총리의 목소리를 모방한 메시지의 폭격을 받을 수도 있다. 지피티-4가 아니라 이런 애플리케이션을 규제해야 한다.
아미타이 AI는 진실을 파괴할 것이다. 사람들은 더 이상 자신의 눈과 귀를 믿을 수 없다. 이는 민주주의와 우리 공동체에 대한 도전이다.
어떤 거짓말쟁이가 민주주의에 더 위험한가. 도널드 트럼프 전 미국 대통령인인가, 아니면 챗지피티인가.
아미타이 단기적으로는 여전히 트럼프다. 그는 다시 미국의 대통령이 될 가능성이 있다. 챗지피티는 아마 단기적으로는 그 정도로 위험하지 않을 것이다. 하지만 장기적으로는 AI가 더 큰 위협이 될 것이다.
오렌 사람을 조종할 수 있는 카리스마 있는 선동가가 장기적으로 더 위험할 수 있다. 챗지피티는 자극적인 연설문을 작성하지 않는다. 챗지피티가 만들어낸 결과물은 적어도 현재는 상당히 평범한 수준이다. 하지만 이 AI는 페이스북과 트위터에서 트럼프를 지지하는 수많은 챗봇을 동시에 실행할 수 있다. 실제 위험은 백만 개의 미니-지피티(GPT) 사용료를 낼 수 있는 트럼프 같은 인물에게서 나온다.
아미타이 미국 건국의 아버지들은 카리스마 넘치는 지도자의 유혹에 넘어가는 폭도들의 등장을 두려워했다. 그래서 이들은 간접민주주의를 수립했다. 사람들은 2년마다 투표할 수 있다. 그사이에는 입을 다물고 있어야 한다. 기술은 이 시스템에 도전한다. 이제 지도자가 대중에게 직접 다가갈 수 있기 때문이다. 트럼프는 트위터로 그렇게 할 수 있었는데, 챗봇을 사용하면 더욱 효과적으로 지지자들을 선동하게 될 것이다.
교황이 흰색 다운재킷을 입은 AI 생성 사진이 유포되고, 몇 개의 음성 샘플로 목소리를 복제하는 프로그램이 인터넷에 퍼지고 있다. 이런 가짜뉴스의 홍수에 어떻게 대처해야 할까.
오렌 만병통치약은 없고 규제는 잘해봐야 해결 방안의 일부분일 뿐이다. 예를 들어 모든 AI 제작 콘텐츠에 일종의 워터마크와 같은 디지털 인증의 포함을 의무화할 수 있다. 이를 위한 기술은 이미 준비돼 있다. 그러나 규제 문제가 남아 있다. 규제는 국가적이지만 문제는 국제적이다. 우리는 다른 수단이 필요하다.
![]() |
||
▲ 일론 머스크는 챗지피티가 ‘정치적으로 올바르다’고 생각하기 때문에 트루스지피티(TruthGPT)를 개발하고 싶다고 말했다. 오렌 에치오니는 AI 모델이 다양해질 것이며 AI라는 거울을 통해 우리 사회의 공화당원, 민주당원 그리고 모든 고약한 인물도 보게 될 것이라고 말한다. REUTERS |
만병통치약은 없다
어떤 수단이 있을까.
오렌 교육이다. 우리는 이 기술을 다루는 방법을 배워야 한다. 보이스피싱 사기꾼들은 오늘날 진짜 손주의 목소리인 것처럼 늙은 조부모를 속여 사기 칠 수 있다. 최근 동료인 척하는 사람이 문자메시지로 나에게 부탁한 적이 있다. 그가 애플 기프트카드를 요청했을 때에야 나는 사기임을 깨달았다. 우리는 전화를 받을 때마다 매번 스스로에게 물어야 한다. 이게 진짜인가?
아미타이 오렌이 어릴 때 TV 앞에 앉아 있으면 나는 이렇게 말했다. “지금 이 광고가 어떻게 너를 조종하려는지 생각해봐라.”
챗지피티는 사람들이 ‘거짓말하라’고 명령할 때만 거짓말하는 것이 아니다. 예를 들어 챗봇은 오스트레일리아의 한 시장에게 부패 스캔들을 덮어씌웠다. 하지만 사실 이 스캔들은 시장 본인이 공개한 것이었다. AI가 종종 완전히 터무니없는 소리를 열정적으로 생산하는 이유는 무엇인가.
오렌 AI 모델의 자기인식(Self-Aware- ness)을 보정하는 것은 복잡한 문제다. 왜냐하면 AI 모델은 현실에 관한 개념이 없기 때문이다. 챗지피티가 하늘을 푸른색이라 할지 회색이라 할지 결정할 때, 두 결정 사이에 확률적 차이는 거의 없다. 이제 AI 모델은 언제 ‘모르겠다’고 말해야 하는지 학습해야 한다. 이 기술이 극히 초기 단계임을 잊지 말아야 한다. 실수가 있을 것이다. 핵기술을 생각해봐라. 오늘날에는 아마 모든 사람이 히로시마·나가사키 원자폭탄 투하가 실수였다는 점에 동의할 것이다.
아미타이 AI 모델에 윤리를 가르칠 방법을 찾아야 한다. 철학자가 말하는 윤리가 아니라, 다양한 종교·사회 집단이 실제로 실천하는 가치를 말한다. 다양한 AI 모델이 나오면 가치에 관한 다양한 합의도 반영할 수 있을 것이다.
일론 머스크는 챗지피티가 ‘정치적으로 올바르다’(Politically Correct)고 생각하기 때문에 트루스지피티(TruthGPT)를 개발하고 싶다고 한다. 우익 AI와 좌익 AI가 나오는 건가.
오렌 그렇다. 결국 이런 AI 모델들은 일차적으로 사회를 비추는 거울이다. 이 거울을 통해 우리 사회의 공화당원, 민주당원 그리고 모든 고약한 인물도 보게 된다.
그것은 아마 대형 언어 모델이 트위터나 레딧(Reddit)의 수많은 게시물로 훈련됐기 때문일 것이다. 이런 매체는 사람들의 가장 좋은 모습을 보여주는 곳이라고 하긴 힘들다.
오렌 프로그래머들은 이렇게 말한다. “쓰레기 인(In), 쓰레기 아웃(Out)”, 즉 시스템에 쓰레기를 먹이면 시스템은 쓰레기를 뱉어낸다는 것이다. 이 문제는 해결할 수 있다. 사람들이 지속해서 AI 모델의 결과물을 평가하면서 가치를 가르치면 된다. 하지만 챗지피티에 궁극적인 가치체계를 부여하는 것은 불가능하다. 우리 사회도 궁극적 가치가 무엇인지를 놓고 논쟁 중이기 때문이다.
빅데이터 분석 회사 팔란티어(Palantir)는 적의 목표를 분석하고 전투 계획을 수립하는 AI 플랫폼을 군대에 제공한다.
아미타이 AI 기술이 핵무기·우주기술과 결합해 지구상의 모든 지점을 식별할 수 있다고 상상해봐라. 인류는 ‘큰 파괴력을 가진 공격 무기는 AI가 단독으로 돌이킬 수 없는 결정을 내리게 해서는 안 된다’는 국제협약을 맺어야 한다. 마지막 결정은 인간이 해야 한다. 우리는 이미 중국과 간접적 전쟁을 벌이고 있다. 따라서 나는 그러한 국제적 합의의 가능성을 높게 평가하지 않는다. 그게 걱정된다.
오렌 방어용 무기와 공격용 무기를 명확히 구분해야 한다. 자율공격 무기는 우리의 안보를 위협한다. 지능형 방어 무기는 자율 무기라도 생명을 구한다. 이스라엘과 팔레스타인의 분쟁에서, 혹은 우크라이나 전쟁에서 지능형 방어 무기는 유치원과 병원을 보호한다.
구글에서 몇 년 전 AI 전문가를 포함한 직원들은 미군이 의뢰한 일에 참여해야 한다는 이유로 파업을 벌인 적이 있다.
오렌 나는 그 직원들을 이해할 수 없다. 점점 더 강력한 무기시스템이 개발되는 것이 기쁘지 않다. 하지만 그런 시스템은 전체주의 정권보다는 우리 손안에 있는 게 낫다. 우리 기술자들은 모래 속에 머리를 파묻는 대신 세심한 관점을 갖고 이 논의에 참여해야 할 책임이 있다.
챗지피티를 향한 전세계적인 관심은 마이크로소프트, 구글, 메타 간에 최고의 AI 모델을 개발하려는 경쟁을 촉발했다. 이 기술을 기업가들에게 맡기는 것은 너무 위험하지 않은가.
아미타이 우리는 소수의 손에 더 많은 부가 집중되는 것을 보게 될 것이다. 마이크로소프트와 구글 중 누가 이기느냐는 전혀 중요하지 않다. 중요한 점은 정보기술(IT) 업계가 미국 의회에서 효과적인 규제가 통과되지 못하도록 막는 데 성공하느냐는 것이다.
오렌 기술의 근본적 진실은 변하지 않는다. 기술은 수억 명을 빈곤에서 벗어나게 했다.
아미타이 문제는 그 진실이 앞으로도 계속될 것이냐는 점이다. 지난 몇 세기 동안 기술은 우리를 중세에서 데리고 나와 풍요로운 사회로 이끌었다. 다음 세기는 무엇을 가져올 것인가? 그저 더 많은 기기만 등장하는 것에 그칠까?
당신은 AI를 우리 사회에 중요한 위협이라고 보는 것인가.
아미타이 그런 것은 아니다. 가짜 감정일지라도 공감하는 컴퓨터를 만드는 데 도움이 될 수 있다. 예를 들어 지금까지 우리는 관리하기 쉽다는 이유로 노인들을 양로원에 집어넣고 외롭게 내버려뒀다. 아무도 없는 것보다는 컴퓨터가 “당신의 말을 듣는 것이 좋다”며 말 거는 편이 더 낫지 않을까? 나라면 그게 더 좋을 것 같다.
![]() |
||
▲ 아미타이 에치오니는 AI 업계를 규제해야 한다는 샘 올트먼 오픈에이아이(OpenAI) CEO의 발언이 홍보 전략일 뿐이라고 지적한다. 올트먼의 강연을 앞두고 2023년 6월5일 이스라엘 텔아비브대학에 오픈AI 배너가 걸려있다. REUTERS |
가상의 동반자
‘가상의 동반자’(Virtual Companion)는 아직 공상과학소설에나 나오는 이야기다.
아미타이 외로움만큼 정신건강에 해를 끼치는 것은 없다. 사람들이 절망에 빠져 우울증에 걸리기 전에 도움을 주면 안 되는가? 이런 이유로 우리는 AI를 단순히 금지만 할 수는 없다. 규제의 유용성과 함께 해로움도 생각해야 한다.
두 분은 AI에 관한 논문을 공동으로 발표했다. 이 문제를 서로 어떻게 논의하는가.
오렌 학자로서 우리는 각자의 분야와 전문 용어라는 좁은 사일로(Silo·저장고) 안에서 움직이는 데 익숙하다. 운이 좋게도 아버지는 호기심이 많고 나에게 질문을 많이 한다. 의견이 다를 때도 있지만 그런 부분도 서로 이야기를 나눈다.
아미타이 우리는 대가족이고 매년 2주간의 휴가를 위해 모인다. 각자 전문 분야의 경계를 넘어 대화하기 위해 이 시간이 필요하다. AI 시스템 설계에 관한 일련의 논문을 ‘마르베야(스페인 남부 해변 도시) 페이퍼’(Marbella-Paper)라고 명명한 이유도 스페인에서 휴가를 보내면서 쓴 글이기 때문이다.
ⓒ Der Spiegel 2023년 제28호
Künstliche Intelligenz wird die Wahrheit zerstören/ Ich habe keine Angst vor dem Werkzeug, sondern vor den Menschen
번역 황수경 위원
알렉산더 뎀링 economyinsight@hani.co.kr