default_top_notch
default_setNet1_2

“핵기술 개발 때와 유사한 상황”

기사승인 [158호] 2023.06.01  

공유
default_news_ad1

- [COVER STORY] 인공지능 경고음- ④ 요슈아 벤지오 캐나다 몬트리올대학 교수 인터뷰

 
인공지능 연구자이자 딥러닝 창시자 중 한 명인 요슈아 벤지오 캐나다 몬트리올대학 교수는 인공지능의 위험을 경고한다. 그는 인공신경망 연구로 2018년 컴퓨터과학의 노벨상이라는 튜링상을 받았다.

안카트린 네치크 Ann-Kathrin Nezik <차이트> 기자
 

   
▲ 요슈아 벤지오 캐나다 몬트 리올대학 교수. 요슈아 벤지오 누리집

교수님은 현대 인공지능의 대부로 불린다. 그런데 일론 머스크나 유발 하라리 교수 등 저명인사들과 함께 인공지능 개발을 6개월간 중단하자는 내용의 공동서한에 서명했다. 어떻게 동참하게 됐는가.
1년 전만 해도 그런 공동서한에 서명하지 않았을 것이다. 하지만 인공지능 기술이 그사이 급격히 발전해 인공지능 개발 중단을 논의할 시급성을 인식했다. 우리 사회는 인공지능에 준비되지 않았다는 점이 우려된다. 어느 국가에도 인공지능 관련 법안이 없다. 각국 정부도 그 대처가 느리기만 하다. 문제는 인공지능이 민주주의를 아주 빠른 속도로 와해할 수 있다는 점이다.
 

   
▲ 인공지능의 위험성을 경고하는 요슈아 벤지오 캐나다 몬트리올대학 교수도 인공지능이 기후위기 대응에 큰 역할을 할 수 있다는 것을 인정한다. 해를 거듭할수록 태평양 수위가 높아지는 피지의 세루아 마을 모습. REUTERS

티핑포인트로 가고 있다
정확히 어느 지점을 우려하는가.
인공지능이 머지않아 인간보다 더 똑똑해지리라고 생각하지 않는다. 아직 그 정도까지 오지 않았다. 우리 사회가 인공지능 활용에 대한 통제를 잃어버리는 것이 더 우려된다. 인공지능이 어떻게 발전할지, 어떻게 악용될지는 누구도 예측할 수 없다. 나는 이를 기후변화의 티핑포인트(작은 변화가 쌓여 갑자기 큰 변화를 초래하는 상태)에 비교한다. 인공지능의 티핑포인트를 충분히 이해하고 있지 않으므로 더욱 주의가 필요하다. 우리의 예상보다 훨씬 더 상황이 나빠질 수 있다.
인공지능으로 인한 최대 위험이 무엇이라고 생각하나.
중기적으로는 가짜뉴스 전파가 최대 위험 요소라고 생각한다. 물론 지금도 음모론을 소셜미디어에서 전파하는 이가 있다. 하지만 인공지능으로 전무후무한 양의 가짜뉴스를 양산하고 심지어 피해자 맞춤형 가짜뉴스를 만들어낼 수 있다는 점에서 인공지능을 통한 가짜뉴스 선동이 엄청나게 늘어날 것이다.
교수님이 챗지피티 같은 언어모델의 토대를 만들었기 때문에 더욱 막중한 책임을 느끼는가.
그렇다. 내가 이끄는 연구그룹은 인공지능에 인간이 주의를 기울이는 메커니즘을 모방하도록 학습시켰다. 언어모델이 특정 문장에서 다음 단어를 추가할 수 있는 것은 우리가 15년 전에 했던 구상을 기반으로 한다. 이런 이유에서 인공지능 위험을 경고해야 할 필요성을 느낀다.
몇 년 전만 해도 교수님은 인공지능에 훨씬 낙관적이었다. 인공지능에 대한 관점이 언제쯤 달라졌나.
인공지능이 좋은 목적이나 나쁜 목적에 사용될 수 있음은 추상적 차원에서는 인지하고 있었다. 튜링 테스트(Turing Test)를 합격한 모델이 생겨난 이후 그 우려가 강해졌을 뿐이다.
튜링 테스트는 영국 수학자 앨런 튜링이 1950년 고안한 인공지능 판결 테스트다. 실험 대상자가 기계(컴퓨터)와 대화를 나눈 뒤 컴퓨터의 반응과 인간의 반응을 구분할 수 없다면 해당 컴퓨터가 사고할 수 있는 것으로 간주한다. 하지만 학계는 여전히 인공지능이 얼마나 똑똑한지를 놓고 갑론을박 중이다. 챗지피티 등을 놓고 인간의 말을 단순 모방하는 앵무새에 비유하는 전문가들도 있다.
언어모델은 앵무새가 아니다. 언어모델은 그전까지 존재하지 않았던 텍스트를 만들어내기 때문이다. 언어모델에 부족한 것은 예술가나 과학자의 창의력이다. 언어모델은 평균 수준의 아이디어만 구상해낼 뿐이다.
5살 아이가 최고 언어모델보다 더 논리적으로 사고할 수 있다고 교수님은 지적한 바 있다.
언어모델은 1만 명이 해낼 수 있는 1억 개에 이르는 단어를 읽기는 했지만, 건전한 상식을 갖추는 데 애먹고 있다. 5살 아이는 놀이로 주변 환경과 상호작용을 하면서 주변 환경이 어떻게 돌아가는지 알아내지만, 지금의 인공지능은 이를 해내지 못한다.
그런데도 교수님은 특정 인공지능 모델 개발의 6개월 잠정 중단을 요구했다. 6개월간 개발을 중단한다면 무엇이 달라질 수 있는가.
6개월 개발 중단으로 인공지능의 위험성을 논의하는 차원이 달라질 수 있다. 현재 인공지능을 독점하기 위한 소수 기업 간의 경쟁이 치열하다. 6개월 개발 중단은 이 기업들이 자사의 인공지능 제품에 어떤 보안 메커니즘을 갖출지 고민하는 시간을 줄 것이다.
구글이나 마이크로소프트 쪽이 교수님께 그간 연락했는가.
아니다. 하지만 조 바이든 미국 대통령은 인공지능을 규제하겠다고 발표했다. 이를 긍정적으로 평가한다. 이후 어떤 움직임이 일어나고 있다.
각국 정부는 기업의 인공지능 모델에 학계가 접근할 수 있도록 기업을 압박해야 하는가.
투명성 강화가 가장 중요하다. 독립적인 전문가들은 위험을 조기에 인지하기 위해 인공지능 업체의 소프트웨어를 들여다볼 수 있어야 한다. 대다수 업계에서 기업 활동을 기록해야 하고 외부 통제가 있다. 인공지능이라고 예외가 될 수 없다.
중국이 인공지능에서 서구를 앞서나가기 위해 6개월 개발 잠정 중단을 이용하리라고 걱정하지 않는가.
중국이 인공지능에서 서구를 앞서가려면 6개월 이상이 소요된다.
정말인가.
그렇다. 중국에 우리가 모르는 비밀 프로젝트가 있지 않다면 말이다. 아직은 서구가 인공지능에서 중국보다 훨씬 앞서 있다. 이와 무관하게 중국 같은 권위주의 국가는 인공지능 통제에 전혀 관심이 없다고 나는 생각한다. 권위주의 국가에 중요한 것은 권력과 안정이다. 그리고 인공지능은 정치적 불안정성을 야기할 수 있다.
교수님은 인공지능을 핵연구와 비교했다. 두 분야는 어떤 유사점이 있는가.
60~70년 전 물리학자들은 핵에너지 연구로 세계를 발전시켰다. 하지만 핵기술을 통제해 안전하게 만드는 것 역시 중요하다. 오늘날 인공지능도 핵기술과 유사한 상황이다.
 

   
▲ 영국 수학자 앨런 튜링을 기리기 위해 2012년 11월 영국 과학박물관 데이나(DANA)리서치센터에서 ‘튜링 테스트’를 하고 있다. 플리커

기후변화에 무한대 잠재력
물리학자는 핵폭탄도 만들었다. 인공지능은 1945년 핵물리학처럼 갈림길에 서 있다고 보는가.
유사점을 과대평가하면 안 된다. 나한테 미래가 보이는 수정구슬이 있는 것도 아니다. 하지만 나는 지금 경고를 울릴 정도로 충분히 위험한 신호를 봤다. 부디 정치권이 우리의 경고에 하루빨리 귀 기울이기를 바란다.
인공지능이 사회를 긍정적으로 변화시키리라고 기대하는 계기가 있었나.
인공지능은 신규 의약품 개발이나 기후변화 방지에 무한대의 잠재력을 지녔다. 나는 몇 년 전부터 생물학에서 인공지능을 토대로 실험하고 있다. 인공지능은 생물학에서 변화를 일으킬 수 있고, 인간의 몸과 질병을 잘 이해하는 데 기여할 수 있다.

ⓒ Die Zeit 2023년 제16호
Künstliche Intelligenz: Was kann der Mensch besser?
번역 김태영 위원

 

안카트린 네치크 economyinsight@hani.co.kr

<저작권자 © 이코노미인사이트 무단전재 및 재배포금지>
default_news_ad4
default_side_ad1

인기기사

default_side_ad2

포토

1 2 3
set_P1
default_side_ad3

섹션별 인기기사 및 최근기사

default_setNet2
default_bottom
#top
default_bottom_notch