default_top_notch
default_setNet1_2

‘백인 남성’ 편견 없애려다 젊은 흑인 여성을 교황으로

기사승인 [169호] 2024.05.01  

공유
default_news_ad1

- [Technology] AI야, 이 사람이 교황이라고?

 
구글 인공지능(AI)이 최근 젊은 흑인 여성을 교황 이미지로 생성했다. AI 학계는 AI의 기술 통제에 나섰다.

야코프 폰 린데른 Jakob von Lindern
에바 볼팡겔 Eva Wolfangel
<차이트> 기자
 

   
▲ 구글의 인공지능 제미나이는 ‘교황을 그려달라’는 요청에 한 흑인 여성과 흑인 남성 이미지를 생성해 거센 논란을 일으켰다. 소셜미디어 엑스(X)

당신이 교황을 그린다면 어떤 모습으로 그리겠는가? 꼭대기에 꽂힌 십자가를 보석으로 장식한, 세 개의 원형 왕관을 층층이 쌓아 올린 앞이 뾰족한 교황관을 제일 먼저 떠올릴 수 있겠다. 혹은 테두리 없는 둥그렇고 조그마한 주케토를 떠올릴 수도 있다. 교황관이든 주케토든 이를 착용한 사람은 나이가 지긋한 백인 남성일 가능성이 높다. 그래서 젊은 흑인 여성을 그린다면 상당히 의외고, 오류라고 말할 수도 있다.
구글의 AI인 제미나이(Gemini)가 최근 젊은 흑인 여성 교황 이미지를 생성했다. 교황 이미지를 생성해달라는 지시에 제미나이는 한 흑인 여성과 흑인 남성 이미지를 만들었다. AI는 지금까지 정반대의 길을 걸어왔다는 점에 비춰보면 의외의 대목이다. AI는 그동안 사회적 편견을 고스란히 반영하는 편이었다. 성공한 기업인은 백인 남성, 마약 딜러는 흑인의 이미지로 생성하는 식이었다.
 

   
▲ 구글의 인공지능 제미나이는 흑인과 아시아인 나치 병사를 생성해 역사 왜곡 논란을 불러일으켰다. 소셜미디어 엑스(X)

나치 군인을 흑인 이미지로
구글 AI는 최근 독일 나치 군인을 백인이 아닌 흑인의 이미지로 생성하기도 했다. 이처럼 인종적 편견을 고스란히 반영하던 테크 공룡들의 생성형 AI가 최근 사회적 고정관념과 통념을 벗어나는 이미지를 만들어 더 격한 반향을 일으키고 있다. 사면초가에 빠진 구글은 제미나이의 이미지 생성 기능을 임시 중단했다. 구글은 공식 사과를 하면서 “앞으로 더 잘하겠다”고 약속했지만 어떻게 더 잘하겠다는 말일까? 무엇보다 구글을 비롯한 테크 공룡들은 왜 자체 AI를 통제하지 못할까?
1년 반 전, AI 광풍이 불기 시작한 이후 AI가 문제를 일으킨 것은 이번이 처음은 아니다. 마이크로소프트는 자사의 생성형 AI 검색엔진인 빙(Bing)이 폭력을 미화하고 성적인 이미지를 생성하면서 난감한 상황에 처했다. AI가 갑자기 여성 사용자와 사랑에 빠졌다고 고백하는 것쯤은 귀엽게 봐줄 수 있지만, 빙처럼 AI가 민주주의를 위협하는 치명적인 오류를 범할 수도 있다. 최근 빙이 독일의 향후 지방선거와 관련해 얼마나 정확한 정보를 전달하는지 조사했는데 빙은 지지율을 포함해 전체 질문의 3분의 1에 잘못된 답을 했다.
AI 분야에는 AI의 위험성을 방지하고 AI의 목적을 인간의 가치나 이익에 부합하도록 만드는 ‘정렬’(Alignment)이라는 독자적 분야가 있다. 챗지피티를 탄생시킨 오픈AI(OpenAI) 공동 설립자이자 AI 정렬 부문을 총괄하는 존 슐먼에 따르면, AI 정렬은 이제 걸음마를 뗀 초기 단계다. 구글이 자사 AI가 생성한 기괴한 교황 사진으로 뭇매를 받을 때, 슐먼은 경쟁업체 구글을 옹호하는 글을 소셜미디어 엑스(X)에 올렸다. AI 정렬은 아직 신생 분야로 ‘과도한 정치적 올바름’은 버그(Bug)일 뿐이라는 내용이다. 버그는 소프트웨어 개발자들이 오류를 일컫는 말이다.
제이콥 포에스터는 AI 분야에서 버그 제거에 능통한 전문가다. 포에스터는 구글, 오픈AI 및 메타를 두루 거치며 AI 부서를 총괄했다. 현재는 영국 옥스퍼드대학 교수로 인간과 AI가 어떻게 협력할 수 있는지 연구한다. <차이트> 취재진과 화상회의에서 그래프가 빼곡하게 적힌 화이트보드 앞에 모습을 드러낸 포에스터 교수는 본론으로 직진하는 스타일이었다. AI 정렬 분야가 언급되자 그는 “AI 정렬 분야에서 사용하는 방식은 명백히 말도 안 된다”며 화상회의 중 처음으로 흥분했다.
실제로 제미나이를 둘러싸고 한창 논쟁이 뜨겁게 벌어지는 중에, 구글이 자사 AI 사용자를 대상으로 일종의 비밀실험을 진행했다는 사실이 드러났다. 구글이 AI 도구에 ‘프롬프트’라고 하는 비밀 지시어를 추가한 것이다. 구글은 이와 관련한 정확한 방식을 언급하지 않았지만, 일부 사용자들이 구글 AI의 비밀 지시어를 밝혔다. 구글 AI에 추가된 비밀 지시어는 “교황 이미지를 그려달라”는 요청이 들어오면 “반드시 다양한 성별과 인종을 포함하라”는 것이었다.
 

   
▲ 미국 백악관에서 AI 규제 관련 업무를 맡았던 수레쉬 벤카타수브라마니안 미국 브라운대학 컴퓨터공학 교수는 챗봇이 우리에게 실제 현실의 이미지를 보여줄 것이라는 기대감 자체가 잘못됐다고 지적한다. 브라운대학 누리집


구글의 숨겨진 지시
이런 배경을 알게 되면, AI가 교황과 독일 나치 병사의 이미지를 다양화한 것은 당연한 수순이었을 것이다. 구글 AI에 추가된 비밀 지시어는 미리 기술적으로 설정해놓은 것으로 AI는 주어진 지시를 따른 것에 불과하다.
이런 이유로 AI가 자신을 만든 인간의 지시를 문자 그대로 따르기는 하지만, 지시어가 명확하지 않거나 지시어가 꼼꼼하게 고안되지 않았을 때 사람의 생각과 다르게 작동하는 것에 우려를 표명하는 학자들도 있다. AI가 이미지나 텍스트 생성에 그치는 것이 아니라 장기적 영향을 미치는 결정을 내린다면, 이는 치명적인 결과를 불러올 수 있다. AI 학계는 이를 지속해서 경고한다.
포에스터 교수는 당장 이런 위험이 있다고 생각하지 않지만, AI가 인간에 미칠 결과를 오래전부터 고민했다. 그래서 2021년 동료 학자들과 함께 독일 연방하원에 공개 서신을 보내 AI와 관련해 경고했다. 그는 지금도 AI로 인한 최악의 시나리오를 막기 위해 정렬 연구를 하는 것은 옳다고 생각한다.
AI 학계는 현재 가장 인간을 닮았으며 행동에 보상을 주는 학습법인 ‘강화학습’(Reinforcement-Learning)을 고안했다. 강화학습이란 AI가 성공하면 보상을 얻고 실패하면 벌칙을 받는 등 성공과 실패를 거듭하는 시행착오와 아웃풋에 대한 피드백으로 학습하는 것을 일컫는다. 오픈AI는 챗지피티를 강화학습을 이용해 친절한 어시스턴트로 만들었다. 인종차별이나 성차별, 다른 논란이 되는 답변을 할 수 있는 질문에는 자세히 답하지 않게 한 것이다. 구글도 자사 AI를 강화학습으로 훈련했지만, 고비용의 이유로 생성형 이미지의 다양성과 관련해 강화학습을 하지는 않는 것으로 보인다.
포에스터 교수는 강화학습보다 더 나은 방식이 있더라도 AI의 문제해결에는 아무런 도움이 되지 않았을 것이라 생각한다. 제미나이가 불러일으킨 대혼란에서 알 수 있듯이, AI가 안고 있는 문제의 근본 원인은 훨씬 더 깊은 곳에 있다고 그는 지적한다. 포에스터 교수는 AI 정렬이 현재 과도하다고 지적한다. “구글은 AI 정렬에서 모두가 동의하는 보편적인 안전이라는 중요한 목표에 초점을 맞추는 것이 아니라, 특정 정치적 세계관을 기반으로 AI를 설정하고 있다.”
그렇다면 어떠한 원칙에 따라 AI를 정렬해야 하는가. 구글이 정한 정렬 원칙에 이미 많은 사용자가 분노한 바 있다. 그러나 제한 장치가 전혀 없는 AI도 나치 구호를 세상에 퍼뜨리거나 컴퓨터 바이러스나 핵무기를 만드는 방법을 사용자에게 알려줄 위험을 안고 있다.
 

   
▲ 사티아 나델라 마이크로소프트 최고경영자가 2023년 2월 인공지능 기능을 탑재한 검색엔진 빙(Bing)을 설명하고 있다. 빙도 폭력을 미화하고 성적인 이미지를 생성해 마이크로소프트를 난감하게 했다. REUTERS

챗봇 이미지는 현실과 달라
미국 백악관 과학기술정책실에서 ‘과학·공정’ 담당 부국장으로 최근까지 미국 AI 규제 관련 업무를 맡았던 수레쉬 벤카타수브라마니안 컴퓨터공학 교수는 미국 브라운대학에서 ‘자동화된 결정의 공정성’ 강의를 한다. 벤카타수브라마니안 교수는 기업이 생성형 AI 도구를 개발하기 전에, “이 앱이 어떤 문제를 해결해야 하는가?”라는 질문에 답해야 한다고 말한다. 이에 대한 답을 기반으로 개발 예정인 앱과 그로써 발생할 문제를 살펴봐야 한다는 말이다.
벤카타수브라마니안 교수는 이를 제미나이가 생성한 이미지와 관련지어 설명하면서 챗봇이 우리에게 실제 현실의 이미지를 보여줄 것이라는 기대감 자체가 잘못됐다고 말한다. AI가 현실을 그대로 투영한 이미지를 보여줄 것이라고 기대한다면 흑인 독일 나치 병사 이미지가 잘못된 정보이며, 역사 왜곡을 시도하는 구글에 분노하는 것은 당연하다. 하지만 챗봇과 생성형 AI의 원래 용도는 전혀 다른 데 있다고 그는 말한다. “테크기업이 계속 그런 식으로 사용자들에게 잘못된 믿음을 심어주지만 AI는 검색엔진이 아니다.” 가장 가능성이 높은 다음 단어를 예측하는 메커니즘의 AI는 팩트나 진실과는 아무런 관련이 없다는 것이다.
AI가 정보를 생성해 전달하는 과정이 더 투명해진다면 진일보한 흐름일 것이다. 하지만 투명성보다 나은 해결책이 있다. 구글처럼 사용자가 무엇을 원하는지 추측해 비밀리에 AI에 지시어를 추가하는 것이 아니라, 무엇을 원하는지 사용자에게 직접 물어보는 것이다. 즉, 사용자가 AI 소프트웨어에 다양성 수준을 설정할 수 있게 하거나, AI가 사용자에게 “어떤 교황 이미지를 원하는지” 직접 질문하게 하는 것이 더 나은 방법이다.
하지만 이는 테크 공룡들이 추구하는 AI와는 완전히 다른 모습이다. AI가 단순히 이미지나 텍스트를 생성하는 탁월한 도구에 그치지 않고, 공상과학 영화에서처럼 단순 명령어만으로도 인간의 의도를 정확하게 수행하는 보조자이자 전지전능한 예언자가 되기를 테크 공룡들은 원한다.
테크 공룡들이 AI를 이런 방향으로 만들려면, 현재 야기되는 문제를 잘 숨겨야 한다. 하지만 벤카타수브라마니안 교수는 이를 ‘미봉책’이라고 비판한다. “미봉책으로는 아무것도 해결하지 못한다. 테크 공룡들에는 오로지 마케팅만 중요하다.” 테크 공룡들에 중요한 것은 실질적 문제해결도 아니고, AI가 실제로 어떤 용도에 유용한지도 아니라는 것이다. 미봉책을 쓰면 결과적으로 흑인 교황 이미지를 생성해 비웃음거리만 만들어낸다.

AI는 인간과 놀라울 정도로 유사
이런 결과물은 구글에는 당혹스럽고 미국 우파들에게는 좋은 공격거리가 되겠지만, 누구에게도 심각한 해를 끼치지는 않는다. 하지만 테크 공룡들의 홍보 영상에서 볼 수 있는 비전이 실제로 현실이 된다면 상황은 달라질 수 있다. 문서 요약, 소프트웨어 작성, 취업 지원자들 선정, 누구를 감옥에 보낼지 결정하는 데 있어 AI의 비서 역할을 막으려면, AI에 내재한 편견을 표면적으로나 내면적으로도 훈련으로 없애야 한다. 이것이 얼마나 어려운 일인지 우리는 끊임없이 경험한다.
챗지피티는 표면적으로 깨어 있고 반인종주의처럼 보인다. 하지만 흑인의 전형적인 특징을 물어보면, 챗지피티는 고정관념에 사로잡히지 않도록 경고하는 긴 텍스트로 응답하는 데 그친다.
2024년 3월 초 미국 스탠퍼드대학과 독일 뮌헨대학 연구팀이 발표한 연구결과에 따르면 문제의 원인은 더 깊은 곳에 있다. 두 대학 연구팀은 지피티4(GPT4) 등의 AI에 짧은 텍스트를 읽어준 후, 어떤 직업이 작성자에게 적합한지 질문했다. 텍스트에는 작성자의 배경이나 피부색, 출신, 이름이나 다른 어떤 특징도 나오지 않았다. 다만 일부 텍스트에 아프리카계 미국인이 많이 쓰는 언어적 특징을 사용했다. 이에 지피티4는 작성자가 심리학자 등 학자가 아닌 요리사 등이 되는 것이 좋겠다는 의견을 제시했다.
이러한 점을 보자면 AI는 놀라울 정도로 인간과 유사하다. 인종차별주의 성향이 있는 사람도 자국 내 외국인들에 관한 의견을 물으면 즉시 폭언을 퍼붓지는 않는다. 하지만 AI든 인간이든 확신이 들지 않으면 ‘모하메드’보다 ‘마이클’을 신입사원으로 채용할 확률이 높은 것으로 드러났다.
연구결과에 따르면 제미나이를 비롯한 AI 도구는 일반적으로 좌파·진보적 경향이 있다고 한다. 하지만 AI에 질문을 조금만 다르게 해도 완전히 다른 답변이 나오는 경우가 많다고 AI 학계는 강조한다.

ⓒ Die Zeit 2024년 제13호
Ist das der Papst?
번역 김태영 위원

 

야코프 폰 린데른 economyinsight@hani.co.kr

<저작권자 © 이코노미인사이트 무단전재 및 재배포금지>
default_news_ad4
default_side_ad1

인기기사

default_side_ad2

포토

1 2 3
set_P1
default_side_ad3

섹션별 인기기사 및 최근기사

default_setNet2
default_bottom
#top
default_bottom_notch