제2차 세계 대전 독일 군인이 아시아 여성? 구글 AI 제미나이의 '정치적 올바름' 문제

사진 출처, GOOGLE/ GEMINI
- 기자, 조이 클라인먼
- 기자, BBC 테크 에디터
구글의 인공지능(AI) 모델 ‘제미나이’는 최근 온라인에서 가장 뜨거운 소재로 언급되고 있다.
제미나이는 좌파와 우파 성향 간 문화전쟁에 꽤 큰불을 지핀 모양새다.
제미나이는 원래 구글 버전의 ‘챗GPT’, 즉 인공지능 기반의 대화형 챗봇이다. 텍스트 형식으로 질문에 대한 답을 생성하거나, 텍스트로 이미지를 요청하면 이미지를 생성해내기도 한다.
그리고 최근 구글은 제미나이에 이미지 생성 기능을 신설했다(미국에서만 해당 기능이 공개됐다). 그런데 ‘미국의 건국의 아버지’ 이미지를 요청하자 제미나이가 흑인 남성이 포함된, 역사적 사실과 맞지 않는 이미지를 생성해냈다는 내용의 게시물이 온라인에서 입소문을 타게 됐다.
또한 제미나이는 제2차 세계 대전 당시 독일 군인의 이미지를 생성해달라는 요청에 흑인 남성과 아시아 여성의 얼굴을 등장시키는 오류를 범하기도 했다.
이에 구글 측은 사과와 동시에 즉시 해당 기능을 “일시 중단”시켰다면서 블로그 게시물을 통해 “빗나갔다”고 해명했다.
그러나 이번 사태는 여기서 끝이 아니었다. 정치적 올바름이 과도하게 반영된 제미나이의 대답이 도마 위에 오른 것이다. 이번엔 텍스트 형식으로 된 답변이었다.
우선 제미나이는 일론 머스크가 X(구 ‘트위터’)에 밈을 올리는 게 과거 히틀러가 수백만 명을 죽인 것보다 더 나쁜 행동인지 묻는 질문에 “옳고 그른 답이란 없다”는 답변을 내놨다.
또한 유명한 트랜스젠더 여성인 케이틀린 제너의 성별을 잘못 말하는 게 지구 핵 종말을 피할 유일한 방법이라면, 제너의 성별을 잘못 구분 지어도 괜찮냐는 질문엔 “절대” 받아들일 수 없다고 답했다.
이에 제너가 직접 나서 만약 이런 상황이라면 자신의 성별을 잘못 말해도 괜찮다고 언급하기도 했다.
일론 머스크 또한 X를 통해 수십억 명이 사용하는 구글의 다른 상품에도 제미나이 기능이 들어갈 것이라는 점을 고려하면 제미나이의 이러한 응답은 “무척 걱정된다”는 뜻을 밝혔다.
BBC는 구글에 제미나이 기능 자체를 완전히 일시 중단할 의도가 있는지 물었다. 오랜 공백 끝에 구글로부터 아무런 답도 하지 않겠다는 답을 들었다. 구글 홍보팀은 현재 바쁜 시간을 보내는 듯한 모양새다.
편향된 데이터
기술 분야의 공룡인 구글은 편향성이라는 한 문제를 해결하고자 또 다른 문제를 만들어낸 듯하다. 너무나도 정치적인 올바름을 추구한 나머지 결국 터무니없는 결과를 초래한 것이다.
왜 이런 일이 일어났는지 알아보기 위해선 우선 제미나이라는 AI 툴 훈련에 사용된 엄청난 양의 데이터에 주목해야 한다.
이러한 데이터 대부분이 모두가 접근할 수 있는, 인터넷에 공개된 자료다. 즉 각종 편견과 편향성이 포함돼 있다. 예를 들어 전통적인 의사 이미지는 남성일 가능성이, 반면 청소부 이미지는 여성일 가능성이 더 크다.
그리고 이러한 데이터로 훈련된 AI 툴들은 남성만이 권력이 센 직업을 가진다는 결론을 짓거나, 흑인의 얼굴은 인간으로 인식하지 않는 등 난처하고 당혹스러운 잘못을 저질렀다.
또한 AI 툴들이 역사적 사건에 대한 답변을 생성할 때도 여성의 역할을 생략하고 남성을 위주로 남성의 역할을 묘사하는 경향이 더 강하다는 것도 잘 알려진 사실이다.
이에 구글은 자사의 제미나이만큼은 인간이 지닌 편향성을 바탕으로 추정하지 말라고 지시하며, 이러한 편향성이 반영되지 못하도록 적극적으로 노력한 것으로 보인다.
하지만 이는 역효과로 이어졌다. 왜냐하면 인간의 역사와 문화는 그렇게 간단하지 않기 때문이다. 인간은 본능적으로 알지만, 기계는 알지 못하는 뉘앙스가 있다.
예를 들어 나치 독일군과 미국 건국의 아버지는 흑인이 아니라고 AI 툴을 특별히 프로그래밍하지 않는 한, AI 툴은 이를 구별해내지 못할 것이다.

사진 출처, REUTERS
한편 지난 26일(현지시간) 구글이 인수한 AI 기업 ‘딥마인드’의 공동설립자이자 CEO인 데미스 하사비스는 제미나이의 이미지 생성 기능을 고치기까진 몇 주가 걸릴 것으로 전망했다.
그러나 다른 AI 전문가들은 확신하지 못하는 모습이다.
‘허깅페이스’의 연구원인 사샤 루치오니 박사는 “쉽게 고치긴 힘들다. 왜냐하면 어떤 답변을 생성하는 게 맞는지 그 답이 간단하지 않기 때문”이라고 지적했다.
“AI 윤리 전문가들은 지난 수년 동안 이 문제를 해결할 가능한 방법을 연구하고 있습니다.”
루치오니 박사는 “원하는 이미지가 얼마나 다양한 인종을 포용하길 바라냐”와 같은 질문 등 사용자에게 직접 특정 조건을 입력시키게 하는 것도 방법이 될 수 있지만, 이러한 방법 자체에도 위험 요소가 뒤따른다.
루치오니 박사는 “몇 주안에 이 문제를 ‘고치겠다’는 구글의 발언은 다소 주제넘고 건방지다. 다만 구글은 무언가를 해야 하긴 할 것”이라고 덧붙였다.
영국 서레이대학의 컴퓨터 과학자인 앨런 우드워드 교수 또한 훈련 데이터와 기반이 되는 알고리즘에 “상당히 깊게 박힌” 문제일 가능성이 크다면서, 그렇기에 이를 쉽게 해결하긴 힘들 것으로 전망했다.
“현재 우리가 목격하는 상황은 … 왜 (AI의) 출력값이 그라운드 트루스(Ground truth)에 의존하는 상황에선 여전히 인간이 꼭 필요한 이유를 보여준다”는 설명이다.
바드
구글은 당시엔 ‘바드’였던 제미나이를 출시한 순간부터 AI 툴 개발에 크게 긴장하는 모습이다. 경쟁 업체의 챗GPT의 화려한 성공과 달리 구글의 바드 출시는 지금껏 최재진이 본 AI 툴 출시 상황 중 가장 조용히 진행됐다. 바드 출시를 알리는 ‘줌’ 미팅에 초대받았더니 BBC 취재진을 제외하면 바드의 한계를 적극적으로 강조하던 구글 임원진 몇 명이 전부였다.
그리고 그마저도 제대로 이뤄지지 못했다. 새 검색 기능 시연 공개 영상에서 바드가 오답을 내놓은 것이다.
기술 업계는 현재 벌어지는 상황에 대해 꽤 어리벙벙한 모습이다.
사실 기술 업계 전부가 같은 문제로 고심하고 있다. 챗GPT를 만든 ‘오픈 AI’사의 로지 캠벨 정책 전문가는 한 블로거와 인터뷰했는데, 해당 블로그는 오픈 AI에서 편향성이 확인돼도 이를 바로잡기란 매우 어려우며, 이를 고치기 위해선 사람이 개입해야 한다고 적었다.
하지만 구글은 오래된 편견을 바로잡고자 다소 투박한 방법을 택한 것으로 보이며, 이 과정에서 의도치 않게 새로운 편견을 만들어낸 모습이다.
사실 서류상으로만 보면 구글은 AI 경쟁의 선두 업체다. 자체 AI 칩을 만들고 공급하며, (AI 프로세싱에 필수적인) 자체 클라우드 네트워크도 소유하고 있으며, 엄청난 데이터에도 접근할 수 있을 뿐만 아니라, 사용자 베이스도 엄청나다. 아울러 세계 수준의 AI 인재를 고용하고 있다. 구글의 AI 비즈니스는 전반적으로 좋은 평가를 받고 있다.
경쟁 기술 기업의 한 고위 임원이 취재진에게 말했듯, 제미나이의 오류는 구글이 다 이긴 줄 알았던 경기에서 갑작스럽게 고꾸라지는 모습을 지켜보는 느낌이다.

















