인공지능 직장동료를 이해하기 위한 4가지 규칙

사진 출처, BSIP
인간의 일터에서 인공지능이 사용된 첫 사례는 1959년으로 거슬러 올라간다.
당시 장거리 통화는 목소리 울림 때문에 제대로 이뤄지지 못하는 경우가 많았다. 이 문제를 해결한 건 다수 적응 선형 뉴런(Multiple ADAptive LINear Elements), 매덜린(MADALINE)이라고 이름 붙여진 인공지능이었다.
매덜린은 수신 신호가 발신 신호와 같을 경우, 이를 인지해 삭제하는 방법으로 울림 문제를 없앴다. 이 훌륭한 방안은 지금도 쓰이고 있다.
똑똑한 컴퓨터가 우리의 일을 대신하게 될 거란 사실은 이제 일반적으로 받아들여진다. 컴퓨터는 우리가 아침 토스트를 다 먹기도 전에 일주일치 일을 끝내버릴 수도 있다. 컴퓨터는 커피 마시는 시간, 연금, 심지어 수면도 필요로 하지 않는다.
미래엔 물론 많은 일이 자동화 되겠지만 적어도 향후 얼마간은 인공지능과 인간이 함께 일할 가능성이 크다.

사진 출처, Arterra
인공지능은 사기 행각을 막아내거나 의사보다도 더 확실하게 암을 진단하는 등 다양한 직업군에서 엄청난 능력을 보여주고 있다.
하지만 현재 가장 발달한 인공지능마저도 일반지능을 따라오진 못했다. 컨설팅 업체 맥킨지가 지난해 펴낸 보고서에 따르면, 현재의 기술 단계에선 전체 직업의 5%는 완전히 자동화 되겠지만 60%는 업무의 3분의 1 정도만 로봇이 도맡을 것으로 예상된다.
그러나 한계도 존재한다. 인종차별에 대한 성향이라든지, 스스로 목표를 정하거나 문제를 풀지 못한다는 점, 문제 해결 과정에 상식을 적용하지 못한다는 점 등 로봇 노동자들은 대부분의 인간이 손쉽게 생각하는 기술마저도 갖고 있지 않다.
'해피엔딩'으로 결론 내리기 전, 새로운 로봇 동료와 일하는 것과 관련해 당신이 알아야 할 것들이 있다.
규칙1: 로봇은 인간처럼 생각하지 않는다
매덜린이 장거리 통화에 혁신을 가져올 즈음, 헝가리-영국계 철학가인 마이클 폴라니는 인간 지능에 대해 고민하고 있었다.
그는 정확한 문법 사용과 같은 특정 기술은 규칙으로 쉽게 정리돼 타인에게 설명 가능한 반면, 많은 다른 기술들은 그렇지 않다는 것을 깨달았다.
인간은 인지조차 없이 암묵적 능력을 발휘하곤 한다. 폴라니는 "우리는 우리가 표현할 수 있는 것보다 더 많이 알고 있다"고 했다. 인간은 오토바이를 타거나 밀가루를 반죽하거나, 또는 이보다 더 어려운 일들을 해내는 실용적인 능력을 갖고 있다.

사진 출처, VCG
하지만 우리가 이런 일들을 어떻게 해내는지 규칙을 알지 못한다면, 이를 컴퓨터에게 가르칠 수도 없다. 이것이 바로 폴라니의 역설이다.
컴퓨터 과학자들은 인공지능이 인간을 모방하게끔 하지 않고 완전히 다른 방식, 즉 데이터를 기반으로 생각하도록 설계했다.
마이크로소프트 연구소 리치 카루아나 선임 연구원은 "많은 이들이 인공지능의 동작 방식이 인간의 사고 처리 방식과 동일하다고 생각할 수 있다. 하지만 그렇지 않다"고 강조했다.
그는 비행기의 경우를 예로 들었다. 비행기는 새의 비행에 대한 정확한 연구가 이뤄지기 전 발명됐다. 뿐만 아니라, 비행기의 항공 역학은 새가 나는 원리와 다르다.
매덜린처럼 많은 인공지능은 신경망 형태를 띠고 있다. 이 인공지능들은 수학적 모델을 이용해 방대한 양의 데이터를 분석함으로써 학습한다.
예를 들어, 페이스북은 얼굴 인식 소프트웨어인 딥페이스(DeepFace)를 4백만 개 이상의 사진을 바탕으로 훈련시켰다. 같은 사람으로 분류된 이미지들의 패턴을 발견함으로써 딥페이스는 97%의 확률로 이름과 얼굴을 일치시킬 수 있게 됐다.
딥페이스 같은 인공지능은 실리콘 밸리의 '떠오르는 별'이다. 이미 운전과 음성인식, 번역 등의 분야에선 인간보다 뛰어난 능력을 보이고 있다. 향후 인공지능은 건강 관리에서 금융에 이르기까지, 다양한 분야에 침투할 전망이다.
규칙2: 로봇도 실수를 한다
로봇의 데이터 기반 방식은 때로는 엄청난 실수로 이어진다. 로봇의 신경망이 3D 프린터로 만들어진 거북이를 소총으로 인식했던 게 한 예다.
인공지능은 "그것은 비늘과 껍질이 있으므로 거북이다"와 같은 말을 개념적으로 받아들이지 못한다. 대신 시각적 패턴을 바탕으로 판단을 내린다. 사진 픽셀을 하나만 바꿔도 이상한 답이 도출될 수 있다는 이야기다. 이는 인공지능의 상식 부족을 방증하는 사례이기도 하다.
2015년 딥마인드 인공지능 관련 실험이 그 대표적인 예다. 당시 연구진은 딥마인드가 클래식 아케이드 게임인 '퐁(Pong)'을 잘 할 때까지 하도록 명령했다.
예상대로 딥마인드는 몇 시간 내 인간 사용자를 모두 이겼을 뿐만 아니라 새로운 방식으로 이기는 방법도 찾아냈다. 하지만 거의 동일한 게임인 브레이크아웃(Breakout)을 시키자, 인공지능은 완전히 처음부터 다시 시작해야 했다.
로봇이 문제 해결 과정에서 습득한 정보를 비슷한 종류의 다른 문제 해결에 사용할 수 있게 하는 능력, 즉 학습 전이(Transfer Learning)는 주요 연구 분야가 됐다. IMPALA로 불리는 한 시스템은 30가지 환경에서의 지식 전이 능력을 보여주기도 했다.

사진 출처, Arterra
규칙3 : 로봇은 결정의 이유를 설명하지 못한다
인공지능의 또 다른 문제는 현대의 폴라니 역설이다. 인간조차도 우리 뇌가 어떻게 학습하는지 완전히 이해할 수 없기 때문에, 인간은 인공지능이 통계학자처럼 생각하도록 만들었다.
여기서 발생하는 모순은 이제 우리는 인공지능 내부에서 어떤 일이 벌어지고 있는지 모른다는 것이다.
이는 '블랙박스 문제'라고 불린다. 어떤 데이터가 들어갔는지, 그리고 그 결과물이 어떤지도 알 수 있지만 그 결과물이 '어떻게' 만들어졌는지는 알 수 없다.
카루아나 선임 연구원은 "이제 우리가 알지 못하는 지능이 두 가지가 있다고 보면 되는 것"이라고 말했다.
신경망은 언어능력을 장착하고 있지 않아 무엇을 하고 있는지, 왜 하고 있는지 설명할 수도 없다. 다른 모든 인공지능과 마찬가지로 상식 역시 없다.
수십년 전, 카루아나 선임 연구원은 신경망을 의료분야에 적용했다. 증상과 결과 등을 토대로 환자의 사망 가능성을 계산해 의사들이 예방 조치를 취할 수 있게 하려는 의도였다. 이 기술은 잘 작동하는 것처럼 보였다.
그런데 어느 날, 미국 피츠버그 대학교의 한 대학원생이 이상한 점을 발견했다.
그는 동일한 데이터를 알고리즘으로 처리해 컴퓨터의 의사 결정 논리를 읽어내려 하고 있었다. 그러던 중, 컴퓨터가 "당신이 폐렴을 앓고 있다면 천식은 당신에게 유용하다"고 판단한 것을 발견했다.
천식은 폐렴을 일으킬 수 있는 위험 요소다. 그럼에도 왜 컴퓨터가 이런 규칙을 습득했는지 알 수는 없다.
한 가지 가설은, 천식을 앓은 적이 있는 환자는 폐렴이 오려고 할 때 아주 빨리 의사를 찾기 때문에 이같은 행동 패턴이 환자들의 생존률을 높였을 것이란 추측이다.
공익을 위한 인공지능 사용에 대한 관심이 높아지면서, 많은 전문가들이 우려하고 있다.
올해 발효되는 유럽연합 규제는 개개인에게 인공지능 결정 논리에 대한 설명을 제공받을 권리를 주는 내용을 담고 있다. 미국 군사연구기관 방위고등연구계획국(Darpa)은 설명 가능한 인공지능 개발 프로그램에 7000만 달러를 투자했다.
해당 연구 담당자인 데이비드 거닝은 "시스템의 정확성을 최대한 향상시키라는 지시가 있었지만, 우리가 감수해야 하는 건 이같은 시스템이 너무나 불투명하고 복잡하다는 것"이라며 "시스템이 특정 항목을 추천하거나 게임에서 어떤 수를 두었을 때 그 이유를 알 수가 없다"고 설명했다.
규칙4: 로봇은 편견을 가진다
일부 인공지능 알고리즘이 성차별이나 인종차별적 성향을 드러낼 수 있다는 목소리도 크다.
실제로 최근 한 소프트웨어는 범죄자의 재범 가능성에 대해 조언하는 임무를 맡기자 흑인에게 2배 엄격한 결과를 내놨다.
이는 결국 알고리즘이 어떻게 훈련을 받았는지와 직결된다. 입력된 데이터가 빈틈 없다면 그 알고리즘이 내놓는 결과도 정확할 가능성이 높다.
하지만 인공지능이 기능하는 데 인간의 편견이 이미 포함돼 있는 경우가 적지 않다. 그 중 한 예가 구글 번역기다.
한 연구에 따르면 구글 번역기에서 '그는 간호사고, 그녀는 의사다"라는 문장을 헝가리아어로 번역한 뒤 다시 영어로 번역하면 '그녀는 간호사고, 그는 의사다'라는 문장이 뜬다.
알고리즘은 약 1조 개의 웹페이지를 바탕으로 훈련 받는다. 그러나 알고리즘이 할 수 있는 건 패턴을 찾아내는 것 뿐이다. 의사는 남자일 가능성이 높고, 간호사 중엔 여자가 많다는 것 등이 그 패턴에 해당한다.
또 편견이 포착되는 부분은 가중치다. 사람과 마찬가지로, 인공지능도 데이터에 가중치를 부여해 분석한다. 이는 어떤 매개 변수가 더 혹이 덜 중요한지 결정하며 진행된다.
그러다보니 사람의 거주지가 신용 점수와 관련이 있다는 결론이 나올 수도 있다. 대체로 가난한 동네에 사는 소수민족을 차별하는 것 등은 이미 미국에서 일어나고 있는 일이다.
이는 단순히 인종차별이나 성차별에 대한 것이 아니다. 우리가 전혀 예상하지 못한 편견도 있을 수 있다.
노벨상 수상자인 경제학자 대니얼 카너먼은 인간의 비이성적 편견에 대한 연구에 생을 바쳤다.
그는 2011년 프리코노믹스(Freakonomics) 블로그에 게재된 인터뷰에서 "인공지능의 본성으로 인해, 체험에 기반한 발견적 학습법은 인공지능에 대한 편견을 낳을 것이며 이는 인간의 지능과 인공지능 모두에 해당된다"고 지적했다.
그러면서도 "인공지능의 발견적 학습법이 반드시 인간의 학습법과 같진 않다"고 덧붙였다.
로봇은 점점 더 우리 삶과 가까워지고 있다. 그들은 우리의 노동 방식을 영원히 바꿔 놓을 전망이다. 하지만 로봇이 조금 더 인간다워지려면 당분간 사람과 함께해야 할 것이다.
분명한 건, 로봇이라는 동료가 우리를 더욱 돋보이게 할 것이란 사실이다.











