구글에서 유튜브 추천 알고리즘을 설계했던 기욤 샤슬로. 회사의 방침에 문제제기를 하다 해고되었다. 이 문제를 다룬 영국 <가디언>은 "유튜브 알고리즘이 어떻게 진실을 왜곡하는가"라는 제목의 심층보도를 했다.

구글에서 유튜브 추천 알고리즘을 설계했던 기욤 샤슬로. 회사의 방침에 문제제기를 하다 해고되었다. 이 문제를 다룬 영국 <가디언>은 "유튜브 알고리즘이 어떻게 진실을 왜곡하는가"라는 제목의 심층보도를 했다. ⓒ 가디언 화면캡처

 
2013년 10월, 기욤 샤슬로는 구글에서 해고됐다. 그는 프랑스 출신의 프로그래머로, 인공지능 분야의 탁월한 전문가다. 그는 네덜란드의 마스트리히트 대학에서 인공지능 알고리즘으로 박사학위를 받았고, 잠시 마이크로소프트에서 일한 뒤 구글로 자리를 옮겼다.
 
샤슬로는 여러모로 구글과 인연이 깊은 듯 보였다. 구글에 입사하기 훨씬 전에 '알파고'의 아버지뻘 되는 소프트웨어 개발에 참여했기 때문이다. 2016년 알파고와 이세돌의 대국은 한국과 전 세계를 경악의 도가니로 몰아넣었지만, 인공지능이 9단 기수를 꺾은 것은 그보다 한참 전이었다.
 
비록 9점을 접고 둔 바둑이기는 했으나, 2008년에 소프트웨어 '모고(MoGo)'가 김명완 기사를 꺾는 성과를 거뒀다. 당시 개발자들은 '몬테카를로 방법'이라는 함수계산법을 적용했다. 이것은 시행착오를 수없이 반복하면서 해법에 근접해가는 것으로, 바둑처럼 가능한 수가 무한대에 가까운 게임에 매우 적절한 선택이었다.
 
이후 구글은 모고의 작동방식을 발전시켜 '알파고'를 개발하기에 이른다. 모고를 만드는 데 힘을 보탠 샤슬로가 구글의 인공지능팀에 참여한 것은 매우 자연스러운 흐름으로 보였다. 그는 유튜브의 추천 알고리즘을 설계하는 일을 맡았다. 이 중책을 맡았던 개발자가 하루아침에 해고된 것이다.
 
구글 사측은 '업무성과 불만족' 사유를 댔으나, 당사자인 샤슬로는 다른 이유가 있을 것으로 판단했다. 회사가 요구한 설계방식에 계속 반대해왔기 때문이라는 것이다. 구글은 대체 어떤 알고리즘을 원했던 것일까?
  
 유튜브

유튜브 ⓒ pixabay

 
'인공지능'이라는 신화
 
인공지능은 인터넷 업계의 좋은 친구다. 밤낮 부려도 병원 신세를 질 일이 없고, 야근수당 같은 것도 걱정할 필요가 없다. 무엇보다 '호구'여서, 회사가 져야 할 책임을 일방적으로 떠넘기기에 좋다.
 
수년간 검색어 조작과 뉴스 배치 조작 의혹을 받아온 네이버를 보자. 그때마다 회사는 줄기차게 '그런 일은 있을 수 없다'는 답변을 내놓곤 했다. 애초에 '인위적 조작이 불가능한 구조'라는 것이다 .
 
하지만 그 '불가능한 구조'를 뚫고 관리자가 부당하게 개입했다는 정황이 드러나자 대표는 사과했다. 하지만 내놓은 해결책은 또 '인공지능'이었다. '인공지능 기술을 적용해 사람이 개입하는 영역을 줄이겠다'는 것이다.
 
그러니까 '사람이 문제'라는 것이다. 정말 그럴까? '어떤 사람'인가와, 그 사람이 어떤 목적으로 운영되는 조직에서 일하는가가 더 중요하지 않을까?
 
알고리즘도 마찬가지다. '사람이냐 인공지능이냐'가 아니라, 어떤 알고리즘이 어떤 목적으로 운영되는가가 훨씬 중요하다. 대학에서 뉴미디어를 가르치는 나는 네이버 사건을 큰 관심을 가지고 지켜보았다.
 
대표의 즉각적인 사과는 썩 잘한 일이었으나, 대안으로 '인공지능'을 언급하는 순간 내 입에서는 한숨이 흘러나왔다. 그리고 사건이 발생한 지 1년 뒤인 11월 29일 '네이버 뉴스 알고리즘 검토위원회'의 발표가 나왔다.
 
"네이버 뉴스검색 결과는 알고리즘을 통해 자동으로 배치되기 때문에 관리자의 개입은 원칙적으로 불가능한 구조로 되어있는 것을 확인했다."
 
전문가들이 6개월간에 걸쳐 검증했다는 내용은 '사람이 손대지 않는다'였다. 내가 궁금했던 이야기, 즉 '그 알고리즘이 어떤 목적으로 짜여 있는가'에 대한 답은 나오지 않았다.
 
장담컨대, '알고리즘 해결책'은 또 다시 큰 문제를 낳을 것이다. 이 글은 바로 그 문제를 다룬다.
 
네이버 알고리즘은 여성혐오자?
 
네이버가 해법으로 제시한 '알고리즘'의 현실을 보자. 검색창에서 '여자는'이라고 입력하면 나머지는 '알아서' 완성된다. 첫번째가 "남자는 배 여자는 항구"라는 케케묵은 노랫말이고, 두 번째가 "여자는 no하는 남자에게 yes한다"이다.
 
이것만으로 충분히 한심한데, 그다음 답변은 더욱 '공격적'으로 돌변한다. 세번째 검색어로 "여성은 '펠XX오'가 먼저일까 '쿤XXX스'가 먼저일까"라는 노골적 성행위 표현이 뜨더니, 네번째로 "여자는 갑작스런 애무를 좋아한다"는, 성범죄를 조장하는 듯한 주장이 추천 검색어에 오른다.
  
 네이버 검색창에 '여자는' 또는 '여자는 왜'를 입력하면 왜곡되거나 부적절한 추천 검색어가 제시되는 것을 볼 수 있다. 알고리즘은 '공정성'이나 '감수성'처럼 모호하지만 인간사회에 매우 중요한 개념들을 이해하지 못한다. 네이버 화면 캡처

네이버 검색창에 '여자는' 또는 '여자는 왜'를 입력하면 왜곡되거나 부적절한 추천 검색어가 제시되는 것을 볼 수 있다. 알고리즘은 '공정성'이나 '감수성'처럼 모호하지만 인간사회에 매우 중요한 개념들을 이해하지 못한다. 네이버 화면 캡처 ⓒ 강인규

 
하지만 '남성'을 검색하면 "남자는 말합니다," "남자는 배 여자는 항구"(네이버 알고리즘의 '18번'인 모양이다), "남자는 X대학에 가야 한다", ""남자는 yes하는 여자에게 no한다", "남자는 가끔 행복한 혼자를 꿈꾼다", "남자는 가르치면 된다"(누구는 가르쳐도 안 되는 모양이다)가 검색어로 제시된다.
 
사람이 개입하지 않는 알고리즘이 궁극적 해결책이라면, 이 문제는 어떻게 해결해야 할까? 관리자를 인공지능으로 바꿔도 안 되니, 회사 대표를 인공지능으로 교체해 보고, 그래도 안 되면 사용자를 인공지능으로 대체해야 할까?
 
당연히 네이버는 인공지능의 한계를 잘 알고 있다. 그러면서도 이것을 궁극의 해결책처럼 내놓는 이유는 책임회피의 수단으로 유용하기 때문이다. 앞으로 문제가 발생하면 '사용자의 어뷰징(악용)' 때문이고, 이에 대한 대책으로 '더 강력한 인공지능을 도입하겠다'고 말하면 된다.
 
인공지능에 대한 터무니없는 환상
 
사람들은 인공지능에 큰 환상을 품고 있다. 일단 용어부터 문제다. "인공지능"은 1950년대 중반에 만들어진 말이다. 컴퓨터 기술이 원시적 수준에 머물러 있던 시대에 고안된, 과학보다는 꿈, 기대, 공상, 신화에 가까운 용어다.
 
'인공지능'이라는 표현이 미국 교외의 대학교정에서 처음 쓰인 뒤 15년 가까이 지나서야 나사는 아폴로선 발사에 소프트웨어를 쓰기 시작했다. 이때 사용된 컴퓨터 사양이 64킬로바이트 메모리에 속도는 0.043MHz였다. 오늘날 전기밥솥도 이보다 강력한 컴퓨팅 파워를 쓴다.
 
최신 스마트폰은 말할 것도 없고, 삼성이 2009년 출시한 첫 갤럭시폰 한 대로 아폴로 수만 대를 동시에 날릴 수 있을 정도다. 이러니, 1950년대에 만들어진 '인공지능'이 과학적 현실을 반영하지 못하는 것은 당연하다. 흥미로운 점은, 컴퓨터 기술은 비약적으로 발전했는 데도 '인공지능'에 대한 인식은 50년대와 크게 다르지 않다 사실이다.
 
사람들은 흔히 '인공지능'과 '알고리즘'을 구분하지 않고 뒤섞어 쓴다. 하지만 '인공지능'은 문학적 은유에 가까우며, 그것도 꽤 빗나간 은유다. 컴퓨터는 사람 두뇌와 다르게 작동하기 때문이다.
 
최근 한국에서 '코딩 교육' 열풍이 불고 있다. '논리적 사고를 키우기 위해서'라는 것이다. 만일 뇌와 컴퓨터의 작동방식이 유사하다면 '컴퓨터처럼 사고하기'를 배울 까닭이 뭐가 있을까?
 
알고리즘은 수단을 가리지 않는다
 
'코딩' 즉, 프로그래밍의 첫 단계는 순서도와 친해지는 것이다. 이것은 모든 상황을 '그렇다' 아니다'의 두 경우로 압축해서 취할 행동을 결정하는 체계다. 프로그래머가 이 패턴을 익혀야 하는 이유는 컴퓨터가 0과 1을 조합한 이진법의 논리로 작동하기 때문이다.
 
널리 쓰이는 '전구' 순서도 예를 들어보자. 방에 등이 켜지지 않으면 '전구가 꽂혀있는가?'라는 질문을 던지는 것으로 시작한다. 답이 '아니'라면 "전구를 넣는다"라는 결론에 이르고, '그렇다'면 '전구 필라멘트가 타버렸는가'라는 또 다른 질문으로 간다. 그리고 답변에 따라 각기 '전구를 수리한다'와 '새 전구를 구한다'라는 대책을 내놓는다.
 
전구만 켤 수 있다면 유해물질이 든 제품도 상관없고, 어떤 방식으로 전구를 구해도 상관없다. 이게 알고리즘이 작동하는 방식이다. 알고리즘은 '논리적'이라기보다 '단선적'이다. 어떤 과정을 거치든 목표만 달성하면 되기 때문이다.
 
"35 빼기 18은?"이라는 질문을 받으면 우리는 무조건 뒷자리부터 계산하기 시작한다. 어려서 배운 '알고리즘' 때문이다. 알고리즘은 '지능'이 아니라 목표에 가장 쉽고 빠르게 도달하게 해 주는 규칙의 집합이다.
 
프로그래머들은 '인공지능'이라는 말을 잘 쓰지 않으며, 대중들이 이 말로 지칭하는 대상은 사실 '알고리즘의 조합'일 뿐이다. 알고리즘은 '중립'이나 '공정성'과 관련이 없으며, 오직 운영자가 정해준 목적에 충실할 뿐이다. '사람을 배제한 알고리즘'이 해결책이 될 수 없는 까닭이 여기에 있다.
 
네이버의 알고리즘은 무엇을 추구하나
 
<대량살상 수학무기>의 저자 캐시 오닐은 알고리즘의 문제를 '요리'로 설명한다. 부모들은 대개 아이에게 가능한 한 많은 채소를 먹이고 싶어 한다. 따라서 아버지나 어머니가 자녀를 위해 요리를 할 때 '성공'의 기준은 아이가 시금치나 당근을 먹었느냐 여부로 결정된다.
 
반면에 식당에서 '성공'의 기준은 흔히 얼마나 많은 고객에게 음식을 팔았는가 이다. 다른 동기는 다른 규칙 따르게 만든다. 식당, 특히 상업체인 음식에 염분, 설탕, 지방 함량이 높은 것은 '고객의 건강을 해치겠다'는 사악한 동기 때문이 아니라, 그저 더 많이 팔고 싶다는 동기에서 선택한 알고리즘의 결과다.
 
그런데도 맹성현 네이버 뉴스 알고리즘 검토위원회 위원장은 "서비스 자동화는 공정성과 신뢰성 문제의 해결을 위한 효율적인 대안"이라는 결론을 내렸다. 공정성과 신뢰는 '그렇다-아니다'의 이분 논리로 해결할 수 있는 문제가 아닌데도 말이다.
 
네이버의 뉴스배치 소프트웨어는 어떤 목적을 위해 짜였을까? 독자들에게 균형 잡힌 정보를 노출시키겠다는 목적일까, 아니면 더 많은 사람들이 더 오랫동안 네이버에 머물도록 하겠다는 것일까?
 
물론 네이버도 기업이니 돈을 벌고 싶을 것이다. 하지만 영리활동이라고 모든 게 허용되는 것은 아니다. 음식을 팔겠다고 어떤 첨가물이든 퍼 넣을 수 있는 게 아니듯 말이다. 이것은 윤리의 문제만이 아니라 법의 문제이기도 하다.
  
 유튜브

유튜브 ⓒ pixabay

 
앞의 질문으로 되돌아가자. 유튜브는 왜 프로그래머를 해고했을까? 회사는 샤슬로에게 유튜브 추천 영상을 '사람들이 더 많이, 더 오래 보도록' 알고리즘을 짜도록 지시했고, 여기에 문제의식을 느낀 그는 순순히 따르지 않았다.
 
그리고 얼마 뒤 터진 것이 음모론과 허위정보로 얼룩진 유튜브 사태였다. 구글은 부랴부랴 '1만명의 편집자를 신규 고용하겠다'는 대책을 내놨다. 그런데도 한국에서는 네이버 검토위원회까지 나서서 '알고리즘이 대안'이라고 말하고 있다.

[기획 : 극단적 의견 양극화의 온상이 된 유튜브]
① 충격적인 유튜브 '엄마 몰카', 그보다 더한 것들
② "내가 카톡 하나 받았는데..." 충격적 유튜브 영상의 실체
③ '학교에서 섹X하는 법'... 사람들이 속수무책 당하는 이유
유튜브 네이버 인공지능 알고리즘
댓글13
이 기사의 좋은기사 원고료 10,000
응원글보기 원고료로 응원하기

언론학 교수로, 미국 펜실베니아주립대(베런드칼리지)에서 뉴미디어 기술과 문화를 강의하고 있습니다. <대한민국 몰락사>, <망가뜨린 것 모른 척한 것 바꿔야 할 것>, <나는 스타벅스에서 불온한 상상을 한다>를 썼고, <미디어기호학>과 <소셜네트워크 어떻게 바라볼까?>를 한국어로 옮겼습니다. 여행자의 낯선 눈으로 일상을 바라보려고 노력합니다.

top