23.12.08 11:48최종 업데이트 23.12.08 11:48
  • 본문듣기
한국의 공론장은 다이내믹합니다. 매체도 많고, 의제도 다양하며 논의가 이뤄지는 속도도 빠릅니다. 하지만 많은 논의가 대안 모색 없이 종결됩니다. 소셜 코리아(https://socialkorea.org)는 이런 상황을 바꿔 '대안 담론'을 주류화하고자 합니다. 구체적으로는 ▲근거에 기반한 문제 지적과 분석 ▲문제를 다루는 현 정책에 대한 날카로운 비판을 거쳐 ▲실현 가능한 정의로운 대안을 제시하고자 합니다. 소셜 코리아는 재단법인 공공상생연대기금이 상생과 연대의 담론을 확산하고자 학계, 시민사회, 노동계를 비롯해 각계각층의 시민들과 함께 만들어가는 열린 플랫폼입니다. 기사에 대한 의견 또는 기고 제안은 social.corea@gmail.com으로 보내주시기 바랍니다.[기자말]
[연속기획] 독과점 빅테크 두고만 볼 것인가

새로운 기술과 시장 지배력으로 무장한 빅테크 기업들이 우리 삶 속에 깊숙이 들어와 있습니다. 단지 편리하다는 이유만으로 수수방관하기에는 독과점으로 인한 폐해가 적지 않습니다. 유럽 등에서는 규제를 강화하고 있지만 우리나라는 아직 갈 길이 멉니다. 어떤 문제가 있고 어떻게 대처해야 할 것인지 살펴봅니다.


① 플랫폼의 독과점 실태와 규제
② 표적광고와 개인정보 보호
③ 인공지능을 둘러싼 논란
④ 인공지능 시대, 혁신과 규제 사이
 

샘 올트먼 OpenAI 최고경영자가 2023년 11월 16일 캘리포니아 샌프란시스코에서 열린 아시아태평양경제협력체(APEC) 리더스 위크에서 발언하고 있다. ⓒ AFP/연합뉴스

 
2011년 이후 미국 미시간에서 있었던 일이다. 당시 주지사가 된 리처드 데일 스나이더는 컴퓨터 하드웨어 회사 회장 경력을 살려 주정부의 재정적자 문제를 독특하게 해결하고자 했다. 알고리즘 기반 프로그램을 활용하여 '미시간 재창조'라는 예산절감 계획을 수립하고 두 가지 정책을 시행한 것이다.

하나는 '도망 중범죄자' 정책이었다. 미집행된 중범죄자 영장을 기초 데이터로 매칭 알고리즘을 사용하여 식량 수급 자격을 박탈하는 것이었다. 그러나 2012년 12월부터 2015년 1월까지 1만 9천 명 이상의 무고한 주민이 잘못 판정되어 수급 자격이 박탈되고 말았다. 이들은 대부분 빈곤층이었다.


다른 하나는 '미시간 통합 데이터 자동화 시스템(MiDAS)' 도입이었다. 미시간주 실업급여의 부정 수급을 자동 탐지하여 벌금을 부과하는 시스템이었다. 주정부는 민간 공급업체에 시스템 구축을 의뢰하면서 개인 기록의 데이터 불일치를 불법행위의 증거로 자동 처리하도록 시스템 설계를 요청했다. 이 시스템은 2013년 10월부터 2015년 8월까지 4만 명 이상의 미시간 주민을 부정 수급자로 잘못 식별했다.

예산 절감을 위해 도입한 이 시스템들은 오히려 주정부에 더 큰 비용으로 돌아왔다. 피해 주민들은 소송을 제기했기만 이미 1100여 명의 사람들이 파산한 뒤였다. 이민자는 추방 대상이 되었고, 많은 주민들은 사회적 평판이 하락하여 주택 임대, 구직, 대출 등에서 불이익을 얻는 등 부수적 피해도 잇따랐다.

흔히 인공지능(AI)은 이윤과 혜택을 약속하는 최적의 기술로 인식된다. 하지만 미시간의 사례가 단적으로 보여주는 것처럼, 현실에서 활용되는 인공지능은 개인을 점수화하여 평가하고 처벌하며 배제하는 것을 목적으로 설계될 위험성을 안고 있다.

인공지능은 혁신적인 기술이기도 하지만 핵무기와 같은 잠재적 위험성과 해악을 내포하는 규제 대상이기도 하다. 초지능(Super Intelligence)이 된 AI가 인간을 속이면 알아챌 수 없을 것이라 경고하는 인공신경망 연구의 개척자 제프리 힌턴 교수의 인터뷰, 인공지능 개발의 잠정적 중단을 주장하는 미국 생명미래연구소의 성명, AI 로봇이 인간 행세를 하게 하는ᅠ기술 임원들에게 '징역 20년'을 선고해야 한다는 유발 하라리의 주장 등 인공지능의 위험성에 대한 경고의 목소리는 갈수록 커지고 있다.

핵 위협과 직접 연결되는 인공지능  
 

조 바이든 미국 대통령이 10월 30일(현지시간) 워싱턴 백악관 이스트룸에서 열린 행사에서 인공지능 시스템에 대한 정부 규제에 대해 연설하고 있다. ⓒ AP/연합뉴스

 
최근 오픈AI의 최고경영자 샘 올트먼의 퇴출과 복귀 과정은 인공지능의 위험성과 관련하여 시사하는 바가 크다. 무엇보다 인류 자체를 위협하는 기술이 일개 사기업에서 개발되고 있다는 점을 가장 경계해야 한다. 오픈AI의 연구원들이 이사회에 보냈다는 논란의 편지에 따르면, 올트먼은 Q*(Q-Star) 프로젝트를 통해 범용 인공지능(AGI, Artificial General Intelligence)을 발견했으며, 이는 인류를 위협할 수 있는 강력한 인공지능이라는 것이다.

오픈AI는 범용 인공지능을 "경제적으로 가장 가치 있는 작업에서 인간을 능가하는 자율 시스템"으로 규정하고 있다. 대규모의 데이터 학습이 없이도 인간의 추론능력을 구사할 수 있는 시스템이 기업 연구실에서 별다른 제지 없이 개발되고 있다.

올트먼 퇴출 소동 직후 프랑스에서 개최된 인공지능 컨퍼런스에서 유럽연합 집행위원인 티에리 브르통은 "오픈AI와 같은 기업이 공익이 아니라 기업 자신의 이익을 옹호한다는 사실이 이제는 분명해졌다"고 말했다.

올해 7월 올트먼이 시장가치가 약 1조 1억 원 수준의 핵분열 스타트업인 오클로(Oklo)를 우회상장할 예정이라는 소식도 있었다. 인공지능 기술이 소형모듈원전(SMR) 사업과 같은 자본에 의해 개발되고 있다. 인공지능 기술이 '문자 그대로' 핵 위협과 직접적으로 연결되고 있음을 시사한다.

이러한 인공지능의 '실존적 위험'을 방지하기 위해 글로벌 사회는 규제를 서두르고 있다. 유럽연합, G7, 미국 등도 연달아 인공지능의 규제에 관한 법안이나 지침을 내놓고 있다. 지난 6월 14일 유럽연합 의회는 인공지능법(AI Act) 수정안을 채택하고 시행을 위한 입법절차를 진행 중이다. 10월 30일 바이든 미국 대통령이 인공지능 규제에 관한 행정명령에 서명했고, 11월 1일에는 영국에서 인공지능 안전성 정상회의가 처음으로 개최되었다. 12월 1일 G7도 인공지능 관련 국제규칙 제정을 위한 '히로시마 인공지능 프로세스'를 통해 국제 행동규범과 국제 지침을 최종 합의했다. 인공지능 규제를 향한 국제 공조가 본격화하는 모양새다.

이 중 미국의 행보가 가장 주목을 받고 있다. 미국이 인공지능 개발에서 헤게모니를 행사하고 있다는 점, 이번 행정명령이 일정한 한계에도 불구하고 인공지능 규제의 맥락에서 중요한 진전으로 평가되고 있다는 점에서 그러하다.

행정명령의 가장 중요한 목적은 AI 안전 및 보안에 대한 새로운 표준 수립이다. 인공지능 시스템 개발자는 안정성 테스트 결과 및 기타 중요 정보를 미국 정부와 공유해야 한다. 국방물자 생산법(Defense Production Act)에 따라 국가안보, 경제안보, 공중보건 및 안전에 심각한 위협을 초래하는 파운데이션 모델을 개발하는 기업은 해당 모델 훈련 단계에서(즉 출시나 서비스 전에) 연방 정부에 통보하고 레드팀(취약점을 발견해 공격하는 역할을 부여받은 팀)의 안전성 테스트 결과를 공유하도록 요구하고 있다.

국립표준기술연구소(NIST)는 공개 전에 안전을 보장하기 위해 광범위한 레드팀 테스트를 위한 엄격한 기준을 설정하도록 하였으며, 국토안보부는 이러한 표준을 중요 인프라 부분에 적용하고, AI 안전 및 보안 위원회를 설립하도록 했다. 또한 중요 인프라에 대한 AI 시스템의 위협을 에너지부 및 국토안보부로 하여금 화학, 생물학, 방사선, 핵, 사이버 보안 위험과 함께 대처하도록 했다. 인공지능의 위협을 핵 위협 등과 같은 위험으로 취급하고 있는 것으로 보인다.

또한 상무부는 콘텐츠 인증과 워터마킹에 대한 지침을 개발하여 AI로 생성된 콘텐츠에 명확한 라벨을 부착하도록 했다. 각 기업은 상무부의 이러한 지침에 따라 라벨링과 워터마크 도구를 개발하게 될 것이다. 정부에서 발신하는 공문서 등이 진짜임을 쉽게 알 수 있도록 하겠다는 뜻이다.

미 행정명령 "사전에 통보·공개·검증해야"
 

영국 블레츨리 파크에서 열린 인공지능 안전 회의에 모인 각국 대표들과 기업가들이 단체 사진을 찍고 있는 모습. 2023.11.03 ⓒ AP/연합뉴스

 
이 행정명령은 기존 미 정부의 인공지능 규제보다 포괄적이고 강한 내용을 담고 있다. 핵심은 정식 공개 전 사전에 통보, 공개, 검증해야 한다는 점이다.

물론 이 행정명령에 대해 여러 한계가 지적되고 있기도 하다. 규제방식의 구체적인 내용이 포함되지 않았다는 점, 정권교체 등으로 행정명령의 내용이 뒤바뀌거나 효력이 상실될 수 있다는 점, 미 의회의 지지가 약하고 법안으로 발전할 가능성이 작다는 점, 정부에서 수립한 표준이나 검증 방법의 준수를 강제하지 않는다는 점, 워터마크 기술은 아직 개발 중이며, 특히 기계가 생성한 텍스트를 탐지할 수 있는 신뢰할 수 있는 방법이 전무하다는 점 등이 그것이다.

하지만 인공지능 개발에서 혁신과 경쟁을 강조하면서도 노동자 권리 보호, 소비자 보호, 공정 경쟁 보장, 공공 서비스 등 다양한 분야에서 기준과 지침 개발을 요구하고 있으며, 인류에게 위협이 될 수 있는 모든 상업용 AI 모델에 대해 출시 전에 정부에 통보 의무를 부과한다는 점에서 분명 일정한 진전이다.

유럽연합의 인공지능법안은 규제의 강도가 한층 높다. 법안에서 가장 주목할 만한 특징은 인공지능의 위험을 네 단계로 구분하고 각 단계에 따라 공급자와 활용자 등에게 다른 의무를 부과하고 있다는 점이다. 법안은 각 위험을 수용 불가한 위험, 고위험, 저위험, 최소위험을 가지는 인공지능 시스템으로 구분한다.

수용 불가한 위험성을 가지는 시스템은 개발 및 활용이 처음부터 엄격히 금지된다. 잠재의식 조작 시스템, 아동 또는 장애인의 취약성을 공격하고 착취하는 시스템, 범용 사회적 평가 활용 시스템, 공개 장소에서 하는 실시간 원격 생체 인식 시스템이 여기에 포함된다.

또한 유럽의회는 6월 수정안을 통해 예측 치안 시스템, 민감하거나 보호되는 속성 또는 특성에 따라 자연인을 분류하거나 이러한 속성 또는 특성을 추론하여 분류하는 생체 인식 분류 시스템, 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적(untargeted) 스크래핑하여 얼굴 인식 데이터베이스를 생성하거나 확장하는 시스템도 '금지되는 인공지능 시스템'으로 분류할 것을 새롭게 제안했다.

고위험 시스템은 데이터 거버넌스, 투명성, 정확성, 견고성, 보안성 등의 요건을 갖춰야 하고, 리스크 관리 시스템, 데이터 품질 기준 충족 및 관리, 기술문서 작성 및 최신 상태 유지, 자동기록 기능 탑재 및 기능 수행 이력 추적, 사용자에 대한 투명성 확보 및 정보 제공, 인적 감독 보장 등 여러 요구사항을 충족해야 한다. 기계, 완구, 레저, 개인용 선박, 승강기, 의료기기, 자동차 등도 고위험으로 분류되어 출시 또는 서비스 전에 보건 및 안전에 관해 제3자 적합성 평가를 받도록 하고 있다.

또한 실시간 또는 사후적으로 사람의 생체정보를 활용하여 신원 확인 작업을 수행하는 인공지능, 지원서 선별, 후보자 평가, 승진 결정, 작업 할당, 업무 성과 모니터링 등 인사 관리 업무에 사용되는 인공지능과 직업 훈련 기관의 선정 및 지원 결정, 교육생 및 훈련성 평가에 사용되는 인공지능도 고위험으로 분류하고 있다.

유럽의회의 수정안에 따르면 유권자에 영향을 미칠 수 있는 선거운동 등에 사용되는 인공지능 시스템, 월평균 활성 서비스 이용자 수 4500만 명 이상의 대규모 사용자를 보유한 거대 온라인 플랫폼에서 사용하는 추천 시스템도 고위험에 포함된다.

그밖에 저위험 또는 최소위험 시스템에도 투명성 의무를 부과하고 있으며, 당사국에 투명성과 신뢰성 확보를 위한 행동강령 작성을 권고하고 있다.

특히 유럽연합의 인공지능법안은 규제의 실효성을 확보하기 위해 강한 제재사항이 존재한다. 금지되는 시스템에 관해 의무사항 불이행 시 최대 4천만 유로 또는 연간 총매출액의 7%에 해당하는 금액을 과징금으로 부과하며, 데이터 거버넌스나 투명성 관련 규정을 준수하지 않은 경우 최대 2천만 유로(또는 연간 총매출액의 4%)의 과징금을 부과할 수 있다.

사전규제 엄격히 제한하는 한국
 

이종호 과학기술정보통신부 장관이 지난 11월 7일 정부서울청사에서 지난 1~2일 영국 블레츨리 파크에서 열린 인공지능(AI) 안전성 정상회의 참석 성과를 발표하고 있다. ⓒ 연합뉴스

 
이상에서 살펴본 바와 같이, 세계적으로 논의되고 있는 인공지능 정책의 경향성은 과거 신경제 하의 IT 정책과는 다른 특징을 보여주고 있다.

첫째, 대규모 데이터세트로 훈련된 후 새로운 데이터로부터 학습하면서 다양한 작업을 수행할 수 있는 능력을 갖춘 파운데이션 모델이 가장 큰 정책 이슈로 떠오르고 있다는 점이다. 이와 관련하여 현재 수준에서 요구되는 정책은 시스템 개발 단계에서부터 작동할 수 있는 데이터 거버넌스이다. 챗GPT와 같은 생성형 인공지능은 대규모 데이터를 사전 훈련에 활용한다. 따라서 시스템 도입 단계부터 프라이버시권이나 개인정보 자기결정권 등 인권 이슈가 고려되어야 한다.

둘째, 인공지능은 특정 산업에 국한되지 않고 여러 분야에 걸쳐 있는 범용기술이다. 특정 산업부처가 관리할 수 있는 정책 대상이 아니라는 것이다.

셋째, 인공지능은 교육이나 보건, 국가안보, 환경 등 주로 공공 분야에서 우선적으로 활용된다. 인공지능 정책도 공공분야의 활용을 염두에 두고 수립해야 한다.

넷째, 인공지능 정책은 대규모 자본이 투입되는 빅테크 기업을 대상으로 한다. 자연독점을 누릴 가능성이 농후한 거대 기업의 책임성이 필연적으로 요구된다.

이에 비해 한국의 인공지능 정책과 법안 수립은 인공지능의 특별한 위험성과 그에 대한 정책적 대응의 특수성에 대한 다면적 연구와 검토 없이 편면적으로 진행되고 있다. 지난 2월 국회 과기정통위 법안소위는 '인공지능산업 육성 및 신뢰 기반 조성에 관한 법률안'을 통과시켰다(아직 이 법안은 국회 계류 중이다). 이를 주도한 과기정통부는 세계 최초의 인공지능 관련 법률안으로 홍보하기도 했다. 그러나 이 법안은 치명적인 문제를 안고 있다.

가장 큰 문제는 이 법안이 인공지능을 육성이 필요한 토종 산업으로 보면서, 경쟁력 확보를 명분으로 사전규제를 엄격히 제한한다는 점이다. '우선허용 사후규제 원칙'을 규제원칙으로 채택한 것이다. 이에 따르면 국민의 생명, 안전, 권익에 위해가 되거나 공익 등을 현저히 저해할 우려가 있는 경우가 아니라면 이를 제한할 수 없다.

자국 산업의 초기 단계에서 육성이 요구되는 경우도 있다. 하지만 최근 개발되고 있는 인공지능 모델은 초기의 설계·개발 단계부터 안전성과 신뢰성을 확보하기 위한 규제 거버넌스가 필연적으로 필요하다. 공정성, 윤리성, 투명성, 설명 가능성, 견고성 등이 보장되지 않는 인공지능 시스템 개발은 '모래 위에 집짓기'와 다름없기 때문이다. 자국 산업 보호주의에 치중하는 혁신 우선은 인공지능 산업의 고립을 자초하는 길이 될 것이다.

인공지능에 관한 글로벌 차원의 정책 트렌드는 경쟁 조건의 창출을 위한 탈규제가 아니라 인공지능이 가져올 기술적 충격에 대비하기 위한 규제 거버넌스를 향한 경쟁이다. 지난 11월 28일 벨기에 브뤼셀에서 열린 유럽 비즈니스 정상회의에서 구글의 최고 법률 책임자 켄트 워커는 연설을 통해 혁신과 규제 사이의 균형을 강조하면서 인상적인 말을 남겼다. "최초의 AI 규제가 아니라 최고의 AI 규제를 위한 경쟁이 되어야 한다."

세계는 지금 인공지능이 갖는 혁신의 가능성을 기대하면서도 그와 동시에 인공지능이 인류 자체에 드리우는 잠재적 위험성을 경계하면서 사전 규제의 포석을 정밀하게 입안해 가는 '최고의 AI 규제'를 위한 경쟁도 진행 중이다.
 

유승익 / 한동대학교 연구교수 ⓒ 유승익

 
필자 소개 : 이 글을 쓴 유승익은 한동대 연구교수, 참여연대 사법감시센터 실행위원으로 활동하고 있습니다. 헌법을 전공했고 기본권의 이론과 실천, 권력기관 개혁, 정치와 법치의 문제에 관심을 가지고 공부하고 있습니다.
덧붙이는 글 이 글은 <소셜 코리아>(https://socialkorea.org)에도 게재됐습니다. <소셜 코리아> 연재 글과 다양한 소식을 매주 받아보시려면 뉴스레터를 신청해주세요. 구독신청 : https://socialkorea.stibee.com/subscribe
이 기사가 마음에 드시나요? 좋은기사 원고료로 응원하세요
원고료로 응원하기
진실과 정의를 추구하는 오마이뉴스를 후원해주세요! 후원문의 : 010-3270-3828 / 02-733-5505 (내선 0) 오마이뉴스 취재후원

독자의견


다시 보지 않기