▲최성원 기자
이영광
- 챗GPT가 미국 여러 시험 합격했다던데 스스로 생각할 수 있는 건가요?
" 의사면허 시험(USMLE), MBA(경영대학원) 시험 그리고 로스쿨 시험 등 가장 어렵다는 3대 시험을 미국에서 통과했어요. 그럼 '챗GPT가 스스로 생각해서 패스한 거냐?'라고 하면 그건 아닙니다. 챗GPT의 특성이 있어서 시험에 통과한 거예요. 미국의 시험은 대부분이 문제은행식 출제입니다. 트릭을 쓰지 않고 학습한 것을 '이걸 알고 있지'라고 묻는 시험이거든요. 학습한 지식을 제대로 알고 있는지 평가하는 시험인데요. 일종의 운전면허 시험이라고 생각하면 쉽습니다. 챗GPT는 질문에 대한 답변을 추론하는 특별한 능력을 갖추고 있어요. 그래서 질문자의 질문에 들어 있는 단어를 통해 답변을 추출하고 추론을 통해 다음 질문에 나오는 답변을 하는 형태로 답변 만들어 가는데 인간이 대화하는 것처럼 이어 붙이는 방식으로 답변을 만드는 것입니다. 답안을 쓰는데 어찌 보면 최적화 되어 있는 것입니다."
- 생성형 AI가 돌풍인 거 같은데 왜일까요?
"생성형 AI의 특징은 인간이 처음으로 인간 아닌 것들과 대화를 시작했다는 겁니다. 챗GPT랑 대화를 시작하면 굉장히 재밌습니다. 그리고 지금은 또 초창기 버전과 다르게 상당히 챗GPT를 다시 강화 학습 시켰더라고요. 그러니까 무리한 대화를 하지 않도록 챗GPT를 강화 학습 시켜놨어요. 그래서 인간이 느끼기에 사람과 대화하는 것처럼 빠져들어요.
또 하나는 내가 생각했던 것보다 훨씬 더 방대한 자료들을 챗GPT가 제공해 주거든요. 예를 들어서 음악프로듀서인 닥터 조가 다큐멘터리에서도 보여줬지만, 위저드라는 도마뱀이라는 제목으로 가사 만들고 싶을 때 챗GPT에 요구하면 바로 가사를 써주거든요. 놀라운 일이죠. 창작은 인간만이 할 수 있다고 생각했는데 해보니까 AI가 오히려 더 잘하는 거예요. 관련 업계에 있는 미국 작가협회에서 챗 GPT의 출시와 동시에 미국 대도시에서 지금도 시위하고 있어요. 챗GPT 사용을 금지해달라고요. 바로 그런 이유 때문입니다."
- 챗GPT에 세종대왕이 맥북 던진 사건 설명해 달라고 하니까 없는 사건 만들어서 얘기하잖아요. 그런 건 지금 없나요?
"그런 오류는 여전합니다. 예를 들어서 기자님이나 저에 관해서 물어보잖아요. 그러면 챗GPT가 굉장히 틀린 정보를 얘기해줍니다. 그래서 어떤 사람들은 20~30% 잘못된 정보를 챗GPT가 생산하고 있다는 이야기도 합니다. 지금까지도 챗GPT를 만든 OPEN AI사가 정보의 수집 경로와 정보오류의 정도, 사용자 숫자, 데이터 처리량 등에 대한 정보를 공개하고 있지 않아요. 대신 개발사 CEO인 샘 알트만이 전 세계를 다니면서 AI 규제가 필요하다고 강조하는 아이러니한 일이 벌어지고 있는 거죠.
전문가들은 챗GPT가 생산하는 이런 오류를 '할루시네이션(환각)'이라고 표현하는데요. 환각 증상이 무엇이냐 하면 챗GPT는 답변하도록 프로그램되어 있어요. 질문의 단어와 단어를 이용해 답변을 추출해 추론하는 방식인데 추론할 게 없으면 비슷한 것을 끌어와 답변을 만드는 것이죠. 어디서라도 자료를 뽑아서 추론하다 보니까 상당히 많은 오류가 발생하는 것입니다. 그래서 챗GPT를 사용하는 데 있어서 가장 주의할 점은 스스로 챗GPT가 만든 정보가 맞는 것인지 확인하는 일입니다."
- 어떻게 하면 인간과 기계가 완벽한 조화를 이룰 수 있을까요?
"완벽한 조화라는 게 굉장히 어려운 얘기고요. 저는 AI 기능 자체가 인간의 생명이나 삶에 직간접적인 영향을 미치는 단계에서 정말 완벽할 정도의 규제가 필요하다고 생각해요. 예를 들어서 지금 자동차를 도로에서 몰고 다니시잖아요. 지금 우리가 핸들을 잡고 자유롭게 타고, 다니기까지 얼마나 많은 규제가 마련이 됐고 얼마나 많은 안전장치가 마련이 됐고 또 지금도 얼마나 많은 법규가 새로 생기고 있는지를 보면 AI에 대한 규제가 얼마나 비대칭인지 알 수 있어요. 최근에도 학교 주변 어린이 보호구역에서는 시속 30km를 못 넘도록 강력한 속도 제한 조치가 입법됐잖아요.
그런데 AI 생각 해보세요. 지금 우리가 이렇게 다용도로 사용하는데도 아무런 규제가 없어요. 어떻게 보면 법규의 심각한 비대칭인 셈이죠. AI가 창작하고 군사적 목적으로 사용되고, 자율 주행 시스템이 완성되고 있고 하는데도 규제 방안이 마련되지 않고 있는 것입니다. 알고리즘에서도 각종 편견과 차별적인 내용들이 발견되는데도 마땅한 규제 방안이 없어요. 개발자가 어떤 윤리적인 접근을 해야 하는지에 대해서도 규정된 게 없어요. 마구잡이로 개발하다 문제가 하나 적발되면 그냥 사회적으로 매장하는 구조인 거죠.
저는 그래서 AI 개발 단계에서부터 윤리적 교육이 필요하다고 생각해요. 알고리즘 내에 편견과 차별, 혐오가 존재하지 않고 AI는 인간의 삶을 더욱 풍요롭고 행복하게 만드는 것을 목적으로 만들어져야 한다는 것을 분명하게 명시해야 하고요. AI 리터러시라고 할까요. 개발, 유통, 사용 단계에서 단계에 맞는 교육시스템이 구축되고 AI는 반드시 인간의 생명을 존중하고 삶을 풍요롭게 만들기 위해서 존재한다는 철학을 분명하게 심어주어야 한다고 생각해요. 곧 우리는 AI에 의해 근무 평가를 받고 해고 대상으로 분류될 수도 있어요. 그런 AI를 개발 중이니까요. 그런데 그 알고리즘이 이미 공정하지 않다면 어떻게 할까요?"
-
취재하며 느낀 점 있을까요?
"AI의 위험성이에요. AI가 생각보다 너무나 빨리 진화하고 있고 인간 지능을 뛰어넘는 AGI의 출연이 얼마 남지 않았기 때문에 빨리 규제책을 마련해야 한다는 것을 느꼈어요. 프로그램을 만든 이유가 AI와의 공존이 시작됐다는 것을 시청자들에게 알리고 싶었거든요. 우리 사회에서 AI에 대한 더 깊은 인식과 공감대 그리고 AI 개발에 대한 윤리적 문제, 기준 마련을 위한 논의가 빨리 이뤄져야 한다는 거죠."
- 취재했지만 방송에 못 담은 게 있을까요
"군사용 AI 로봇 개발의 위험성, 그 부분에 대해서는 시간이 없어서 다루지 못했어요. 그 부분에 대해서 다뤄야 할 필요성이 있다는 생각을 들더라고요. 예를 들어 AI 파일럿이나 AI 드론 등 AI가 군사적 무기로 사용됐을 때 정말 끔찍하거든요. 누가 그것에 대한 규제 권한을 갖고 누가 인간을 살상하도록 명령을 내릴 것인가, 악용됐을 때 어떻게 막을 수 있을 것인지 등등. 이미 기술은 개발이 돼서 출시 직전에 있는데 그런 부분에 대한 관련 법은 아예 존재하지 않으니까요."
저작권자(c) 오마이뉴스(시민기자), 무단 전재 및 재배포 금지
오탈자 신고
댓글1
독자들의 궁금증을 속시원하게 풀어주는 이영광의 거침없이 묻는 인터뷰와 이영광의 '온에어'를 연재히고 있는 이영광 시민기자입니다.