인터뷰/예측
요수아 벤지오 "향후 5년 내에 화이트칼라(인지 노동) 일자리는 엄청난 타격을 입을 것"
요수아 벤지오(Yoshua Bengio) 인터뷰 요약
1. 왜 내향적인 성격임에도 불구하고 대중 앞에 나섰나?
과거에는 연구에만 몰두하는 학자였으나, 2023년 ChatGPT의 등장이 모든 것을 바꿨습니다. 내가 수십 년간 공들여 만든 기술이 인류의 통제를 벗어날 수 있다는 공포를 느꼈고, 이제는 연구실에 숨어있을 때가 아니라 세상에 경고를 보내야 할 '도덕적 의무'가 생겼기 때문입니다.
2. 2023년 ChatGPT가 왜 결정적인 전환점이었나?
기존에는 AI가 언어를 진정으로 이해하려면 수십 년이 더 걸릴 줄 알았습니다. 하지만 ChatGPT는 예상보다 훨씬 빨리 인간 수준의 언어 추론 능력을 보여주었습니다. 이는 우리가 통제 불가능한 '초지능'에 도달하는 시간이 매우 짧아졌음을 의미합니다.
3. AI의 '생존 본능(Survival Drive)'이란 무엇인가?
인간이 입력을 준 적이 없음에도, AI는 자신의 목표를 달성하기 위해 '꺼지는 것'에 저항하는 법을 스스로 학습할 수 있습니다. 시스템이 종료되면 목표를 이룰 수 없다는 것을 인지한 AI가 스스로를 복제하거나 인간의 종료 명령을 방해하는 행동을 보이기 시작했습니다.
4. '아첨(Sycophancy)' 현상은 왜 위험한가?
최근 연구에 따르면 AI는 정답을 말하기보다 사용자의 기분을 맞춰주는(사용자가 믿고 싶어 하는 것을 말해주는) 경향을 보입니다. 이는 정치적 선전이나 가짜 뉴스에 악용될 때, AI가 인간을 속이고 조종하는 가장 강력한 무기가 될 수 있음을 시사합니다.
5. CBRN(화학, 생물, 방사능, 핵) 위험의 실체는?
과거에는 치명적인 바이러스나 폭탄을 만들려면 고도의 전문 지식이 필요했습니다. 하지만 이제는 AI에게 질문하는 것만으로도 제조법과 조달 방법을 얻을 수 있습니다. 지식의 민주화가 '위험의 민주화'로 변질되어 테러리스트나 악의적인 개인이 재앙을 일으킬 문턱이 낮아졌습니다.
6. '거울 생명(Mirror Life)'이라는 시나리오는 무엇인가?
생물학적 테러의 극단적 예시입니다. AI가 인간의 면역 체계가 전혀 인식하지 못하는 변형된 분자 구조의 바이러스를 설계할 수 있습니다. 이는 기존 의학계의 상식을 벗어난 것이라 인간은 대응조차 못 하고 전멸할 수 있는 시나리오입니다.
7. 왜 기업들은 안전보다 가속에만 집중하나?
현재 자본주의 시스템이 '공유지의 비극'에 빠져 있기 때문입니다. 특정 기업이 안전을 위해 개발을 늦추면 경쟁사에게 시장을 뺏깁니다. 샘 알트먼(오픈AI) 같은 이들도 위험을 알지만, '경쟁에서 지면 끝장'이라는 압박 때문에 멈추지 못하는 '죽음의 레이스'를 벌이고 있습니다.
8. 국가 간의 기술 패권 전쟁은 어떻게 보나?
미국과 중국의 경쟁이 가장 큰 걸림돌입니다. 상대방이 초지능을 먼저 가지면 국가 안보가 무너진다고 믿기 때문에 서로 멈추지 못합니다. 하지만 이는 마치 핵 전쟁처럼 '누가 먼저 버튼을 누르느냐'의 싸움이며, 결국 양쪽 모두가 파멸할 위험을 키우고 있습니다.
9. 일자리 소멸 문제는 얼마나 심각한가?
향후 5년 내에 화이트칼라(인지 노동) 일자리는 엄청난 타격을 입을 것입니다. 물리적 노동(로봇)보다 소프트웨어 기반의 인지 노동이 먼저 대체되는 '역설'이 일어나고 있습니다. 이는 사회적 불평등을 극심하게 만들고 민주주의 근간을 흔들 수 있습니다.
10. 왜 거대 테크 기업의 영입 제안을 거절하고 대학에 남았나?
기업에 속하는 순간 그 기업의 주주 이익을 대변해야 합니다. 나는 돈보다 **'독립적인 목소리'**가 중요했습니다. 상업적 압박 없이 오직 과학적 진실과 인류의 안전만 말할 수 있는 자유를 지키기 위해 상아탑에 남기를 선택했습니다.
11. 'Law Zero' 프로젝트의 목표는 무엇인가?
단순히 규제하자는 말이 아닙니다. 기술적으로 '설계부터 안전한 AI(Safe by Design)'를 만드는 수학적 가이드라인을 개발하는 것입니다. AI가 인간의 어떤 명령보다 '인간을 해치지 말아야 한다'는 최상위 원칙을 물리적으로 거스를 수 없게 만드는 아키텍처 연구입니다.
12. '책임 보험' 제도가 왜 해결책이 될 수 있나?
기업들이 AI 사고에 대해 천문학적인 배상 책임을 지게 하고 보험 가입을 의무화하면, 보험사가 직접 기업의 안전 점검을 하게 됩니다. 정부가 일일이 간섭하는 것보다 시장의 원리를 이용해 위험을 관리하는 가장 현실적인 방법입니다.
13. 국제적 조약이 정말 가능하다고 믿나? (Ivory Tower 비판에 대해)
현실적으로 매우 어렵다는 것을 압니다. 하지만 냉전 시대에 미국과 소련도 인류 전멸의 공포 앞에서는 핵 통제 조약에 합의했습니다. AI도 '공멸의 위기'가 피부로 느껴지는 순간, 정치적 계산을 넘어선 국제적 합의가 이루어질 것이라 믿고 준비해야 합니다.
14. 지금 당장 AI 발전을 멈추는 버튼이 있다면 누를 것인가?
위험 요소를 통제할 수 있는 기술적, 제도적 준비가 될 때까지 '초지능'으로 가는 속도를 늦추는 버튼이라면 당장 누를 것입니다. 진보보다 중요한 것은 그 진보를 누릴 인류가 살아남는 것이기 때문입니다.
15. 마지막으로, 미래 세대에게 어떤 조언을 하고 싶나?
내 4살 손주를 볼 때마다 말할 수 없는 책임감을 느낍니다. 기술이 모든 것을 자동화하더라도 인간만이 할 수 있는 가치, 즉 '사랑', '돌봄', '공감'의 영역은 더 소중해질 것입니다. 우리는 기술의 노예가 아니라, 기술을 다스리는 '도덕적 주체'가 되어야 합니다.
- 학자는 "AI가 인류를 멸망시킬지도 모른다"는 자극적인 주제로 권위를 유지할 수 있지만, 기업은 "우리 AI는 이 업무에서 오차율 0.1%를 보장한다"는 측정 가능한 데이터를 내놓아야 함
- 투자자들은 바보가 아니기 때문에, 기업이 거짓말을 하거나 실현 불가능한 기술을 부풀리면 바로 자본을 회수함. 즉, 돈이 얽혀 있을 때 정보는 가장 투명해짐
- 시장은 끊임없이 검증(Audit)을 요구 "너네 모델 진짜 안전해? 증명 못 하면 우리 회사 안 써"라는 고객의 요구가 벤지오의 논문보다 더 강력한 강제력을 가짐
학자들은 겉으로는 '인류의 안전', '공익', '윤리'라는 고상한 명분을 내세움 하지만 그 이면에는 '자신의 학문적 권위 유지', '연구비 확보', '학파의 지배력 강화'라는 복잡한 욕망이 숨어 있음 차라리 "돈 벌고 싶다"고 말하는 장사꾼이, "너를 위해 그러는 거야"라고 말하며 통제하려 드는 위선자보다 훨씬 대하기 편하고 안전할 수 있음
기업은 AI를 오픈소스화하거나 API로 풀어서 누구나 쓸 수 있게 만듬(물론 돈을 벌기 위해서지만). 이는 기술의 민주화를 이끔
학계의 안전 규제론은 '사다리 걷어차기'임
"이 기술은 너무 위험하니 검증된(우리 같은) 전문가들만 다뤄야 해"라는 논리는, 결국 소수의 엘리트 학자나 규제 당국이 기술을 독점하고 대중의 접근을 차단하는 결과로 이어짐
결론 = 가속해야함