인터뷰/예측

맥스 테그마크 vs 전 백악관 AI 정책 자문위원 딘 볼(Dean Ball)의 초지능 개발 토론

작성자
하이룽룽
작성일
2025-12-16 22:52
조회
5


 



인터뷰 요약




Q. 오늘 논쟁의 주제는 무엇인가요?

진행자(Liron Shapira)
오늘의 질문은 단순합니다.
“인공지능 초지능(Superintelligence)을 지금 개발해도 되는가, 아니면 금지해야 하는가?”

이 질문을 두고
  • 맥스 테그마크(Max Tegmark)는 “안전이 검증되기 전까지는 금지해야 한다”고 주장하고
  • 딘 볼(Dean Ball)은 “금지는 비현실적이며 위험하다”고 반박합니다.



Q. 맥스 테그마크, 왜 초지능을 금지해야 한다고 보나요?

맥스 테그마크
초지능은 단순한 기술이 아니라 인류보다 더 뛰어난 새로운 종(species)이 될 수 있습니다.
이런 시스템은 인간보다 더 잘 연구하고, 더 빠르게 개선하며, 스스로를 복제할 수 있습니다.

문제는 하나입니다.
우리는 아직 이것을 통제하는 방법을 모른다는 점입니다.

만약 통제에 실패하면,
  • 정부가 무너질 수도 있고
  • 인간이 경제적으로 완전히 무의미해질 수도 있으며
  • 최악의 경우, 인류 문명이 되돌릴 수 없는 붕괴를 맞을 수 있습니다.
그래서 나는 주장합니다.
“광범위한 과학적 합의로 안전이 입증되기 전까지는
초지능 개발을 금지해야 한다.”




Q. 딘 볼, 왜 이 주장에 반대하나요?

딘 볼
문제는 ‘초지능’이라는 개념 자체가 너무 모호하다는 겁니다.

만약
  • 수학 문제를 인간보다 잘 풀고
  • 법률 추론과 코딩에서 인간을 능가하며
  • 과학 발전을 가속하는 AI가 나온다면
그게 초지능입니까?
아니면 그냥 매우 뛰어난 도구입니까?

이걸 법으로 정의하려는 순간,
우리는 유익한 기술까지 함께 금지하게 될 위험이 큽니다.

또 하나의 문제는 순서입니다.
안전을 검증하려면 어느 정도는 실제로 만들어보고 실험해야 합니다.
그런데 “만들기 전에 금지”하면,
결국 정부나 소수 기관만 독점적으로 개발하는 카르텔이 생길 수 있습니다.




Q. 규제의 비유로 ‘FDA(미국 식약청)’가 자주 등장합니다. 어떻게 보시나요?

맥스 테그마크
우리는 이미 더 위험한 기술들에 대해 사전 규제를 합니다.
  • 신약은 FDA 승인 없이는 출시 불가
  • 원자력은 엄격한 안전 기준 필요
  • 생물학적 위험 연구는 BSL 규제 하에 있음
그런데 이상하게도,
초지능 AI에는 샌드위치보다도 규제가 적습니다.

내 주장은 “초지능을 정의하자”가 아닙니다.
“사회가 용납할 수 없는 피해를 먼저 정의하고,
기업이 그것을 피할 수 있음을 입증하라”는 것입니다.




딘 볼
FDA는 성공 사례이기도 하지만, 동시에 혁신을 가로막은 사례이기도 합니다.

의학은 이제 개인 맞춤형 시대인데,
FDA는 여전히 “평균적인 환자” 모델에 갇혀 있습니다.
그 결과 치료는 느려지고, 비용은 폭증했습니다.

AI에 같은 모델을 적용하면,
  • 과도한 사전 승인
  • 정치적 이해관계 개입
  • 기술 발전의 경직화
이 일어날 가능성이 큽니다.



Q. 논쟁의 핵심은 ‘P(Doom)’이라고 들었습니다. 각자의 확률은?

진행자
규제가 없을 때,
AI가 인류적 재앙(멸종·문명 붕괴)을 일으킬 확률은 얼마라고 보십니까?



맥스 테그마크
90% 이상이라고 봅니다.

우리 연구팀은
“재귀적 자기개선 AI를 인간이 통제할 수 있는가?”를 수학적으로 분석했고,
가장 낙관적인 시나리오에서도 통제 실패 확률이 92%였습니다.



딘 볼
0.01% 이하라고 봅니다.

기업들은 위험한 모델을 의도적으로 출시하지 않을 것이고,
사회·법·제도는 기술에 적응하며 진화해 왔습니다.

인류는 항상 “이번엔 다르다”는 공포를 겪었지만,
대부분의 경우 적응에 성공했습니다.



Q. 중국 문제는 어떻게 봐야 하나요?

맥스 테그마크
“중국 때문에 규제하면 안 된다”는 주장은 잘못된 프레임입니다.
  • 중국도 통제 불가능한 초지능을 원하지 않습니다
  • 공산당은 통제 상실을 가장 두려워합니다
  • 실제로 중국은 이미 AI 규제를 강화하고 있습니다
진짜 경쟁은 두 가지입니다.
  1. 통제 가능한 AI 도구 경쟁 → 찬성
  2. 통제 불가능한 초지능 먼저 만들기 경쟁 → 자살 경쟁



딘 볼
국가 안보 관점에서
기술 주도권을 의도적으로 늦추는 선택은 큰 비용을 가질 수 있습니다.

또한 규제가 잘못 설계되면
권력 집중, 기술 독점, 민주주의 약화라는
또 다른 디스토피아로 갈 수 있습니다.



Q. 마지막으로, 두 분의 핵심 메시지는?

맥스 테그마크
나는 기술을 반대하지 않습니다.
나는 인간이 계속 주도권을 가지는 미래를 원합니다.

AI는
  • 암을 치료하고
  • 교통사고를 줄이고
  • 인간의 삶을 풍요롭게 하는 도구여야 합니다.
인류가 수십만 년 동안 쌓아온 주도권을
스스로 내려놓을 이유는 없습니다.



딘 볼
우리는 두려움을 전제로 법을 만들어서는 안 됩니다.

미래는 지금 상상하는 것과 다를 가능성이 큽니다.
필요한 것은
  • 유연성
  • 점진적 학습
  • 제도의 진화
금지보다는 적응 가능한 사회를 만드는 것이 더 중요합니다.



핵심 정리 한 줄 요약

  • 논쟁의 본질은 기술이 아니라 ‘확률 인식(P Doom)’의 차이
  • 맥스: “통제 실패는 거의 확실 → 사전 금지 필요”
  • 딘: “극히 낮은 확률 → 금지는 더 큰 부작용”
  • 정책 차이는 세계관의 차이에서 자연스럽게 파생됨
 
전체 1

  • 2025-12-16 22:59

    맥스 테그마크 비판
    - 딘 볼은 AI 개발을 멈추거나 늦췄을 때 우리가 '얻지 못하게 될 혜택(기회비용)'을 강조
    - 그는 "AI가 암을 정복하거나, 교통사고 사망자를 획기적으로 줄이거나, 엄청난 경제적 풍요를 가져다줄 수 있는데, 막연한 공포 때문에 이를 금지하는 것은 윤리적으로 옳은가?"라고 반문
    - 당장 질병이나 빈곤 문제를 해결해야 하는 인류의 입장에서는 기술 개발을 막는 것이야말로 '가진 자들의 사다리 걷어차기'

    맥스 테그마크는 MIT의 종신 교수(Tenured Professor)로서 사회적, 경제적으로 매우 안정된 위치에 있음 그렇기에 당장의 경제 성장이나 일자리 창출, 기술 혁신을 통한 삶의 질 개선보다는, 추상적이고 철학적인 '인류 멸망 시나리오'에 더 집중할 여유가 있음

    딘 볼은 이를 두고 "상아탑(Ivory Tower)에 앉아서 현실 세계의 복잡성을 무시하고 이상적인 규제만 외치는 것"이라 지적