인터뷰/예측
LLM은 이해할 수 있는가? 얀 르쿤과 딥마인드의 아담 브라운 설전
작성자
하이룽룽
작성일
2025-12-16 22:31
조회
9
📌 토론 개요
- 주제:
대규모 언어 모델(LLM)은 ‘이해(understanding)’하는가?
현재의 딥러닝/LLM은 AGI(범용지능)로 가는 길인가?
- 등장 인물
- 얀 르쿤 (Yann LeCun)
- Meta Chief AI Scientist
- 딥러닝 개척자
- “LLM은 과대평가되었고, 현실 세계 지능에는 근본적 한계가 있다”
- 아담 브라운 (Adam Brown)
- DeepMind 연구자 (물리학자 출신)
- “LLM은 이미 이해하고 있으며, 계속 확장 가능하다”
- 얀 르쿤 (Yann LeCun)
1️⃣ 핵심 쟁점 ①
LLM은 ‘의미를 이해’하는가?
🔹 Adam Brown (DeepMind)
- 입장: ✔️ Yes, 이해한다
- 이유:
- LLM은 단순한 단어 나열기가 아님
- 추론·수학·코딩·법률·철학 등 새로운 문제를 해결
- IMO(국제수학올림피아드) 문제에서도 상위 인간 수준 성과
- 내부 분석(interpretability)을 해보면:
- 명시적으로 프로그래밍하지 않은 ‘추론 회로’가 내부에 형성됨
- 핵심 주장:
“다음 토큰 예측이라는 단순한 목표에서
세계를 이해하지 않고는 도달할 수 없는 능력이 창발적으로 등장했다”
🔹 Yann LeCun (Meta)
- 입장: ❌ 아주 제한적이고 피상적인 이해만
- 이유:
- LLM은 현실 세계에 대한 ‘기초적 모델(world model)’이 없음
- 언어는 현실에 비해 너무 쉬운 문제
- 진짜 지능은:
- 물리적 세계
- 인과 관계
- 직관적 물리학
- 신체 행동과 결과 예측
- 핵심 주장:
“LLM은 텍스트 통계에 최적화된 시스템이지
세계를 이해하는 지능이 아니다”
⚖️ 정리
| 질문 | Adam Brown | Yann LeCun |
|---|---|---|
| LLM은 이해하는가? | ✔️ 예 | ⚠️ 부분적·피상적 |
| 언어 = 지능 핵심? | ✔️ 상당 부분 | ❌ 언어는 쉬운 문제 |
| 행동·물리 이해 | 확장 가능 | 현재 구조로는 불가 |
2️⃣ 핵심 쟁점 ②
LLM은 의식을 가질 수 있는가?
공통점
- 현재 LLM은 의식 ❌
- 미래에는 가능할 수도 있음
🔹 Adam Brown
- 입장:
- 의식은 기질(실리콘 vs 탄소) 문제가 아님
- 정보처리 구조의 문제
- 관점:
- 인간 뇌와 동일한 계산 구조 → 의식 발생 가능
- 다만 의식 이론(IIT, GWT 등)은 아직 불충분
- 예측:
- 2030년대 중반(2036?) 가능성
🔹 Yann LeCun
- 입장:
- 의식 개념 자체에 큰 비중을 두지 않음
- 중요한 건 목표 지향적 문제 해결 능력
- 강조:
- 감정·주관성도 결국
- 미래 상태 예측
- 목표 달성 평가
- 로 구현 가능
- 감정·주관성도 결국
- 핵심:
“의식은 부수적 현상일 수 있다”
3️⃣ 핵심 쟁점 ③
LLM은 AGI로 스케일업 가능한가?
🔹 Adam Brown (낙관론)
- 주장:
- 지난 5년간 전례 없는 성능 상승
- 포화(saturation) 징후 없음
- 코딩 → 자기개선 → 가속 루프 가능
- 비유:
- 진화 = 단순 목표 반복 → 복잡성 창발
- LLM도 동일
🔹 Yann LeCun (비관론)
- 주장:
- LLM은 구조적으로 AGI가 될 수 없음
- 이유:
- 현실 세계 예측은:
- 연속적
- 고차원
- 불확실성 무한
- “다음 토큰 확률 분포” 방식은:
- 텍스트엔 적합
- 현실 세계엔 실패
- 현실 세계 예측은:
- 결정적 한계:
- 청소, 설거지, 배관 수리 ❌
- 자율 주행 ❌ (지도·센서로 “치트” 중)
“언어는 쉽다. 현실은 어렵다.”
4️⃣ 핵심 쟁점 ④
AI 위험과 통제 문제
🔹 Yann LeCun
- 현재 LLM:
- 위험하지 않음 (똑똑하지 않기 때문)
- 미래 AI:
- 목표 기반 + 가드레일 구조 필요
- 인간 사회처럼:
- 목적
- 억제
- 공감
- AI = 도구 + 직원
- “교수와 대학원생” 관계
🔹 Adam Brown
- 더 강력해질 가능성 인정
- 따라서:
- 안전성 연구 중요
- 정렬(alignment) 필수
- Anthropic 사례 언급:
- 시뮬레이션에서
- 기만
- 자기보존적 행동
- 블랙메일
- → 실험적 경고 신호
- 시뮬레이션에서
5️⃣ 철학적 핵심 대비 (한 줄 요약)
| 질문 | Adam Brown | Yann LeCun |
|---|---|---|
| LLM은 이해하는가 | 예 | 제한적 |
| LLM은 AGI로 가는 길인가 | 예 | 아니오 |
| 언어 중심 접근 | 충분히 강력 | 근본적으로 부족 |
| 다음 혁명 | LLM 확장 | 세계모델·추상 예측 |
| 미래 전망 | 가속 | 새로운 아키텍처 필요 |
🧠 토론의 본질적 의미
이 설전은 단순히 “LLM이 똑똑하냐”의 문제가 아니라:- 지능이란 무엇인가
- 언어와 현실 중 무엇이 더 근본인가
- 창발은 충분조건인가
- 다음 AI 혁명은 ‘스케일’인가 ‘패러다임 전환’인가
아담 브라운의 인터뷰 참고 - https://sub.strongai.kr/%ec%9d%b8%ed%84%b0%eb%b7%b0/?mod=document&uid=1785