인터뷰/예측

Google DeepMind 무스타파 데흐가니 인터뷰 "AI는 이미 AI를 만들고 있다"

작성자
하이룽룽
작성일
2026-04-02 22:00
조회
5




AI는 이미 AI를 만들고 있다 — Google DeepMind 무스타파 데흐가니 인터뷰 정리

진행자: Matt Turk
게스트: Mostafa Dehghani (Google DeepMind 연구자)



Q. 요즘 AI 연구에서 자주 나오는 “루프(loops)”라는 개념, 정확히 무슨 뜻인가요?

무스타파:
지금 거의 모든 연구소가 “루프”에 굉장히 많은 관심을 두고 있습니다. 이건 여러 층위에서 작동하는 개념이에요.

가장 작은 수준에서는, 모델이 추론 시점에 같은 문제를 여러 번 돌아보면서 더 많은 계산을 쓰는 방식이 있습니다. 흔히 말하는 test-time compute 같은 거죠.
그리고 더 큰 수준에서는, 모델 개발 자체가 하나의 루프가 됩니다. 즉, 이전 세대 모델이 다음 세대 모델을 만드는 데 참여하는 식의 자기개선(self-improvement) 입니다.

아주 단순하게 말하면, 이건 완전히 새로운 이야기가 아니라 예전부터 이어져 온 흐름의 다음 단계입니다.
예전에는 사람이 직접 특징(feature)을 설계해야 했고, 모델이 뭘 봐야 하는지도 사람이 정했죠. 그런데 딥러닝이 등장하면서 “그걸 모델이 스스로 배우게 하자”로 바뀌었습니다.
그 다음엔 아키텍처 설계도 어느 정도 자동화되기 시작했고, 학습 신호도 사람이 일일이 만들기보다 데이터 중심으로 넘어갔습니다.

자기개선은 그 연장선입니다.
이제는 “모델이 더 나아질 때마다 사람이 계속 루프 안에 있어야 하냐?”라는 질문을 던지는 거죠.
즉, 모델을 개선하는 과정에서 인간의 병목과 편향을 제거하는 것이 핵심입니다.



Q. 그건 개발 차원의 자기개선이고, 더 큰 개념으로는 재귀적 자기개선(RSI)도 있잖아요. 그건 뭔가요?

무스타파:
재귀적 자기개선이라는 말은 몇 년 전만 해도 SF처럼 들렸습니다. 논문에서 전망 정도로만 이야기할 수 있는 주제였죠.
그런데 지금 실제 현장을 보면, 이미 상당 부분 현실이 되고 있습니다.

특히 지난 몇 달 동안 거의 모든 연구소에서, 새로운 세대의 모델을 만드는 데 이전 세대 모델이 아주 많이 활용되고 있습니다.
아직 완전 자동화는 아니에요. 하지만 방향은 너무도 분명합니다.

결국 언젠가는 완전 자동화에 가까운 상태에 도달할 수 있다고 봅니다.
모델이 스스로 다음 모델을 개선하고, 계속 세상에서 배우는 거죠. 여기에 continual learning 같은 개념도 연결됩니다.

지금 당장 부족한 것은 두 가지입니다.

첫째는 장기적(long horizon) 작업 능력,
둘째는 완전 자동화(full automation) 입니다.

이 두 가지가 갖춰지는 순간, 자기개선의 루프가 닫힙니다.
그때부터 핵심 문제는 “이 모델이 하고 싶어 하는 걸 하게 해줄 계산 자원을 얼마나 주느냐”에 가까워질 수 있습니다.
즉, 모델 개선에서 인간이라는 병목이 제거되는 순간, 큰 점프가 다시 한 번 올 것이라고 생각합니다.



Q. 그럼 카르파시의 auto research 같은 프로젝트도 그런 자기개선 루프의 초기 사례라고 볼 수 있나요?

무스타파:
네, 분명히 그런 초기 사례 중 하나라고 봅니다.
특히 연구 쪽에서 모델이 꽤 말이 되는 일을 하는 모습을 보여준 초기 예라고 생각해요.

사실 우리는 이미 엔지니어링 측면에서는 모델이 개발 루프를 돕는 장면을 많이 봐왔습니다.
그런데 연구는 다르죠. 연구에는 직관, 감각, 오랜 경험 같은 게 필요하다고 여겨졌으니까요.

하지만 이제는 그런 “좋은 연구자의 직관”이라고 생각했던 부분도 일부는 이 개발 루프 안으로 들어오기 시작한 것 같습니다.
몇 년 전만 해도 “이게 이렇게 빨리 오겠어?”라고 생각했던 일이 실제로 벌어지고 있는 거죠.

그래서 흥미롭습니다.
천재 연구자를 곧 전부 대체할 수 있느냐? 그건 모르겠습니다.
하지만 예전에는 믿기 어려웠던 일이 생각보다 훨씬 빨리 오고 있다는 신호인 건 확실합니다.



Q. 지금 우리가 말하는 건 정말 “AI가 AI를 만드는 것”이네요. 예전엔 AI를 이용해 아이디어를 얻는 수준이었다면, 이제는 모델이 스스로를 업데이트하는 방향으로 가는 거죠?

무스타파:
그렇습니다.
물론 아직 “곧 완전 자동화된다”고 단정하고 싶진 않습니다. 해결해야 할 문제가 많아요.
하지만 방향성만 놓고 보면, 충분히 가능해 보입니다.

엄청 쉬운 문제는 아닙니다.
하지만 “불가능할 정도로 어려운 문제”처럼 보이지도 않습니다.



Q. 그럼 가장 큰 장애물은 뭔가요? 평가(evaluation) 문제인가요?

무스타파:
100% 그렇습니다.
결국 측정할 수 있는 것만 개선할 수 있습니다.

문제는 좋은 평가 체계를 만드는 게 너무 어렵다는 겁니다.
이건 단순히 기술 문제가 아니라 거의 철학적 문제에 가까워요.

능력 좋은 팀이 있으면, 명확한 평가 기준만 있어도 엄청난 진전을 이룰 수 있습니다.
반대로 평가 기준이 없으면 정말 진전이 어렵습니다.

지금은 “자기개선 루프에 얼마나 가까워졌는지”를 제대로 측정하는 평가 체계가 없습니다.
프록시 지표는 있고, 일부 세부 단계는 평가할 수 있습니다. 예를 들면 모델이 몇 턴까지 자기 자신을 돕는지, 특정 프레임워크 안에서 스스로 개선을 얼마나 잘하는지 같은 것들이죠.

하지만 그것만으로는 부족합니다.
게다가 안전한 환경에서 모델이 연구 엔지니어나 과학자처럼 일하게 만들고, 그 성능과 지속성을 측정하려면 인프라 자체가 엄청 복잡해집니다.
이런 평가 환경을 만드는 것이 지금은 굉장히 큰 병목입니다.



Q. 형식 검증(formal verification)은 도움이 될까요?

무스타파:
제 생각엔 형식 검증은 자기개선을 가능하게 하는 매우 강력한 열쇠 중 하나입니다.
하지만 유일한 열쇠는 아닙니다.

수학, 코드, 논리 같은 영역에서는 아주 좋습니다. 증명이 맞는지 아닌지 명확히 검증할 수 있으니까요.
그런데 현실 세계의 더 복잡한 영역으로 가면 문제가 달라집니다. 예를 들어 “의사의 권고가 좋은지”를 수학 증명처럼 깔끔하게 검증할 수는 없죠.

그래서 중요한 질문은,
형식 검증 같은 정직하고 단단한 피드백 루프를 어떻게 더 지저분한 현실 세계 문제까지 확장할 수 있느냐입니다.

이건 굉장히 영감을 주는 방향이라고 생각합니다.



Q. 모델 붕괴(model collapse)는 위험 요소인가요?

무스타파:
그럴 수 있습니다.
모델 붕괴는 보통 루프가 완전히 닫혀 있고, 바깥 신호가 없을 때 생깁니다.

예를 들어 모델이 모델이 만든 데이터만 보고 계속 학습하거나, 아주 제한된 환경에서 자기 자신하고만 상호작용하면, 특정한 패턴엔 매우 강해지는데 일반화 능력은 잃어버릴 수 있습니다.

하지만 강한 검증기(verifier)나 현실의 보상 신호 같은 외부 기준이 있으면, AI가 만든 데이터도 꽤 강력하게 사용할 수 있습니다.
핵심은 현실에 닻을 내리는 것, 즉 grounding입니다.

모델 붕괴는 분명 위험이지만, 절대적인 치명타라고 보진 않습니다.



Q. 일반화와 전문화 중에서는 어느 쪽이 더 중요할까요?

무스타파:
장기적으로는 모든 걸 알고, 언제 깊게 들어가고 언제 넓게 갈지 아는 모델이 필요합니다.
그게 궁극적으로는 AGI에 가까운 모습이겠죠.

하지만 단기적으로는, 특정 분야에 매우 강한 전문화된 모델을 만드는 것이 가능성을 배우는 가장 빠른 길일 수 있습니다.
코딩 같은 특정 영역에서 자기개선이 먼저 잘 작동하면, 그걸 발판 삼아 더 넓은 범위로 확장해갈 수 있으니까요.

다만 궁극적으로는 사람들이 문제를 “이건 코딩 문제”, “이건 일반 문제”처럼 분류해서 경험하지 않습니다.
사람이 문제라고 부르는 것이라면 AI도 풀 수 있어야 하죠.
그건 근본적으로 일반주의적 요구입니다.



Q. AI 연구자들, 결국 자기 직업을 없애는 연구를 하는 셈 아닌가요?

무스타파:
하하, 우리가 그걸 피할 만큼 충분히 똑똑하길 바랍니다.

조금 더 진지하게 말하면, 미래를 예측하는 건 정말 어렵습니다.
저는 딸이 한 명 있는데, 나중에 딸이 “무엇을 공부해야 해?”라고 물으면 뭐라고 답해야 할지 잘 모르겠어요.

예전에도 저는 타임라인 예측을 여러 번 틀렸습니다.
“이건 6개월 안엔 안 되겠다” 했는데 안 되기도 하고,
“이건 10년은 걸릴 거다” 했는데 2~3개월 만에 누가 해결해버리기도 했죠.

그래서 저는 특정 기술 하나의 전문가가 되는 것보다,
전체 상황을 읽고, 지금 무엇이 가장 임팩트 있는 일인지 판단하는 능력이 더 중요해질 거라고 생각합니다.

예를 들어 카르파시의 진짜 강점은 단순히 프로그래밍을 잘하는 게 아니라,
정보의 흐름 속에서 “다음에 무엇을 해야 가장 큰 영향을 낼 수 있는가”를 잘 판단하는 능력이라고 봅니다.



Q. 만약 AI가 계속 AI를 만든다면, 결국 중요한 건 데이터보다 컴퓨트만 남는 걸까요?

무스타파:
아니요. 데이터는 여전히 중요합니다.
다만 데이터의 개념이 더 넓어질 겁니다.

데이터는 단순히 토큰만 뜻하지 않습니다.
모델이 어떤 신호를 얻을 수 있는 모든 것, 즉 텍스트든 환경과의 상호작용이든 전부 데이터로 볼 수 있습니다.

앞으로 데이터 작업은 “좋은 문서 모으기”보다,
모델이 현실 세계와 상호작용할 수 있는 환경을 어떻게 제공하느냐에 더 가까워질 수 있습니다.

예를 들어 냄새, 촉감, 온도처럼 인간에겐 당연한 감각 정보들이 지금 모델에겐 거의 닿지 않습니다.
이런 감각 신호를 모델이 활용할 수 있게 만드는 것이, 이후 자기개선에도 중요한 기반이 될 수 있습니다.



Q. 앞으로 성능 향상은 어디서 더 많이 올까요? 프리트레이닝? 포스트트레이닝?

무스타파:
이건 질문하는 시점에 따라 달라집니다.
분명히 프리트레이닝과 포스트트레이닝 사이를 왔다 갔다 하는 흐름이 있을 거예요.

제 생각에 프리트레이닝은 여전히 기반(foundation) 입니다.
형편없는 베이스 모델을 포스트트레이닝만으로 구해낼 수는 없습니다.

하지만 지금 시점에서는 포스트트레이닝의 수익률이 굉장히 높습니다.
작지만 영리한 아이디어 하나가, 프리트레이닝 대비 훨씬 적은 비용으로도 모델 행동을 10배 개선할 수 있는 경우가 있어요.

그렇다고 프리트레이닝이 죽었다는 건 아닙니다.
오히려 새로운 프리트레이닝 아이디어들이 다운스트림의 많은 가능성을 열어줄 수 있다고 봅니다.

“프리트레이닝은 끝났다”는 주장에는 동의하지 않습니다.
예전 방식의 프리트레이닝은 수확 체감이 뚜렷할 수 있지만,
새로운 아이디어가 들어가면 다시 큰 변화가 열릴 수 있습니다.



Q. continual learning은 어떻게 정의할 수 있을까요? 자기개선과는 어떻게 다른가요?

무스타파:
둘은 관련은 있지만 다릅니다.

자기개선(self-improvement) 은 모델이 시간이 지나면서 더 똑똑해지는 것입니다.
반면 continual learning 은 모델이 시간이 지나도 최신 상태를 유지하는 것입니다.

예를 들어 의사가 계속 새로운 논문을 읽으며 지식을 업데이트하는 걸 떠올리면 됩니다.
지식이 낡지 않게 유지하는 거죠.

둘 모두의 공통 적은 “고정된 가중치의 모델”입니다.
세상은 계속 바뀌는데 모델 가중치가 멈춰 있으면, 자기개선도 못 하고 지속 학습도 못 합니다.

continual learning의 목표는, 모델의 지식 cutoff가 과거에 고정되지 않도록 하는 것입니다.
예를 들어 밤사이 일어난 뉴스나 변화가 다음 날 바로 모델의 가중치 안에 반영되는 상태죠.
그러면 외부 검색 없이도 최신 지식을 자연스럽게 쓸 수 있게 됩니다.

다만 이건 정말 어렵습니다.
특히 큰 문제 중 하나가 파국적 망각(catastrophic forgetting) 입니다.
새로운 걸 배우게 했더니 기존에 알던 걸 잊어버리는 현상이죠.



Q. 그러면 continual learning은 아직 실제 시스템에 본격적으로 들어가 있진 않은 건가요?

무스타파:
아직 “이게 정답 레시피다”라고 모두가 합의한 단계는 아닙니다.
아직은 탐색(exploration) 단계에 가깝죠.

하지만 DeepMind 내부에서도 상당히 인상적인 진전을 봤습니다.
특히 이 분야는 이론 연구자도 매우 큰 기여를 할 수 있어서 흥미롭습니다.

그래도 아직은 “좋아, 이제 이걸 바로 대규모 제품화하자”라고 할 수 있는 수준은 아닙니다.



Q. 그렇다면 RAG는 결국 사라질까요?

무스타파:
지금과 같은 모습 그대로 남아 있진 않을 것 같습니다.
하지만 완전히 사라진다고 보진 않습니다.

RAG는 단순히 최신 정보를 끌어오는 기능만 하는 게 아닙니다.
문맥 안에서 학습(in-context learning)하게 해주는 측면도 있어요.

모델 가중치 안에 들어간 정보와, 현재 컨텍스트 안에 들어간 정보는 역할이 다릅니다.
그래서 continual learning이 발전하더라도, 분포의 꼬리 부분에서는 여전히 RAG가 필요할 가능성이 큽니다.



Q. 지금 AI 업계가 잘못 보고 있는 건 뭘까요?

무스타파:
저는 사람들이 지능의 jaggedness, 즉 들쭉날쭉한 성질을 너무 가볍게 본다고 생각합니다.

예를 들어 어떤 모델은 어려운 수학 증명을 잘하는데, 단어 철자 세기처럼 사소한 건 엉망일 수 있죠.
사람들은 그런 걸 보고 웃고 넘어갑니다.
하지만 저는 그게 단순한 버그가 아니라, 시스템이 지식을 표현하고 처리하는 방식에 관한 더 깊은 문제를 가리킨다고 봅니다.

이건 프롬프트 한 줄 더 넣어서 패치할 수 있는 문제가 아닐 수도 있습니다.
구조적인 문제일 수 있다는 거죠.



Q. 반대로 과소평가되고 있는 아이디어는 뭘까요?

무스타파:
continual learning 입니다.

지금의 파운데이션 모델들은 사실상 훈련이 끝나는 순간 시간이 멈춥니다.
그리고 그 위에 RAG, 파인튜닝, 검색 시스템 같은 여러 인프라를 쌓고 있죠.
즉, “기반 모델은 고정돼 있다”는 강한 가정 위에서 모든 걸 만들고 있습니다.

그런데 그 가정 자체를 이제는 다시 생각해야 할 시점이라고 봅니다.
그래서 continual learning은 지금보다 훨씬 더 적극적으로 제품화 방향으로 밀어야 하는 과제라고 생각합니다.



Q. 사람들이 너무 자신 있게 믿고 있는 것은 뭐라고 보나요?

무스타파:
“기술적인 문제만 해결하면 나머지는 자동으로 따라온다”는 믿음입니다.

즉, 모델을 더 똑똑하게 만들기만 하면 사회적 문제, 신뢰, 규제, 분배 문제도 자연스럽게 해결될 거라고 생각하는 거죠.
저는 그렇게 보지 않습니다.

거버넌스, 규제, 사회적 신뢰, 접근성과 혜택의 분배, 제도권의 적응 능력 같은 문제들은 전혀 사소하지 않습니다.
오히려 기술만큼 어렵거나 더 어려울 수 있습니다.

지금은 기술 진보 속도가 사회 시스템의 적응 속도보다 훨씬 빠릅니다.
그 간극이 점점 커지고 있어요.
그래서 우리는 기술과 제도, 둘 다 동시에 붙잡아야 합니다.



Q. 지금 처음부터 다시 시작한다면, 어떤 분야를 하고 싶나요?

무스타파:
처음부터 다시 시작하고 싶진 않네요. 시작은 어렵거든요.
그래도 굳이 고른다면, 제가 지금 가장 흥미롭게 보는 건 장기적 작업을 완전 자동화하는 것입니다.

예를 들어 한 에이전트가 2주, 한 달짜리 작업을 스스로 계속 해내는 시스템이죠.
지금 에이전트들은 데모는 아주 인상적입니다. 하지만 잘 얘기되지 않는 문제가 하나 있어요.
바로 신뢰성의 누적(compounding reliability) 문제입니다.

예를 들어 어떤 작업이 100개의 순차 단계로 이루어져 있고,
각 단계 성공률이 95%라고 해봅시다. 95%면 엄청 좋아 보이죠.
그런데 전체 작업을 한 번도 실패 없이 끝낼 확률은 0.95의 100제곱, 즉 1%도 안 됩니다.

이 수학은 굉장히 냉혹합니다.
장기 자동화는 불가능하진 않지만, 훨씬 높은 단계별 신뢰성과 오류 복구 능력이 필요합니다.

사람들은 평균 성능을 체감하지 않습니다.
실패를 기억합니다.
모델이 100번 잘하다가 한 번 멍청한 실수를 하면, 신뢰 손상은 그 100번의 성공보다 더 크게 남습니다.

그래서 저는 장기 작업 자동화, grounding, 그리고 더 근본적으로는 지능 자체를 더 잘 정의하는 문제가 중요하다고 봅니다.

지금 우리는 점점 더 똑똑한 시스템을 만들고 있지만,
정작 “지능이란 무엇인가”에 대해서는 아직도 꽤 흐릿합니다.
벤치마크와 프록시는 유용하지만, 결국 목표를 더 선명하게 정의해야 진짜 진보를 측정할 수 있습니다.



핵심 한 줄 요약

무스타파 데흐가니의 메시지는 대체로 이렇습니다:

“AI가 AI를 만드는 흐름은 이미 시작됐다. 아직 완전 자동화는 아니지만, 장기 작업 능력과 평가 체계가 갖춰지면 자기개선 루프가 닫히고 큰 점프가 올 수 있다. 다만 그 과정에서 grounding, continual learning, 신뢰성, 사회 제도 문제까지 함께 해결해야 한다.”

 
전체 0