인터뷰/예측
데미스 하사비스 "agent는 hype라기보다 AGI로 가는 필수 경로"
작성자
하이룽룽
작성일
2026-04-30 08:24
조회
2
핵심 메시지 요약
데미스 하사비스:AGI를 향한 현재의 대규모 사전학습, RLHF, chain of thought 같은 기술들은 막다른 길이 아니라 최종 구조의 일부가 될 가능성이 높습니다. 다만 아직 continual learning, long-term reasoning, memory, consistency 같은 문제는 풀리지 않았습니다.
데미스 하사비스:
현재 memory와 context window 사용 방식은 다소 brute force합니다. 모든 것을 context에 넣는 방식은 장기적으로 만족스럽지 않습니다. 중요한 것은 저장 자체보다, 지금 필요한 정보를 찾아 쓰는 능력입니다.
데미스 하사비스:
agent는 hype라기보다 AGI로 가는 필수 경로입니다. 하지만 아직 우리는 experimentation phase에 있습니다. 진짜 가치 있는 use case는 최근에야 보이기 시작했고, 앞으로 6개월에서 12개월 사이에 더 분명한 결과가 나올 수 있습니다.
데미스 하사비스:
작은 모델은 점점 더 강력해질 것이며, distillation에는 아직 뚜렷한 이론적 한계가 보이지 않습니다. 작은 모델의 장점은 비용뿐 아니라 속도, edge 실행, privacy, security에도 있습니다.
데미스 하사비스:
과학에서 AI가 가장 강력하게 작동하는 문제는 massive combinatorial search space, clear objective function, 충분한 data 또는 simulator가 있는 문제입니다. AlphaGo와 AlphaFold가 그 대표 사례입니다.
데미스 하사비스:
AI for science 스타트업은 단순히 API를 감싸는 수준을 넘어, AI와 deep technology, 특히 atoms의 세계가 만나는 영역으로 가야 합니다. 그런 분야가 더 defensible하고 큰 impact를 만들 수 있습니다.
데미스 하사비스:
오늘 deep tech를 시작한다면, 여정 중간에 AGI가 등장할 가능성을 반드시 고려해야 합니다. AGI가 나타났을 때도 유용하고, 오히려 leverage될 수 있는 것을 만들어야 합니다.
미래를 건설하는 방법: 데미스 하사비스 인터뷰 상세 정리
1. 오프닝: 데미스 하사비스 소개
진행자:데미스 하사비스는 테크 업계에서 가장 독특한 경력을 가진 인물 중 한 명입니다.
어릴 때는 체스 신동이었고, 17살에는 자신의 첫 히트 비디오게임인 Theme Park를 설계했습니다. 이후 다시 학교로 돌아가 인지신경과학 박사학위를 받았고, 뇌에서 기억과 상상이 어떻게 작동하는지에 관한 기초적인 연구를 발표했습니다.
그리고 2010년, 그는 DeepMind를 공동 창업했습니다. 목표는 하나였습니다.
“지능을 해결하자.”
저는 그들이 그 일을 해냈다고 생각합니다.
그 이후 그의 연구소는 사람들이 수십 년은 더 걸릴 거라고 생각했던 일들을 해냈습니다.
AlphaGo는 바둑 세계 챔피언을 이겼고, AlphaFold는 50년짜리 생물학 난제였던 단백질 구조 예측 문제를 풀었습니다. 그리고 그 결과를 전 세계 모든 과학자에게 무료로 공개했습니다.
그 일로 데미스는 작년에 노벨 화학상을 받았습니다.
오늘 데미스는 Google DeepMind를 이끌며 Gemini를 만들고 있고, 자신이 10대 때부터 세웠던 목표, 즉 인공일반지능 AGI를 향해 나아가고 있습니다.
데미스를 환영해 주세요.
2. AGI의 현재 구조와 아직 부족한 것
진행자:당신은 거의 누구보다도 오랫동안 AGI에 대해 생각해왔습니다.
현재 패러다임, 즉 대규모 사전학습, RLHF, chain of thought 같은 것을 볼 때, AGI의 최종 아키텍처 중 얼마나 많은 부분을 이미 가지고 있다고 보나요? 그리고 지금 근본적으로 빠져 있는 것은 무엇인가요?
데미스 하사비스:
먼저 훌륭한 소개 감사합니다. 이곳에 초대해주셔서 정말 기쁩니다. 공간도 정말 놀랍네요. 다시 자주 오게 될 것 같습니다. 여러분이 이런 공간에서 일할 수 있다는 게 굉장히 영감을 줍니다.
질문에 답하자면, 방금 말한 구성요소들은 AGI의 최종 아키텍처에 포함될 가능성이 매우 높다고 봅니다. 지금까지 너무 많이 발전했고, 그것들이 무엇을 할 수 있는지 이미 많이 증명했습니다.
그래서 저는 몇 년 뒤에 우리가 “아, 이건 완전히 막다른 길이었어”라고 깨닫는 세계는 상상하기 어렵습니다. 그건 말이 안 된다고 봅니다.
하지만 지금 우리가 알고 있는 것 위에 아직 한두 가지가 더 필요할 수 있습니다.
예를 들면:
- continual learning, 즉 지속 학습
- long-term reasoning, 장기 추론
- memory, 기억의 일부 측면
- 시스템이 전반적으로 더 일관되게 작동하는 능력
물론 기존 기술이 어느 정도 혁신과 점진적 개선을 통해 이것들까지 확장될 수도 있습니다. 하지만 아직 풀어야 할 큰 아이디어가 한두 개 남아 있을 수도 있습니다. 제 생각에는 많아야 한두 개입니다.
그게 정말 남아 있는지에 대해서는 제 베팅은 50 대 50 정도입니다. 그래서 Google DeepMind에서는 두 방향 모두를 연구하고 있습니다.
3. 지속 학습과 기억: 지금은 “덕트테이프”로 붙이고 있다
진행자:여러 agent 시스템을 다뤄보면서 가장 놀라운 건, 같은 weights를 계속 반복해서 쓰고 있다는 점입니다. 그래서 continual learning이라는 아이디어가 정말 흥미롭습니다. 지금은 일종의 덕트테이프로 대충 붙이고 있는 느낌이잖아요. 밤마다 dream cycle을 돌린다든가 하는 방식으로요.
데미스 하사비스:
맞습니다. 그 dream cycle 같은 것도 꽤 흥미롭습니다. 우리는 예전부터 episodic memory의 consolidation, 즉 일화 기억의 통합에 대해 생각해왔습니다.
사실 제 박사 연구가 바로 해마가 어떻게 작동하는지, 그리고 새로운 지식을 기존 지식 기반에 어떻게 자연스럽게 통합하는지에 관한 것이었습니다.
뇌는 이 일을 놀라울 정도로 잘합니다. 특히 수면 중, REM 수면 같은 때에 중요한 episode들을 replay하면서 학습합니다.
우리의 아주 초기 Atari 프로그램인 DQN도 Atari 게임을 마스터할 수 있었던 이유 중 하나가 experience replay였습니다. 신경과학에서 아이디어를 빌려와서, 성공적인 trajectory를 여러 번 replay한 것이죠. 그게 2013년쯤이었으니, AI의 암흑시대 같은 시절이었지만 정말 중요한 아이디어였습니다.
그리고 지금은 말씀하신 것처럼 우리가 덕트테이프를 쓰고 있는 셈입니다.
예를 들어 “모든 걸 context window에 밀어 넣자”는 식이죠.
하지만 그건 뭔가 만족스럽지 않습니다.
우리는 생물학적 뇌가 아니라 기계 위에서 작업하고 있기 때문에, 잠재적으로 수백만 또는 수천만 토큰의 context window나 완벽한 메모리를 가질 수도 있습니다. 하지만 그래도 그것을 찾아보고, 지금 내려야 하는 특정 결정에 정말 관련 있는 것을 찾는 데는 비용이 듭니다.
그 비용은 사소하지 않습니다. 모든 것을 저장할 수 있다 해도, 필요한 것을 찾아 쓰는 것은 여전히 어렵습니다. 그래서 저는 memory 영역에 아직 혁신의 여지가 굉장히 많다고 봅니다.
4. Context window는 작업기억에 가깝다
진행자:흥미로운 건, 100만 토큰 context window면 사실 꽤 큰 것처럼 느껴진다는 점입니다. 솔직히 충분히 크다고 느껴질 때도 많습니다.
데미스 하사비스:
대부분의 용도에서는 충분히 큽니다. context window를 인간의 working memory, 즉 작업기억에 비유해볼 수 있습니다.
인간은 몇 자리 숫자 정도를 기억하죠. 평균적으로 일곱 개 정도라고 하기도 합니다. 그런데 우리는 100만, 1000만 토큰 context window를 갖고 있습니다.
문제는 우리가 거기에 모든 것을 저장하려 한다는 것입니다.
중요하지 않은 것, 틀린 것까지 다 넣습니다. 현재 방식은 꽤 brute force합니다. 그게 맞는 방식처럼 보이지는 않습니다.
게다가 실시간 비디오를 처리한다고 해봅시다. 모든 토큰을 순진하게 기록한다면, 100만 토큰도 그렇게 많지 않습니다. 겨우 20분 정도일 수 있습니다.
만약 시스템이 한두 달 동안 당신의 삶에서 무슨 일이 일어나는지 이해하려면 훨씬 더 많은 것이 필요합니다.
5. DeepMind의 RL과 search 철학은 Gemini에도 이어지고 있는가
진행자:DeepMind는 역사적으로 reinforcement learning과 search를 중시해왔습니다. AlphaGo, AlphaZero, MuZero 같은 것들이죠. 그 철학이 오늘날 Gemini를 만드는 데 얼마나 반영되어 있나요? RL은 여전히 과소평가되고 있나요?
데미스 하사비스:
그럴 가능성이 있습니다.
RL은 흐름이 있습니다. 유행했다가 덜 유행하고, 다시 중요해지고 하는 식입니다. 우리는 DeepMind 초창기부터 agent를 연구했습니다. 사실 우리가 처음부터 “우리는 agent를 연구한다”고 말했습니다.
Atari 작업과 AlphaGo는 아주 명확하게 agent 시스템이었습니다. 우리가 agent라고 할 때 의미한 것은, 스스로 목표를 달성하고, 능동적으로 결정을 내리고, 계획을 세울 수 있는 시스템이었습니다.
물론 처음에는 문제를 tractable하게 만들기 위해 게임 영역에서 했습니다. 이후 점점 더 복잡한 게임으로 갔고, AlphaGo 이후에는 StarCraft, AlphaStar 같은 것도 했습니다. 사실상 할 수 있는 게임은 다 했습니다.
그다음 질문은 이것이 단순한 게임이나 복잡한 게임을 넘어, world model이나 language model로 일반화될 수 있느냐였습니다. 지난 몇 년은 바로 그것에 관한 시간이었습니다.
오늘날 leading model들이 가지고 있는 thinking mode나 chain-of-thought reasoning도, 어떤 면에서는 AlphaGo에서 개척한 것들이 다시 돌아온 것이라고 볼 수 있습니다.
저는 우리가 그때 했던 많은 작업이 지금도 매우 관련 있다고 생각합니다. 그래서 그 오래된 아이디어들을 오늘날의 스케일에서, 더 일반적인 방식으로 다시 들여다보고 있습니다.
예를 들면 Monte Carlo search 같은 것들, 그리고 현재의 reinforcement learning 위에 RL을 증강하는 다른 방법들입니다.
AlphaGo와 AlphaZero에서 나온 많은 아이디어가 오늘날 foundation model의 방향과 정말 관련이 깊다고 생각합니다. 앞으로 몇 년 동안의 발전에서도 그런 아이디어들이 많이 나타날 것입니다.
6. 큰 모델과 작은 모델: distillation의 힘
진행자:오늘날 더 똑똑한 모델을 만들려면 더 큰 모델이 필요합니다. 하지만 동시에 distillation도 잘 작동하고 있고, 작은 모델들은 훨씬 빠릅니다. Google의 Flash 모델들은 frontier 모델의 95% 정도 성능을 내면서 가격은 10분의 1 수준이라고 볼 수 있나요?
데미스 하사비스:
그건 우리의 핵심 강점 중 하나입니다.
frontier capability를 얻으려면 가장 큰 모델을 만들어야 합니다. 하지만 우리의 가장 큰 강점 중 하나는 그 힘을 점점 더 작은 모델로 빠르게 압축하고 distill하는 능력입니다.
우리는 distillation process의 많은 부분을 발명했고, Geoff나 Oriol 같은 사람들을 비롯해 여전히 그 분야의 세계적인 전문가들이 있습니다.
그리고 우리에게는 그것을 해야 할 엄청난 필요성도 있습니다.
우리는 아마 세계에서 가장 큰 AI surface들을 운영해야 합니다. Search에는 AI Overviews와 AI Mode가 있고, Gemini 앱이 있으며, 이제 Google의 거의 모든 제품, Maps, YouTube 등에도 Gemini 또는 Gemini 관련 기술이 들어가고 있습니다.
수십억 명의 사용자, 10개가 넘는 billion-user product를 매우 빠르고 효율적이며 저렴하고 low latency로 서비스해야 합니다.
그렇기 때문에 Flash 모델, 더 작은 Flash-lite 모델을 극도로 효율적으로 만드는 것이 우리에게 중요한 동기입니다. 그리고 그것이 여러분이 사용하는 많은 workload에도 유용해지기를 바랍니다.
7. 작은 모델은 얼마나 똑똑해질 수 있는가
진행자:작은 모델들이 실제로 얼마나 똑똑해질 수 있는지가 궁금합니다. distillation process에는 한계가 있나요? 예를 들어 50B나 400B 모델이 오늘날의 매우 큰 frontier 모델만큼 똑똑해질 수 있을까요?
데미스 하사비스:
아직은 어떤 정보적 한계에 도달했다고 보지 않습니다. 적어도 우리 중 누구도 그런 한계에 도달했는지 알지 못합니다.
언젠가는 information density의 한계가 있을 수 있습니다. 더 이상 넘을 수 없는 밀도 같은 것이 있을 수 있죠. 하지만 지금은 아직 멀었다고 봅니다.
우리가 하는 가정은 이렇습니다.
어떤 leading Pro 모델이나 frontier 모델이 나오고, 반년 또는 1년 정도 지나면 그 성능의 상당 부분이 아주 작은, 거의 edge model 수준까지 내려온다는 것입니다.
Gemma 모델에서도 그런 장점을 볼 수 있습니다. 여러분이 Gemma 모델을 즐겁게 쓰고 있기를 바랍니다. 크기에 비해 정말 놀라운 성능을 낸다고 생각합니다. 그것도 많은 distillation technique과 작은 모델을 효율화하는 아이디어를 사용합니다.
그래서 저는 아직 이론적인 한계 같은 건 보이지 않는다고 봅니다.
8. 빠른 작은 모델이 생산성을 바꾸는 방식
진행자:그건 정말 좋은 일입니다. 지금 우리가 보는 이상한 현상 중 하나는, 엔지니어들이 6개월 전보다 500배에서 1000배 많은 일을 할 수 있다는 것입니다. Steve Yegge도 말하듯, 2000년대 Google 엔지니어가 하던 일의 1000배를 하는 것처럼 보이는 사람들이 있습니다.
데미스 하사비스:
정말 흥미롭습니다.
작은 모델에는 여러 용도가 있습니다. 하나는 당연히 비용입니다. 하지만 또 하나는 속도입니다.
코딩 같은 작업을 생각해보면, 시스템과 협업할 때 훨씬 더 빠르게 iterate할 수 있습니다. frontier 수준은 아니더라도, 90%나 95% 정도만 되어도 충분히 좋은 경우가 많습니다.
그리고 그 10% 부족한 성능보다 iteration speed에서 얻는 이득이 더 클 수 있습니다.
또 다른 큰 용도는 edge에서 실행하는 것입니다. 효율성 때문이기도 하지만, privacy와 security 때문이기도 합니다.
예를 들어 여러 device 위에서, 매우 개인적인 정보를 처리하는 시스템을 생각해볼 수 있습니다. robotics도 마찬가지입니다. 집 안에 있는 로봇을 생각하면, 매우 효율적이고 강력한 local model이 필요할 겁니다.
그 local model이 cloud에 있는 더 큰 frontier model과 orchestration될 수 있습니다. 특정 상황에서만 cloud에 delegate하는 방식이죠.
예를 들어 audio나 visual feed는 로컬에서 처리하고, 그 정보는 local에 남아 있게 하는 식입니다. 저는 그런 end state가 꽤 좋은 방향일 수 있다고 생각합니다.
9. 광고/홍보 삽입 구간
진행자:YC Starter School이 돌아왔습니다. 우리는 전 세계에서 가장 유망한 builder들을 선발해 7월 25일과 26일 샌프란시스코로 초대합니다. 최첨단 기술에 대해 논의할 예정입니다. 지금 지원하세요.
자, 다시 영상으로 돌아가겠습니다.
10. Continual learning 모델을 개발자가 어떻게 다루게 될까
진행자:context와 memory 이야기로 돌아가보겠습니다. 현재 모델들은 stateless합니다. 그런데 continual learning 모델을 쓰게 된다면, 개발자 경험은 어떻게 될까요? 개발자는 그런 모델을 어떻게 steer하게 될까요?
데미스 하사비스:
정말 흥미로운 질문입니다.
continual learning이 없다는 점은 현재 agent가 완전한 task를 수행하지 못하게 막는 것 중 하나라고 생각합니다.
지금 agent들은 task의 일부에는 정말 유용합니다. 여러 agent를 patch해서 꽤 멋진 일도 할 수 있습니다. 하지만 그것들은 자신이 놓인 context에 잘 적응하지 못합니다.
그리고 저는 그것이 agent가 진짜로 “fire and forget” 방식으로 작동하게 되는 데 빠진 조각이라고 봅니다. 즉, 한 번 시켜놓으면 스스로 알아서 문제를 풀어내는 수준이 되려면, agent가 자신이 투입된 특정 context에 대해 학습할 수 있어야 합니다.
AGI에 도달하려면 이 문제를 해결해야 한다고 생각합니다.
11. 현재 reasoning의 한계: 과도한 thinking과 loop
진행자:reasoning은 지금 어디까지 와 있나요? 모델들은 chain of thought로 매우 인상적인 일을 해냅니다. 하지만 여전히 똑똑한 학부생이라면 틀리지 않을 문제에서 실패합니다. 구체적으로 무엇이 바뀌어야 하고, reasoning에서 어떤 진전을 예상하나요?
데미스 하사비스:
thinking paradigm에는 아직 혁신이 많이 남아 있습니다.
저는 현재 우리가 하는 일이 꽤 단순하고 brute force하다고 봅니다.
예를 들어 chain of thought를 monitoring하고, thought process 중간에 개입하는 방식을 상상할 수 있습니다. 저는 종종 우리 시스템이나 경쟁사 시스템들이 거의 overthinking하고 있다는 인상을 받습니다. 어떤 loop에 빠지는 것처럼 보일 때도 있습니다.
제가 가끔 하는 것 중 하나가 Gemini와 체스를 두는 것입니다. 흥미롭게도 leading foundation model들은 게임에 꽤 약합니다. 그런데 thinking trace를 보면 정말 흥미롭습니다.
게임은 매우 잘 정의된 영역이기 때문에, 그 reasoning이 쓸모 있는지 아닌지를 꽤 빨리 판단할 수 있습니다. 어떤 thinking이 정확히 어디로 가고 있는지, 그것이 유용한지 아닌지를 검증하기 쉽습니다.
우리가 보는 것은 이렇습니다.
모델이 어떤 수를 고려합니다. 그것이 blunder라는 걸 깨닫습니다. 그런데 더 나은 수를 찾지 못하니까, 다시 그 blunder로 돌아가고 결국 그 수를 둡니다.
정밀한 reasoning system에서는 이런 일이 일어나면 안 됩니다.
그래서 아직 큰 gap이 있습니다. 다만 분명히 말하자면, 이런 gap을 고치는 데 필요한 것이 한두 가지 tweak일 수도 있습니다.
하지만 현재 gap이 존재한다는 것은 꽤 명백합니다. 그래서 우리가 “jagged intelligence”를 보는 겁니다.
한편으로는 모델이 IMO 금메달급 문제를 풀 수 있습니다. 그건 엄청나게 어려운 일입니다. 하지만 다른 한편으로는, 질문을 특정 방식으로 제시하면 아주 기초적인 수학 오류나 초등적인 reasoning error도 범합니다.
저는 이것이 모델이 자신의 thought process를 introspect하는 능력과 관련이 있다고 봅니다. 거기에 뭔가 빠져 있는 것 같습니다.
12. Agent는 hype인가, 이제 시작인가
진행자:agent가 굉장히 큰 화두입니다. 어떤 사람들은 hype라고 말합니다. 저는 개인적으로 이제 막 시작됐다고 봅니다. DeepMind 내부 연구는 현재 agent capability가 실제로 어디쯤 와 있다고 말하나요?
데미스 하사비스:
저도 동의합니다. 우리는 이제 막 시작 단계에 있습니다.
AGI에 도달하려면, 문제를 능동적으로 해결할 수 있는 active system이 필요합니다. 그것은 우리에게 항상 명확했습니다. 그래서 agent가 그 길입니다.
다만 지금 우리는 모두 agent와 어떻게 가장 잘 일할지 배우는 중입니다. 여러분 중 많은 분도 개인적인 실험을 통해 그 길을 개척하고 있을 것입니다.
중요한 것은 agent를 workflow에 어떻게 통합하느냐입니다. 단순히 “있으면 좋은 것”이 아니라, 근본적인 일을 하기 시작하는 방식으로 통합해야 합니다.
현재 제 인상은 이렇습니다.
우리는 많은 것을 실험하고 있지만, 정말 가치 있는 영역을 찾기 시작한 것은 아마 최근 몇 달 정도입니다. 기술도 이제야 단순한 toy나 멋진 demo를 넘어, 실제로 시간과 효율성에 가치를 더할 만큼 좋아지기 시작했습니다.
저는 사람들이 수십 개의 agent를 40시간씩 돌리는 것을 많이 봅니다. 하지만 아직 그 output이 그 정도 input을 정당화하는지는 잘 모르겠습니다. 다만 결국 그렇게 될 것이라고 생각합니다.
아직 우리는 experimentation phase에 있습니다.
예를 들어 아직 vibe coding으로 만든 AAA 게임이 앱스토어 차트 1위를 차지한 사례는 보지 못했습니다. 물론 작은 demo나 prototype은 만들 수 있습니다. 저도 17살 때 6개월 걸렸던 Theme Park 같은 prototype을 이제는 30분 만에 만들 수 있습니다. 그건 정말 놀랍습니다.
그리고 만약 여름 내내 여기에 몰두한다면 정말 굉장한 것을 만들 수 있을 것 같은 느낌도 듭니다.
하지만 여전히 craft가 필요합니다. 인간의 soul과 taste가 들어가야 합니다. 여러분이 무엇을 만들든, 그런 것을 계속 가져와야 합니다.
아직 완전히 거기까지 가지 않았다는 증거는, 왜 아직 어떤 아이가 hit game을 만들어 1000만 장을 팔지 못했느냐는 점입니다. 지금까지 투입된 노력과 도구를 생각하면 그런 일이 가능해야 합니다.
그래서 아직 뭔가 빠져 있습니다. 프로세스의 문제일 수도 있고, 도구의 문제일 수도 있습니다. 여러분이 더 잘 알 수도 있습니다. 왜냐하면 여러분이 직접 실험하고 있을 테니까요.
하지만 저는 앞으로 6개월에서 12개월 안에, 이 기술이 진짜 full value를 내기 시작하면 그런 결과를 보게 될 것이라고 생각합니다.
13. 인간이 agent를 조종하는 단계가 먼저 올 것이다
진행자:어느 정도는 autonomous하게 갈지, 아니면 인간이 중간에 들어가는 방식일지가 문제 같습니다. 저는 autonomous가 먼저 오지는 않을 것 같습니다. 이 방 안의 사람들이 1000배로 일하는 것이 먼저 보일 것 같습니다.
데미스 하사비스:
맞습니다. 먼저 봐야 할 것은 그것입니다.
여러분 중 누군가는 이런 도구를 사용해 bestselling app이나 bestselling game을 만드는 회사가 될 것입니다. 그게 먼저 나타나야 하고, 그다음 더 많은 부분이 자동화될 것입니다.
진행자:
어쩌면 인간이 중간에 있는데, 그 인간이 agent가 했다고 아직 말하고 싶어 하지 않는 것일 수도 있습니다.
데미스 하사비스:
그럴 수도 있습니다.
하지만 창의성에 대해 이야기하자면, 저는 AlphaGo의 Move 37을 자주 예로 듭니다. Game 2에서 나온 그 유명한 수 말입니다.
저는 그런 순간을 기다렸습니다. 왜냐하면 그런 순간이 나오면 과학 프로젝트를 시작할 수 있겠다고 생각했기 때문입니다. 실제로 우리는 서울에서 돌아온 바로 그날 AlphaFold를 시작했습니다. 이제 10년이 되었고, 저는 AlphaGo 10주년을 기념하러 한국에 갈 예정입니다.
하지만 Move 37을 만들어내는 것만으로는 충분하지 않습니다. 그것은 매우 멋지고 유용합니다.
제가 원하는 것은 이것입니다.
시스템이 바둑을 발명할 수 있느냐입니다.
제가 high-level description을 줍니다.
“5분 안에 규칙을 배울 수 있지만, 마스터하려면 여러 생애가 걸리는 게임. 미학적으로 아름답고, 한 오후 몇 시간 안에 플레이할 수 있는 게임.”
그런 설명을 주었을 때, 시스템이 바둑 같은 것을 돌려줄 수 있느냐는 겁니다.
오늘날의 시스템은 분명히 그것을 할 수 없다고 생각합니다. 그래서 질문은 왜냐는 것입니다. 저는 아직 무언가 빠져 있다고 봅니다.
진행자:
이 방 안의 누군가가 그것을 만들 수도 있습니다.
데미스 하사비스:
그렇다면 답은 “빠진 것이 없다”가 될 수 있습니다. 단지 우리가 시스템을 사용하는 방식의 문제였던 것이죠.
그럴 수도 있습니다. 오늘날의 시스템도 충분히 뛰어난 창의적인 사람이 그것을 사용하고, 프로젝트의 soul을 불어넣고, 도구와 거의 하나가 될 정도로 익숙해진다면, 정말 놀라운 것을 만들어낼 수 있을지도 모릅니다.
아마 여러분 중 많은 분들이 밤낮으로 이런 도구를 실험하고 있을 것입니다. 거기에 깊은 창의성이 결합된다면 더 놀라운 일이 가능할 수 있습니다.
14. Open source, open weights, Gemma
진행자:open source, 또는 open weights 이야기로 넘어가보겠습니다. 최근 Gemma release를 보면, 로컬에서 실행할 수 있는 매우 강력하고 접근 가능한 모델을 공개하고 있습니다. 이것은 AI가 주로 cloud에 있는 것이 아니라 사용자 손에 들어간다는 의미인가요? 그리고 누가 이런 모델로 만들 수 있는지를 바꾸나요?
데미스 하사비스:
우리는 일반적으로 open source와 open science의 강한 지지자입니다.
처음에 AlphaFold 이야기를 해주셨죠. 우리는 그것을 모두 무료로 공개했습니다. 지금도 우리의 science work는 주요 저널에 발표합니다.
Gemma에 대해서는, 우리는 그 크기에서 세계 최고 수준의 모델을 만들고 싶었습니다. 그리고 저는 우리가 그렇게 했다고 생각합니다. 우리는 이 방향에 매우 committed되어 있습니다. 여러분 모두가 Gemma를 실험하고, 만들고, 즐기기를 바랍니다.
Gemma는 2주 반 만에 4000만 다운로드 정도를 기록했습니다. 우리는 매우 흥분하고 있습니다.
또한 open source 영역에 Western stack이 존재하는 것도 중요하다고 생각합니다. 중국 모델들도 훌륭하고, 그동안 open source에서 leading하고 있었습니다. 우리는 Gemma가 그 크기대에서 매우 경쟁력 있다고 봅니다.
물론 자원, talent, compute의 문제가 있습니다. 누구도 서로 다른 속성을 가진 최대 크기의 frontier model 두 개를 만들 만큼 spare compute를 가지고 있지는 않습니다. 그것은 꽤 어렵습니다.
그래서 현재 우리가 결정한 것은, edge model, 즉 Android, glasses, robotics에 쓰고 싶은 모델들은 open model로 두는 것이 가장 낫다는 것입니다.
어차피 그런 모델은 surface에 올라가면 취약해집니다. 그렇다면 완전히 open하는 편이 낫습니다. 우리는 nano size level에서 그런 방향으로 통합하는 결정을 했습니다.
전략적으로도 그것은 우리에게 맞습니다. 많은 사람이 그것을 기반으로 만들기를 바랍니다. 물론 우리도 그 위에 만들 것입니다.
15. Gemini의 multimodal 강점
진행자:아까 제가 당신에게 영화 Her의 Samantha 같은 제 데모를 보여드렸습니다. 당신에게 뭔가를 데모하는 건 저에게 꽤 무서운 일이었는데요. 다행히 작동했습니다. Gemini는 처음부터 multimodal로 만들어졌습니다. 저는 여러 모델을 많이 써봤는데, speech directly to model, context depth, tool use에서 Gemini는 정말 독보적입니다.
데미스 하사비스:
그 부분은 Gemini series에서 아직 약간 과소평가되고 있는 점이라고 생각합니다.
우리는 Gemini를 처음부터 multimodal로 시작했습니다. 처음에는 그것이 조금 더 어렵게 만들었습니다. 텍스트에만 집중하는 것보다 어려웠죠. 하지만 우리는 장기적으로 그것이 이득이 될 것이라고 믿었습니다. 그리고 지금 그 효과를 보고 있다고 생각합니다.
예를 들어 world model building에서 그렇습니다. Gemini 위에 만드는 Genie 같은 것이 매우 중요할 것입니다. robotics에서도 그렇습니다. Gemini Robotics도 많은 분이 접해봤을 수 있는데, robotics model은 multimodal foundation model 위에 만들어질 것이라고 봅니다.
Gemini가 multimodal에서 강하기 때문에 우리는 경쟁 우위를 가지고 있다고 생각합니다. Waymo 같은 영역에서도 점점 더 사용하고 있습니다.
또한 현실 세계로 함께 들어오는 digital assistant를 상상해보세요. phone이나 glasses, 다른 device 위에 있는 assistant 말입니다. 그런 시스템은 주변의 physical world를 이해해야 합니다. intuitive physics와 physical context를 이해해야 합니다.
우리 시스템은 그런 문제에 매우 강합니다. 아마 당신이 데모에서 그것을 즐겁게 사용한 이유도 그 때문일 겁니다.
우리는 이 방향을 계속 이어갈 계획이고, 이런 유형의 문제에서는 우리가 단연 가장 강한 모델이라고 생각합니다.
16. 추론 비용이 거의 무료가 되면 무엇이 가능해지는가
진행자:inference cost가 빠르게 떨어지고 있습니다. inference가 사실상 무료에 가까워지면 무엇이 가능해지나요? 그리고 팀이 최적화하는 대상은 어떻게 바뀌나요?
데미스 하사비스:
저는 inference가 완전히 무료에 가까워질지는 확신하지 않습니다.
Jevons paradox 같은 것도 있습니다. 우리가 손에 넣을 수 있는 것은 결국 모두 쓰게 될 것입니다.
예를 들어 수백만 개의 agent swarm이 함께 작업하는 것을 상상할 수 있습니다. 또는 하나의 agent나 소수의 agent group이 여러 방향으로 생각하고, 그것들을 ensemble하는 방식도 가능합니다.
우리는 이런 것들을 모두 실험하고 있고, 아마 여러분도 그럴 것입니다. 이런 모든 것들은 사용 가능한 inference를 다 써버릴 것입니다.
언젠가 거의 비용이 0에 가까워질 수는 있습니다. 특히 fusion, superconductor, optimal battery 같은 것을 해결한다면, material science를 통해 energy cost는 거의 0이 될 수 있습니다.
하지만 여전히 chip을 물리적으로 만드는 것과 같은 병목이 있을 것입니다. 앞으로 수십 년 동안은 어떤 병목은 존재할 것입니다.
그렇다면 inference 측면에서도 여전히 rationing이 있을 것이고, 효율적으로 사용해야 할 것입니다.
17. AlphaFold 3, 세포 전체 모델링, virtual cell
진행자:청중 중에 bio와 biotech founder들이 많습니다. AlphaFold 3는 단백질을 넘어 다양한 biomolecule로 확장되었습니다. 전체 cellular system을 모델링하는 데 얼마나 가까워졌나요? 아니면 그것은 완전히 다른 난이도의 문제인가요?
데미스 하사비스:
AlphaFold 2 이후 DeepMind에서 spin out한 Isomorphic Labs가 있습니다. 아주 잘 진행되고 있습니다.
AlphaFold는 drug discovery process의 한 조각입니다. 우리는 그 주변의 biochemistry와 chemistry까지 확장해서, 적절한 compound와 적절한 property를 설계하려고 합니다. 그 부분에 대해 곧 큰 발표가 있을 것입니다.
궁극적으로 원하는 것은 whole virtual cell입니다. 저는 science talk에서 이것을 많이 이야기했습니다.
작동하는 세포 전체의 simulation을 갖고 싶습니다. 그 세포를 perturb했을 때, output이 실험 결과와 충분히 가까워서 유용한 수준이 되는 것입니다. 그렇게 되면 많은 search step을 건너뛸 수 있고, synthetic data를 만들어 다른 모델을 훈련시킬 수 있습니다. 그 모델들은 실제 세포에 대해 예측할 수 있게 됩니다.
저는 full virtual cell 같은 것은 아마 10년 정도 떨어져 있다고 봅니다.
우리는 DeepMind science 쪽에서 먼저 virtual nucleus, 즉 세포핵부터 시작하고 있습니다. 그것은 상대적으로 self-contained되어 있기 때문입니다.
이런 문제의 핵심은 복잡성의 어느 slice를 선택할 수 있느냐입니다. 궁극적으로는 human body를 모델링하고 싶을 수 있습니다. 하지만 어느 정도 detail까지 모델링할 것인지, 어떤 slice가 충분히 self-contained되어 있어서 input과 output을 근사하고 그 내부 시스템에 집중할 수 있는지가 중요합니다.
그 관점에서 nucleus는 흥미로운 대상입니다.
또 다른 문제는 데이터가 충분하지 않다는 것입니다.
live cell을 죽이지 않고 image할 수 있다면, game-changing일 것입니다. 그러면 그것을 vision problem으로 바꿀 수 있고, 우리는 그런 문제를 어떻게 풀어야 하는지 알고 있습니다.
하지만 제가 알기로는 현재 살아 있는 dynamic cell을 nanometer resolution으로, 세포를 파괴하지 않고 볼 수 있는 기술은 없습니다. static image는 매우 높은 resolution으로 찍을 수 있고, 그것도 흥미롭습니다. 하지만 상호작용을 보려면 충분하지 않습니다.
그래서 해결 방식은 두 가지일 수 있습니다.
하나는 hardware-driven, data-driven solution입니다.
다른 하나는 이런 dynamical system에 대한 더 나은 learned simulator를 만드는 modeling approach입니다.
18. 앞으로 5년, AI가 가장 크게 바꿀 과학 분야
진행자:당신은 bio뿐 아니라 material science, drug discovery, climate modeling, mathematics 등 다양한 과학 분야를 보고 있습니다. 앞으로 5년 동안 가장 극적으로 변화할 과학 분야를 꼽는다면 무엇인가요?
데미스 하사비스:
모두 정말 흥미롭습니다.
제가 30년 넘게 AI를 연구해온 가장 큰 이유이자 열정은, AI를 궁극의 도구로 사용해 과학을 발전시키는 것이었습니다. 저는 항상 AI가 science를 위한 ultimate tool이 될 것이라고 생각했습니다. 과학적 이해와 발견, 의학, 그리고 우리가 사는 우주에 대한 이해를 발전시키는 도구 말입니다.
처음에 우리의 mission statement를 언급하셨죠. 우리는 그것을 두 단계로 생각했습니다.
1단계는 solve intelligence, 즉 AGI를 만드는 것입니다.
2단계는 use it to solve everything else, 즉 그것으로 다른 모든 것을 해결하는 것입니다.
시간이 지나면서 이 표현을 조금 바꿔야 했습니다. 사람들이 “정말 모든 것을 해결한다는 뜻이냐”고 물었기 때문입니다. 그런데 우리는 정말 그렇게 의미했습니다.
좀 더 구체적으로 말하면, 저는 과학의 root node problem을 해결한다는 뜻이었습니다. 특정 문제가 풀리면 새로운 발견의 가지와 경로 전체가 열리는 그런 문제입니다.
AlphaFold는 우리가 하고자 하는 것의 전형적인 예입니다.
전 세계 300만 명 이상의 연구자, 사실상 거의 모든 생물학 연구자가 AlphaFold를 사용하고 있습니다. 제약회사 임원 친구들에게 들은 바로는, 앞으로 발견되는 거의 모든 drug은 drug discovery process 어느 지점에서든 AlphaFold를 사용하게 될 것이라고 합니다.
그것은 우리가 매우 자랑스럽게 생각하는 영향력입니다. AI로 우리가 만들고 싶은 impact의 한 예입니다.
하지만 저는 이것이 시작에 불과하다고 봅니다. 과학이나 공학 중 AI가 도움이 되지 않을 분야는 거의 없다고 봅니다.
방금 언급한 분야들, material science, mathematics 같은 곳은 지금 거의 AlphaFold 1 moment에 와 있다고 생각합니다. 매우 유망한 결과는 있지만 아직 그 영역의 grand challenge를 완전히 해결한 것은 아닙니다.
하지만 앞으로 몇 년 안에 그 모든 영역에서 이야기할 것이 많아질 것이라고 봅니다.
19. Prometheus적 능력과 책임
진행자:과학에서 보면 정말 Prometheus적인 느낌이 듭니다. 이런 능력을 가져다주는 것이니까요.
데미스 하사비스:
그렇습니다. 물론 Prometheus의 비유 자체도 그렇듯, 우리는 그것을 어떻게 쓰는지, 무엇에 쓰는지 조심해야 합니다.
그리고 같은 도구가 오용될 가능성도 주의해야 합니다.
20. AI for science 스타트업: 진짜 frontier와 API wrapper의 차이
진행자:이 방의 많은 사람들은 AI를 science에 적용하는 회사를 만들고 있습니다. 이들에게 묻고 싶습니다. 실제로 frontier를 발전시키는 스타트업과, foundation model API를 감싸놓고 AI for science라고 부르는 스타트업의 차이는 무엇인가요?
데미스 하사비스:
제가 오늘 여러분의 입장, 즉 Y Combinator에 있는 창업자 입장이라면 무엇을 할지 생각해보겠습니다.
첫째, AI 기술이 어디로 가는지 intercept해야 합니다. 그것 자체가 어려운 일입니다.
하지만 저는 AI가 가는 방향과 다른 deep technology 영역이 결합되는 지점에 엄청난 기회가 있다고 생각합니다. materials, medicine, 또는 다른 정말 어려운 과학 분야가 그 sweet spot입니다.
특히 atoms의 세계와 관련된 interdisciplinary team이라면, 가까운 미래에는 shortcut이 없을 것입니다.
그런 영역은 foundation model의 다음 업데이트가 나왔다고 해서 한순간에 swarming당하기 어려운, 비교적 defensible한 영역입니다.
저는 deep tech를 좋아하기 때문에 bias가 있습니다. 하지만 오래 지속되고 가치 있는 것은 쉽지 않습니다. 저는 늘 deep technology에 끌렸습니다.
AI도 2010년에 우리가 시작했을 때는 그랬습니다. 투자자들은 물론이고 학계에서도 “우리는 이미 90년대에 해봤고, 안 된다는 걸 안다”고 말했습니다. 아주 niche한 주제로 여겨졌습니다.
하지만 자신의 아이디어에 대한 믿음과 conviction이 있고, 왜 이번에는 다른지, 그리고 자신의 배경에서 어떤 특별한 조합이 있는지 설명할 수 있다면, 그건 중요합니다.
이상적으로는 machine learning과 그것을 적용하려는 다른 영역 둘 다에 전문성이 있어야 합니다. 또는 그런 전문성을 가진 founding team을 만들 수 있어야 합니다.
그런 곳에 엄청난 impact와 value가 만들어질 수 있다고 생각합니다.
21. 어려운 문제를 하기 전에는 아무도 믿어주지 않는다
진행자:중요한 메시지입니다. 이미 해내고 나면 쉬워 보이지만, 해내기 전에는 모두가 반대하는 경우가 많습니다.
데미스 하사비스:
맞습니다. 아무도 믿지 않습니다.
그래서 자신이 정말 열정적으로 좋아하는 일을 해야 한다고 생각합니다.
저에게 AI는 무슨 일이 있어도 계속했을 일입니다. 저는 아주 어릴 때부터 AI가 제가 생각할 수 있는 가장 consequential한 일이라고 판단했습니다.
결과적으로 그렇게 되었지만, 아닐 수도 있었습니다. 우리가 50년 너무 일찍 온 것일 수도 있었습니다.
하지만 그것은 제가 생각할 수 있는 가장 흥미로운 일이기도 했습니다. 그래서 저는 오늘날에도 AI가 여전히 작은 garage에서 잘 안 되고 있는 상태였더라도 계속 AI를 하고 있었을 것입니다. 아마 학계로 돌아갔거나 다른 방식으로든 계속했을 것입니다.
22. AlphaFold식 돌파구가 가능한 문제의 조건
진행자:AlphaFold는 당신이 추구한 spike가 성공한 예입니다. 어떤 scientific domain이 AlphaFold식 breakthrough에 ripe한가요? 특정 objective function 같은 패턴이 있나요?
데미스 하사비스:
언젠가 시간이 5분이라도 나면 이것을 글로 써야 합니다.
제가 AlphaGo와 AlphaFold 같은 alpha project들에서 배운 교훈은 이렇습니다.
우리가 가진 기술과 제가 찾는 문제는 다음 상황에서 강합니다.
첫째, 문제를 massive combinatorial search space로 설명할 수 있어야 합니다. 클수록 좋습니다. brute force나 특수한 case algorithm으로는 풀 수 없어야 합니다.
Go의 가능한 수와 단백질의 가능한 configuration이 그런 예입니다. 둘 다 우주의 원자 수보다 훨씬 많은 가능성을 가집니다.
둘째, 명확한 objective function이 있어야 합니다.
단백질에서는 free energy를 최소화하는 것일 수 있고, 바둑에서는 게임에서 이기는 것입니다. objective function을 명확히 정의할 수 있어야 hill climbing할 수 있습니다.
셋째, 충분한 data가 있거나, 또는 simulator가 있어서 in-distribution synthetic data를 많이 생성할 수 있어야 합니다.
이 조건들이 맞으면, 오늘날의 방법으로도 굉장히 멀리 갈 수 있습니다. 찾고 있는 해답이라는 needle in a haystack을 찾아낼 수 있습니다.
drug discovery도 저는 같은 방식으로 봅니다.
어떤 disease를 해결할 compound가 어딘가에 있을 수 있습니다. 부작용도 없는 compound가 있을 수 있습니다. 물리 법칙이 그것을 허용한다면, 유일한 질문은 그것을 어떻게 효율적이고 tractable하게 찾느냐입니다.
AlphaGo는 이런 시스템이 그런 needle in a haystack을 찾을 수 있다는 것을 처음 보여준 사례라고 봅니다. 그 경우에는 완벽한 Go move였죠.
23. AI가 진짜 과학적 추론을 할 수 있는가
진행자:조금 meta한 질문을 하겠습니다. 우리는 인간이 이런 방법을 사용해 AlphaFold를 만드는 이야기를 하고 있습니다. 그런데 그 위의 meta level에서는 인간이 AI를 사용해 가능한 hypothesis의 공간을 탐색하는 일이 있습니다. AI 시스템이 단순한 pattern matching이 아니라 genuine scientific reasoning을 하는 데 얼마나 가까워졌나요?
데미스 하사비스:
가깝다고 생각합니다.
우리는 그런 general system을 연구하고 있습니다. 예를 들어 co-scientist라는 시스템이 있고, AlphaEvolve 같은 알고리즘도 있습니다. 이런 것들은 기본 Gemini가 하는 것보다 조금 더 나아갈 수 있습니다.
물론 모든 frontier lab이 이런 방식을 실험하고 있습니다.
하지만 아직까지 저는 진정한 massive discovery라고 부를 만한 것을 보지는 못했습니다. 제 개인적 의견입니다.
그런 일이 올 것이라고는 생각합니다. 아마 앞서 이야기한 creativity, 알려진 것의 경계를 넘어서는 능력과 관련이 있을 것입니다.
그 지점에서는 더 이상 pattern matching이 아닙니다. match할 pattern이 없기 때문입니다. 단순한 extrapolation보다도 더 많은 것입니다. 어떤 analogical reasoning이 필요합니다.
저는 현재 시스템들이 그것을 가지고 있지 않거나, 적어도 우리가 그것을 제대로 사용하는 방법을 모른다고 봅니다.
과학에서 저는 이렇게 말하곤 합니다.
AI가 hypothesis를 풀 수 있느냐가 아니라, 정말 흥미로운 hypothesis를 떠올릴 수 있느냐가 문제입니다.
여기서 “그냥 푼다”고 말할 때도 이제는 Riemann hypothesis 같은 것을 푸는 이야기를 하고 있습니다. 그것도 당연히 엄청난 일입니다. Millennium Prize problem 중 하나를 푸는 것도 그렇습니다. 어쩌면 우리는 그런 일에서 몇 년 정도 떨어져 있을지도 모릅니다.
하지만 제가 특히 풀고 싶은 것은 P equals NP입니다. 그게 제가 가장 좋아하는 문제입니다.
그보다 더 어려운 것은, 새로운 millennium prize problem 세트를 만들어내는 것입니다. 최고 수학자들이 보기에 깊고 의미 있으며, 평생의 연구와 노력을 기울일 가치가 있다고 여길 문제들을 새로 제안할 수 있느냐는 겁니다.
그것은 또 다른 수준으로 더 어렵습니다. 저는 아직 우리가 그것을 어떻게 해야 하는지 모른다고 생각합니다.
하지만 마법 같은 일이라고 보지는 않습니다. 결국 시스템들이 그런 일을 할 수 있게 될 것이라고 봅니다. 어쩌면 우리가 한두 가지를 놓치고 있을 뿐입니다.
저는 그것을 테스트하는 방식으로 가끔 Einstein test를 이야기합니다.
1901년의 지식만으로 시스템을 훈련시켰을 때, 그것이 1905년의 Einstein이 한 일, 예를 들어 특수상대성이론 같은 것을 스스로 생각해낼 수 있느냐는 것입니다.
우리는 그런 테스트를 실제로 돌려볼 수 있습니다. 계속 시도해보면 좋겠습니다. 그것이 가능해진다면, 시스템이 정말 새로운 것을 발명할 수 있는 문턱에 왔다고 볼 수 있을 것입니다.
24. Frontier에서 일하며 25살의 자신에게 알려주고 싶은 것
진행자:마지막 질문입니다. 이 방의 깊이 technical한 사람들, 그리고 당신이 만든 것과 비슷한 규모의 무언가를 만들고 싶어 하는 사람들을 위해 묻겠습니다. 당신은 세계 최대 AI effort 중 하나를 이끌었고, 오랫동안 pioneer였습니다. 그 점에 대해 이 방의 모두가 DeepMind의 여러분께 진심으로 감사하고 있습니다.
frontier에서 build한다는 것에 대해, 지금은 알지만 25살 때 알았으면 좋았을 것은 무엇인가요?
데미스 하사비스:
우리가 앞서 일부 이야기한 것 같습니다.
어려운 문제, 깊은 문제를 추구하는 것이, 어떤 면에서는 더 얕고 단순하고 피상적인 문제를 추구하는 것보다 더 어렵지 않을 수도 있다는 점입니다.
그것들은 그냥 다르게 어렵습니다. 각각 어려운 지점이 다릅니다.
하지만 인생은 매우 짧고, 가진 시간과 에너지는 한정되어 있습니다. 그러니 자신의 life force를, 내가 하지 않았다면 달라졌을 무언가, 내가 밀어붙였기 때문에 실제로 차이를 만들 수 있는 무언가에 쏟는 편이 낫습니다.
그 lens로 생각해보면 좋겠습니다.
또 저는 deep tech와 interdisciplinary work를 좋아합니다. 앞으로 몇 년 동안 분야들의 조합, 그리고 그 분야들 사이의 연결을 찾는 일이 더욱 중요해질 것입니다. AI 덕분에 그것도 더 쉬워질 것입니다.
마지막으로 말하고 싶은 것은, AGI timeline에 따라 다르겠지만, 제 timeline은 대략 2030년쯤입니다.
만약 오늘 deep tech journey를 시작한다면, 진짜 deep tech는 보통 10년짜리 여정입니다. 그렇다면 그 여정 중간에 AGI가 등장할 가능성을 고려해야 합니다.
그것이 나쁜 것은 아닙니다. 하지만 반드시 감안해야 합니다.
AGI가 나타났을 때 그것을 leverage할 수 있는가?
AGI system이 당신이 만드는 것과 어떤 관계를 맺게 될 것인가?
이런 질문을 생각해야 합니다.
앞서 AlphaFold와 general AI system 이야기를 했는데, 저는 Gemini나 Claude 같은 general system이 AlphaFold 같은 specialized system을 tool로 사용할 가능성이 있다고 봅니다.
모든 것을 하나의 giant brain 안에 넣지는 않을 것이라고 생각합니다. 예를 들어 모든 protein 지식을 Gemini 안에 넣는 것은 말이 안 됩니다. Gemini가 protein folding을 직접 할 필요는 없습니다.
그렇게 하면 information efficiency 관점에서도 안 좋습니다. Gemini의 language skill 같은 것에 나쁜 영향을 줄 수도 있습니다.
훨씬 나은 방식은, general-purpose tool-use model이 있고, 그것이 매우 뛰어난 specialized tool을 사용하는 것입니다. 어쩌면 그 general model이 specialized tool을 훈련시킬 수도 있습니다. 하지만 그 도구들은 별도의 시스템으로 존재할 것입니다.
그것이 흥미로운 방향이라고 생각합니다.
그래서 오늘 무엇을 만들지 생각할 때, AGI가 중간에 도착하는 세계에서 무엇이 유용할지 생각해야 합니다. physical things도 마찬가지입니다. 어떤 종류의 factory를 만들 것인지, 어떤 finance system을 만들 것인지 같은 질문도 포함됩니다.
저는 이 가능성을 정말 진지하게 받아들여야 한다고 생각합니다. 한편으로는 그 세계가 어떤 모습일지 상상하고, 그 세계가 여정 중간에 왔을 때에도 유용할 무언가를 만들어야 합니다.
진행자:
데미스 하사비스였습니다. 모두 박수 부탁드립니다.
전체 0