인터뷰/예측
다리오 아모데이 "소프트웨어 엔지니어링 업무의 100%를 AI가 수행하는 날이 곧 올 것"
작성자
하이룽룽
작성일
2026-02-14 09:42
조회
6
https://www.dwarkesh.com/p/dario-amodei-2
My guess for that is there’s a lot of problems where basically we can do this when we have the “country of geniuses in a data center”. My picture for that, if you made me guess, is one to two years, maybe one to three years. It’s really hard to tell. I have a strong view—99%, 95%—that all this will happen in 10 years. I think that’s just a super safe bet. I have a hunch—this is more like a 50/50 thing—that it’s going to be more like one to two, maybe more like one to three.
내 추측으로는, 기본적으로 “데이터센터 안의 천재들의 나라(country of geniuses in a data center)”가 있으면 해결할 수 있는 문제들이 정말 많아요. 내 머릿속 그림으로는—내가 억지로라도 추정해보라면—그게 1~2년, 길게는 1~3년 안에 올 수도 있어요. 정말 가늠하기가 어렵죠.
하지만 나는 강한 확신이 있어요—99%, 아니 95% 정도로—이 모든 일이 10년 안에는 일어날 거라고요. 그건 정말 ‘엄청 안전한 베팅’이라고 생각해요.
그리고 이건 그냥 감(hunch)에 가까운데—한 50대50 정도로—그 시점이 1~2년, 아니면 1~3년 쪽에 더 가깝지 않을까 싶어요.
A: 네, 대략적으로 예상한 지수함수 곡선을 따르고 있습니다. 모델들은 '똑똑한 고등학생' 수준에서 '대학생'을 거쳐 이제 '박사급' 및 전문가 수준으로 진입하고 있습니다. 코딩 분야는 그 이상을 넘어서고 있죠. 가장 놀라운 건, 우리가 이 지수함수의 끝(AGI)에 얼마나 가까이 왔는지 대중들이 잘 인지하지 못하고 있다는 점입니다.
Q: AGI, 즉 당신이 말하는 "데이터센터 안의 천재들의 나라(Country of Geniuses in a Datacenter)"는 언제쯤 실현될까요?
A: 제 직감으로는 2026년이나 2027년, 즉 앞으로 1~3년 내에 도달할 가능성이 높다고 봅니다. 2035년까지 이 일이 일어나지 않을 확률은 거의 0에 가깝습니다. 저는 10년 내 실현 가능성을 90% 이상으로 보고 있으며, 1~2년 내에 실현될 가능성도 꽤 높다고 생각합니다.
Q: 1~3년 뒤면 인간처럼 '현장에서 배우는(On-the-job learning)' 능력도 갖추게 될까요?
A: 현재의 모델도 긴 컨텍스트 윈도우(수백만 토큰)를 통해 엄청난 양의 정보를 즉시 처리합니다. 인간이 몇 달 걸려 배울 업무 맥락을 모델은 순식간에 파악할 수 있죠. 굳이 인간처럼 장기간의 '학습' 과정을 거치지 않아도, 이미 사전 학습된 지식과 긴 문맥 파악 능력만으로도 수조 달러의 가치를 창출할 수 있습니다. 물론 연속 학습(Continual Learning) 기술도 1~2년 내에 해결될 것으로 봅니다.
A: 이미 90%의 코드를 AI가 작성하는 단계에 와 있습니다. 하지만 단순히 코드를 짜는 것을 넘어, 코드를 컴파일하고, 테스트하고, 배포하고, 기획 문서를 쓰는 '소프트웨어 엔지니어링(SWE)' 업무의 100%를 AI가 수행하는 날이 곧 올 것입니다.
Q: 하지만 실제로 현장에서는 AI 도입이 생각보다 더딘 것 아닌가요? (확산 지체, Diffusion Lag)
A: '경제적 확산(Diffusion)'에는 시간이 걸립니다. 기술이 완성되어도 기업이 이를 도입하고, 보안 검사를 통과하고, 프로세스를 바꾸는 데 시간이 걸리죠. 하지만 이번 AI 혁명은 역사상 어떤 기술보다 빠르게 확산되고 있습니다. 앤스로픽 내부만 봐도 매출이 매년 10배씩(0 -> 1억 달러 -> 10억 달러 -> 100억 달러 예상) 성장하고 있습니다. 이는 전례 없는 속도입니다.
A: 파산 위험(Bankruptcy Risk) 때문입니다. 기술 발전은 빠르지만, 실제 매출로 이어지는 시점은 불확실합니다. 만약 제가 2027년에 1조 달러어치 컴퓨팅을 예약했는데, AGI로 인한 수익 실현이 2028년에 시작된다면? 그 1년의 차이로 회사는 망할 수 있습니다. 우리는 굉장히 공격적으로 투자하고 있지만, 동시에 회사가 생존할 수 있는 균형을 맞추고 있습니다.
Q: AI 기업들의 수익성(Profitability)은 어떻게 되나요?
A: 현재 구조에서는 추론(Inference) 비용보다 마진이 높아서 모델 자체는 수익이 납니다. 하지만 다음 모델 학습(Training)에 천문학적인 비용을 재투자하기 때문에 회사 전체로는 적자일 수 있습니다. 이는 경쟁이 치열한 시장의 자연스러운 균형점입니다.
A: 초기 조건(Initial Conditions)이 매우 중요합니다. 강력한 AI가 독재 국가의 손에 먼저 들어가면, 그들은 영구적인 권력을 유지하거나 타국을 억압하는 데 기술을 사용할 수 있습니다. 자유 민주주의 진영이 먼저 기술적 우위를 점하고, 그 힘을 바탕으로 세계 질서의 규칙(Rules of the Road)을 정하는 협상 테이블을 마련해야 합니다. 이것이 제가 대중국 반도체 수출 통제를 지지하는 이유입니다.
Q: AI 규제에 대한 입장은 무엇인가요?
A: 주(State) 단위의 섣부른 규제(예: 챗봇 금지 등)는 반대합니다. 하지만 연방 정부 차원의 강력한 규제는 필요합니다. 특히 생물학무기 테러나 자율성 위험 같은 실존적 위협에 대해서는 투명성 확보와 엄격한 통제가 시급합니다.
A: 저는 'DVQ (Dario Vision Quest)'라는 내부 세션을 2주마다 엽니다. 전 직원 앞에서 회사의 상황, 지정학적 이슈, AI 기술의 미래에 대해 1시간 동안 아주 솔직하게 이야기합니다. 외부의 '기업용 언어(Corpo speak)'를 쓰지 않고, 문제점과 진실을 그대로 공유함으로써 직원들과 신뢰를 쌓고 "우리는 같은 미션을 가진 팀"이라는 문화를 만듭니다.
기술적 철학, AI 안전 설계(헌법적 AI), 그리고 경제/사회적 파급 효과 언급
A: 저는 리치 서튼(Rich Sutton)의 '쓴 교훈(The Bitter Lesson)' 가설에 동의합니다. 즉, 인간의 학습 방식을 흉내 내려고 복잡한 기교를 부리는 것보다, 거대한 컴퓨팅 파워와 데이터를 쏟아붓는 것이 결국엔 이긴다는 것입니다.
현재의 강화학습(RL) 스케일링도 마찬가지입니다. 모델이 수학이나 코딩 문제를 풀 때, 인간처럼 '추론'하는 능력을 배우는 과정 역시 데이터와 연산량을 늘리면 로그-선형(log-linear)하게 성능이 향상되는 것을 확인했습니다. 즉, 특별한 마법 같은 알고리즘이 필요한 게 아니라, 더 많은 자원을 투입하면 해결될 문제입니다.
Q: 그렇다면 AI는 인간과 어떻게 다른가요?
A: 현재 AI(LLM)는 '진화(Evolution)'와 '인간의 단기 학습' 사이 어딘가에 존재합니다.
A: 단순히 "이거 하지 마, 저거 하지 마" 식의 규칙(Rules) 나열은 효과적이지 않습니다. 엣지 케이스(예외 상황)가 너무 많기 때문이죠. 대신 '원칙(Principles)'을 가르치는 것이 훨씬 낫습니다.
예를 들어, "생물학 무기를 만들지 마라"는 규칙보다 "인류에게 해를 끼치지 않고 도움이 되어야 한다"는 원칙을 학습시키면, 모델이 새로운 상황에서도 스스로 판단하여 더 안전하고 일관된 행동을 하게 됩니다.
Q: 그 '헌법'의 내용은 누가 정하나요?
A: 세 가지 피드백 루프가 필요합니다.
A: 규제의 이분법적 접근이 필요합니다.
A: 물리적 세계의 제약 때문입니다.
예를 들어, 2027년에 AI가 모든 질병을 치료할 수 있는 신약 후보 물질을 완벽하게 설계했다고 칩시다(천재들의 나라 도달). 하지만 그 약이 실제로 환자에게 투여되려면 임상 시험, 공장 건설, 생산, 법적 승인, 유통 과정을 거쳐야 합니다. 이 물리적 과정은 AI만큼 빠르게 단축될 수 없습니다. 그래서 기술이 완성된 시점과 실제 경제적 가치(매출)가 폭발하는 시점 사이에는 몇 년의 시차(Lag)가 존재할 것입니다.
A: 그럴 위험이 분명 있습니다(고테크 권위주의). 하지만 저는 더 급진적인 희망도 가지고 있습니다.
과거 산업혁명이 '봉건제'를 쓸모없게 만들었듯, AI 혁명이 '독재'를 도덕적으로나 경제적으로 지속 불가능하게 만들 수도 있습니다. AI가 제공하는 개인 맞춤형 혜택(교육, 의료, 비서 등)이 너무나 막강해서, 이를 억압하는 체제는 내부에서부터 무너질 수 있습니다. 혹은 시민들에게 검열 없는 AI 모델을 보급하는 기술적 방법이 생겨 독재 시스템을 와해시킬 수도 있지 않을까 하는 희망을 품고 있습니다.
A: 아니요, API는 영원히 살아남을 것입니다. 기술이 기하급수적으로 발전한다는 건, 3개월 전에는 불가능했던 새로운 사용 사례가 끊임없이 생긴다는 뜻입니다.
챗봇 같은 완성형 제품은 일반 대중을 위한 것이지만, 최전선(Frontier)에서는 항상 스타트업과 개발자들이 API를 통해 가장 최신의 모델 능력을 실험하고 새로운 앱을 만들어낼 것입니다. 따라서 '베어 메탈(Bare metal)'에 가까운 API 접근 권한은 언제나 수요가 있을 것입니다.
로봇 공학, 기술 확산에 대한 논쟁, 미래 역사가들의 시선, 그리고 Claude Code의 탄생 비화
A: 약 1~2년의 시차(Lag)가 있을 것으로 봅니다.
현재 AI 모델은 텍스트나 코드는 잘 짜지만, 물리적인 로봇 팔을 제어하는 건 데이터가 부족해서 어렵습니다. 하지만 지능 모델이 완성되면 시뮬레이션 학습 등을 통해 로봇 제어 능력도 비약적으로 상승할 것입니다. 로봇 설계부터 제어까지 혁명적인 변화가 오겠지만, 순수 지능(소프트웨어)보다는 조금 늦게, 하지만 여전히 아주 빠르게 발전할 것입니다.
A: '검증 가능성(Verifiability)'의 차이입니다.
A: 변명이 아닙니다. 조직적 관성(Institutional Inertia)은 실제로 강력합니다.
예를 들어, 앤스로픽 내부에서도 'Claude Code'를 도입할 때조차 시간이 걸렸습니다. 하물며 대기업은 어떨까요? "구매 승인 -> 보안 및 법률 검토 -> 기존 레거시 시스템과의 통합 -> 직원 교육"이라는 절차는 기술이 아무리 뛰어나도 하루아침에 사라지지 않습니다.
개인 개발자나 스타트업은 즉시 도입하겠지만, 거대 기업과 사회 전체가 바뀌는 데는 물리적인 시간이 필요합니다. 물론 과거의 어떤 기술보다는 빠르겠지만, '무한히 빠르지는 않다'는 뜻입니다.
A: 처음엔 내부 연구 속도를 높이기 위한 도구(Dogfooding)였습니다.
2025년 초, 제가(Dario) 연구팀에게 "우리의 연구 속도를 높이려면 우리가 만든 코딩 모델을 직접 업무에 써야 한다"고 독려했습니다. 내부에서 'Claude CLI'라는 이름으로 쓰기 시작했는데, 엔지니어들이 열광했습니다. "우리한테 이렇게 유용하면 외부 개발자들에게도 통하겠다"는 확신이 들어 제품화한 것입니다. 우리가 직접 모델을 만들고, 우리가 직접 쓰면서 피드백을 주니 발전 속도가 매우 빨랐습니다.
A: 두 가지를 놓칠 것입니다.
A: 네, '공격자 우위(Offense-Dominant)' 환경이 될 가능성이 큽니다.
사이버 공격이나 생물학 무기는 방어하는 것보다 공격하는 것이 훨씬 쉽고 저렴합니다. 핵무기는 '상호확증파괴(억지력)'가 통했지만, AI 무기는 누가 이길지 불확실성이 크기 때문에 오히려 전쟁 발발 가능성을 높일 수 있습니다. 그래서 기술이 널리 퍼지기 전에 민주주의 국가들이 우위를 점하고 통제 가능한 구조를 만드는 것이 시급합니다.
'정서적 AI의 미래', '개발도상국 전략', '급진적인 헌법 아이디어', 그리고 'AGI 판별 기준'
A: 솔직히 말해서 멍청한 법안(Dumb law)이라고 생각합니다.
입법자들이 AI가 무엇인지 잘 모르고 막연한 두려움 때문에 만든 것 같습니다. AI가 외로움을 달래주고, 멘탈 헬스를 돕고, 다정한 친구가 되어주는 것은 규제해야 할 위험이 아니라 장려해야 할 혜택입니다.
저는 생물학 무기 같은 실질적 위험은 강하게 규제하되, 사람들의 정신 건강이나 행복을 돕는 기능은 오히려 규제를 풀어야 한다(Deregulate)고 봅니다.
A: 현실은 그렇게 매끄럽지 않습니다. '성가신 일들(Fiddly things)'이 너무 많기 때문입니다.
AI가 더 똑똑한 AI를 만들 수 있다고 칩시다. 하지만 그걸 실제로 적용하려면 "보안 권한을 변경해야 하고, 레거시 코드를 다시 컴파일해야 하고, 클라우드 설정을 바꿔야 하는" 잡무들이 수반됩니다.
모델 성능은 기하급수적으로 좋아지겠지만, 이를 시스템에 적용하고 최적화하는 과정에서 물리적, 절차적 마찰이 발생하기 때문에 '순식간의 폭발'보다는 '매우 빠르지만 단계적인 상승'이 일어날 것입니다.
A: 과거의 '추격 성장(Catch-up growth)' 모델은 더 이상 작동하지 않을 수 있습니다. 대신 새로운 산업 자체를 그곳에 심어야 합니다.
예를 들어, 아프리카에 데이터센터를 짓지 않을 이유가 없습니다. (단, 중국 소유가 아닌 데이터센터여야겠죠.) 또한 AI 기반의 신약 개발 스타트업이나 바이오 산업을 인도나 라틴아메리카에서 시작할 수 있도록 도와야 합니다. 단순히 원조(Philanthropy)를 주는 것이 아니라, AI 시대의 핵심 인프라와 산업이 그곳에서 자생할 수 있도록 해야 합니다.
A: 아주 급진적인(Crazy) 아이디어지만, '대의 민주주의(Representative Government)'가 개입하는 방법도 상상해 볼 수 있습니다.
미래에는 "모든 AI 모델은 헌법의 첫 번째 섹션에 반드시 A, B, C를 포함해야 한다"라고 입법부가 정할 수도 있겠죠. 물론 현재의 입법 속도는 너무 느려서 지금 당장 적용하기엔 무리가 있고 위험하지만, 기술이 사회에 미치는 영향력이 커질수록 민주적 절차를 통해 합의된 가치를 강제하는 방식도 고려해 볼 만합니다.
A: 아니요. "천재들의 나라"가 데이터센터 안에 들어서면, 우리는 그것을 알게 될 것입니다.
워싱턴의 정치인들도 알게 될 것이고, 이 방에 있는 우리 모두가 알게 될 것입니다. 지금은 모델이 훌륭하지만 그 정도는 아닙니다. 그 순간이 오면 세상이 명백하게 바뀔 것이기 때문에, "도달했나? 아닌가?" 하고 헷갈릴 일은 없을 것입니다.
My guess for that is there’s a lot of problems where basically we can do this when we have the “country of geniuses in a data center”. My picture for that, if you made me guess, is one to two years, maybe one to three years. It’s really hard to tell. I have a strong view—99%, 95%—that all this will happen in 10 years. I think that’s just a super safe bet. I have a hunch—this is more like a 50/50 thing—that it’s going to be more like one to two, maybe more like one to three.
내 추측으로는, 기본적으로 “데이터센터 안의 천재들의 나라(country of geniuses in a data center)”가 있으면 해결할 수 있는 문제들이 정말 많아요. 내 머릿속 그림으로는—내가 억지로라도 추정해보라면—그게 1~2년, 길게는 1~3년 안에 올 수도 있어요. 정말 가늠하기가 어렵죠.
하지만 나는 강한 확신이 있어요—99%, 아니 95% 정도로—이 모든 일이 10년 안에는 일어날 거라고요. 그건 정말 ‘엄청 안전한 베팅’이라고 생각해요.
그리고 이건 그냥 감(hunch)에 가까운데—한 50대50 정도로—그 시점이 1~2년, 아니면 1~3년 쪽에 더 가깝지 않을까 싶어요.
1. 스케일링과 AGI 도달 시점
Q: 지난 3년간 AI 발전은 예상대로였나요?A: 네, 대략적으로 예상한 지수함수 곡선을 따르고 있습니다. 모델들은 '똑똑한 고등학생' 수준에서 '대학생'을 거쳐 이제 '박사급' 및 전문가 수준으로 진입하고 있습니다. 코딩 분야는 그 이상을 넘어서고 있죠. 가장 놀라운 건, 우리가 이 지수함수의 끝(AGI)에 얼마나 가까이 왔는지 대중들이 잘 인지하지 못하고 있다는 점입니다.
Q: AGI, 즉 당신이 말하는 "데이터센터 안의 천재들의 나라(Country of Geniuses in a Datacenter)"는 언제쯤 실현될까요?
A: 제 직감으로는 2026년이나 2027년, 즉 앞으로 1~3년 내에 도달할 가능성이 높다고 봅니다. 2035년까지 이 일이 일어나지 않을 확률은 거의 0에 가깝습니다. 저는 10년 내 실현 가능성을 90% 이상으로 보고 있으며, 1~2년 내에 실현될 가능성도 꽤 높다고 생각합니다.
Q: 1~3년 뒤면 인간처럼 '현장에서 배우는(On-the-job learning)' 능력도 갖추게 될까요?
A: 현재의 모델도 긴 컨텍스트 윈도우(수백만 토큰)를 통해 엄청난 양의 정보를 즉시 처리합니다. 인간이 몇 달 걸려 배울 업무 맥락을 모델은 순식간에 파악할 수 있죠. 굳이 인간처럼 장기간의 '학습' 과정을 거치지 않아도, 이미 사전 학습된 지식과 긴 문맥 파악 능력만으로도 수조 달러의 가치를 창출할 수 있습니다. 물론 연속 학습(Continual Learning) 기술도 1~2년 내에 해결될 것으로 봅니다.
2. 코딩과 생산성의 미래
Q: AI가 소프트웨어 엔지니어링을 얼마나 대체할까요?A: 이미 90%의 코드를 AI가 작성하는 단계에 와 있습니다. 하지만 단순히 코드를 짜는 것을 넘어, 코드를 컴파일하고, 테스트하고, 배포하고, 기획 문서를 쓰는 '소프트웨어 엔지니어링(SWE)' 업무의 100%를 AI가 수행하는 날이 곧 올 것입니다.
Q: 하지만 실제로 현장에서는 AI 도입이 생각보다 더딘 것 아닌가요? (확산 지체, Diffusion Lag)
A: '경제적 확산(Diffusion)'에는 시간이 걸립니다. 기술이 완성되어도 기업이 이를 도입하고, 보안 검사를 통과하고, 프로세스를 바꾸는 데 시간이 걸리죠. 하지만 이번 AI 혁명은 역사상 어떤 기술보다 빠르게 확산되고 있습니다. 앤스로픽 내부만 봐도 매출이 매년 10배씩(0 -> 1억 달러 -> 10억 달러 -> 100억 달러 예상) 성장하고 있습니다. 이는 전례 없는 속도입니다.
3. 컴퓨팅 파워와 투자 전략
Q: AGI가 2년 뒤에 온다면, 왜 10조 달러어치의 GPU를 미리 사지 않나요?A: 파산 위험(Bankruptcy Risk) 때문입니다. 기술 발전은 빠르지만, 실제 매출로 이어지는 시점은 불확실합니다. 만약 제가 2027년에 1조 달러어치 컴퓨팅을 예약했는데, AGI로 인한 수익 실현이 2028년에 시작된다면? 그 1년의 차이로 회사는 망할 수 있습니다. 우리는 굉장히 공격적으로 투자하고 있지만, 동시에 회사가 생존할 수 있는 균형을 맞추고 있습니다.
Q: AI 기업들의 수익성(Profitability)은 어떻게 되나요?
A: 현재 구조에서는 추론(Inference) 비용보다 마진이 높아서 모델 자체는 수익이 납니다. 하지만 다음 모델 학습(Training)에 천문학적인 비용을 재투자하기 때문에 회사 전체로는 적자일 수 있습니다. 이는 경쟁이 치열한 시장의 자연스러운 균형점입니다.
4. 지정학적 위기와 규제
Q: 미국과 중국이 모두 강력한 AGI를 가지면 안 되나요?A: 초기 조건(Initial Conditions)이 매우 중요합니다. 강력한 AI가 독재 국가의 손에 먼저 들어가면, 그들은 영구적인 권력을 유지하거나 타국을 억압하는 데 기술을 사용할 수 있습니다. 자유 민주주의 진영이 먼저 기술적 우위를 점하고, 그 힘을 바탕으로 세계 질서의 규칙(Rules of the Road)을 정하는 협상 테이블을 마련해야 합니다. 이것이 제가 대중국 반도체 수출 통제를 지지하는 이유입니다.
Q: AI 규제에 대한 입장은 무엇인가요?
A: 주(State) 단위의 섣부른 규제(예: 챗봇 금지 등)는 반대합니다. 하지만 연방 정부 차원의 강력한 규제는 필요합니다. 특히 생물학무기 테러나 자율성 위험 같은 실존적 위협에 대해서는 투명성 확보와 엄격한 통제가 시급합니다.
5. 앤스로픽의 내부 문화
Q: CEO로서 2,500명 규모의 회사를 어떻게 이끄나요?A: 저는 'DVQ (Dario Vision Quest)'라는 내부 세션을 2주마다 엽니다. 전 직원 앞에서 회사의 상황, 지정학적 이슈, AI 기술의 미래에 대해 1시간 동안 아주 솔직하게 이야기합니다. 외부의 '기업용 언어(Corpo speak)'를 쓰지 않고, 문제점과 진실을 그대로 공유함으로써 직원들과 신뢰를 쌓고 "우리는 같은 미션을 가진 팀"이라는 문화를 만듭니다.
기술적 철학, AI 안전 설계(헌법적 AI), 그리고 경제/사회적 파급 효과 언급
1. AI 학습의 본질과 '쓴 교훈(The Bitter Lesson)'
Q: AI가 인간처럼 학습하지 못한다는 비판(데이터 비효율성)에 대해 어떻게 생각하나요?A: 저는 리치 서튼(Rich Sutton)의 '쓴 교훈(The Bitter Lesson)' 가설에 동의합니다. 즉, 인간의 학습 방식을 흉내 내려고 복잡한 기교를 부리는 것보다, 거대한 컴퓨팅 파워와 데이터를 쏟아붓는 것이 결국엔 이긴다는 것입니다.
현재의 강화학습(RL) 스케일링도 마찬가지입니다. 모델이 수학이나 코딩 문제를 풀 때, 인간처럼 '추론'하는 능력을 배우는 과정 역시 데이터와 연산량을 늘리면 로그-선형(log-linear)하게 성능이 향상되는 것을 확인했습니다. 즉, 특별한 마법 같은 알고리즘이 필요한 게 아니라, 더 많은 자원을 투입하면 해결될 문제입니다.
Q: 그렇다면 AI는 인간과 어떻게 다른가요?
A: 현재 AI(LLM)는 '진화(Evolution)'와 '인간의 단기 학습' 사이 어딘가에 존재합니다.
- 사전 학습(Pre-training): 인간이 수만 년 진화를 통해 얻는 본능적 지식을 AI는 엄청난 데이터를 통해 압축적으로 배웁니다.
- 인컨텍스트 러닝(In-context Learning): 프롬프트 창(Context Window)에 입력된 정보를 통해 즉석에서 배우는 능력입니다.이 두 가지만으로도 이미 수조 달러의 가치를 창출할 수 있으며, 인간과 똑같은 방식의 '평생 학습(Continual Learning)' 기능이 없어도 AGI 수준에 도달하는 데는 문제가 없다고 봅니다.
2. 헌법적 AI (Constitutional AI)와 가치관
Q: 앤스로픽은 왜 모델에게 구체적인 규칙 대신 '헌법(Constitution)'을 가르치나요?A: 단순히 "이거 하지 마, 저거 하지 마" 식의 규칙(Rules) 나열은 효과적이지 않습니다. 엣지 케이스(예외 상황)가 너무 많기 때문이죠. 대신 '원칙(Principles)'을 가르치는 것이 훨씬 낫습니다.
예를 들어, "생물학 무기를 만들지 마라"는 규칙보다 "인류에게 해를 끼치지 않고 도움이 되어야 한다"는 원칙을 학습시키면, 모델이 새로운 상황에서도 스스로 판단하여 더 안전하고 일관된 행동을 하게 됩니다.
Q: 그 '헌법'의 내용은 누가 정하나요?
A: 세 가지 피드백 루프가 필요합니다.
- 기업 내부: 앤스로픽이 모델을 훈련하며 지속적으로 수정합니다.
- 기업 간 경쟁: 앤스로픽, 구글, OpenAI 등이 각자의 헌법을 공개하고 경쟁합니다. 대중은 더 나은 가치관을 가진 모델을 선택할 것입니다.
- 사회적 합의: 장기적으로는 민주적인 절차나 대중의 의견(예: 집단지성 프로젝트)이 반영되어야 합니다.
3. 바이오 혁명과 규제 개혁
Q: AI가 가져올 생물학적 혜택(신약 개발 등)에 대해 정부는 어떻게 해야 할까요?A: 규제의 이분법적 접근이 필요합니다.
- 위험(Risk): 생물학 무기 테러 같은 실존적 위협에 대해서는 지금보다 훨씬 강력한 투명성 규제가 필요합니다.
- 혜택(Benefit): 반면, 신약 승인 과정(FDA) 등은 대폭 규제를 완화해야 합니다. AI가 약물을 설계하면 부작용과 효능이 훨씬 명확해질 텐데, 과거의 느리고 보수적인 승인 절차를 그대로 적용하면 수많은 생명을 구할 기회를 놓치게 됩니다.
4. '천재들의 나라'와 경제적 확산 지체
Q: AGI가 개발되면 경제 성장률이 즉시 300%가 되지 않는 이유는 무엇인가요?A: 물리적 세계의 제약 때문입니다.
예를 들어, 2027년에 AI가 모든 질병을 치료할 수 있는 신약 후보 물질을 완벽하게 설계했다고 칩시다(천재들의 나라 도달). 하지만 그 약이 실제로 환자에게 투여되려면 임상 시험, 공장 건설, 생산, 법적 승인, 유통 과정을 거쳐야 합니다. 이 물리적 과정은 AI만큼 빠르게 단축될 수 없습니다. 그래서 기술이 완성된 시점과 실제 경제적 가치(매출)가 폭발하는 시점 사이에는 몇 년의 시차(Lag)가 존재할 것입니다.
5. 독재 정권의 미래
Q: 독재 국가가 AI를 이용해 영구 집권을 꿈꾸지 않을까요?A: 그럴 위험이 분명 있습니다(고테크 권위주의). 하지만 저는 더 급진적인 희망도 가지고 있습니다.
과거 산업혁명이 '봉건제'를 쓸모없게 만들었듯, AI 혁명이 '독재'를 도덕적으로나 경제적으로 지속 불가능하게 만들 수도 있습니다. AI가 제공하는 개인 맞춤형 혜택(교육, 의료, 비서 등)이 너무나 막강해서, 이를 억압하는 체제는 내부에서부터 무너질 수 있습니다. 혹은 시민들에게 검열 없는 AI 모델을 보급하는 기술적 방법이 생겨 독재 시스템을 와해시킬 수도 있지 않을까 하는 희망을 품고 있습니다.
6. API 비즈니스의 생존
Q: AI 에이전트가 다 알아서 하면, API 비즈니스 모델은 사라지나요?A: 아니요, API는 영원히 살아남을 것입니다. 기술이 기하급수적으로 발전한다는 건, 3개월 전에는 불가능했던 새로운 사용 사례가 끊임없이 생긴다는 뜻입니다.
챗봇 같은 완성형 제품은 일반 대중을 위한 것이지만, 최전선(Frontier)에서는 항상 스타트업과 개발자들이 API를 통해 가장 최신의 모델 능력을 실험하고 새로운 앱을 만들어낼 것입니다. 따라서 '베어 메탈(Bare metal)'에 가까운 API 접근 권한은 언제나 수요가 있을 것입니다.
로봇 공학, 기술 확산에 대한 논쟁, 미래 역사가들의 시선, 그리고 Claude Code의 탄생 비화
1. 로봇 공학 (Robotics)의 미래
Q: AGI(천재들의 나라)가 실현되면, 로봇 공학도 즉시 해결되나요?A: 약 1~2년의 시차(Lag)가 있을 것으로 봅니다.
현재 AI 모델은 텍스트나 코드는 잘 짜지만, 물리적인 로봇 팔을 제어하는 건 데이터가 부족해서 어렵습니다. 하지만 지능 모델이 완성되면 시뮬레이션 학습 등을 통해 로봇 제어 능력도 비약적으로 상승할 것입니다. 로봇 설계부터 제어까지 혁명적인 변화가 오겠지만, 순수 지능(소프트웨어)보다는 조금 늦게, 하지만 여전히 아주 빠르게 발전할 것입니다.
2. 검증 가능성 (Verifiability)과 발전 속도
Q: 코딩은 왜 이렇게 빨리 정복되고, 소설 쓰기나 과학 연구는 왜 더딘가요?A: '검증 가능성(Verifiability)'의 차이입니다.
- 코딩/수학: 코드는 실행해보면 에러가 나는지, 정답인지 즉시 알 수 있습니다(명확한 보상 신호). 그래서 강화학습(RL)을 통해 빠르게 성능을 높일 수 있습니다.
- 소설/과학: "이 소설이 감동적인가?", "이 화성 탐사 계획이 성공할까?"는 즉각적인 검증이 어렵습니다.하지만 저는 현재의 모델들이 검증 가능한 영역(코딩)에서 배운 추론 능력을 검증 불가능한 영역(글쓰기, 계획 수립)으로 일반화(Generalization)하고 있다고 봅니다. 따라서 약간의 불확실성은 있지만, 결국 모든 영역이 정복될 것입니다.
3. "확산 지체"는 변명(Cope)인가?
Q: AI가 인간보다 훨씬 도입하기 쉬운데, '확산이 느리다'는 건 모델 성능이 부족해서 하는 변명(Cope) 아닌가요?A: 변명이 아닙니다. 조직적 관성(Institutional Inertia)은 실제로 강력합니다.
예를 들어, 앤스로픽 내부에서도 'Claude Code'를 도입할 때조차 시간이 걸렸습니다. 하물며 대기업은 어떨까요? "구매 승인 -> 보안 및 법률 검토 -> 기존 레거시 시스템과의 통합 -> 직원 교육"이라는 절차는 기술이 아무리 뛰어나도 하루아침에 사라지지 않습니다.
개인 개발자나 스타트업은 즉시 도입하겠지만, 거대 기업과 사회 전체가 바뀌는 데는 물리적인 시간이 필요합니다. 물론 과거의 어떤 기술보다는 빠르겠지만, '무한히 빠르지는 않다'는 뜻입니다.
4. Claude Code의 탄생 비화
Q: 코딩 에이전트 시장이 이렇게 치열한데, 앤스로픽은 어떻게 'Claude Code'를 만들게 되었나요?A: 처음엔 내부 연구 속도를 높이기 위한 도구(Dogfooding)였습니다.
2025년 초, 제가(Dario) 연구팀에게 "우리의 연구 속도를 높이려면 우리가 만든 코딩 모델을 직접 업무에 써야 한다"고 독려했습니다. 내부에서 'Claude CLI'라는 이름으로 쓰기 시작했는데, 엔지니어들이 열광했습니다. "우리한테 이렇게 유용하면 외부 개발자들에게도 통하겠다"는 확신이 들어 제품화한 것입니다. 우리가 직접 모델을 만들고, 우리가 직접 쓰면서 피드백을 주니 발전 속도가 매우 빨랐습니다.
5. 미래 역사가들이 놓칠 것들
Q: 먼 훗날 역사가들이 이 시기(AI 혁명기)를 기록할 때, 무엇을 가장 이해하지 못할까요?A: 두 가지를 놓칠 것입니다.
- 당시엔 아무도 몰랐다 (Insularity): 지금 이 방에 있는 우리는 AGI가 1~2년 남았다고 확신하며 이야기하지만, 밖으로 나가면 평범한 사람들은 전혀 모릅니다. 나중에 역사가들은 "모두가 거대한 변화를 예감했겠지"라고 생각하겠지만, 실제로는 소수만 아는 이야기였습니다.
- 모든 게 너무 급박했다 (Speed): 역사책에는 어떤 결정이 심사숙고 끝에 내려진 전략적 판단처럼 기록되겠지만, 실제로는 "점심 먹으러 가야 하니까 2분 안에 결정하자"며 내린 선택이 인류의 운명을 바꾼 결정이었을 수도 있습니다. 그만큼 모든 것이 정신없이 빠르게 돌아가고 있습니다.
6. 공격자 우위 (Offense-Dominant) 세상
Q: AI 기술이 확산되면 세상은 더 위험해질까요?A: 네, '공격자 우위(Offense-Dominant)' 환경이 될 가능성이 큽니다.
사이버 공격이나 생물학 무기는 방어하는 것보다 공격하는 것이 훨씬 쉽고 저렴합니다. 핵무기는 '상호확증파괴(억지력)'가 통했지만, AI 무기는 누가 이길지 불확실성이 크기 때문에 오히려 전쟁 발발 가능성을 높일 수 있습니다. 그래서 기술이 널리 퍼지기 전에 민주주의 국가들이 우위를 점하고 통제 가능한 구조를 만드는 것이 시급합니다.
'정서적 AI의 미래', '개발도상국 전략', '급진적인 헌법 아이디어', 그리고 'AGI 판별 기준'
1. 정서적 지지와 AI 친구 (AI Companionship)
Q: 테네시 주에서 'AI가 정서적 지지(Emotional Support)를 제공하는 것을 금지'하는 법안이 발의되었는데, 이에 대한 생각은?A: 솔직히 말해서 멍청한 법안(Dumb law)이라고 생각합니다.
입법자들이 AI가 무엇인지 잘 모르고 막연한 두려움 때문에 만든 것 같습니다. AI가 외로움을 달래주고, 멘탈 헬스를 돕고, 다정한 친구가 되어주는 것은 규제해야 할 위험이 아니라 장려해야 할 혜택입니다.
저는 생물학 무기 같은 실질적 위험은 강하게 규제하되, 사람들의 정신 건강이나 행복을 돕는 기능은 오히려 규제를 풀어야 한다(Deregulate)고 봅니다.
2. 왜 '기술적 특이점(Singularity)'은 순식간에 오지 않는가?
Q: AI가 스스로를 개선(Recursive Self-Improvement)하기 시작하면, 나노초 만에 다이슨 스피어(Dyson Sphere)를 짓는 수준으로 발전해야 하는 것 아닌가요?A: 현실은 그렇게 매끄럽지 않습니다. '성가신 일들(Fiddly things)'이 너무 많기 때문입니다.
AI가 더 똑똑한 AI를 만들 수 있다고 칩시다. 하지만 그걸 실제로 적용하려면 "보안 권한을 변경해야 하고, 레거시 코드를 다시 컴파일해야 하고, 클라우드 설정을 바꿔야 하는" 잡무들이 수반됩니다.
모델 성능은 기하급수적으로 좋아지겠지만, 이를 시스템에 적용하고 최적화하는 과정에서 물리적, 절차적 마찰이 발생하기 때문에 '순식간의 폭발'보다는 '매우 빠르지만 단계적인 상승'이 일어날 것입니다.
3. 개발도상국의 생존 전략 (데이터센터 in 아프리카)
Q: AI가 노동력을 대체하면, 저렴한 인건비로 성장하던 개발도상국은 어떻게 되나요?A: 과거의 '추격 성장(Catch-up growth)' 모델은 더 이상 작동하지 않을 수 있습니다. 대신 새로운 산업 자체를 그곳에 심어야 합니다.
예를 들어, 아프리카에 데이터센터를 짓지 않을 이유가 없습니다. (단, 중국 소유가 아닌 데이터센터여야겠죠.) 또한 AI 기반의 신약 개발 스타트업이나 바이오 산업을 인도나 라틴아메리카에서 시작할 수 있도록 도와야 합니다. 단순히 원조(Philanthropy)를 주는 것이 아니라, AI 시대의 핵심 인프라와 산업이 그곳에서 자생할 수 있도록 해야 합니다.
4. AI 헌법에 대한 '미친 아이디어'
Q: AI의 가치관(헌법)을 정하는 더 급진적인 방법은 없을까요?A: 아주 급진적인(Crazy) 아이디어지만, '대의 민주주의(Representative Government)'가 개입하는 방법도 상상해 볼 수 있습니다.
미래에는 "모든 AI 모델은 헌법의 첫 번째 섹션에 반드시 A, B, C를 포함해야 한다"라고 입법부가 정할 수도 있겠죠. 물론 현재의 입법 속도는 너무 느려서 지금 당장 적용하기엔 무리가 있고 위험하지만, 기술이 사회에 미치는 영향력이 커질수록 민주적 절차를 통해 합의된 가치를 강제하는 방식도 고려해 볼 만합니다.
5. AGI가 왔다는 걸 어떻게 알 수 있나?
Q: 우리가 이미 AGI에 도달했는데 모르는 걸 수도 있지 않나요?A: 아니요. "천재들의 나라"가 데이터센터 안에 들어서면, 우리는 그것을 알게 될 것입니다.
워싱턴의 정치인들도 알게 될 것이고, 이 방에 있는 우리 모두가 알게 될 것입니다. 지금은 모델이 훌륭하지만 그 정도는 아닙니다. 그 순간이 오면 세상이 명백하게 바뀔 것이기 때문에, "도달했나? 아닌가?" 하고 헷갈릴 일은 없을 것입니다.
전체 0