인터뷰/예측

그렉 브록만 "우리는 테이크오프(takeoff) 초기에 들어섰다고 보고 있습니다."

작성자
하이룽룽
작성일
2026-04-02 11:48
조회
5

텍스트 모델이 어디까지 갈 수 있는가? 텍스트 지능은 어디까지 갈 수 있는가?
세계가 작동하는 방식에 대한 진짜 개념을 가질 수 있는가?
그리고 저는 우리가 이제 그 질문에 대해서는 결정적으로 답을 냈다고 생각합니다.
즉, 그것은 AGI까지 가게 될 것이라는 겁니다.
우리는 그 경로를 보고 있습니다.

 

“저는 앞으로 몇 년 안에(within the next couple years) 우리가 AGI를 갖게 될 거라는 점이 극히 분명하다고 생각합니다...”

1년 안에는(certainly within a year), 때로는 훨씬 더 빨리, 엄청나게 신뢰할 수 있게 될 겁니다.”...

6개월 후쯤이면 모두가 그걸 느끼게 될 거라고 생각합니다.”

 



그렉 브록만 Q&A 인터뷰 정리

주제: AGI, 슈퍼앱, 코덱스, 컴퓨트, 데이터센터, AI의 미래

Q. OpenAI가 왜 영상 생성보다 ‘슈퍼앱’과 코딩/업무 쪽에 집중하는 건가요?

그렉 브록만:
우리는 이제 기술이 실제로 작동한다는 걸 확인한 단계에 와 있습니다. 예전에는 벤치마크나 시연 중심이었다면, 이제는 현실 세계에서 사람들이 실제로 어떻게 쓰는지 보면서 발전시켜야 하는 단계죠.

우리가 보기에 가장 중요한 두 가지 응용이 있습니다.
하나는 개인 비서(personal assistant),
다른 하나는 어려운 문제를 대신 해결해주는 AI입니다.

문제는, 지금 가진 컴퓨트로도 이 두 가지에만 집중하기 벅차다는 겁니다. AI가 유용할 수 있는 영역은 너무 많지만, 다 할 수는 없습니다. 그래서 지금은 “무엇을 포기할까”가 아니라, 무엇을 가장 먼저 세계에 제대로 내놓을까를 결정하는 시기라고 보는 게 맞습니다.



Q. 원래는 OpenAI를 “디즈니 같은 회사”로 설명했잖아요. 핵심 모델 하나를 중심으로 여러 사업으로 뻗어나가는 구조요. 이제는 그 전략이 바뀐 건가요?

그렉 브록만:
오히려 그 비유는 더 맞아졌다고 생각합니다. 다만 중요한 차이가 있어요.
예를 들어 Sora 같은 비디오 모델은 GPT 추론 계열과는 다른 기술 트리에 있습니다. 둘 다 동시에 강하게 밀기에는 우리에게 너무 어렵습니다.

그래서 지금은 GPT 계열에 집중하는 거죠. 그렇다고 텍스트만 본다는 뜻은 아닙니다. 음성 대화 인터페이스처럼 사람들에게 매우 유용한 기능들도 포함됩니다. 중요한 건 그게 완전히 다른 기술 가지가 아니라 하나의 모델 스택 안에서 이어진다는 점입니다.

컴퓨트가 제한된 세상에서 기술 가지가 둘로 너무 멀리 갈라지면 유지가 어렵습니다. 수요는 엄청나게 많은데, 우리가 만드는 모든 모델에 사람들이 하고 싶어하는 일이 너무 많거든요.



Q. 그래도 비디오/월드모델 쪽이 AGI에 더 가까운 것 아니냐는 주장도 있잖아요. 이미지나 비디오를 잘 만든다는 건 세계를 이해한다는 뜻이니까요.

그렉 브록만:
그 가능성은 분명히 있습니다. 이 분야에서는 결국 선택을 해야 합니다. 어느 길이 AGI로 가는 가장 유력한 경로인지 믿고 베팅해야 하죠.

하지만 한 가지 중요한 점이 있습니다. 이미지 생성은 계속 투자하고 있습니다. 다만 그게 디퓨전 기반 월드모델 가지가 아니라, GPT 아키텍처 기반으로 갈 수 있기 때문에 계속 밀고 있는 겁니다.

사실 AGI의 놀라운 점은, 겉으로는 전혀 달라 보이는 작업들 — 음성, 이미지, 텍스트, 과학, 코딩, 개인 비서 역할 — 이 전부가 하나의 기술적 봉투 안에서 가능할 수도 있다는 것입니다. 그래서 우리는 최대한 많은 노력을 하나의 스택으로 통합하려고 합니다.



Q. 그럼 말하는 ‘슈퍼앱’은 정확히 뭐죠?

그렉 브록만:
우리가 만들고 싶은 건, AGI의 힘을 가장 직접적으로 체험할 수 있는 엔드포인트 애플리케이션입니다.

지금의 ChatGPT는 점점 당신의 개인 AGI, 즉
  • 당신을 이해하고
  • 당신의 목표에 맞춰 움직이며
  • 당신을 대신해 디지털 세계에서 행동하는 존재
가 되어가고 있습니다.

그리고 Codex는 더 이상 소프트웨어 엔지니어만을 위한 도구가 아닙니다. 누구든 원하는 걸 설명하면, 컴퓨터가 그 일을 하게 만드는 도구가 되어가고 있죠.

그래서 우리가 그리는 그림은 이겁니다.
“컴퓨터가 무엇을 하길 원하든, 하나의 앱에서 AI에게 시키면 된다.”

그 안에는
  • 채팅
  • 코딩
  • 브라우징
  • 컴퓨터 사용
  • 메모리
  • 사용자 맥락
  • 여러 작업 간 통합
이 전부가 들어갑니다.

겉으로는 “하나의 앱”처럼 보이겠지만, 더 중요한 건 뒤에서 기술적으로 모든 걸 하나로 통합하고 있다는 점입니다.



Q. 그 슈퍼앱은 개인용인가요, 업무용인가요?

그렉 브록만:
둘 다입니다.

노트북을 생각해보세요. 그게 개인용이냐 업무용이냐고 묻는 건 큰 의미가 없죠. 둘 다니까요.
우리가 만들고 싶은 것도 마찬가지입니다. 당신이 디지털 세계와 연결되는 개인용 포털 같은 겁니다.

개인 생활에서는
  • 결혼식 축사 초안 쓰기
  • 아이디어 피드백 받기
  • 작은 사업 아이디어 검토하기
  • 건강 정보 찾기
  • 일정과 이메일 맥락을 바탕으로 조언 받기
같은 일들을 하게 될 겁니다.

중요한 건 이 AI가 점점 더 당신을 기억하고,
당신의 이메일, 일정, 선호도, 과거 상호작용을 바탕으로
더 깊고 유용하게 도와주게 된다는 점입니다.



Q. 언제쯤 나옵니까?

그렉 브록만:
완성된 비전 전체가 한 번에 나오진 않을 겁니다. 앞으로 몇 달 동안 점진적으로 나올 겁니다.

첫 단계는 Codex 앱입니다. 사실 이건 이미 두 가지를 동시에 갖고 있어요.
하나는 도구를 쓰는 일반 에이전트 하네스,
다른 하나는 소프트웨어를 작성하는 전문 에이전트입니다.

그 일반 에이전트 하네스를 스프레드시트, 문서, 지식작업에 연결하면 훨씬 넓은 업무를 처리할 수 있습니다. 내부에서도 이미 사람들이 그렇게 쓰고 있고요. 그래서 첫 단계는 Codex를 일반 지식노동용으로 크게 확장하는 것입니다.



Q. Anthropic은 Claude 앱, Claude Code 등으로 비슷한 방향을 먼저 보여준 것 같은데요. OpenAI가 뒤처졌던 건가요?

그렉 브록만:
12~18개월 전으로 돌아가 보면, 우리는 원래부터 코딩 성능 자체에는 굉장히 집중하고 있었습니다. 프로그래밍 대회 같은 데서는 늘 강했죠.

하지만 부족했던 건 마지막 1마일의 사용성이었습니다.
현실 세계의 코드베이스는 지저분하고, 에러도 많고, 이상한 상황도 많습니다. 그런 “현실의 난잡함”까지 AI가 다룰 수 있게 만드는 데 우리는 늦었습니다.

그 점은 분명 뒤처졌습니다.
하지만 작년 중반부터는 굉장히 진지하게 따라붙었고, 지금은 실제 헤드투헤드 비교에서 사람들이 우리 쪽을 선호하는 경우가 많다고 봅니다.

이제 우리는 연구와 제품을 따로 보지 않습니다.
모델을 연구할 때부터 그것이 실제 어떻게 쓰일지까지 함께 생각하는 방향으로 바뀌고 있습니다.



Q. 지금 OpenAI 내부 분위기는 어떤가요? 예전처럼 절대적 선두라는 느낌은 아니잖아요.

그렉 브록만:
사실 제게 가장 무서웠던 순간은 ChatGPT를 출시한 직후였습니다.
연말 파티에서 회사 전체에 “우리가 이겼다”는 분위기가 감돌았거든요.

저는 그게 너무 싫었습니다.
우리는 항상 언더독이었고, 그래야만 경쟁할 수 있다고 생각했기 때문입니다.

오히려 지금처럼 경쟁자들이 잘하고 있는 걸 보는 건 건강한 일입니다.
경쟁자에 집착하면 그들의 현재 위치를 따라가게 되지만, 우리는 계속 움직일 수 있습니다.
지금은 회사가 더 정렬되고, 더 통합되고, 더 집중된 상태라고 느낍니다.



Q. ‘Spud’라는 차세대 모델 이야기가 나오던데, 그건 뭔가요?

그렉 브록만:
핵심은 한 모델 이름이 아닙니다. 개발 과정 전체를 봐야 합니다.

우리는 먼저 프리트레이닝된 새 기반 모델(base model)을 만들고,
그 위에 강화학습과 포스트트레이닝을 얹어 사용성, 행동, 문제 해결 능력을 끌어올립니다.

Spud는 그중에서도 새로운 기반 프리트레인 모델이라고 보면 됩니다.
여기에는 거의 2년치 연구 성과가 녹아 들어 있습니다.

세상은 Spud라는 이름보다도, 그것이 가져올 전반적인 능력 향상으로 체감하게 될 겁니다.



Q. 그러면 지금 모델들과 비교해 무엇이 달라지나요?

그렉 브록만:
더 어려운 문제를 풀 수 있게 되고, 더 미묘한 뉘앙스를 이해하고, 지시를 더 잘 따르고, 맥락을 훨씬 더 깊게 이해하게 될 겁니다.

사람들이 흔히 말하는 “큰 모델 냄새(big model smell)”라는 게 있어요.
정말 더 똑똑한 모델은 질문을 던졌을 때 “아, 이건 다르다”는 느낌이 옵니다.
예전 같으면 AI를 쓰다가 “아, 또 내가 다시 설명해야 하네” 하고 답답해졌던 부분들이 줄어들 겁니다.

즉, 어떤 면에서는 정량적 향상이지만, 사용자 입장에서는 질적으로 완전히 다르게 느껴질 것입니다.



Q. AGI는 이미 달성된 건가요?

그렉 브록만:
AGI는 사람마다 정의가 다릅니다. 어떤 사람은 지금도 이미 AGI라고 말할 겁니다.

현재 시스템은 굉장히 들쭉날쭉(jagged) 합니다.
어떤 작업에서는 이미 초인적이지만, 어떤 아주 기본적인 일에서는 아직 인간보다 부족하죠. 그래서 어디에 선을 긋느냐가 애매합니다.

제 개인적인 느낌으로는,
지금은 AGI에 70~80% 정도 와 있다고 봅니다.

그리고 앞으로 몇 년 안에, 여전히 다소 들쭉날쭉하겠지만,
거의 모든 지적 컴퓨터 작업에서 AI가 바닥 성능(floor)을 깔아주는 수준까지 갈 거라고 생각합니다.



Q. AI 연구원이 AI를 더 발전시키는 ‘자동화된 AI 연구원’도 만들고 있다던데, 그건 뭘 하게 되나요?

그렉 브록만:
우리는 지금 AI가 AI를 더 낫게 만드는 단계, 즉 테이크오프(takeoff) 초기에 들어섰다고 보고 있습니다.

이 자동화 연구원은 완전히 방치된 존재라기보다,
마치 주니어 연구원처럼 생각하면 됩니다.
혼자 너무 오래 놔두면 엉뚱한 길로 갈 수 있지만,
시니어 연구자가 방향을 주고 피드백을 하면 엄청난 속도로 일할 수 있죠.

그래서 이 시스템은
  • 모델 개발 속도를 높이고
  • 새로운 연구 돌파구를 만들고
  • 모델의 유용성과 사용성을 더 빠르게 개선하는 역할
을 하게 될 겁니다.

실질적으로는, 현재 OpenAI 연구원이 하는 엔드투엔드 작업 전체를 실리콘 위에서 수행하는 것에 가까운 방향입니다.



Q. 그렇게 가속하다 보면 위험하지 않나요?

그렉 브록만:
물론 위험은 있습니다.
이 기술의 이익을 얻으려면 동시에 위험도 진지하게 다뤄야 합니다.

예를 들어 프롬프트 인젝션 같은 문제는 매우 중요합니다.
도구와 연결된 강력한 AI가 엉뚱한 지시에 휘둘리지 않도록 하는 건 핵심 과제죠. 우리는 그 부분에 많이 투자했고, 좋은 결과를 내고 있다고 생각합니다.

더 큰 차원의 문제 — 경제, 사회, 분배, 전환 — 는 OpenAI 혼자 해결할 수 없는 문제입니다. 하지만 기술을 밀어붙이는 동시에 어떻게 긍정적 영향을 보장할 것인가는 계속 고민하고 있습니다.



Q. “이건 결국 위험을 감수할 만한 가치가 있는가”라는 질문에는 어떻게 답하나요?

그렉 브록만:
저는 보상은 위험을 감수할 가치가 있다고 생각합니다.
하지만 그 말만으로는 너무 거칠어요.

핵심은 “한 회사만 AI를 만들게 해서 통제할 것이냐”, 아니면 “여러 플레이어가 참여하는 개방형 생태계 속에서 사회적 회복탄력성(resilience)을 구축할 것이냐”입니다.

저는 후자 쪽입니다.
전기처럼요. 전기도 위험하지만, 우리는 전기를 한 회사가 독점하게 만들지 않았습니다. 대신 규제, 검사, 인프라, 안전기준 같은 사회적 시스템 전체를 구축했죠.

AI도 마찬가지라고 봅니다.
이 기술이 모두의 삶을 바꿀 거라면, 그 변화는 일부 중앙집중 조직이 비밀리에 결정할 수 있는 성격이 아닙니다.



Q. 2025년 12월이 중요한 전환점이었다고 했는데, 정확히 무슨 일이 있었나요?

그렉 브록만:
그 시점에 새 모델들이 나오면서, AI가 할 수 있는 일이 대략 20%에서 80% 수준으로 도약했습니다.

예전엔 “있으면 좋은 것” 정도였는데, 그 순간부터는
“이걸 중심으로 워크플로를 다시 짜야 한다”는 단계가 된 거죠.

저도 몇 년째 똑같은 테스트 프롬프트를 써왔습니다.
“웹사이트 하나 만들어줘.”
예전에는 몇 시간 걸리고 프롬프트도 여러 번 수정해야 했는데, 12월에는 한 번에 던졌더니 바로 훌륭하게 만들어냈습니다.



Q. 왜 Codex가 ‘개발자용’에서 ‘모두를 위한 것’으로 바뀌었다고 보는 거죠?

그렉 브록만:
처음엔 저도 이름 때문에 Codex를 “코드를 위한 것”으로 생각했습니다.
우리가 내부에서 소프트웨어 엔지니어 중심으로 쓰고 있었으니까요.

그런데 기술이 발전하면서 보니, 본질은 코드가 아니었습니다.
본질은 문제 해결, 맥락 관리, 에이전트 하네스, 실행 이더군요.

그래서 이건 코더만 쓰는 도구가 아니라,
의도를 설명할 수 있는 사람이라면 누구든 쓸 수 있는 도구가 됩니다.

스프레드시트, 프레젠테이션, 이메일, 지식노동 전반이 다 포함됩니다.
결국 Codex for coders → Codex for everyone 으로 가는 겁니다.



Q. ‘수백, 수천 에이전트의 CEO가 된다’는 표현을 썼는데, 그건 좋은 미래인가요?

그렉 브록만:
장점과 단점이 함께 있습니다.

좋은 점은 엄청난 레버리지죠.
비전만 있으면 에이전트 무리를 동원해 목표를 수행하게 할 수 있습니다.

하지만 중요한 건 책임은 여전히 인간에게 있다는 점입니다.
에이전트가 웹사이트를 망쳐서 사용자에게 피해가 생기면, 그건 에이전트 책임이 아니라 당신 책임입니다.

그래서 인간은 절대 책임을 내려놓으면 안 됩니다.
그리고 “문제에 대한 감”을 잃어버리면 안 됩니다. CEO가 디테일을 완전히 잃으면 좋은 결과가 안 나오듯이, AI 시대에도 마찬가지입니다.



Q. 앞으로 모델 발전의 다음 단계는 뭔가요?

그렉 브록만:
툴 사용 능력은 이미 시작일 뿐입니다.
이제는 모델이 실제 세계에서 잘 일하려면 도구 자체도 더 잘 만들어야 합니다.

예를 들면:
  • 엔터프라이즈 인증
  • 감사 추적(audit trail)
  • 관측성(observability)
  • 컴퓨터 사용 환경
  • 자연스러운 음성 인터페이스
같은 것들이 필요합니다.

앞으로는 아침에 일어나면 AI가
“어젯밤 당신의 에이전트들이 이런 진척을 냈습니다. 이 고객은 화가 나 있으니 직접 이야기하는 게 좋겠습니다.”
이런 식으로 보고해주는 세계가 올 겁니다.

그리고 더 중요한 건, 인간이 풀 수 있는 문제의 천장 자체를 올리는 것입니다.
알파고의 37수처럼, 인간 누구도 떠올리지 못한 창의적 돌파가
수학, 물리, 화학, 재료과학, 생물학, 신약개발, 문학 등 모든 분야에서 나타날 거라고 봅니다.



Q. 그런데 그렇게 강력하다면, 왜 대중은 AI를 아직 부정적으로 보죠?

그렉 브록만:
사람들에게 AI가 왜 자기 삶에 좋은지 충분히 보여주지 못했기 때문이라고 생각합니다.

저는 매일 구체적인 사례를 듣습니다.
예를 들어 아이가 MRI를 거부당했는데, ChatGPT로 증상을 조사해서 보험사에 설득 논리를 만들었고, 결국 MRI를 받아 뇌종양을 발견해 생명을 구한 사례도 있었습니다.

이런 이야기가 엄청 많습니다.
그런데 이상하게도 그 서사가 사회 전체로 잘 전달되지 않습니다.

AI는 써본 사람일수록 더 긍정적으로 보는 경향이 있습니다.
직접 쓰기 전에는 막연한 공포가 더 크죠.



Q. 데이터센터는 전기, 물, 지역사회에 피해를 주는 것 아니냐는 우려도 큽니다.

그렉 브록만:
잘못된 정보가 많다고 생각합니다.

예를 들어 물 사용량에 대해서는, 우리가 말하는 대형 시설도 실제로는 사람들이 생각하는 것보다 훨씬 적은 물을 씁니다. 전력 쪽도 우리는 지역 주민의 에너지 비용을 올리지 않도록 우리 비용으로 부담하겠다는 약속을 하고 있습니다.

또 전력망에는 지금도 활용되지 못하고 버려지는 전력이 존재합니다. 데이터센터는 이런 전력을 더 잘 활용하게 만들고, 낡은 전력망 업그레이드를 촉진하는 역할도 할 수 있습니다.

중요한 건 우리가 지역사회에 어떤 방식으로 들어가느냐입니다.
세수, 일자리, 인프라 개선 같은 긍정적 효과도 분명히 있습니다.



Q. AI가 너무 빠르게 세상을 바꿀까 무섭다는 사람들에게 뭐라고 말하겠습니까?

그렉 브록만:
가장 먼저는 직접 써보라고 말하고 싶습니다.

웹사이트를 한 번도 만들어본 적 없는 사람도 만들 수 있게 되고,
작은 사업을 시작하려는 사람은 운영과 백오피스를 AI의 도움으로 훨씬 쉽게 다룰 수 있습니다.

건강, 가족, 돈, 시간, 일 —
이 기술은 당신 삶의 거의 모든 영역에서 도움을 줄 수 있습니다.

사람들은 보통 “잃을 것”은 잘 보지만, “얻을 것”은 잘 못 봅니다.
그래서 저는 최소한 공정하게 양쪽을 다 보려면, 먼저 도구를 실제로 써봐야 한다고 생각합니다.



Q. 마지막으로, 사람들은 미래를 어떻게 준비해야 할까요?

그렉 브록만:
가장 중요한 건 기술을 이해하는 것입니다.
하지만 단순히 “도구를 깔아라”는 뜻은 아닙니다.

중요한 건 호기심을 가지고 자기 워크플로에 넣어보는 것,
그리고 점점
  • 방향을 정하고
  • 위임하고
  • 감독하고
  • 책임지는 능력
을 키우는 것입니다.

앞으로 핵심 역량은 “내가 직접 다 한다”가 아니라,
“내가 매니저가 되어 AI를 움직인다”가 될 겁니다.

그리고 결국 남는 질문은 이것입니다.
“당신은 무엇을 원하느냐?”
AI는 인간을 돕기 위해 만들어지고 있습니다.
그러니 가장 중요한 준비는, 내가 진짜 하고 싶은 것이 무엇인지 더 분명히 아는 것입니다.


전체 0