인터뷰/예측

샘 알트만, 그렉 브록만 인터뷰 “곧 정말 좋은 새 모델들이 나온다”

작성자
하이룽룽
작성일
2026-04-22 22:01
조회
4


https://www.corememory.com/p/the-great-reset-at-openai-ep-67-sam-altman-greg-brockman

 



오픈AI 10주년: 샘 알트만, 그렉 브록만 인터뷰 상세 정리

출연: 샘 알트만(Sam Altman), 그렉 브록만(Greg Brockman)
진행: 애슐리 밴스(Ashley Vance), 카일리 로빈슨(Kylie Robinson)



오프닝

진행자:
오늘은 특별한 회차입니다. 보통은 게스트 소개를 길게 하지만, 오늘은 그럴 필요가 없을 것 같네요. 오늘 함께하는 분들은 오픈AI의 공동창업자 샘 알트만과 그렉 브록만입니다.

샘 알트만 / 그렉 브록만:
초대해줘서 감사합니다.

진행자:
두 분이 함께 팟캐스트에 출연한 건 거의 처음 아닌가요?

샘 / 그렉:
아마 그럴 겁니다. 적어도 아주 오랜만이죠.



1. 오픈AI 초창기와 두 사람의 관계

“오픈AI의 첫 순간은 2015년 7월 저녁식사 직후였다”

진행자:
오픈AI는 10년이 조금 지났고, 두 분은 창업 당시부터 지금까지 회사를 관통해온 핵심 인물입니다. 수많은 드라마와 굴곡 속에서 관계가 어떻게 변했는지 궁금합니다.

샘 알트만:
솔직히 말하면 드라마가 덜했으면 좋았겠죠. 우리 모두 기술에만 집중하고 싶었으니까요. 하지만 그렇게 많은 혼란, 긴장, 권력 다툼, 갈등이 있는 환경 속에서 모든 맥락을 완전히 공유하는 사람이 옆에 있다는 건 정말 엄청난 일이었습니다.
우리는 오랜 역사를 함께했고, 정말 좋은 시기에도, 정말 힘든 시기에도 서로에게 의지할 수 있었어요. 오픈AI를 하면서 가장 좋았던 부분 중 하나입니다.

그렉 브록만:
오픈AI의 첫 순간은 사실 2015년 7월 저녁식사 직후였다고 생각해요. 샘과 제가 그날 저녁 식사 후에 차를 타고 샌프란시스코 시내로 돌아오면서 서로를 쳐다봤죠.
“우리 이거 해야 하지 않겠어?”
당시에는 “이제 AGI를 목표로 하는 새로운 연구소를 시작하기엔 너무 늦은 거 아닌가?”라는 이야기가 많았어요. 지금 돌아보면 그 걱정 자체가 우스워 보이지만, 그때는 정말 진지했죠. 그래도 결론은 이거였습니다.
“불가능한 건 아니다. 그리고 너무 중요하니 해야 한다.”

진행자:
당시엔 정말 늦은 것처럼 느껴졌죠. 저도 그랬어요. “이미 딥마인드가 다 가져가는 거 아닌가?” 싶었거든요.

그렉:
맞아요. 그런데 그날 저녁의 결론은 명확했어요. 아직 기회가 있고, 이건 너무 중요하니까 해야 한다는 거였죠.



“처음부터 친한 친구였냐”는 질문

진행자:
그 당시 이미 가까운 친구였나요?

샘 알트만:
아주 오래 알던 사이는 아니었어요. Stripe에 있을 때부터였으니까 2010년, 2011년쯤? 패트릭과 존 콜리슨 형제를 통해 알게 됐죠.

그렉 브록만:
한 5년 정도 안 사이였네요. 그런데 체감상은 훨씬 오래된 느낌이었어요.

진행자:
이런 압력솥 같은 환경에서 일하면 더 가까워질 수밖에 없었을 것 같아요.

샘:
사람들이 ‘트라우마 본딩’ 같은 표현을 쓰는데 저는 그 말이 싫어요. 저는 차라리 **“같은 참호 속에 있던 사람들”**이라는 표현이 좋아요.
힘든 노동, 특히 스트레스가 극심한 상황 속에서 함께 일하면 정말 다른 어떤 방식으로도 만들어지지 않는 관계가 생깁니다.



“두 사람의 협업 방식은 전형적인 공동창업자 스타일과 다르다”

그렉 브록만:
샘과 제 관계는 전형적인 공동창업자 관계와는 조금 달라요.
우리는 정말 계속 연락하고 계속 동기화합니다. 예전에 하루에 다섯 번씩 짧게 통화하던 그 감각이 지금도 남아 있어요. 늘 모든 것에 동의하는 건 아니지만, 오히려 그래서 강합니다.

샘이 어떤 큰 아이디어를 던지면, 저는
“그걸 다른 각도에서 할 수는 없을까?”
“이 문제와 저 문제를 연결해서 볼 수 없을까?”
같이 묻는 편입니다.

샘이 정말 대단하다고 느끼는 점은, 늘 큰 그림을 놓치지 않는다는 거예요.
어디로 가야 하는지를 보면서 동시에 여러 아이디어를 연결합니다.
그리고 우리는 함께 “그럼 실제로는 어떻게 해낼까?”를 푸는 거죠.
저는 오픈AI를 구분 짓는 핵심이 바로 큰 야망과 실행력의 연결이라고 생각합니다.



2. 지난 10년 동안 두 사람이 부딪힌 지점

“샘은 더 많이 하려 하고, 그렉은 가장 중요한 것에 집중시키려 했다”

진행자:
10년 동안 두 분이 서로 다른 관점을 가졌던 중요한 순간들이 있었나요?

샘 알트만:
그렉이 가장 잘한 것 중 하나는, 제 본능과는 조금 다르게, 가장 중요한 것 하나에 집중하도록 밀어붙인 점이에요.
저는 더 많은 걸 하고 싶어하는 편인데, 그렉은 늘
“이게 가장 중요한 일인가?”
“정말 여기에 집중해야 하지 않나?”
라고 물었어요.
그 덕분에 회사가 정렬되고 집중할 수 있었죠.

그렉 브록만:
반대로 샘은 늘 컴퓨트(compute)에 대한 야망을 더 크게 가져가야 한다고 했어요.
저는 이미 엄청난 규모의 인프라를 운영하고 있고, 물리적인 설비도 너무 많고, 온갖 디테일에 파묻혀 있다고 느끼는 순간들이 많았거든요.
그런데 샘은 항상
“아니, 더 필요해. 훨씬 더.”
라고 했죠.

그건 굉장히 중요했습니다.
세부사항에 빠져 허우적대다 보면 정작 앞으로 2년, 5년, 10년 동안 진짜 중요한 게 무엇인지를 놓칠 수 있는데, 샘은 그걸 계속 상기시켰어요.



3. 안전(safety)을 둘러싼 논의

“우리는 안전의 중요성을 두고는 의견이 같았지만, ‘어떻게 말할 것인가’는 달랐다”

진행자:
지금까지 가장 크게 부딪혔던 제품이나 전략이 있다면요?

샘 알트만:
제품이라기보다, 가장 먼저 떠오른 건 안전에 대해 어떻게 말할 것인가예요.
안전이 얼마나 중요한지에 대해서는 한 번도 이견이 없었습니다. 이걸 잘못하면 어떤 일이 벌어질지도, 제대로 하면 어떤 의미가 있을지도 늘 동의했죠.

하지만 AI 업계 전체가 안전을 다루는 방식은 꽤 이상했어요.
안전이 실제로 세상을 안전하게 만드는 문제라기보다, 권력과 정당화의 언어가 되는 순간들이 있었죠.
초기에는 저도 그런 프레임에 조금 더 휩쓸렸던 것 같아요. 그런데 그렉은 굉장히 단호했어요.
“우리는 기존의 그 프레임에 빠지면 안 된다.”
라고요.

샘:
지금 돌아보면, 오픈AI가 지금까지 한 가장 큰 기여 중 하나는 안전을 말하는 새로운 방식을 찾은 것이라고 생각합니다.
그건 단지 제품을 어떻게 만들고 사회에 뭐라고 설명하느냐만이 아니라, 어떻게 배포(deploy)할 것인가에 관한 것이기도 해요.

즉, 점점 더 강력한 제품을 세상에 내놓되, 그와 동시에 점점 더 안전하게 만들 수 있는 방식.
그게 바로 점진적 배포(iterative deployment)라는 생각이었고, 그렉은 굉장한 압박 속에서도 그 노선을 지켜냈어요.



“안전은 하나의 기법으로 해결되지 않는다”

그렉 브록만:
예를 들어 오픈AI 재단(OpenAI Foundation)은 AI 회복탄력성(AI resilience)을 핵심 축 중 하나로 둡니다.
이건 “어떤 단일한 기술적 개입 하나로 해결된다”는 의미가 아니에요.
예를 들어 chain-of-thought 모니터링 같은 한 가지 기법이 모든 걸 해결해주는 건 아닙니다.

AGI가 세상에 잘 작동하게 하려면, 논문 하나로 해결되는 게 아니라 전 세계적 차원의 노력이 필요해요.
사회, 제도, 사람들, 다양한 분야의 참여와 적응이 함께 있어야 하죠.

10년 전에는 이런 관점이 거의 이해되지 않았어요.
그때는 기술자라면
“우리는 기술만 만들면 된다”
라고 생각하기 쉽죠.
하지만 실제로는
“이 기술을 어떻게 세상에 전달해야 실제로 사람들에게 도움이 될까?”
라는 질문이 훨씬 중요하다는 걸 배웠습니다.



4. AI를 사람들에게 어떻게 설명할 것인가

“우리는 ‘초지능을 만들겠다’고 말했지만, 그게 왜 개인에게 좋은지 충분히 설명하지 못했다”

진행자:
AI 안전과 정렬(alignment)을 둘러싼 담론도 많이 바뀌었는데, 예전과 비교해 지금은 어떻게 돌아보나요?

샘 알트만:
안전 얘기 이전에, 우리가 기술 nerd처럼 빠지기 쉬운 프레임이 있었어요.
즉,
“우리는 초지능을 만들 것이다. 그리고… 그건 여러분에게 좋을 것이다.”
라고 말하는 방식입니다.

그런데 사실 우리는 그 “그리고…” 뒤를 충분히 채우지 못했어요.
기술이 얼마나 놀라운지, 무엇을 할 수 있는지는 많이 얘기했지만,
“그래서 미래의 삶은 어떻게 바뀌는가?”
“왜 사람들이 이걸 원해야 하는가?”
는 충분히 연결하지 못했습니다.

사람들이 진짜 원하는 건 단순히 “암이 치료된다” 같은 문장이 아니에요.
그들이 궁금한 건
  • 더 풍요로워질 수 있는가
  • 내 삶에 여전히 주도권(agency)이 있는가
  • 내 아이가 의미 있는 삶을 살 수 있는가
  • 도전과 성장의 기회가 남아 있는가
    이런 것들이죠.
샘은 특히 “고난을 누릴 권리(a right to adversity)”라는 표현이 인상적이었다고 말합니다.
사람들은 모든 일이 완벽하고 자동으로 처리되는 삶만을 원하는 게 아니라, 어떤 어려움과 성장의 여지를 원한다는 거죠.



“사람들이 진짜 묻는 건 ‘내 아이는 무슨 공부를 해야 하나?’가 아니라 ‘어떻게 의미 있는 삶을 살까?’다”

샘 알트만:
부모들이 제게 가장 자주 하는 질문은
“우리 아이는 뭘 공부해야 하나요?”
예요.

겉으로 보면 경제적 가치에 대한 질문 같죠.
하지만 사실 그들이 진짜 묻는 건
“이 새로운 세상에서 우리 아이가 어떻게 충만하고 의미 있는 삶을 살 수 있을까요?”
입니다.

우리는 그 질문에 대해 더 직접적으로 말했어야 했어요.



“ChatGPT는 이미 많은 사람의 삶을 직접 바꾸고 있다”

그렉 브록만:
이 기술은 추상적으로 사회 전체를 돕는 정도가 아닙니다.
이미 많은 개인의 삶을 구체적으로 바꾸고 있어요.

예를 들어, 어떤 가족이 있었는데 아이가 실명할 정도의 심한 두통을 겪고 있었어요. MRI 승인이 거절됐죠. 그런데 가족이 ChatGPT로 증상을 조사하고, 보험사에 다시 주장할 근거를 찾았습니다. 결국 MRI를 받았고 뇌종양이 발견되어 생명을 구했어요.

그 가족은 “ChatGPT 없이는 이 상황을 어떻게 헤쳐나갔을지 상상할 수 없다”고 했습니다.

이런 사례는 하나가 아니에요.
사람들이 이 기술이 **“사회적으로 좋다”**는 차원을 넘어서,
“나에게, 내 가족에게 직접 도움이 된다”는 걸 체감해야 합니다.



5. 사람들이 AI를 아직 잘 체감하지 못하는 이유

“AI를 읽는 것과 쓰는 것은 다르다. 직접 써봐야 안다”

진행자:
대학 설명회 같은 데 가보면, 똑똑한 사람들도 아직 AI가 뭔지 감을 못 잡고 있다는 느낌을 받습니다. 어떻게 해결해야 할까요?

그렉 브록만:
저는 여기서 긍정적인 면을 하나 봅니다.
AI에 대해 읽기만 하면 한 가지 인상만 받습니다.
막연하고 복잡하고 이해하기 어려운 기술처럼 느껴지죠.

그런데 직접 써보면 완전히 달라요.
AI의 핵심은 사실 컴퓨터가 사용자에게 맞춰지는 방향으로 가는 데 있습니다.
기존의 컴퓨터는 우리가 컴퓨터의 언어를 배워야 했죠.
어셈블리 코드든, 프로그래밍 언어든, 인터페이스의 제약이든, 인간이 기계에 맞춰야 했어요.

하지만 우리가 만드는 건 그 반대입니다.
기계가 인간 쪽으로 다가오는 기술이에요.



“너가 만든 앱이야”라는 순간

그렉 브록만:
제가 좋아하는 일화가 있어요.
한 친구의 여동생이 “이런 앱이 있으면 좋겠어”라고 꽤 자세하게 설명했대요.
그 친구는 듣는 척하면서 동시에 Codex에 그 설명을 그대로 입력하고 있었죠.
몇 시간 뒤 결과물을 보여줬더니, 여동생이 깜짝 놀라며
“이거 누가 만든 거야? 내가 원하던 그 앱이잖아.”
라고 했대요.
그러자 그가
“네가 만든 거야.”
라고 답한 거죠.

이런 “아하” 순간이 앞으로 더 많아질 겁니다.
사람들이 AI를 통해 자기 머릿속 이미지를 세상에 현실로 만들 수 있다는 걸 체감하게 되는 거죠.



“할머니가 Alexa로 노래를 틀고 따라 부르던 기억”

그렉 브록만:
제 할머니는 알츠하이머와 치매가 있었어요. 가족 모두에게 굉장히 힘든 일이었죠. 그런데 할머니는 Alexa로 음악을 틀 수 있었고, 여전히 가사를 기억해서 함께 노래를 부를 수 있었어요.
기술을 통해 자기 자신과 다시 연결되는 순간이었던 거죠.

이 경험은 저에게 큰 인상을 남겼어요.
기술이 특정한 훈련을 받은 사람만을 위한 것이 아니라, 누구나 자연스럽게 사용할 수 있는 인터페이스가 되어야 한다는 걸 보여줬으니까요.



6. ChatGPT가 세상을 바꾼 순간

“Rubik’s cube 로봇 손보다 ChatGPT가 훨씬 덜 인상적이었지만, 사람들은 그때 처음 AI를 ‘느꼈다’”

샘 알트만:
우리는 ChatGPT를 출시하기 전에도 정말 많은 걸 했습니다.
비디오게임 챔피언을 이기고, 루빅스 큐브를 푸는 로봇 손을 만들고, 멋진 블로그 글을 쓰고, 뉴욕타임스 기사도 나왔어요.
당시 우리는 “와, 우리 정말 대단하다”고 생각했죠.

그런데 솔직히 말하면, 사람들은 거의 관심이 없었습니다.
실제 영향은 거의 없었어요.

그러다 ChatGPT를 출시했는데, 기술적으로는 우리가 했던 것들 중 가장 인상적인 작업이 전혀 아니었어요.
정말 압도적으로 덜 인상적이었습니다.
그런데 사람들이 그걸 직접 써보고 가치를 체험하자, 그제야 세계가 집단적으로
“아, AI라는 게 진짜구나”
라고 업데이트했습니다.

샘은 이와 비슷한 순간이 또 하나 있었다고 말합니다.
그건 바로 코딩 모델이 사람들이 직접 체감 가능한 수준에 도달했을 때입니다.



7. 모델은 아직 “상당히 멍청하다”, 하지만 곧 완전히 달라진다

“이제는 당신의 맥락 전체를 아는 모델이 가까워지고 있다”

샘 알트만:
지금 모델들은 앞으로의 기준에서 보면 여전히 꽤 멍청합니다.
그리고 무엇보다도, 여러분의 삶에 대한 인식과 맥락이 너무 제한적이에요.
여전히 우리는 AI에게 상황을 설명하고, 달래고, 원하는 걸 끌어내야 하죠.

하지만 이제 그렇게 멀지 않은 시점에,
모델이 여러분의 모든 맥락을 아는 세상이 올 거라고 봅니다.
그 모델은
  • 당신이 누구인지
  • 어떤 삶을 사는지
  • 무엇을 중요하게 여기는지
  • 당신 인생의 중요한 사람들이 누구인지
    를 알고,
    컴퓨터와 브라우저에 접근하고, 허용된 범위 안에서 현실 세계의 정보도 받아들이게 될 겁니다.
그렇게 되면 컴퓨터를 사용하는 감각 자체가 완전히 달라질 겁니다.



“우리는 그것을 personal AGI라고 부르기 시작했다”

그렉 브록만:
우리가 점점 쓰기 시작하는 표현이 있어요.
바로 personal AGI입니다.

이건 단순한 챗봇이 아니에요.
정말 당신을 알고, 당신의 맥락을 이해하고, 신뢰를 쌓은 AI입니다.
그리고 질문에 답하는 수준을 넘어서, 당신을 대신해 행동할 수 있는 존재죠.

예를 들어 그 AI가 당신이 어떤 뮤지션을 좋아하는지 알고, 그 뮤지션이 근처 도시에 온다는 사실을 알게 됩니다.
티켓이 좋은 가격에 풀렸다는 것도 알고,
“이건 사용자가 분명 원할 가능성이 높다”고 판단하면 바로 티켓을 사줄 수도 있어요.
혹은 아직 애매하다면 먼저 물어보겠죠.

이게 우리가 가고자 하는 방향입니다.



8. “LLM으로 진짜 거기까지 갈 수 있나?”에 대한 답

“수학에서 이미 놀라운 통찰이 나오기 시작했다”

진행자:
언어 기반 모델이 정말 초지능으로 이어질 수 있다고 보냐는 질문에 아직 회의적인 시각도 있습니다. 특히 글쓰기에서는 아직 ‘영혼’이 없다는 느낌이 든다는 말도 많고요.

그렉 브록만:
AI의 발전은 매우 들쑥날쑥한(jagged) 전선처럼 일어납니다.
어떤 영역에서는 믿기 어려울 정도의 도약을 하고, 다른 영역에서는 여전히 부족하죠.

그런데 최근 며칠 사이에, 우리 AI가 오랫동안 풀리지 않았던 수학 문제 하나를 해결했어요.
그 문제를 오래 연구해온 수학자가 직접 그 기여에 대해 언급했고, 테렌스 타오(Terence Tao)도 서로 다른 수학 분야 사이의 연결 가능성을 시사하는 발견일 수 있다고 말했습니다.

즉, 단순 계산을 넘어서 아름다운 통찰이 나오기 시작했다는 겁니다.

물론 수학은 창작 글쓰기와는 다릅니다.
하지만 중요한 건 AI가 이미 사람의 직관을 넘어서는 통찰을 특정 영역에서 보여주고 있다는 거예요.



“좋은 글쓰기보다 어려운 수학 문제를 먼저 풀도록 만들었을 뿐”

샘 알트만:
우리가 아직 Ashley Vance가 “이건 진짜 좋은 글이다”라고 느낄 글을 쓰도록 모델을 만들기 위해 최적화한 건 아닙니다.
대신 우리는
“세계 최고 수학자도 못 푸는 문제를 풀게 하자”
는 방향에 집중해왔죠.

제가 Ashley에게 이렇게 말하고 싶어요.
좋은 글쓰기는 어렵습니다.
하지만 어려운 수학 문제도 역시 어렵습니다.
만약 이 접근법으로 그런 수학 문제를 풀 수 있다면,
당신이 좋아할 글쓰기 스타일을 학습하는 것도 가능하다고 저는 꽤 확신합니다.



“글쓰기의 문제는 개인화다”

샘 알트만:
또 하나 중요한 건, 당신이 원하는 글쓰기와 대부분 사람들이 원하는 글쓰기가 전혀 다를 수 있다는 점입니다.
그런데 현재는 10억 명 정도가 쓰는 모델 하나를 만들어야 하죠.
그래서 평균적인 스타일에 맞춰질 수밖에 없습니다.

앞으로 우리가 하고 싶은 건, 모델이 엄청난 수준으로 개인화되어서
당신은 “와, 이 모델은 진짜 내가 원하는 글을 쓴다”고 느끼고,
다른 사람은 또 자기 기준에서 똑같이 만족하는 세상이에요.



9. 불평등과 AGI의 미래

“세 가지 미래가 보이지만, 핵심은 모두에게 컴퓨트를 제공하는 것이다”

진행자:
이 기술이 인류 전체를 끌어올리더라도, 동시에 격차를 엄청나게 키울 수 있다는 불안이 있습니다.

그렉 브록만:
이건 오픈AI 미션의 핵심입니다.
우리가 처음 이 회사를 시작한 이유가 바로 그것이었어요.
이렇게 강력한 기술이 오고 있는데, 정말로 모든 인류에게 이익이 되게 하려면 어떻게 해야 하는가?

우리는 기업 구조 자체에서도 이 문제를 고민해왔습니다.
오픈AI 재단은 회사 지분의 상당 부분을 보유하고 있고, 만약 회사 가치가 계속 올라간다면 그 자산은 세상에 긍정적인 영향을 주는 데 쓰이게 됩니다.



“샘이 보는 두 가지 핵심 시나리오”

샘 알트만:
저는 대략 이런 두 가지 미래를 볼 수 있어요.

1) 바닥은 엄청나게 올라가지만, 격차도 커지는 세계

모든 사람이 지금보다 훨씬 더 풍요로워집니다.
주관적으로 보면 10배는 더 부유하게 느껴질 수도 있어요.
하지만 동시에 AI와 에이전트를 가장 잘 쓰고, 컴퓨트를 많이 확보한 사람들은 엄청난 부를 쌓게 됩니다.
트릴리어네어(trillionaire)가 나올 수도 있겠죠.

2) 격차는 줄지만, 전체 풍요도 덜 커지는 세계

사람들은 10년 뒤 두 배쯤 더 잘살게 되지만, 불평등은 감소합니다.
전체 파이가 첫 번째 시나리오보다 훨씬 덜 커질 수 있죠.

샘은 이 두 선택지 사이에서 감정적으로 많은 사람들이 2번 쪽을 직관적으로 더 편안하게 느낄 수 있다는 점을 인정합니다.
하지만 지적으로는 1번이 더 낫다고 보는 경향이 있다고도 말합니다.



“핵심은 AI를 값싸고 널리 보급하는 것이다”

샘 알트만:
이 문제에서 제가 가장 중요하다고 생각하는 건, 모두가 가능한 한 싸게 AI와 컴퓨트에 접근할 수 있어야 한다는 점입니다.
만약 컴퓨트가 희소하고 비싸지면, 그때야말로 불평등은 훨씬 더 심해집니다.
오직 부자만 강력한 AI를 쓸 수 있게 되니까요.



“지금 자라는 세대는 우리보다 에이전트를 10배 더 잘 쓸 것이다”

그렉 브록만:
우리 세대는 부모 세대보다 컴퓨터를 훨씬 잘 다뤘죠.
지금 자라는 세대는 우리보다 에이전트를 훨씬 더 잘 쓸 겁니다. 저는 10배는 더 잘 쓸 것이라고 생각해요.

즉, 모두가 컴퓨트에 접근할 수만 있다면,
AI는 오히려 극단적인 형태의 아메리칸 드림이 될 수도 있습니다.
의지와 집중력, 창의력이 있는 사람이라면 누구든지 이 기술을 leverage해서 엄청난 성취를 만들어낼 수 있기 때문입니다.



10. 미국, 로보틱스, 제조업, 그리고 하드웨어

“미국은 원자(atoms)의 세계에서 뒤처져 있다”

진행자:
소프트웨어와 AI에선 미국이 앞서 있지만, 물리적인 세계—제조업, 부품, 로봇, 하드웨어—에서는 중국과 격차가 너무 커 보입니다.

샘 알트만:
로보틱스는 이 문제를 푸는 핵심 열쇠가 될 수 있습니다.
미국 제조업 경쟁력을 회복하려면, 결국
“많은 로봇이 더 많은 로봇을 만드는 세계”
가 필요합니다.

물론 당장은 미국이 많이 뒤처져 있어요.
전력, 칩 제조, 랙 조립, 케이블, 인프라 전반에서 뒤진 부분이 큽니다.
이걸 사람이 손으로만 따라잡는 건 사실상 불가능합니다.
그래서 결국 AI + 로보틱스가 필요합니다.



“2018년 로봇 손 프로젝트는 하드웨어 때문에 접었다”

그렉 브록만:
우리는 2018년에 로보틱스 프로젝트를 했었죠. 유명한 로봇 손이 그 예입니다.
그 손은 강화학습으로 훈련했는데, 경쟁 게임을 풀 때 쓴 것과 정확히 같은 알고리즘을 활용했어요.

그런데 현실은 이랬습니다.
그 손은 20시간 정도 돌면 힘줄 역할을 하던 줄이 끊어졌고, 기계 엔지니어가 와서 고쳐야 했어요.
때로는 자다 깨워서 불러와야 했죠.

그 상황에서 깨달은 게 있습니다.
“이런 식으로는 머신러닝을 할 수 없다.”
그래서 결국 그 프로젝트를 접었습니다.
그 팀은 나중에 GitHub Copilot로 이어지는 방향으로 기여하게 됐죠.



11. 최근 오픈AI의 집중과 정리: 무엇을 남기고 무엇을 버렸는가

“우리는 에이전트 전환의 순간에 있다”

진행자:
최근 오픈AI가 제품과 조직을 정리하고 집중했다는 보도가 있었는데, 지금 가장 중요한 게 뭔가요?

샘 알트만:
최근 그렉이 제품 방향성과 그걸 뒷받침할 연구 방향을 훨씬 전면에서 맡고 있어요.
아직 몇 주 정도밖에 안 됐지만, 회사 내부 분위기가 엄청 좋습니다. 에너지와 기대감이 대단해요.

그렉 브록만:
우리는 지금 명백하게 에이전트로의 전환 순간에 있습니다.
소프트웨어 엔지니어링 분야에서는 지난 6개월 동안 특히 강하게 체감됐죠.

예전에는 AI 코딩이 “자동완성”에 가까웠다면, 이제는 점점
  • 사이드바에서 대화하며 코드 작업을 보조받고
  • 더 나아가 Codex 같은 에이전트 관리 플랫폼으로 넘어가고 있습니다.
이제 인간은 전체 구조와 아키텍처를 고민하고,
실제 세부 구현은 에이전트가 담당하게 되는 방향이에요.



“우리가 집중하는 세 가지”

그렉은 현재 오픈AI의 우선순위를 크게 세 가지로 설명합니다.

1) 강력한 에이전트 플랫폼 구축

가장 중요한 우선순위는 agent platform입니다.
기억(memory), 연결자(connectors), 컴퓨터 사용(computer use), 문맥 관리(context management) 등 두꺼운 소프트웨어 층이 이제 핵심이 됐다는 거죠.

2) 컴퓨터 업무 전체로 확장

그렉은 “knowledge work”라는 표현보다 computer work라는 표현을 선호합니다.
사람들이 실제로는 하루 종일 책상에 앉아 컴퓨터에 매달려 각종 일을 처리하고 있는데, 이걸 인간이 직접 하는 건 본질적인 목적이 아니라는 거예요.
그래서 Codex를 소프트웨어 엔지니어만이 아니라 모든 사람을 위한 도구로 확장하려고 한다고 설명합니다.

3) personal AGI

개인 맥락을 이해하고, 사용자를 대신해 행동하는 AI.
결국 일과 개인 생활이 분리되지 않은 하나의 AGI 경험으로 이어질 것이라는 설명입니다.



“모델은 이제 제품 그 자체가 아니라, 제품의 일부가 됐다”

그렉 브록만:
예전에는 모델 그 자체가 거의 제품이었어요.
위에 얇은 소프트웨어만 얹으면 됐죠.
하지만 이제는 다릅니다.
이제 모델은 제품의 일부일 뿐이고,
그 위에 엄청나게 두꺼운 소프트웨어 레이어가 필요합니다.

쉽게 말하면, 모델이 뇌(brain) 라면
우리는 지금 그 위에 몸(body) 을 만들고 있는 겁니다.



“무엇이 잘렸는가?” — Sora

진행자:
구체적으로 무엇이 잘렸습니까?

그렉 브록만:
가장 분명한 예는 Sora입니다.
이유는 두 가지예요.

첫째, Sora를 구동하는 모델은 GPT 계열과 기술 트리가 다릅니다.
둘째, 활용 목적도 지금 우리가 집중하는 방향과 완전히 일치하지 않아요.
물론 창작 표현이라는 중요한 영역이 있고, 팀도 훌륭한 일을 했습니다. 그 기술은 다른 방식으로 살아남을 수 있다고 생각해요.

하지만 현재 3개월, 6개월, 12개월의 로드맵에서 우리가 정말 집중해야 할 건
에이전트, 컴퓨터 작업, personal AGI 입니다.



12. 컴퓨트, 사업, 수익모델

“사업이 우리를 제약하는 게 아니라, 오히려 컴퓨트 확장을 가능하게 해준다”

진행자:
두 분은 원래 가장 큰 베팅을 하고 싶은 성향인데, 이제는 사업 때문에 어느 정도 제약을 받는 것 아닌가요?

그렉 브록만:
저는 그렇게 느끼지 않아요.
오히려 사업이 컴퓨트 확대를 가능하게 한다고 생각합니다.

ChatGPT 출시 직후를 기억해보면, 우리가 컴퓨트를 얼마나 살지 고민했을 때 제 생각은 명확했어요.
“다 사야 한다.”
수요가 너무 분명했거든요.

이 엄청난 수익 구조가 없었다면, 그렇게 많은 컴퓨트를 확보해야 한다고 누구도 납득시키지 못했을 겁니다.



“우리 사업은 사실 매우 단순하다”

그렉 브록만:
우리 사업은 생각보다 단순합니다.
우리는 컴퓨트를 사거나 임대해서, 그걸 제품 안에서 더 높은 가치로 되파는 구조예요.
마진이 플러스인 한, 수요는 사실상 무한하니 확장 가능합니다.

즉, 컴퓨트는 비용센터(cost center) 가 아니라 이익센터(profit center) 라는 거죠.



“자체 칩도 매우 기대하고 있다”

그렉 브록만:
자체 칩 팀도 훌륭하게 일하고 있어요.
타임라인은 말할 수 없지만, 저는 그 팀과 많은 시간을 보내고 있고 굉장히 기대하고 있습니다.



13. 로보틱스와 ‘슈퍼앱’

“로봇은 지금 당장은 아니지만 미래에 너무나 중요하다”

샘 알트만:
로봇은 지금 당장의 중심 제품은 아니지만, 미래에는 명백히 아주 중요할 겁니다.



“슈퍼앱은 내부 약칭일 뿐, 본질은 통합 에이전트 인프라”

그렉 브록만:
“슈퍼앱(super app)”이라는 말은 사실 내부적으로 편하게 부르던 약칭 같은 겁니다.
핵심은 앱 하나를 만든다는 게 아니에요.
핵심은 우리가 구축 중인 통합 에이전트 인프라입니다.
Codex도 지금보다 훨씬 넓은 사용자를 위한 플랫폼으로 확장될 것이고, 결국 사람들이 원하는 모든 작업을 연결해주는 기반이 될 겁니다.



14. 앤트로픽, 경쟁, 그리고 실행력

“코딩 제품에서는 앤트로픽이 우리를 일깨워준 면이 있다”

진행자:
지난 2년 동안 오픈AI와 앤트로픽 중 어느 쪽이 더 잘 실행했다고 보나요?

그렉 브록만:
현재 시점만 보고 판단하긴 어렵지만, 앤트로픽이 우리에게 일깨워준 부분은 분명 있었어요.
특히 코딩에서, 우리는 프로그래밍 대회 같은 추상적인 벤치마크에선 강했지만, 현실의 지저분한 코드베이스에 모델을 맞추는 부분은 앤트로픽이 더 빨리 중요성을 포착했습니다.
그 점은 인정합니다.

하지만 지금은 Codex와 Claude를 정면 비교했을 때, 우리는 매우 유리한 결과를 보고 있고, 회사 전체가 굉장히 잘 실행하고 있다고 봅니다.



15. 위험한 모델은 감춰야 하는가

“공포 마케팅으로 AI를 소수에게만 독점시키려는 유혹이 있다”

진행자:
이제는 어떤 모델들은 너무 강력해서 공개하면 안 되는 것 아니냐는 이야기도 많습니다. 어떻게 보시나요?

샘 알트만:
오랫동안 세상에는
“AI는 소수의 신뢰할 만한 사람들만 통제해야 한다”
고 생각하는 사람들이 있었습니다.
물론 일부는 정당한 안전 우려에서 출발하지만, 동시에
공포 마케팅(fear-based marketing) 은 그런 독점을 정당화하는 데 아주 강력한 수단이기도 합니다.

예를 들면 이런 식이죠.
“우리는 엄청난 폭탄을 만들었다. 세상에 풀면 위험하다. 그러니 비싼 돈을 내고 우리에게 통제권을 맡겨라.”
이런 식의 프레임은 굉장히 효과적이지만, 우리는 그 길을 최대한 피하고 싶습니다.



“위험한 모델은 다르게 배포할 수 있지만, 세상이 함께 적응하게 해야 한다”

샘 알트만:
물론 정말 위험한 모델은 다른 방식으로 배포해야 할 수도 있습니다.
하지만 우리의 기본 방향은, 점점 더 강력한 기술을 세상에 이해시키고, 사람들이 직접 사용하게 하고, 사회가 함께 적응해 나가게 하는 것입니다.



16. 미국 정부, 국방, 그리고 앤트로픽 이슈

“앤트로픽이 정부와의 문제에서 공정하게 다뤄졌다고 생각하지 않는다”

진행자:
최근 앤트로픽과 미국 정부 관련 이슈를 보면, 일론이나 다른 세력의 압박이 작동하는 것처럼 보였다는 시각도 있습니다.

샘 알트만:
저는 앤트로픽이 그 과정에서 잘 대우받았다고 생각하지 않아요.
물론 모두에게 문제가 있었겠지만, 정부가 AI 회사와 맺어야 할 관계가 언론을 통해 압박하고, 공급망 리스크 지정 같은 큰 망치를 휘두르는 방식이어서는 안 된다고 생각합니다.

우리는 미국 정부를 지원하는 게 매우 중요하다고 봅니다.
모델이 점점 강력해질수록 그 중요성은 더 커질 거예요.
하지만 동시에, 정부가 이 문제를 지나치게 정치적이고 공격적으로 다루는 건 바람직하지 않습니다.



17. AI 업계의 갈등과 개인적 드라마

“어떤 사람들은 오직 자기만이 이걸 올바르게 할 수 있다고 믿는다”

진행자:
지금 AI 업계는 기술 논쟁이 아니라 거의 셰익스피어식 드라마처럼 보입니다. 일론, 주커버그, 다리오, 데미스, 샘… 어떻게 이걸 벗어날 수 있을까요?

샘 알트만:
어떤 사람들은 정말로
“오직 나만이 이걸 올바르게 할 수 있다”
고 믿는 것 같아요.
그리고 stakes가 무한하다고 믿기 때문에, 다른 누구도 믿지 못하죠.
그게 매우 독성적인 행동으로 이어집니다.

우리는 다른 사람의 행동을 통제할 수 없습니다.
하지만 우리는 계속해서
“이건 인류 전체가 함께 제대로 해내야 하는 프로젝트다”
라고 주장할 겁니다.
한 사람이나 한 이념이 승리하는 게임이 아니어야 해요.



18. 샘 알트만에 대한 실제 위협과 심정

“그날 아침은 정말 미친 방식으로 시작됐다”

진행자:
최근 샘에게 벌어진 일은 굉장히 충격적이었습니다. 이 정도면 기술 진보를 막으려는 세력이 더 위험한 방향으로 가고 있는 것 아닌가요?

샘 알트만:
그날 아침은 정말 미친 방식으로 시작됐습니다.
첫날은 아드레날린과 쇼크 상태로 지나갔고, 둘째 날부터는
“앞으로도 이런 일이 더 있겠구나”
라는 생각이 들었어요.

굉장히 무섭고, 한동안 우울한 사이클을 겪었습니다.
깊은 통찰이 있는 말은 잘 모르겠어요. 그냥 정말 무서웠습니다.

또 한 가지는, 이런 doomism 담론이 상황을 악화시키는 데 도움을 준 면이 있다는 생각도 합니다.
그리고 일부 다른 연구소들이 오픈AI를 말하는 방식도 도움이 되지 않았고요.



“전날 밤에 ‘적어도 날 죽이려 한 사람은 없네’라고 말했었다”

샘 알트만:
사실 그 일이 있기 전날 밤에 집에서 동료들과 저녁을 먹으며 이런 말을 했어요.
“요즘 언론에서 나를 두들겨 패는 건 힘들지만, 적어도 아직 누가 날 죽이려 하진 않았네.”
그런데 정말 그 다음 날 이런 일이 생겼죠.

이 일은 역설적으로 관점을 바꿔줬어요.
사람들이 아무리 못된 말을 해도, 그게 정말 말뿐이라면 계속 갈 수 있다는 생각이 들었습니다.



“그렉이 본 샘: 어떤 상황에서도 미션을 계속 밀어붙인다”

그렉 브록만:
그날 샘은 정말 그 상황 속에서도 반드시 자신이 해야 할 일들을 처리하고 있었습니다.
저는 그 점이 놀라웠어요.
샘이 보여주는 회복력은 정말 엄청나고, 충분히 평가받지 못한다고 생각합니다.



19. “누가 먼저 AGI에 도달하느냐”보다 더 중요한 것

“우리의 핵심은 사람들이 왜 이 기술을 원해야 하는지 설명하는 것”

진행자:
이제 현실적으로 몇몇 회사 중 하나가 AGI에 도달할 것 같은데, 어느 회사가 먼저 가는 게 중요하다고 보나요?

그렉 브록만:
그 질문에서 놓치기 쉬운 핵심이 있습니다.
중요한 건 누가 먼저 가느냐 자체가 아니라,
사람들이 이 기술이 자기 삶에 어떤 의미가 있는지 이해하게 만드는 것입니다.

왜 사람들은 이 기술을 지켜야 하는가?
왜 미국이 여기서 리더십을 가져야 하는가?
왜 이게 당신과 당신 자녀의 미래에 좋은가?
우리는 이걸 매일 생각합니다.

오픈AI가 복잡한 법적 구조와 기업 구조를 여러 번 실험한 것도, 다 그 미션 때문입니다.
우리는 진심으로
“이 기술이 모두에게 번영과 주체성을 줄 수 있다면, 결국 더 나은 세상으로 이어질 수 있다”
고 믿습니다.



20. 일론 머스크 소송과 오픈AI의 입장

“재판은 오히려 우리가 진짜 이야기를 할 기회다”

진행자:
다가오는 소송은 얼마나 실존적인 위기인가요?

샘 알트만:
오히려 저는 이걸 우리 이야기를 제대로 할 기회라고 봅니다.
그동안 오픈AI 내부 갈등이 있을 때마다, 우리는 가능한 한 상대의 서사가 퍼지도록 그냥 놔두는 편이었어요.
“그건 사실과 다르다”고 적극적으로 반박하지 않았죠.

그런데 이번에는 더 이상 선택의 여지가 없습니다.
우리 자신을 방어해야 하고, 실제로 무슨 일이 있었는지 말해야 하죠.
저는 그걸 굉장히 자랑스럽게 생각합니다.



“초기에는 모두가 ‘영리를 위한 구조가 필요하다’는 데 동의했다”

그렉 브록만:
역사를 다시 들여다보면, 모두가 한때는
“오픈AI가 앞으로 가기 위해선 영리 구조가 필요하다”
는 데 동의했어요.
샘, 일리야, 저, 일론 모두요.

문제는 그다음 협상에서 일론이 요구한 것이었습니다.
다수 지분, CEO 자리, 완전한 통제권.
“나중에 희석시키겠다”는 식으로 말해도, 결국 핵심은
“오픈AI와 미래 전체를 한 사람이 절대적으로 지배하느냐”
는 문제였죠.

그게 우리가 선을 그은 지점입니다.
우리의 미션은
“이 기술이 모두에게 이익이 되게 하자”
는 것이었고, 그건 누가 됐든 한 사람이 전부를 장악하는 구조와는 양립할 수 없었습니다.

그래서 우리는 거기서 “안 된다”고 말한 겁니다.



21. 뒤늦게 돌아본 초기의 “우리는 다 죽을 수도 있다” 담론

“2017~2018년에는 AGI를 다중 에이전트 경쟁 시뮬레이션으로 만들 거라 생각했다”

진행자:
예전에는 AI 담론이 “인류가 다 죽을지도 모른다” 쪽에 훨씬 더 가까웠는데, 지금 돌아보면 어떻게 생각하나요?

그렉 브록만:
지금 생각하면, 당시에는 기술 경로 자체를 다르게 상상하고 있었어요.
2017~2018년쯤 우리는 AGI가
수천 개의 에이전트가 서로 경쟁하고 생존하는 시뮬레이션 세계
같은 형태에서 나올 수 있다고 봤습니다.

그런 시스템은 인간의 가치와 아무 연결이 없죠.
언어도 모르고, 인간 사회와 접점도 없고, 그저 강력하고 똑똑하기만 한 존재예요.
당연히 무섭습니다.
그러면 그다음 문제는
“도대체 이걸 어떻게 정렬할 것인가?”
가 되죠.

그런데 실제로 우리가 오게 된 길은 언어모델이었습니다.
이건 인간의 가치, 언어, 문화, 세계와 연결되어 있어요.
그리고 chain-of-thought 같은 것들을 통해 내부 추론을 더 잘 이해하고 모니터링할 가능성도 보입니다.

즉,
우리가 AGI에 이르는 기술적 경로가 예상보다 훨씬 더 낙관적인 형태였던 것입니다.



22. 마무리

“곧 정말 좋은 새 모델들이 나온다”

진행자:
오늘 대화가 정말 흥미로웠습니다. 마지막으로 헤드라인을 하나 꼽자면, 비교적 가까운 시일 안에 아주 좋은 새 모델들이 나온다는 거군요?

샘 알트만 / 그렉 브록만:
맞습니다.
정말 좋은 새 모델들이 나옵니다.
그리고 모두에게 유용한 방향으로요.

진행자:
두 분 모두 감사합니다.


전체 0