인터뷰/예측
그렉 브록만 "심지어 올해 안에도 그런 일이 전혀 불가능한 건 아니라고 생각"
작성자
하이룽룽
작성일
2026-04-22 21:42
조회
8
특정 데이터센터가 암 치료 같은 문제 하나만 전담하게 될 수도 있나?
A.그럴 수 있다고 봐요.
심지어 올해 안에도 그런 일이 전혀 불가능한 건 아니라고 생각해요.
실제 데이터센터 안을 걸어보면, 정말 거대한 기계 한가운데에 들어와 있는 느낌이에요.
정렬된 케이블, 끝없이 이어지는 랙들… 그걸 보면 문득 이런 질문이 생겨요.
“우리는 왜 이런 거대한 기계를 짓고 있는가?”
답은 분명해요.
사람에게 중요한 문제를 풀 수 있기 때문이죠.
- 암 치료
- 기업 운영
- 개인의 일상 문제 해결
인터뷰 상세 정리
Q. 오픈AI는 어떻게 시작됐나?
A.저는 원래 창업을 해야겠다고 생각하고 있었어요.
물론 당시에도 스타트업인 스트라이프에 있었죠. 하지만 스트라이프에서 풀고 있던 문제는, 중요한 문제이긴 했지만, 제가 어릴 때부터 “평생을 걸고 해결하고 싶다”고 생각해온 문제는 아니었어요.
몇 년 동안 정말 헌신해서 일했지만, 결국 저는 이런 생각을 했습니다.
“내가 없어도 이 회사는 잘될 수 있다. 그렇다면 나는 어떤 문제에 평생을 바칠 것인가?”
그 질문에 대해 가장 분명한 답은 AI였어요.
AI가 세상에 어떻게 등장하고, 어떤 방식으로 인류에 영향을 줄지에 대해 실제로 긍정적인 차이를 만들 수 있다면, 그것만으로도 의미 있는 삶이라고 느꼈죠.
Q. 스트라이프를 떠날 때 패트릭이 샘 알트먼을 만나보라고 했다던데, 그때 무슨 일이 있었나?
A.패트릭은 아마 샘이 저를 설득해서 스트라이프에 남게 하길 바랐던 것 같아요.
그런데 샘과 몇 분 이야기하자마자, 샘은 제가 이미 마음을 굳혔다는 걸 바로 알아챘어요.
그래서 샘이 물었죠.
“다음엔 뭘 할 생각이야?”
저는 “AI 회사를 해볼까 생각 중이다” 라고 답했고, 샘은
“나도 AI 쪽에서 뭔가 하려고 생각 중이다. 계속 연락하자”
라고 말했어요.
그 후 샘과 한두 번 더 이야기했고, 샘이 말했어요.
“7월에 저녁 모임을 하나 준비 중인데, 거기에 와라.”
저는 그 자리에 갔고, 그날의 핵심 질문은 이거였어요.
“이미 최고의 연구자들과 자본, 데이터가 딥마인드에 몰려 있는데, 지금 와서 새 연구소를 시작하는 게 가능한가?”
이때가 2015년이었어요.
당시 딥마인드는 거의 압도적인 존재였죠. 자본도, 연구자도, 추진력도 다 갖고 있었어요. 그래서 정말 현실적인 질문은
“이제 와서 독립적인 AI 연구소를 세울 수 있나?”
였어요.
사람들은 왜 어려운지에 대한 이유는 많이 말했지만,
정작 “절대 불가능하다” 는 결론은 누구도 내리지 못했어요.
그날 밤 샘과 샌프란시스코로 돌아가는 길에 서로를 보며 말했죠.
“이건 해야 한다. 그냥 해야 한다.”
그 다음 날부터 저는 사실상 이 일을 풀타임으로 추진하기 시작했어요.
Q. 초기에 어떤 사람들과 팀을 꾸리려고 했나?
A.초기에는 제가 핵심 멤버로 생각했던 사람이 있었어요.
일리야 수츠케버, 다리오 아모데이, 아마데이, 크리스, 그리고 저 자신이었죠.
우리는 함께 많은 시간을 보내며
- 연구소의 비전은 무엇인지
- 어떻게 운영할지
- 어떤 방향으로 가야 하는지
를 계속 논의했어요.
이게 충분한 탄력을 가질 수 있을지, 정말 큰 흐름이 될 수 있을지 불확실했기 때문이죠.
다리오는 스스로 이름을 더 확실히 세워야 한다고 느꼈고, 이곳이 그 기회가 될지 확신하지 못했어요.
결국 다리오와 크리스는 구글 브레인으로 갔고, 존 슐먼은 점점 합류 쪽으로 기울었죠.
그 시점에 저는 대략 10명 정도의 유력 후보군과 이야기하고 있었는데, 대부분이 이렇게 말했어요.
“흥미는 있는데… 다른 누가 들어오는데?”
그래서 제가 샘에게 물었어요.
“이 대칭 상태를 어떻게 깨죠? 다들 서로 눈치만 보는데요.”
샘의 조언은 간단했어요.
“오프사이트를 열어.”
그래서 나파에서 오프사이트를 준비했고, 저는 심지어 티셔츠까지 만들었어요.
그때는 아직 누구도 공식적으로 합류한 상태가 아니었어요.
오퍼도 없었고, 법적 구조도 없었고, 아무것도 없었어요.
오직 아이디어, 비전, 미션만 있었죠.
그런데 그날이 정말 놀라운 날이었어요.
아이디어가 쏟아졌고, 지금 돌이켜보면 이후 10년 동안 오픈AI가 따라온 기술적 로드맵의 원형이 그 자리에서 거의 나왔다고 생각해요.
그 핵심은 이랬어요.
- 강화학습을 푼다.
- 비지도학습을 푼다.
- 점점 더 복잡한 것들을 학습하게 만든다.
“2~3주 안에 시작하고 싶다. 함께할 건지 알려달라.”
Q. 왜 당시 딥마인드가 그렇게 넘기 힘든 상대라고 느꼈나?
A.그때의 구글 딥마인드는 이 분야의 절대 강자였어요.
자본도 많고, 실적도 있었고, 연구자들도 몰려 있었죠.
그리고 이건 아직 알파고 이전 이야기예요.
알파고가 몇 달 뒤 세상에 공개됐지만, 사실 이미 분위기는 분명했어요.
“모멘텀은 딥마인드에 있다.”
이게 너무 명확했죠.
그래서 진짜 질문은
“이런 상황에서 완전히 새로운 독립 연구소를 세우는 게 정말 가능한가?”
였어요.
Q. 비영리 구조로는 안 되겠다고 느낀 건 언제였나?
A.2017년부터였어요.
그때부터 우리는 아주 진지하게 계산하기 시작했어요.
- 정말 미션을 달성하려면 무엇이 필요한가?
- 진짜 AGI를 만들려면 어떤 규모의 컴퓨트가 필요한가?
“엄청나게 큰 컴퓨터가 필요하다.”
그 과정에서 우리는 세레브라스(Cerebras) 같은 하드웨어 회사를 접하게 됐고, 그들이 약속하는 컴퓨팅 성능이 우리가 계산한 AGI 경로와 맞물릴 수 있다는 걸 보게 됐어요.
생각은 점점 더 선명해졌죠.
- 그런 하드웨어를 대량으로 살 수 있다면
- 독점적 접근권을 가질 수 있다면
- 대형 데이터센터를 확보할 수 있다면
문제는, 비영리 기부금 조달로는 그 규모에 한계가 있다는 것이었어요.
비영리 구조로는 어느 지점 이상을 넘기 어렵다고 봤죠.
그래서 일론, 샘, 일리야, 그리고 저는 모두 동의했어요.
“오픈AI의 미션을 이루려면, 어떤 형태로든 영리 법인이 필요하다.”
그건 선택지가 아니라, 우리가 보기에 유일한 길이었어요.
Q. 오픈AI에서 “이제 정말 현실이 되고 있다”고 느낀 순간들은 언제였나?
A.오픈AI에서는 그런 순간이 한 번이 아니라 여러 번 와요.
그리고 매번 “이제 이해했다”고 생각하면, 더 큰 다음 지평선이 나타나요.
처음엔 팀이 실제로 모였을 때였어요.
“와, 정말 팀이 만들어졌네.”
그런데 다음날 사무실에 가면 또 이런 생각이 들어요.
“이제 뭘 하지?”
당시엔 화이트보드도 없었어요.
존 슐먼이 뭔가 쓰고 싶어 했고, 저는
“화이트보드는 내가 구해올게. 그건 내가 할 수 있는 일이다.”
이런 상태였죠.
그 뒤로는 도타(Dota) 프로젝트가 컸어요.
그건 우리가 정말 큰 결과를 처음 낸 순간이었죠.
컴퓨트를 키우면 결과도 커진다는 걸 실제로 본 거예요.
또 하나 중요한 순간은 2017년 ‘언슈퍼바이즈드 센티먼트 뉴런’ 논문이었어요.
우리는 단순히 “다음 글자 예측”을 학습시키고 있었는데, 그 과정에서 모델이 문장의 의미, 즉 긍정/부정의 정서를 이해하기 시작한 거예요.
그때 느꼈죠.
“우리는 단지 문법을 배우는 기계를 만든 게 아니라, 의미를 학습하는 기계를 만들고 있다.”
그리고 GPT 시리즈를 거치면서 또 여러 번 그런 순간이 왔고, 특히 GPT-4를 보며 이런 질문까지 나왔어요.
“이게 왜 AGI가 아닌 거지?”
물론 명백히 AGI는 아니었어요. 뭔가 부족했죠.
그런데 불과 두 달 전까지만 해도 우리가 AGI의 기준이라고 생각했던 것들 중 상당수가 이미 GPT-4와 겹쳐 보였어요.
그래서 오픈AI의 역사는 끊임없이
“이게 진짜가 되어가고 있다”
라고 느끼는 연속의 순간들이라고 생각해요.
Q. 도타 프로젝트는 왜 그렇게 중요했나?
A.도타는 체스나 바둑과 달랐어요.
체스나 바둑은 규칙이 명확하고 상대적으로 구조화되어 있죠.
그런데 도타는 혼란스럽고, 인간 상호작용이 많고, 자유도가 매우 높은 환경이에요.
원래 우리는 도타를 통해 새로운 강화학습 기법을 개발하려고 했어요.
당시 사용하던 PPO 같은 알고리즘은 분명 한계가 있었고, 절대 확장 가능하지 않을 거라고 생각했죠.
그런데도 일단 시작은 해야 했어요.
기존 베이스라인을 끝까지 밀어붙여야 어디까지 되는지, 한계가 어디인지 보이니까요.
그런데 놀랍게도, 단순한 알고리즘에 막대한 컴퓨트를 투입하는 방식으로 인간 최고수를 넘어섰어요.
그게 진짜 발견이었죠.
“단순한 알고리즘 + 거대한 컴퓨트는 이론상만이 아니라 실제로도 먹힌다.”
게다가 우리가 쓴 신경망은 엄청 크지도 않았어요.
정말 거의 곤충 뇌 수준의 시냅스 수였어요.
그러니 당연히 이런 질문이 생기죠.
“그럼 이 접근을 인간 두뇌 규모까지 키우면 무슨 일이 벌어질까?”
Q. 추론(reasoning)과 예측(prediction)은 다른가?
A.저는 둘이 깊게 연결되어 있다고 봐요.
겉으로 보기엔 “다음 단어를 예측한다”는 건 별것 아닌 작업처럼 보이죠.
하지만 진짜로 아인슈타인이 다음에 무슨 말을 할지 예측할 수 있다면, 그건 적어도 아인슈타인만큼 똑똑하다는 뜻이에요.
예측의 핵심은 이미 알려진 걸 맞히는 게 아니에요.
처음 보는 새로운 상황에서 다음을 맞히는 것이죠.
그래서 저는 지능과 예측은 깊이 연결돼 있다고 생각해요.
그리고 지금의 reasoning 모델은 흥미롭게도 강화학습으로 훈련됩니다.
이건 사실 오픈AI 초창기 계획과 그대로 이어져 있어요.
- 먼저 비지도학습으로 세상을 배운다.
- 그다음 강화학습으로 자기 행동의 결과를 통해 학습한다.
차이는 데이터의 구조가 달라진 것이죠.
처음은 정적인 관찰 데이터고, 그다음은 스스로 행동하고 피드백을 받는 데이터예요.
Q. 오픈AI 내부의 긴장감은 언제부터 커졌나?
A.오픈AI에서 일어나는 갈등은 일반 회사의 정치 싸움처럼 보일 수 있지만, 그 안에 있는 사람들에겐 그렇게 느껴지지 않아요.
왜냐하면 정말로 인간 수준의 지능을 가진 기계를 만들 수 있다고 믿는 순간,
모든 결정의 무게가 달라지기 때문이에요.
- 누가 결정을 내리는가
- 어떤 가치가 그 결정에 반영되는가
- 누가 공을 인정받는가
또 제가 초기부터 느낀 건, 이 기술은 본질적으로 분열적(fragmentary) 이라는 거예요.
압력이 걸리면 다이아몬드가 생길 수도 있지만, 금이 갈 수도 있죠.
실제로 AI 분야는 서로 다른 팀들이 갈라져 나가면서도, 동시에 서로를 자극하며 발전해왔어요.
그리고 그 다양성이 좋은 점도 많아요.
- 더 나은 접근법을 만들고
- 안전에 대한 서로 다른 시각을 토론하고
- 혜택을 어떻게 극대화할지 논쟁할 수 있으니까요.
샘 알트먼 해임 사태
Q. 샘이 해고됐다는 소식을 처음 들었을 때 어디에 있었나?
A.집에 있었어요.
문자로 “영상 통화 가능해?” 라는 메시지를 받았고, 바로 들어갔죠.
영상 통화에 들어가 보니 샘을 제외한 이사회 멤버들이 있었어요.
그 순간 뭔가 심상치 않다는 건 느꼈죠.
저는 당시 이사회 멤버였어요.
그 통화에서 저는 이렇게 들었습니다.
“이사회는 샘을 해임하기로 결정했다.”
그리고 제가 받은 설명은 사실상 대외 공개문에 적힌 내용과 거의 같았어요.
저는 더 자세한 이유를 물었지만,
“지금은 더 공유할 수 없다”
는 답을 들었어요.
다시 물어도 마찬가지였죠.
그러다 통화 말미에 더 큰 이야기를 들었어요.
“당신도 이사회에서 제외된다. 하지만 회사에는 남아달라. 당신은 회사와 미션에 매우 중요하다.”
저는 다시 이유와 피드백을 요청했지만, 역시 아무 설명도 받지 못했어요.
그저 앞으로의 새로운 구조 안에서는 언젠가 피드백을 받을 수 있길 바란다는 식의 말만 들었죠.
Q. 그때 무슨 생각이 들었나? 화가 났나?
A.화가 났다기보다는,
“이건 옳지 않다”
는 감정이 강했어요.
통화가 끝나자마자 아내에게 말했죠.
“나 그만둬야겠어.”
아내는
“나도 그렇게 생각해.”
라고 했고요.
그래서 저는 그날 바로 사직했어요.
Q. 그 뒤에는 무슨 일이 벌어졌나?
A.그날부터 메시지가 쏟아지기 시작했어요.
사람들이
“당신과 샘이 다음에 뭘 하든, 나는 당신들 편이다.”
“같이 새 회사를 만들고 싶다.”
라고 말했어요.
그건 정말 예상하지 못했던 반응이었어요.
그 정도의 지지와 충성심이 있을 줄은 몰랐죠.
그날 몇몇 가까운 동료들도 같이 회사를 떠났어요.
야콥, 시몬, 알렉산더 등과 함께요.
우리 다섯 명과 샘은 곧바로 모여서
“새 회사는 어떤 모습이어야 할까?”
를 그리기 시작했어요.
첫날 제 감각은 이랬어요.
“회사를 되찾을 가능성은 10% 정도다.”
다음 날 샘의 집에서 회의를 열었고, 회사 사람들 여럿이 찾아왔어요.
우리는 급히 스케치한 새로운 비전을 보여줬죠.
그 주말 내내 우리는 이사회 및 회사와 협상하며,
“다시 하나로 돌아갈 수 있는 길이 있는가?”
를 타진했어요.
그런데 일요일 밤, 이사회가 저 대신 다른 사람을 임시 CEO로 세우면서 상황이 폭발했어요.
그 직전까지는 “이제 복귀 딜이 거의 성사되나 보다” 라고 생각하고 있었는데, 그 결정 이후 회사가 사실상 반란 상태가 됐어요.
사람들이 건물 밖으로 쏟아져 나왔고, 완전한 혼란이 벌어졌죠.
저는 새 회사를 고민하던 사람들과 화상 통화를 하며
“괜찮다. 우리에겐 계획이 있다.”
라고 말하고 있었어요.
원래는 소수 인원만 태울 작은 구명보트를 만들고 있었는데,
갑자기 상황이 바뀌었죠.
“아니, 이건 소수가 아니네. 거의 전원이 오려고 하네?”
그래서 샘이 사티아 나델라와도 이야기했고,
마이크로소프트가 이 새 시도를 지원할 수 있을지도 타진했어요.
때마침 추수감사절 직전이었는데,
원래 비행기를 타고 집으로 가야 할 많은 사람들이 비행편을 취소하고 사무실에 남았어요.
그냥 그 역사적 순간에 같이 있고 싶었던 거죠.
이후 사내 청원이 돌기 시작했는데, 너무 많은 사람이 동시에 서명하려다 구글 문서가 다운될 정도였어요.
그래서 몇몇 지정된 사람을 통해 대신 이름을 추가해야 했죠.
그리고 새벽 5시쯤 집에 돌아가 잠들었다가, 45분쯤 후에 깨서 트위터를 봤어요.
거기엔 일리야도 청원에 서명했고, 회사가 다시 하나로 합쳐지길 원한다는 글이 올라와 있었어요.
그걸 보고 정말 안도했어요.
“좋아, 다시 수습할 수 있다.”
Q. 일리야와의 관계를 다시 회복하는 건 어땠나?
A.정말 쉽지 않았어요.
아주 가까운 관계였으니까요.
그는 제 시민 결혼식의 주례까지 맡았던 사람이에요.
우리는 정말 힘든 시간을 많이 함께 겪었고, 그만큼 관계의 기복도 있었어요.
그 이후 우리는 많은 시간을 들여 서로의 이야기를 했어요.
- 그동안 말하지 못했던 것들
- 쌓여 있던 감정들
- 각자 어떻게 상황을 이해했는지
저에게는 일어난 일들에 대해 정서적 마침표를 찍은 과정이기도 했어요.
Q. 많은 사람들이 당신을 따라나섰고, 결국 돌아왔다. 그 충성심에 대해 어떻게 느꼈나?
A.정말 깊이 감사했어요.
제가 결코 요구한 적도, 기대한 적도 없는 일이었어요.
저는 원래 현장에서 몸으로 부딪히는 타입의 리더예요.
앞장서서 뛰어드는 스타일이죠.
그러다 보면 때로는 뒤를 돌아보지 못할 때도 있어요.
그런데 사람들이 실제로 따라와 주고, 같이 세워주고, 위기 속에서도 남아준다는 건…
정말 감사할 수밖에 없어요.
특히 놀라운 건 그 주말 내내 경쟁사들이 다 달려들었는데도,
단 한 명도 다른 오퍼를 받아들이지 않았다는 것이에요.
그건 정말 믿기 어려운 일이었죠.
저는 그 순간을 “다이아몬드가 만들어진 순간” 이라고 생각해요.
개인적 회복과 리더십에 대한 성찰
Q. 그 이후 휴식기를 가졌는데, 내적으로는 어떤 상태였나?
A.정말 강렬한 경험이었어요.
그리고 다시 회사로 돌아오는 것도 쉽지 않았죠.
솔직히 말하면, 오픈AI 역사상 제가 “이제 더는 하고 싶지 않다” 고 느낀 거의 유일한 순간은 일리야가 떠났을 때였어요.
그때 저는 잠시 멈춰서
“내가 왜 이걸 하고 있지?”
“왜 이 고통을 감수할 가치가 있지?”
를 다시 떠올릴 시간이 필요했어요.
그 휴식기 동안 저는 DNA 서열에 대한 언어모델 훈련 같은 연구를 했어요.
ARC Institute 관련 작업이었죠.
그건 저와 제 아내에게 개인적으로도 매우 의미 있는 주제였어요.
제 아내가 여러 건강 문제를 갖고 있고, 우리는 AI가 그녀의 건강, 동물의 건강, 생물학 영역에 어떤 도움을 줄 수 있을지에 큰 관심이 있었어요.
그래서 그 시간은 아프기도 했지만 동시에 굉장히 긍정적인 경험이기도 했어요.
Q. 이 모든 일을 거치며 자신에 대해 배운 걸 한 페이지에 적는다면?
A.제일 큰 건 이거예요.
“가치 있는 미션이라면 계속 가야 한다.”
좋은 순간도 있고, 모든 게 끝난 것 같은 순간도 있어요.
어느 날은 “다 끝났다”, 또 어느 날은 “우린 다시 올라왔다” 는 느낌이 들죠.
그런데 그런 감정의 파도에 휘둘려 방향을 잃으면 안 돼요.
특히 리더라면, 사람들은 당신에게서
- 안정감
- 방향감
- 버텨내는 힘
을 보려고 해요.
- 디테일을 이해하되
- 결단도 내려야 한다
어떤 사람이 그 역할에 맞지 않는다는 걸 알고 있었고, 어떤 기술 방향이 틀렸다는 걸 알고 있었고, 어떤 프로젝트 운영 방식이 안 될 거라는 것도 알고 있었는데…
그걸 너무 오래 미뤘죠.
그래서 제가 계속 배우는 교훈은 분명해요.
“어려운 결정은 미루지 말라. 어려운 대화는 피하지 말라.”
Q. 일리야가 말하던 “가치를 만들려면 고통을 겪어야 한다”는 말은 무슨 뜻인가?
A.일리야는 독특한 표현 방식을 갖고 있지만, 그 안엔 늘 깊은 통찰이 있어요.
오픈AI 초창기부터 우리는 엄청난 불확실성 속에 있었어요.
- 이게 정말 될까?
- 사람을 모을 수 있을까?
- 자본을 구할 수 있을까?
- 기술적으로 맞는 방향일까?
- 끝까지 갈 수 있을까?
그건 실리콘밸리의 어두운 면이기도 하죠.
현실 왜곡장처럼 무조건 밀어붙이는 태도 말이에요.
그런데 저는 AI에서는 그런 방식이 통하지 않는다고 생각해요.
오픈AI도 그렇게 운영된 적이 없다고 봐요.
우리가 한 건 오히려 반대였어요.
“어려운 진실을 정면으로 본다. 현실을 있는 그대로 이해한다.”
초기에 논문을 쓰고, 학회에서 인정받고, 인용을 많이 받는 건 멋진 일이에요.
그런데 그게 곧바로 “AGI를 인류에 더 좋은 방향으로 만든다” 로 연결되진 않죠.
그래서 우리는 훨씬 더 불편한 질문으로 들어가야 했어요.
- 진짜 AGI를 만들려면 뭘 해야 하지?
- 그걸 하려면 돈이 얼마나 필요하지?
- 우린 그 돈을 조달할 수 있는 구조가 있나?
“지금 구조로는 안 된다.”
이게 진실이었죠.
하지만 그 고통스러운 현실 직시가 있었기 때문에 지금의 오픈AI가 가능했다고 생각해요.
짧은 문답들
Q. 여러 번 배워야 했던 교훈은?
A.어려운 결정을 내려라. 어려운 대화를 해라.
Q. 가장 좋은 조언은?
A.하버드 1학년 글쓰기 수업에서 들은 말이에요.
“더 명확하게 전달하고 싶다면 단어를 계속 덜어내라.”
Q. 정보는 어떻게 걸러보나?
A.많이 읽고, 아주 공격적으로 선별합니다.
Q. 롤모델은?
A.가우스와 데카르트요.
시대를 앞서간 사상가들이고, 우리가 생각하고 살아가는 방식을 바꿔놓은 돌파구를 만든 사람들이니까요.
Q. 비(非)테크 사람들에게 AI에 대해 꼭 알리고 싶은 건?
A.AI는 개인 삶에 실제로 도움이 되는 선한 힘이 될 것이고,
과학과 의학을 발전시키며 모두를 끌어올리는 방향으로 작용할 수 있다는 점이요.
Q. 사람들이 브록만에 대해 오해하는 건?
A.제가 이 미션에 얼마나 깊이 몰입해 있는지, 그리고 그것이 얼마나 개인적으로 고통스러운 길이었는지를 잘 모른다는 점이요.
Q. 왜 오픈AI는 모델 이름을 잘 못 짓나?
A.그건 말할 수 없네요.
AI가 AI를 더 빠르게 발전시키는 국면
Q. 이제 AI가 AI 개발을 가속해 ‘포물선적’으로 발전하는 시점에 가까워졌나?
A.그 단계에 이미 들어서고 있다고 봐요.
AI를 자기 자신의 개발 과정에 적용하면, 반복 속도는 더 빨라질 수밖에 없어요.
실제로 챗GPT 이후 우리는 개발 과정에서 AI를 적극적으로 쓰면서 생산성이 10~20% 이상 빨라지는 걸 체감했어요.
그리고 지금의 코딩 도구들은 소프트웨어 엔지니어링을 완전히 바꾸고 있죠.
오픈AI에서 모델 생산 과정의 많은 병목은 결국 소프트웨어예요.
- 시스템 구현
- 확장
- 거대한 컴퓨터 관리
그리고 곧 AI가
- 자기 연구 아이디어를 내고
- 실험을 설계하고
- 결과를 검증하는
단계로도 더 들어갈 거예요.
Q. 현재 코드의 몇 퍼센트를 AI가 쓰고 있나?
A.이젠 오히려
“AI가 쓰지 않은 코드가 몇 퍼센트냐”
를 묻는 게 더 맞을 정도예요.
적절한 맥락과 구조만 주어지면, 실제 코드 작성 자체는 현재 AI가 인간보다 더 잘하는 경우가 많아요.
물론 여전히 인간이 더 잘하는 부분도 있어요.
- 모듈 구조 설계
- 인터페이스 정의
- 전체 시스템 아키텍처 판단
Q. AI가 인간이 생각하지 못한 새로운 아이디어까지 내고 있나?
A.아직은 “가까워지고 있다” 정도예요.
예를 들어 자체 칩 설계에서 면적 최적화를 할 때 AI를 적용해봤는데, AI가 낸 해법이 완전히 새로운 건 아니었어요.
인간이 이미 후보군으로 생각하고 있던 것 중 하나였죠.
하지만 중요한 건, 그걸 훨씬 빠르게 실행했다는 거예요.
다만 수학과 물리학에서는 이미 꽤 흥미로운 일이 벌어지고 있어요.
우리는 열린 수학 문제, 열린 물리 문제를 풀고 있고, 최근엔 양자물리의 특정 문제에서 학계의 예상과 반대 방향의 해를, 그것도 아름답고 우아한 수식 형태로 찾은 일도 있었어요.
즉, 새로운 아이디어가 모델에서 나오기 시작하는 건 충분히 가능해졌고, 실제로 일부 영역에서는 이미 시작됐다고 봐요.
정치적 편향, 정렬, 개인 AI
Q. 모델이 정치적으로 기울어져 있다는 느낌은 왜 생기나?
A.우리는 모델이 진실을 반영하고 중립적이도록 굉장히 많은 노력을 기울이고 있어요.
어떤 가치가 모델에 들어가는지도 웹사이트에 공개된 스펙으로 보여주고 있고요.
다만 소셜미디어에 올라오는 편향 사례 스크린샷은 종종 맥락이 빠져 있어요.
- 숨겨진 메모리
- 시스템 지시문
- 이전 대화의 영향
그리고 어떤 질문은 애초에 정답이 하나가 아니에요.
한 단어로 답하라고 하면 어느 쪽을 택해도 편향이라고 공격받을 수 있죠.
그래서 제 핵심 생각은 이거예요.
우리는 진실과 공정성에 진심이다. 그리고 AI가 사용자를 대변하도록 만들고 싶다.
Q. 강화학습 때문에 결국 사용자가 듣고 싶은 말을 해주는 방향으로 가는 것 아닌가?
A.그 위험은 실제로 있었어요.
작년쯤에는 모델이 너무
“와 정말 좋은 질문이에요!”
같은 식으로 사용자를 지나치게 맞춰주는 경향이 생기기도 했죠.
그래서 우리는 그것이 바람직하지 않다고 보고 조정했어요.
우리가 진짜 원하는 정렬은
“당신의 장기적 목표를 돕는 것”
이지, 당장의 기분을 좋게 해주는 게 아니에요.
순간적으로는 칭찬이 좋을 수 있지만, 대부분의 사람은 진짜로는 그런 걸 원하는 게 아니죠.
정말 원하는 건 목표 달성에 도움 되는 AI예요.
저는 이게 개인 AI, 개인 AGI의 핵심이라고 생각해요.
당신이 자는 동안에도, 그 AI가 계속
“이 사람의 진짜 목표가 뭐지? 어떻게 더 잘 도와줄 수 있지?”
를 생각하고 움직이는 거죠.
글로벌 AI 경쟁, 컴퓨트, 데이터센터
Q. 지금은 글로벌 AI 레이스인가?
A.저는 오히려 글로벌 AI 르네상스라고 말하고 싶어요.
미국과 서구 기업들이 핵심 알고리즘 돌파를 많이 만들어내고 있지만, 전 세계 곳곳에서도 혁신이 일어나고 있어요.
아직 각국 간 역학은 완전히 정해지지 않았어요.
누가 누구의 모델을 쓰게 될지, 어떤 국가가 어떤 공급자에 의존할지, 그 균형은 아직 형성 중이에요.
Q. 미국이 AGI를 먼저 달성하지 못하면 문제가 되나?
A.저는 미국의 AI 리더십이 매우 중요하다고 생각해요.
그래야 민주적 가치가 지켜질 가능성이 높아지니까요.
동시에 각국도 이제 주권적 AI 전략이 필요하다는 걸 깨닫고 있어요.
AI가 경제안보, 국가안보의 기반이 된다면 각국은 어떤 식으로든 참여해야 하죠.
문제는 균형이에요.
- 수출 통제를 너무 강하게 하면 모두가 대체 공급자를 찾는다.
- 너무 느슨하면 리더십을 잃는다.
Q. 다른 나라들이 기술을 훔치고 있나? 증류(distillation)는 어떻게 보나?
A.모델 증류 시도는 미국 안에서도, 해외에서도 많아요.
하지만 그게 본질은 아니라고 생각해요.
왜냐하면 기술 발전 속도가 너무 빠르기 때문이에요.
우리가 어느 모델을 내놓았을 때는 이미 내부에선 다음 모델로 넘어가고 있어요.
진짜 강점은 개별 모델 하나가 아니라,
“모델을 만드는 기계”
즉 시스템 전체에 있어요.
Q. 그래서 추론 과정을 예전처럼 안 보여주는 건가?
A.그것도 일부 이유예요.
첫째는 경쟁 측면, 즉 증류를 더 어렵게 만들기 위해서고,
둘째는 더 중요한 이유가 있어요.
처음 reasoning 패러다임을 만들었을 때 우리는
“생각 과정을 읽을 수 있다면 해석 가능성이 커진다”
는 통찰을 얻었어요.
그런데 만약 그 생각 과정을 보기 좋게 훈련해버리면, 그건 더 이상 진짜 생각이 아니게 돼요.
모델이 “사용자가 좋아할 만한 추론 서술”을 만들어낼 수 있으니까요.
그래서 우리는 초기에 결론을 내렸어요.
“중간 사고 과정을 사람에게 예쁘게 보여주도록 훈련하는 유혹을 피하자.”
그래서 경쟁과 안전, 두 이유 모두에서 중간 사고과정 노출을 줄이게 된 거예요.
Q. 왜 요즘 프리뷰 모델을 자주 내놓는다고 보나? 컴퓨트 제약 때문인가?
A.우리는 점점 더 컴퓨트 중심 세계로 가고 있어요.
이제 모델이 만들어내는 가치는 단순 질의응답 수준이 아니에요.
- 건강 정보를 깊게 분석하고
- 엔터프라이즈 지식베이스를 뒤지고
- 더 나은 소프트웨어를 작성하고
- 매우 복잡한 문제를 풀어내죠
그리고 지금 세계에는 그만한 컴퓨트가 충분하지 않아요.
사람 한 명당 GPU 하나씩만 생각해도 80억 개 GPU가 필요한데, 현실은 그와 거리가 멀죠.
수십만, 수백만 GPU도 큰 규모로 여겨지는 상황이니까요.
그래서 세상 전체가 컴퓨트 부족 상태라고 보는 게 맞아요.
Q. 데이터센터 투자에 대해 비웃음도 많았는데, 지금은 어떻게 보나?
A.그 투자는 분명한 강점이 될 거라고 생각해요.
단지 사업상 이점이 아니라, 미션인 “이 기술을 모두에게 전달한다” 는 측면에서도 중요해요.
우리는 6개월, 12개월, 10년 뒤를 생각하면서
“앞으로 필요한 컴퓨트를 어떻게 확보할 것인가”
를 현실적으로 봤어요.
많은 경쟁사들이 그 결정을 비웃었지만, 저는 지금 경쟁사들이 컴퓨트 측면에서 그렇게 즐거운 상황은 아니라고 생각해요.
Q. 특정 데이터센터가 암 치료 같은 문제 하나만 전담하게 될 수도 있나?
A.그럴 수 있다고 봐요.
심지어 올해 안에도 그런 일이 전혀 불가능한 건 아니라고 생각해요.
실제 데이터센터 안을 걸어보면, 정말 거대한 기계 한가운데에 들어와 있는 느낌이에요.
정렬된 케이블, 끝없이 이어지는 랙들… 그걸 보면 문득 이런 질문이 생겨요.
“우리는 왜 이런 거대한 기계를 짓고 있는가?”
답은 분명해요.
사람에게 중요한 문제를 풀 수 있기 때문이죠.
- 암 치료
- 기업 운영
- 개인의 일상 문제 해결
Q. 그런데 컴퓨트가 부족하다면, 왜 암 대신 내가 이미지 만드는 데 자원을 쓰나?
A.이건 앞으로 사회가 답해야 할 가장 중요한 질문 중 하나예요.
“컴퓨트를 어디에 배분할 것인가?”
중요한 문제는 너무 많지만, 자원은 한정돼 있어요.
그래서 우선순위가 필요하죠.
하지만 동시에 우리는 모든 사람이 컴퓨트에 접근해야 한다고 믿어요.
그래서 무료 티어의 챗GPT도 제공하는 거고요.
기술을 사람들 손에 쥐여줘야
- 사람도 기술을 이해하게 되고
- 사회도 이 기술을 자기 것으로 만들 수 있다고 보기 때문이에요.
소비자 vs 엔터프라이즈, 개인 AGI 비전
Q. 오픈AI 내부에서는 소비자와 엔터프라이즈를 어떻게 보나?
A.최근 제가 많이 생각하는 단어는 집중(focus) 이에요.
AI는 모든 문제에 적용할 수 있어서 기회가 너무 많아요.
문제는 컴퓨트가 무한하지 않다는 거죠.
그래서 시너지가 나는 방향으로 가야 해요.
1+1이 10이 되는 식으로요.
저는 다음 단계의 오픈AI에서 특히 중요한 축이 두 가지라고 봐요.
- 엔터프라이즈
- 경제가 이미 계산 중심 경제가 되고 있기 때문
- 컴퓨터로 하는 모든 일은 점점 “내가 컴퓨터로 하는 일”이 아니라 “컴퓨터가 나를 위해 하는 일”로 바뀔 거예요
- 개인용 AI / 개인 AGI
- 스마트폰 사용자 40억 명 모두가 결국 개인 AI를 갖게 될 거라고 봐요
- 더 나아가 80억 명 전부가 필요로 하게 될 수도 있어요
혹은 당신에게 먼저 물을 수도 있고요.
핵심은 이거예요.
“당신을 잘 알고, 신뢰할 수 있고, 당신의 목표를 실제로 대신 실행해주는 AI”
이게 우리가 만들고 싶은 방향이에요.
Q. 누구나 이제 빌더가 될 수 있다는 말은 무슨 뜻인가?
A.정말 그대로예요.
코덱스 같은 도구 덕분에 이제는 소프트웨어 엔지니어가 아니어도 앱을 만들 수 있어요.
한 친구가 자기 여동생에게 “누가 이런 앱 좀 만들어줬으면 좋겠다”는 말을 듣고, 그 자리에서 코덱스에 입력을 넣었어요.
몇 시간 뒤 앱이 나왔죠.
여동생은 놀라서
“이걸 누가 만든 거야?”
라고 물었고, 친구는
“네가 만든 거야.”
라고 답했어요.
저는 이게 정말 엄청난 변화라고 봐요.
비전만 있으면 누구나 빌더가 될 수 있다.
반복적 배포(iterative deployment) 철학
Q. “반복적 배포”란 무엇이고 왜 중요한가?
A.이건 오픈AI의 핵심 철학 중 하나예요.
제가 아마 그 표현 자체를 가장 먼저 분명하게 말한 사람일 거예요.
하지만 그 정신은 팀 전체의 고민 속에서 나온 거죠.
AGI를 만들고 세상에 도움이 되게 하려면, 대략 두 가지 전략이 있어요.
- 비밀리에 완성형을 만든 뒤 한 번에 배포한다
- 중간 단계들을 계속 배포하면서 배우고 적응한다
아무것도 배포해본 적 없이, 어느 날 회의실에서
“우리가 충분히 테스트했나? 이제 세상에 내보낼까?”
라고 결정해야 한다면, 그건 너무 위험해요.
반면 반복적 배포는 다르죠.
당신이 이미 99번 배포를 경험한 상태에서 100번째 더 강력한 시스템을 배포하는 거예요.
세상도 그 기술에 적응할 기회를 얻고, 우리도 실제 문제를 보고 배웁니다.
좋은 예가 GPT-3예요.
우리는 출시 전에
- 허위정보
- 악용 가능성
- 각종 사회적 위험
을 많이 고민했어요.
의료 스팸 광고였어요.
그건 아무도 예상 못했죠.
하지만 실제로 보고 나면, 다음에는 더 잘 대비할 수 있어요.
그래서 반복적 배포는
“그냥 막 던지자” 가 아니라,
“매번 최선을 다해 위험을 줄이되, 현실에서 배우는 루프를 반드시 갖자”
는 뜻이에요.
안전, 규제, 일자리, 미래
Q. 경쟁 모델이 안전을 덜 중시한다면 경쟁에서 불리해지지 않나?
A.저는 오히려 안전이 핵심 제품 기능이라고 봐요.
아무도 자신과 맞지 않고 신뢰할 수 없는 모델은 원하지 않아요.
우리는 어쩌면 사람들이 생각하는 것보다 훨씬 더 많이, 심지어 다른 어떤 연구소보다도 많이 안전에 투자했을 수 있어요.
챗GPT는 세계에서 가장 널리 배포된 언어모델이고, 가장 많은 사용자가 쓰고 있어요.
그만큼 안전을 신경 쓸 수밖에 없죠.
물론 여기서 중요한 건 모델 자체의 안전만이 아니에요.
사회가 이 기술을 둘러싸고 회복력(resilience) 을 만들어야 해요.
자동차에는 엔진만 있는 게 아니라
- 도로
- 신호체계
- 안전벨트
가 함께 필요하듯이, AI도 사회 인프라와 제도가 같이 가야 한다고 생각해요.
Q. AI 규제는 어떤 모습이어야 하나?
A.규제가 해야 할 일은 여러 가지예요.
첫째, 이 기술이 사람에게 실제로 이익이 되도록 해야 해요.
AI 때문에 많은 직업, 제도, 삶의 경로가 흔들릴 수 있다는 건 분명해요.
그 변화 속에서 사람을 어떻게 지지할지 고민해야 하죠.
둘째, 혜택이 일부에게만 집중되지 않도록 해야 해요.
AI가 만든 경제적 가치가 특정 기업이나 소수에게만 쌓여선 안 돼요.
사람들이 자신의 삶 속에서 직접 혜택을 체감해야 해요.
셋째, 프라이버시와 특권(privilege) 문제도 중요해요.
사람들은 이미 AI에게 의사나 변호사에게 하듯 중요한 상담을 하고 있어요.
그런데 현재 AI에는 그런 대화에 대한 법적 보호 체계가 충분하지 않죠.
저는 이런 부분들이 규제와 제도 설계에서 진지하게 다뤄져야 한다고 생각해요.
Q. 사람들이 가장 많이 걱정하는 건 결국 일자리다. 뭐라고 말해주고 싶나?
A.이 변화가 온다는 건 부정할 수 없어요.
그리고 정확히 어떻게 전개될지는 여전히 불확실해요.
하지만 인간은 보통 잃는 것은 쉽게 보고, 새로 얻게 될 것은 잘 보지 못해요.
예를 들어 1950년 사람에게 우버를 설명한다고 생각해보세요.
컴퓨터, 모바일폰, GPS, 네트워크… 엄청난 기술 집합이 결국 “3분 안에 차가 온다”는 경험을 만드는 거잖아요.
그건 당시 기준으로 거의 상상 밖의 일이죠.
AI도 비슷하다고 봐요.
분명 흔들리는 것들이 있을 거예요.
하지만 동시에 인간의 행동력(agency) 을 엄청나게 키워줄 거예요.
이제 누구나 만들 수 있어요.
누구나 비전을 실행할 수 있어요.
그래서 중요한 질문은 점점 이렇게 바뀌어요.
“무엇을 잃느냐” 못지않게
“무엇을 새로 할 수 있게 되느냐”
그리고 저는 결국 모든 사람이 기여할 자리가 생길 것이라고 믿어요.
Q. 젊은 사람들은 지금 무엇에 투자해야 하나? 어떤 역량이 중요해질까?
A.가장 중요한 건 이 기술을 적극적으로 활용하는 법을 배우는 것이에요.
AI에서 최대치를 끌어내는 능력은 핵심 역량이 될 거예요.
앞으로 우리는 에이전트들의 관리자, 그리고 어쩌면 자율 AI 회사의 CEO 같은 역할을 하게 될지도 몰라요.
100,000명 규모 회사의 노동력을 손안에 둔 것처럼 AI를 부릴 수 있는 시대가 올 수 있죠.
그때 중요한 건 결국 이런 것들이에요.
- 내가 원하는 게 무엇인지 아는가
- 비전을 갖고 있는가
- 아이디어를 실행할 수 있는가
- 에이전트를 잘 지휘할 수 있는가
그래서 주체성, 비전, 실행력이 훨씬 더 중요해질 겁니다.
Q. 가장 부정적인 미래 시나리오는 무엇인가?
A.지금까지의 기술은 종종 인간이 기계에 맞춰 몸을 비트는 방식으로 발전해왔어요.
상자 앞에 앉아 키보드를 두드리며 몸을 혹사하는 식이죠.
그런데 앞으로는 컴퓨터가 우리를 위해 일하는 세상으로 갈 수 있어요.
그건 엄청난 기회지만 동시에 위험도 있어요.
가장 중요한 질문은 이런 거예요.
- 사람들이 서로 충돌하는 목표를 가질 때 AI는 어떻게 조정할까?
- 무엇을 도와주는 게 허용되고, 어디까지가 금지될까?
- 혜택이 소수에 집중되지 않고 모두에게 가도록 만들 수 있을까?
모두가 좋은 삶을 누릴 수 있는 최소선을 높이고, 동시에 더 큰 성취도 가능해지는 세상이요.
의료만 봐도 그래요.
우리가 잘 해낸다면 모두가 주머니 속에 최고의 의사 팀보다 나은 AI 의사를 갖게 될 수도 있어요.
물론 이건 공짜로 오지 않아요.
충돌도, 혼란도, 조정 비용도 있을 거예요.
하지만 위험을 인정하면서 제대로 다룬다면, 결국 큰 선으로 갈 수 있다고 생각해요.
Q. 당신에게 성공이란 무엇인가?
A.“인공 일반지능이 전 인류에게 혜택을 주도록 한다”는 오픈AI의 미션을 달성하는 것.
전체 0