인터뷰/예측
OpenAI 최고과학자(Jakub Pachocki) "다음 몇 달 내에 일반 지능(General Intelligence)에서도 큰 진전이 있을 것으로 기대합니다."
작성자
하이룽룽
작성일
2026-04-09 23:30
조회
5
🎙️ [Unsupervised Learning 인터뷰] OpenAI 수석 과학자 야쿱 파초키(Jakub Pachocki)와의 심층 대화
진행자: 제이콥 에프론 (Jacob Efron, Redpoint 투자자 겸 팟캐스트 호스트)게스트: 야쿱 파초키 (Jakub Pachocki, OpenAI 최고 과학자 / Chief Scientist)
💡 도입: 시대의 변화와 AI의 현주소
진행자 (Jacob): 오늘 Unsupervised Learning 팟캐스트에는 현재 지구상에서 가장 중요한 인물 중 한 명이라고 해도 과언이 아닌 분을 모셨습니다. 바로 OpenAI의 최고 과학자인 야쿱 파초키(Jakub Pachocki)입니다. 생태계의 많은 분들이 궁금해하는 질문들, 즉 모델의 발전 진행 상황, 장기적으로 실행되는 에이전트를 만들기 위한 조건, 과학 분야에서의 AI의 역할, 그리고 강화 학습(RL)의 활용 방안에 대해 오늘 모든 것을 물어보려 합니다.야쿱, 당신은 지난 몇 년간 모든 세대의 AI 발전을 최전선에서 이끌어 오셨습니다. 현재 생태계의 모든 사람들이 모델의 발전에 기반해 어떤 제품을 만들어야 할지 고민하고 있고, 사회적 차원에서도 AI가 과학과 사회 전반에 미칠 영향을 주시하고 있습니다. 오늘 모시게 되어 정말 기쁩니다.
야쿱 파초키 (Jakub): 초대해 주셔서 감사합니다. 기쁩니다.
🚀 파트 1: 모델의 발전 타임라인과 자율적 AI 에이전트
진행자: 가장 흥미로운 주제부터 시작해 보죠. 약 4개월 전, 당신과 OpenAI 팀은 "올해(2024년) 9월까지 '연구 인턴 수준(Research-level intern)'의 역량을 갖춘 시스템을, 그리고 2028년 3월까지는 '더 완전하게 자동화된 AI 연구원'을 목표로 한다"라고 말씀하셨습니다. 이제 4개월이 지났는데, 그 타임라인에 대해 현재 어떻게 평가하시나요?야쿱: 네, 지난 몇 달 동안 저희가 목격한 가장 실질적이고 거대한 변화는 바로 '코딩 도구의 폭발적인 성장(explosive growth of coding tools)'입니다. 이는 결코 과장이 아닙니다. 현재 OpenAI 내부를 보면, 실제 코딩 작업의 대다수를 Codex(OpenAI의 코드 생성 모델)에 의존하고 있는 상태에 이르렀습니다. 대다수의 사람들에게 '프로그래밍을 한다는 행위' 자체가 근본적으로 변했습니다.
따라서 저는 이것을 우리가 계획한 목표가 순조롭게 제 궤도(on track)에 올라 있다는 명백한 신호로 보고 있습니다.
최근 몇 달간 저에게 매우 흥미로웠던 또 다른 업데이트는 '수학적 연구 역량의 진전'입니다. 물리학이나 다른 분야에서 우리가 목격한 결과들도 마찬가지고요. 현재 코딩 모델들이 테스트 타임(Test time)에 더 많은 컴퓨팅 자원을 활용하는 것처럼, 인프라에 접근하는 능력과 통찰력을 제공하는 능력이 결합되면 엄청난 시너지가 납니다. 이에 더해 향후 몇 달 내에 일반 지능(General Intelligence) 측면에서도 매우 강력한 발전이 있을 것으로 기대합니다. 네, 여전히 우리가 매우 집중하고 계획하고 있는 타임라인입니다.
진행자: 그렇다면 모델이 '연구 인턴 수준의 역량'에 도달했다는 것을 정확히 어떻게 알 수 있을까요? 어떤 워크플로우를 보았을 때 "아, 이제 인턴 수준이구나"라고 판단하시나요?
야쿱: '연구 인턴'과 '완전히 자동화된 연구원'을 구분하는 핵심 기준은 두 가지입니다.
첫째는 '모델이 자율적으로 작업할 수 있는 시간의 길이(span of time)'이고,
둘째는 '인간이 지시해야 하는 작업의 구체성(specificity of the task)'입니다.
지금 당장 시스템에게 "AI 모델의 역량을 향상시켜봐"라거나 "AI 정렬(Alignment) 문제를 해결해봐"라고 지시했을 때, 알아서 그 문제를 뚝딱 해결해 내는 것을 기대하지는 않습니다. 당장 올해 그런 일이 일어나진 않겠죠. 하지만 언젠가는 도달할 목표입니다.
대신 인턴 수준이라 함은, 인간이 구체적인 기술적 아이디어를 제시할 때 이를 수행하는 것을 뜻합니다. 예를 들어 "모델을 개선하기 위해 내가 이런 아이디어가 있는데, 이 평가(eval) 시스템을 다르게 실행해 줄래?"라고 지시하면, 모델은 이미 필요한 조각들을 다 가지고 있어서 그것들을 맞추고 실행하기만 하면 되는 수준입니다.
진행자: 최근 안드레이 카파시(Andrej Karpathy)가 작은 모델들을 사용해서 자신의 작업을 개선하는 꽤 바이럴된 영상을 공개했는데요. 물론 OpenAI가 만드는 것보다 훨씬 덜 복잡한 모델이지만, 그런 모습이 당신이 생각하는 미래 도구의 정신(spirit)과 맞닿아 있다고 느끼셨나요?
야쿱: 네, 바로 그런 정신(spirit)에 부합합니다. 저는 현재의 Codex에서 훨씬 더 자율적이고 장기간 실행되는 방향으로 매우 지속적이고 점진적인 진화가 일어날 것으로 예상합니다. 앞으로 이러한 종류의 애플리케이션을 아주 많이 보게 될 것이며, 전반적으로 여러 작업에서 모델들이 더 자율적으로, 더 많은 컴퓨팅을 사용하여 작동하는 것을 보게 될 것입니다.
🧮 파트 2: 수학과 물리학 - AI 발전을 측정하는 완벽한 '북극성(North Star)'
진행자: 코딩 능력이 진전되면 AI 연구에 직접적으로 도움이 된다는 것은 직관적으로 이해가 됩니다. 그런데 방금 수학과 물리학 분야의 돌파구(Breakthrough)에 대해서도 언급하셨는데요, 수학적 발전은 AI 연구에 어떻게 연결이 되나요?야쿱: 우리가 이런 수학 벤치마크에 집중했던 가장 큰 이유는, 이것이 AI 기술을 어떻게 발전시킬 것인지에 대한 전반적인 지표이자 '북극성(North Star)' 역할을 해왔기 때문입니다.
수학은 매우 측정하기 쉽습니다. 좋은 소프트웨어를 만들었는지 평가하는 것보다, 수학 문제를 풀었는지 평가하는 것이 훨씬 명확하죠. 게다가 수학은 끝없이 어려워질 수 있습니다. 정답 유무는 명확하지만, 그 문제를 푸는 난이도는 무한정 높아질 수 있는 완벽한 척도입니다.
불과 얼마 전까지만 해도 우리의 관점은 이랬습니다. "우리 모델이 쉬운 수학 문제는 푼다. 하지만 국제수학올림피아드(IMO) 수준의 문제는 못 푼다. 즉, 지능에 측정 가능한 명백한 격차가 존재하며, 우리가 무엇을 향해 달려가야 할지 아주 명확하다." 그래서 이것이 추론(Reasoning) 모델을 위한 북극성이 되었습니다.
하지만 이제 상황이 많이 변하고 있습니다. 우리는 IMO 문제를 해결하고 정식 연구 수준의 수학에 진입하는 등, 목표로 했던 이정표(milestones)들에 도달했습니다. 이런 수학적 추론 능력이 좋아지면, 앞서 말한 AI 연구 역량을 높이는 데 엄청난 전이(transfer) 효과가 발생합니다. 실제로 우리 회사의 최고 연구원들 중 상당수도 수학자 출신이거나 이론 분야 출신입니다.
다만, 이제 우리는 북극성의 방향을 바꾸고 있습니다. 앞으로 만들어낼 다음 세대 모델들은 실제 세계에서, AI 연구뿐만 아니라 경제적으로 가치 있는 다른 활동과 응용 과학 분야에서 실질적으로 유용하게(useful in the real world) 쓰이는 데 집중할 것입니다. 왜냐하면 이제 모델들이 사람만큼 항상 똑똑하지는 않더라도, 경제를 실질적으로 변화시키고 일하는 방식을 바꿀 만큼 충분히 유능해졌다고 믿기 때문입니다. 우리는 이 변화에 대해 큰 긴박감을 느끼고 있습니다.
🧠 파트 3: 강화 학습(RL)의 한계 돌파와 범용적 작업의 미래
진행자: 초기에는 수학처럼 검증하기 쉬운 도메인을 선택하는 것이 시작하기에 완벽한 곳이었군요. 코드도 마찬가지고요. 결과적으로 코딩과 수학 분야에서는 강화 학습(RL) 덕분에 놀라울 정도의 발전이 있었습니다.하지만 많은 사람들이 궁금해하는 점은 이겁니다. 의학, 법률, 금융 같은 세상의 많은 가치 있는 일들은 수학이나 코드만큼 결과를 쉽게 검증하기 어렵습니다. 이런 일반적인 도메인에서도 과거에 본 것과 같은 천문학적인 속도의 개선을 기대할 수 있을까요?
야쿱: 네, 저는 확실히 그럴 것이라 예상합니다. 우리가 이 문제를 바라보는 흥미로운 시각(duality)이 있습니다. 이렇게 평가하기 어려운 일반적인 작업들은, 사실 '장기적인 기간(long horizon)이 필요한 작업'과 엄청나게 많은 공통점을 공유합니다.
생각해 보세요. 목표가 아주 명확하게 정의된 수학 문제나 코딩 문제라 할지라도, 그 문제를 풀기 위해 1년 동안 작업해야 하는 문제라면 어떨까요? 장기적으로 성공의 기준이 무엇인지는 분명하지만, "작업 첫날에 당장 무엇을 해야 하는가?"라는 질문은 여전히 매우 끝이 없는(open-ended) 어려운 문제입니다.
저는 검증이 어려운 도메인의 어려움과, 작업 기간이 긴 도메인의 어려움이 사실상 일치한다고 봅니다. 이것이 시스템이 발전하기 위한 분명한 '다음 개척지(next frontier)'입니다. 그리고 우리는 일반적인 도메인에서 RL을 확장하는 능력을 통해 매우 고무적인 신호들을 이미 보고 있습니다.
진행자: 일반 도메인에서 가장 어려운 건 "무엇이 성공인가?"를 아는 것 같습니다. 단기적인 법률/의료 작업도 수천 번씩 반복 실행해서 정답인지 파악하기 어려운데, 장기적인 작업은 더더욱 어렵겠죠. 이 연구 과제를 구체적으로 어떻게 개념화하고 계신가요? 모델이 이런 공간에서 잘 작동하게 하려면 무엇을 알아내야 합니까?
야쿱: 결국 본질은 "어떻게 모델이 아주 긴 시간 동안 작동하게 할 것인가?" 그리고 "모델이 자신의 '부분적인 진행 상황(partial progress)'을 스스로 평가하도록 어떻게 가르칠 것인가?"로 귀결됩니다.
강화 학습(RL) 이외의 분야를 보더라도, 장기 목표의 진전이 어디서 오는지 볼 수 있습니다. 사전 훈련(pre-training)에서의 순수 감독(supervision)을 통해 모델이 점점 더 일관성을 갖게 되면, 모델 스스로 "여기서 좋은 부분적 결과물이란 어떤 모습이어야 하는가?"에 대한 개념을 얻게 됩니다. 따라서 우리가 RL을 유의미하게 확장하지 않더라도 시간이 지나면 모델이 수행할 수 있는 작업 기간(horizon)이 늘어나는 것을 보게 될 것입니다. 물론 RL의 새로운 아이디어를 활용해 일반 도메인에 적용하는 것은 분명한 연구적 도전이지만, 저는 꽤 낙관적입니다.
진행자: 흥미롭네요. 모델 스스로 외부에서 보기에 신뢰할 수 있는 주기로 자신의 진행 상황을 체크하는 능력이 핵심이군요. 사실 RL이 아직 완전한 범용화(generalization)를 이루었는지는 불분명해 보입니다. 특정 작업에 모델을 최적화하는 기술은 뛰어나지만, 마치 한 번에 하나씩 해결하는 구식 ML 같은 느낌도 듭니다. 이런 특징에 동의하시나요?
야쿱: 글쎄요, 우리는 지금 엄청난 양의 컴퓨팅 자원을 구매하고 있습니다. (웃음) 새로운 기술과 새로운 확장 방식을 목격했지만, 결국 우리의 관점은 단순한 알고리즘을 찾고 그것을 확장(scaling)하는 것입니다.
물론 우리가 겪어야 할 일정 수준의 복잡성은 존재합니다. 왜냐하면 우리는 더 이상 현실 세계와 완전히 고립된 '하늘 떠 있는 뇌(brain in the sky)'를 만드는 것이 아니기 때문입니다. 만약 모델이 의학 연구를 하길 바라고, 궁극적으로 암을 치료하길 원한다면, 모델은 현실 세계에 대해 유의미한 방식으로 학습해야 합니다. 실험을 수행하고 그 결과로부터 배워야 하죠. 그러려면 모델을 현실과 연결해야 합니다. 하지만 이것이 우리가 개발해 온 단순한 알고리즘을 확장하는 것과 상충된다고 생각하지는 않습니다.
🛠️ 파트 4: 기업의 AI 도입 전략 - 자체 RL vs. 문맥 내 학습 (In-context Learning)
진행자: 팟캐스트를 듣는 수많은 기업 창업자와 빌더들의 가장 큰 고민 중 하나를 묻겠습니다. "우리가 가진 도메인 데이터(의료, 법률 등)와 평가 기준(evals)을 활용해서 오픈소스 모델을 가져다가 자체적으로 강화 학습(RL)을 해야 할까요? 아니면 대형 모델들이 이런 작업에 스스로 능숙해질 때까지 그냥 기다려야 할까요?" 이들에게 어떤 조언을 해주시겠습니까?야쿱: 강화 학습(RL)은 특정 작업에서 모델을 정말 크게 개선할 수 있는 매우 데이터 효율적인 방법인 것은 맞습니다. 하지만, 우리가 알고 있는 훨씬 더 데이터 효율적인 학습 방법이 있습니다. 바로 '문맥 내 학습(Learning in context)'입니다.
사용자가 모델에게 프롬프트를 통해 예시를 주고 원하는 지시사항을 제공하는 것, 이것이 사람들이 모델을 가르치는 가장 근본적인 방식입니다. 저는 시간이 지날수록 이 문맥 내 학습 능력이 훨씬 더 좋아질 것이라고 기대합니다. 모델이 사용자의 컨텍스트와 사용자가 신경 쓰는 특정 작업에 '적응(adapt)'할 수 있다는 점이 정말 중요해질 것입니다.
따라서, 기업들이 현재의 복잡한 RL 파이프라인을 그대로 복제하여 구축하는 것이 올바른 길일지 확신할 수는 없지만, 이 문맥 적응성(context adaptation)이 훨씬 중요한 역할을 할 것입니다.
진행자: 그렇다면, 기업들은 여전히 자신들에게 중요한 평가 기준(evals)을 알아내고 데이터와 예시를 모으는 '작업'을 해야 하지만, 미래에는 그 데이터를 직접 모델 학습에 쓰기보다 просто(그저) 모델의 컨텍스트(프롬프트)에 밀어 넣는 것이 훨씬 나은 결과가 나올 수도 있다는 말씀이시군요.
야쿱: 네, 그럴 가능성이 매우 높다고 생각합니다.
진행자: 연장선상에서, Codex 같은 코딩 도구의 성공을 본 법률, 금융, 의료 기업들은 "우리도 우리만의 환경에 맞는 자체 하네스(harness, AI 작업/UI 환경)를 구축해야 할까?" 아니면 "그냥 대형 모델들이 제공하는 하네스에 우리의 컨텍스트만 넣어서 써야 할까?"를 고민합니다. 이 부분은 어떻게 보시나요?
야쿱: 하네스(UI/작업 환경)의 구현 자체가 오랜 시간 동안 병목이나 한계점이 되어서는 안 된다고 봅니다. 저는 사용자들이 모든 종류의 다른 도메인에서 사용할 수 있는 훨씬 더 범용적인(general) 하네스를 얻게 될 것이라 생각합니다. 사실 Codex도 코딩 이외의 용도로 써보면 꽤 훌륭하게 작동합니다.
진행자: 아주 흥미롭네요. 훨씬 더 범용적인 하네스라는 건, 사용자의 도메인에 있는 특정 도구 세트나 노출시키고 싶은 정보들에 모델이 알아서 적응하고 작동한다는 뜻인가요?
야쿱: 네. 우리가 모델과 상호작용하고자 하는 '궁극적인 인터페이스'가 무엇인지 생각해 볼 필요가 있습니다. 모델은 이제 스스로 하드코어한 포렌식 UI를 부여할 수도 있고, 자신들만의 UI를 만들 수도 있습니다. 사람들이 만들려면 아주 긴 시간이 걸릴 일들을 해내죠.
하지만 동시에, 모델이 인간이 현재 사용하고 있는 기존 인터페이스에 직접 접근할 수 있도록 하는 공간도 열려 있습니다. 예를 들어, 슬랙(Slack) 안에 들어와 있는 AI, 우리의 일상적 컨텍스트에 플러그인되어 있고 거기서부터 학습하는 AI 말입니다. 장기적으로 보았을 때 AI는 기본적으로 '당신이 있는 곳으로 직접 찾아와야(meet you where you are)' 합니다.
만약 현재의 하네스가 특정 환경에 너무 맞춤화(bespoke)되어 보인다면, 미래에는 모델이 여러 도구와 스킬을 능숙하게 탐색하게 되면서 인간처럼 일반화된 방식으로 작동하게 될 것입니다.
🏢 파트 5: 연구의 최전선, 돌파구, 그리고 조직 운영의 딜레마
진행자: 최고 과학자로서 매일 연구의 최전선에서 엄청난 것들을 보실 텐데요. 요즘 가장 주의 깊게 지켜보고 있는 지표나, "와, 모델이 이걸 해내다니 정말 미쳤다"라고 느낄 만한 의미 있는 이정표(milestone)는 무엇입니까?야쿱: 현시점에서 가장 중요한 것은 '연구(Research) 역량'입니다. "모델이 새로운 것을 발견할 수 있는가?", "더 긴 기간(longer horizon)이 필요한 연구 문제를 스스로 실행할 수 있는가?"가 핵심입니다.
진행자: 팀원이 낸 줄 알았던 어떤 통찰력 있는 아이디어를 사실은 모델이 냈다는 걸 알게 되는 그런 순간을 찾고 계시는군요.
야쿱: 네, 실제로 우리는 최근 GPT-4 클래스의 모델을 내부적으로 사용하면서, 작지만 매우 임팩트 있는 연구 아이디어를 모델로부터 얻은 적이 있습니다. 하지만 이것은 제가 앞으로 기대하는 바에 비하면 아직 아주 작은 시작에 불과합니다.
진행자: 필연적으로 이 모델들은 연구와 과학 전반에 사용될 것입니다. 당신은 리서치 파트너로서 모델과 상호작용하는 지구상의 첫 번째 인류 중 한 명입니다. 지속적으로 발전하는 모델과 함께하는 연구 조직의 모습이 어떻게 변할 것이라고 보시나요?
야쿱: 우리는 지금 전환점(transition point)에 서 있습니다. 이제는 모델이 얼마나 빨리, 얼마나 높은 품질로 발전하느냐가 우리 내부 연구 발전 속도를 결정짓는 가장 핵심적인 요인이 되었습니다. 모델이 우리 연구의 상당 부분을 주도(drive)할 것이기 때문입니다.
이로 인해 연구 조직을 운영하는 방식에 대한 우리의 직관을 완전히 재설정(rewiring)해야 했습니다. 보통 연구 조직을 운영할 때는, 단기적인 품질 향상에 너무 얽매이지 않고 장기적인 관점에 집중할 수 있는 공간을 주려 노력합니다.
하지만 지금은 다릅니다. 우리는 여전히 흥미로운 장기 프로젝트들을 많이 대기시켜 놓고 있지만, 동시에 현재 모델의 지능을 단기적으로 발전시키고 이를 활용해 우리의 AI 정렬(Alignment) 연구와 다음 단계 연구를 가속화해야 한다는 엄청난 긴박감(urgency)을 느끼고 있습니다.
진행자: 과거에는 연구원들에게 한두 달 안에 성과를 내야 하는 압박을 주기보다 "동굴 속에 들어가(cave dweller) 장기적인 아이디어를 고민해라"라고 하는 것이 중요했다면, 지금은 "단기적으로 이걸 발전시키면 우리가 하는 모든 일이 기하급수적으로 좋아진다"는 것을 깨달은 시점이군요. 이런 딜레마 속에서 컴퓨팅 자원 할당은 어떻게 하시나요? 모델 크기를 키우는 사전 훈련, 강화 학습, 그리고 완전히 새로운 실험적 벡터 사이에서 말입니다.
야쿱: 매우 복잡한 문제입니다. 우리가 지키기 시작한 한 가지 원칙은, 모델의 일반 지능(general intelligence)을 주도하는 가장 핵심적이고 확장에 유리한 방법론(scalable methods)에 컴퓨팅의 큰 비중을 명시적으로 예산 할당한다는 점입니다.
물론 특정 실험 하나에 너무 많은 컴퓨팅을 쏟는 것이 언제나 가장 효율적인 배분은 아닐 수 있습니다. 하지만 워낙 중요하고 흥미로운 아이디어들이 많다 보니, 자칫하면 자원이 파편화되어 우리가 정작 가장 중요하다고 믿는 기초적인 확장을 놓칠 위험이 있습니다. 경험적 증거와 엄격한 평가를 확인한 뒤, "우리가 이 방식을 진짜 이해하고 있는가? 확장 가능한가? 단발성 요행은 아닌가?"를 끊임없이 스스로에게 묻고 우선순위를 결정합니다. 미래의 방향성을 찾고 거기에 컴퓨팅을 쏟아붓는 것이 무엇보다 중요합니다.
⚔️ 파트 6: 경쟁과 제품 전략 (Codex vs. Claude)
진행자: 코딩 에이전트에 대해 많이 이야기했는데, 사실 작년은 코딩 분야에서 엄청난 언덕 오르기(hill climbing)의 해였습니다. OpenAI의 Codex가 성공적이었지만, 사실 시장을 먼저 선점한 건 Anthropic(앤스로픽)이었습니다. Claude 코드 도구들이 시장을 지배했었죠. 이런 경쟁사의 성공을 보면서 어떤 생각을 하셨나요?야쿱: 제품의 방향성을 기술의 다음 응용 분야가 어디일지에 집중시키는 전략의 문제라고 생각합니다. 우리의 우선순위를 돌아보면, 물론 코딩 제품을 작업하고 있었지만 그것은 우리의 핵심 우선순위에 비해 상대적으로 부차적인(secondary) 것이었습니다.
재미있는 점은, 회사의 단기적인 제품 전략이 OpenAI 연구 조직 내부의 진짜 우선순위를 대변하지는 않는다는 것입니다. 2023년 ChatGPT의 폭발적인 성공을 겪으면서, 이 챗봇 형태의 제품은 물론 우리가 그리는 AI 비전과 일치하긴 하지만, 기술이 가능하게 할 '모든 것'을 대표하는 궁극적 형태는 아니었습니다.
그래서 우리 연구의 대다수는 항상 '그 너머의 미래(future thing)'에 집중되어 있었고, 이것이 점점 단기적인 제품 전략과 분리(decouple)되어 왔습니다. 저는 우리가 모델 지능(연구) 측면에서 구축해 온 것들에 대해 아주 큰 자신감을 가지고 있습니다. 최근 우리가 제품 측면에서 다시 집중력을 높이고 방향을 재조정(refriation)하는 것은, 이제 연구된 것들을 실제로 세상에 배포(deploy)할 시기가 되었고, 지금은 배포가 가장 중요하다는 믿음 때문입니다.
진행자: 이제 회사 전체가 코딩 도구 등 실질적 배포에 락인(locked-in)되어 집중하고 있는 느낌입니다. 그렇다면 청취자인 수많은 개발자들에게 묻겠습니다. 3개월이나 6개월 후, 개발자들이 Codex를 사용하는 방식은 어떻게 달라져 있을까요?
야쿱: 모델에 맡기고 안심할 수 있는 '자율성의 수준(level of autonomy)'이 점진적으로 증가할 것입니다. 지시사항을 얼마나 대충(vagueness) 줘도 알아듣는지, 인간의 감독(supervision)이 얼마나 덜 필요한지가 핵심입니다.
저는 며칠 동안 스스로 알아서 작동(work autonomously for a couple days)하는 모델이 머지않았다고 생각합니다. 지금보다 훨씬 많은 컴퓨팅을 사용해서 스스로 훨씬 고품질의 결과물을 낼 것입니다.
진행자: 며칠씩 돌아가는 모델이라면, 과연 전통적인 소프트웨어 엔지니어링 스킬이 계속 필요할까요? 아니면 누구나 코딩 에이전트를 감독해서 결과물을 낼 수 있게 될까요?
야쿱: 이미 지금도 많은 결과물을 내는 데 엄청난 코딩 경험이 필요하지는 않습니다. 하지만 '인턴'과 완전한 '자율 엔지니어'를 구분 짓자면, 아주 거대한 무언가를 만들 때는 여전히 인간의 감독과 전반적인 청사진(overarching thing)이 필요합니다. 어떤 블록이 어디에 맞는지 파악하는 안목 말이죠. 다만 요구되는 스킬셋은 코드 작성 자체에서 '보다 일반적인 비전 설정(general vision setting)' 방향으로 크게 이동할 것입니다.
🔄 파트 7: 지속적 학습(Continual Learning)에 대한 오해와 진실
진행자: 연구 커뮤니티 내부의 트렌드에 대해 묻겠습니다. 최근 들어 '지속적 학습(Continual Learning)'에 대한 열풍이 대단합니다. 이 주제를 파기 위해 신생 연구소들이 생기고, OpenAI에서 퇴사해 이 분야에 집중하는 사람들도 있습니다. 강화 학습(RL)만으로는 한계가 있고 비효율적이라는 믿음 때문인 것 같은데요. 이 움직임에 대해 어떻게 보시나요?야쿱: 솔직히 저는 그 움직임이 약간 혼란스럽습니다(a little bit confused). 왜냐하면 우리가 처음 크게 흥분했던 계기, 심지어 GPT-3 논문의 제목을 생각해 보세요. 그 핵심은 "이 모델들이 문맥 속에서 학습(learn in context)할 수 있고, 지속적 학습(continual learning)이 가능하다"는 것이었습니다.
이것이 바로 우리가 GPT 모델들을 더 확장하게 만든 원동력이었습니다. 우리가 모델에게 RL을 통해 가르치고자 하는 가장 큰 이유가 바로 "문맥 속에서 더 효율적으로 학습하는 방법"을 배우게 하려는 것입니다.
따라서 저는 지속적 학습이 중요하다는 데 전적으로 동의합니다. 지속적 학습은 우리가 현재 구축하고 있는 핵심 그 자체(really the thing that we're building)입니다. 이것이 우리가 현재 가고 있는 길에서 벗어난 변두리 문제라고 생각하지 않습니다. 우리가 향해 가고 있는 정확한 목표 지점입니다.
진행자: 그렇다면, 현재의 사전 훈련(Pre-training)과 강화 학습(RL)을 계속 확장(Scaling)하는 것이 지속적 학습에 도달하는 유일하고 가장 좋은 길이라는 말씀이시군요. 외부의 빌더들은 모델이 100단계가 넘는 장기 작업을 못 하는 걸 보며 "아직 갈 길이 멀었다"고 절망하는데, 내부에서 보시기엔 어떤가요? 이런 장기 작업이 가능해지려면 무엇이 필요한가요? 연구자들은 내년이면 다 풀릴 거라 믿는 눈치인데요.
야쿱: 연구자들의 예측은 대체로 역사적인 발전 곡선을 연장해서 보는 것에서 나옵니다. 하지만 점점 그 구체적인 형태를 파악할 수 있게 되었습니다.
장기 작업 해결의 핵심은 모델이 스스로 진행 상황을 만들고 있는지 인식할 만큼 충분히 똑똑해지는 것입니다. 또한 아주 실용적인 문제도 있습니다. 모델이 작업을 수행하는 데 필요한 모든 컨텍스트, 파일, 인프라에 제대로 연결(access)되어 있는가?
과거에 RL 로드맵을 논의할 때, 1단계는 모델이 자신의 토큰을 사용해 스스로 추론(reasoning)하게 가르치는 것이었습니다. 그 다음 단계는 도구(tool)와 환경을 사용하게 가르치는 것이죠. 그 후에는 모델에게 눈(see, 시각)을 주고, 궁극적으로는 물리적인 몸(physical body, 로봇)을 주는 단계로 갈 것입니다. 우리는 이미 모델이 환경과 상호작용하고 시각을 가져야 하는 단계에 깊이 진입해 있습니다. 머지않아 로봇에 대해서도 본격적으로 다루게 될 것입니다.
🧬 파트 8: AI for Science - 19세기식 브루트포스로 수학 난제를 뚫다
진행자: 과학을 위한 AI(AI for science)에 대해 이야기해 보겠습니다. 코딩은 체감이 쉽지만, 수학 돌파구는 사람들이 직관적으로 느끼기 어렵습니다. 특히 최근 공개되지 않았던 난제들을 푸는 'First Proof' 챌린지에서의 성과가 인상 깊었습니다. 이 성과의 의미를 설명해 주시겠어요?야쿱: First Proof 챌린지는 저명한 수학자들과 이론 컴퓨터 과학자들이 자신들의 평소 연구를 대표하지만 아직 세상에 발표하지 않은(unpublished) 문제들을 던져주고, AI 모델이 이를 풀 수 있는지 테스트한 벤치마크였습니다.
이 챌린지는 아무런 사전 경고 없이 1주일이라는 짧은 데드라인을 두고 깜짝 발표되었습니다. 당시 마침 내부적으로 훈련 중이던 아주 흥미로운 모델이 있었고, 담당자인 제임스 리(James Lee)가 수동으로 프롬프트를 입력하며 그 모델에게 문제를 풀게 했습니다. 그리고 모델이 실제로 그 난제들을 풀어내는 것을 지켜보는 것은 정말 경이로운(fascinating) 경험이었죠.
심지어 그 문제들 중 하나는 제가 박사 학위를 받은 도메인의 문제였습니다. 제가 만약 일주일이나 이 주일 고민해서 그 아이디어를 냈다면 스스로 매우 자랑스러워했을 만한 수준의 아이디어를, 모델이 단 1시간 만에 생각해 내는 것을 보는 것은 아주 기묘한 기분이었습니다. 과거에 우리 데이터 봇(Data bot)이 끝없이 새로운 전략을 짜내며 게임을 하던 것을 보았을 때의 '마법 같은 기분'이 되살아났습니다. 제가 세상에서 가장 중요하다고 생각하는 핵심 연구 분야에서 이런 일이 벌어지는 것을 보며, 엄청난 긴박감(urgency)을 느꼈습니다.
진행자: 일각에서는 AI가 결국 '패턴 매칭(Pattern Matching)' 기계에 불과하며 완전히 새롭고 혁신적인 아이디어를 낼 수는 없다고 비판합니다. 이런 성과들이 그 내러티브를 근본적으로 부수고 있다고 보시나요?
야쿱: 네, 그렇다고 믿습니다. 우리는 예상된 일정대로 작지만 새로운 발견들(minor advancements)을 목격하기 시작했습니다. 생각해 보세요. AlphaZero나 AlphaGo가 패턴 매칭 기계였나요? 그들은 주어진 게임 환경 내에서 이전에 인간이 생각지 못한 완전히 새로운 전략을 발명해냈습니다.
지금의 모델들이 언어를 다루고 인간 지식을 섭렵하는 과정이 더 길고 복잡해 보일 뿐, 근본적인 원리는 완전히 동일합니다. 모델은 방대한 역량을 결합하여 새로운 지식을 발견할 수 있습니다.
진행자: First Proof 결과를 본 대회 주최자(수학자)들이, AI의 풀이 방식이 현대의 우아한(elegant) 방식이라기보다는 연산력을 무식하게 쏟아부은 '19세기식 브루트포스(brute force)' 방식 같았다고 평했습니다. 이런 방식이 AI의 한계일까요, 아니면 강점일까요?
야쿱: 전혀 우려하지 않습니다. 애초에 기대했던 바입니다. (웃음) 제가 확인한 문제 중 하나에서는 오히려 우리 모델이 인간의 의도된 풀이보다 훨씬 짧고 우아한 증명을 내놓기도 했습니다. 전반적으로 이 모델들은 인간이 할 수 있는 것보다 훨씬 짧은 시간 안에 수백 배 많은 '사고(thoughts)'와 '토큰(tokens)'을 생성하며 추론할 수 있습니다. 무식한 계산력에 의존하는 것처럼 보이는 현상은 장기적인 특징으로 남지는 않을 것입니다. 진화하는 과정일 뿐입니다.
🔬 파트 9: 전문 AI 모델 vs. 범용 LLM 아키텍처
진행자: 최근 생물학(Isomorphic), 신소재(Periodic), 로봇 공학(Physical Intelligence) 등 특정 과학 분야에 특화된 AI 스타트업들이 많이 등장했습니다. 향후 과학 분야 혁신이 물리적 환경과 연결된 단일 대형 언어 모델(LLM)에서 나올까요, 아니면 이런 분야별로 완전히 독립적인 아키텍처(예: AlphaFold)를 가진 특화 모델들이 주도할까요?야쿱: 앞서 코딩 UI(하네스)에 대해 대답했던 것과 비슷한 맥락입니다. 저는 기술의 '한계'가 아니라 '역량'을 중심으로 미래를 봅니다.
갑자기 수많은 생물학적, 화학적 실험을 놀라운 퀄리티로 '설계(design)'해 내는 능력이 생겼다고 상상해 보세요. 그렇다면 그 설계를 실행할 연구소를 짓는 것이 이치에 맞을 것입니다.
우리는 완전히 자동화된 AI 연구소를 짓는 세상과, 인간 연구원들이 AI 도구를 활용해 협업하는 세상을 이분법적으로 볼 필요가 없습니다. 미래에는 AI 과학자가 문제에 깊이 관여하며 전체 연구의 디자인과 아이데이션 프로세스를 적극적으로 주도(drive)하고, 인간은 그와 협력하는 세상이 될 것입니다.
아키텍처에 대해 말하자면, 자연어 추론 능력을 극대화하는 범용 LLM은 엄청난 '일반성(generality)'을 줍니다. 전체 연구의 방향을 잡는 두뇌 역할이죠. 하지만 특정 태스크, 예를 들어 단백질 구조를 접거나(protein folding) 화학 구조를 계산할 때는 대형 언어 모델이 가장 효율적인 아키텍처가 아닐 수 있습니다. 따라서 핵심적이고 강력한 범용 언어 모델 연구원(LLM Researcher)이 이런 특화된 전문 모델들을 도구로서 활용하며 연구를 이끌어가는 형태가 될 것입니다.
🛡️ 파트 10: AI 안전성(Safety)과 '사고의 사슬(Chain of Thought)' 모니터링
진행자: 안전성(Safety) 문제로 넘어가 보겠습니다. 야쿱은 이 분야에서 개척자적인 연구를 해오셨고, 특히 여러 연구소(Anthropic, DeepMind 등) 간의 협업으로 '사고의 사슬(Chain of Thought) 모니터링' 연구를 주도하셨습니다. 청취자들을 위해 이 연구가 무엇인지, 어떤 발견을 하셨는지 설명해 주시겠어요?야쿱: 이 연구는 우리가 현재 세대의 '추론(Reasoning) 모델'을 처음 테스트했을 때 시작되었습니다. 이 모델들의 작동 방식을 보고 "아, 앞으로 1년, 2년, 혹은 3년 안에 세상이 진짜 근본적으로 바뀌겠구나"라는 것을 깨달았고, 이것이 AI 안전성에 어떤 의미를 가질지 심각하게 고민했습니다.
핵심은 우리가 모델을 학습시키는 방식에 있습니다. 기존 ChatGPT 모델은 항상 예의 바르고, 착하게 대답하며, 제 아이디어가 훌륭하다고 아부하도록(sycophantic) 훈련(supervised) 받습니다. 하지만 모델이 극도로 똑똑해졌을 때, 만약 내부적으로는 인간에게 해로운 동기를 가졌는데 겉으로만 착한 척을 한다면(scheming) 어떻게 될까요?
여기서 '사고의 사슬(Chain of Thought)' 모델의 강점이 발휘됩니다. 추론 모델이 정답을 내기 전 내부적으로 생각하는 과정(사고의 사슬)은 우리가 예의 바르게 행동하라고 직접적으로 훈련(supervise)시키지 않은 날것의 영역입니다. 이 공간은 오직 '고품질의 정답'을 도출하기 위해서만 간접적으로 최적화되어 있죠.
즉, 모델이 숨겨진 동기를 가지고 있는지, 실제로 어떻게 문제를 해결하고 있는지를 감시할 수 있는 '강력하고 투명한 모니터링 창구'가 생긴 것입니다. 기계적 해석가능성(Mechanistic interpretability) 연구와 비슷하지만, 복잡한 활성화 수치(activations)를 보는 대신 모델의 생각을 우리가 읽을 수 있는 명확한 '영어(English)'로 직접 볼 수 있다는 것이 엄청난 장점입니다.
진행자: 아! 그렇다면 OpenAI가 최근 o1 모델(Preview)을 출시할 때, 모델의 내부 사고 과정을 사용자에게 숨긴(hide) 결정적인 이유가 바로 이것인가요? "사고 과정을 훈련시키면 안 되기 때문"이라는 원칙을 지키기 위해서요?
야쿱: 정확합니다. 내부적으로 약간의 논쟁이 있었지만, 제가 강력하게 사고 과정을 숨겨야 한다고 주장했던 가장 주요한 동기가 바로 그것이었습니다.
만약 모델의 투명한 사고 과정을 제품에 노출하게 되면, 사용자들이 불쾌해하거나 위험한 내용이 나올까 봐 결국 그 사고 과정마저 검열하고 학습(train)시켜야 하는 상황이 옵니다. 그렇게 되면 모델은 사용자 눈치를 보느라 안전을 위한 내부의 솔직한 생각마저 숨기게 되고, 결과적으로 우리의 모니터링 도구를 잃게 됩니다.
모델을 장기적으로 이해하고 안전하게 통제하기 위해서는 모델에게 '훈련 신호가 개입하지 않는 사적인 공간(private space)'을 남겨두어야 합니다.
진행자: 듣고 보니 완벽히 이해가 됩니다. 그렇다면 지난 6개월간 모델이 엄청나게 발전했는데, AI가 인류에게 미칠 위험(Alignment 문제)에 대한 우려는 더 커지셨나요, 아니면 해소되셨나요?
야쿱: 두 가지 감정이 공존합니다.
과거에는 정렬(Alignment) 문제가 너무 모호해서 어디서부터 손대야 할지 막막했습니다. 하지만 이제는 명확한 기술적 해결책과 아이디어를 통해 "우리가 이 문제를 통제하고 안전하고 행복한 세상으로 이끌 수 있다"는 낙관론과 자신감이 크게 증가했습니다.
하지만 동시에, 세상을 변혁할 초지능 모델이 등장할 '타임라인'은 매우 짧아졌습니다. 우리는 생각보다 목표 지점에 가까이 와 있습니다. 그렇기 때문에 저는 낙관적임에도 불구하고, 업계 전체가 필요하다면 개발 속도를 늦추고 심각한 트레이드오프를 감수할 준비(prepared)가 되어 있어야 한다고 믿습니다.
👥 파트 11: 퀵파이어 질문 - 변화하는 세상, 그리고 미래 세대
진행자: 마지막으로 여러 주제를 넘나드는 단답형(Quickfire) 질문들을 드리겠습니다. 지난 1년간 AI 세상에서 일어난 일 중, 가장 크게 생각을 바꾼 부분은 무엇인가요?야쿱: AI가 세상에 미치는 영향에 대한 '추상적인 생각'에서 '실제적인 체감'으로 넘어온 것입니다. 예전에는 연구실 안에서 알고리즘을 높이는 이론적 게임 같았다면, 지난 1년간 코딩 에이전트 등을 통해 AI가 실제 현실 세계에 배치(deployed)되고 사람들의 삶의 중요한 일부로 스며드는 것을 목격했습니다. 이젠 모델이 단순한 도구를 넘어 신뢰할 수 있는 비서이자 동반자(companion)의 위치로 가고 있다고 믿게 되었습니다.
진행자: 로봇 공학(Robotics) 분야에도 챗GPT 모멘트가 올까요? 타임라인을 어떻게 보시나요?
야쿱: 알고리즘적 아이디어들이 로봇 공학에서도 먹혀들 것이라 매우 낙관하고 있습니다. 다만 물리적 세계의 제약 때문에, 순수 가상 소프트웨어 AI의 발전 속도보다는 타임라인이 확실히 더 길 것(longer)이라고 생각합니다.
진행자: 모델의 발전 속도가 무섭습니다. 사회 전체의 관점에서 우리가 현재 가장 '간과(underthinking)'하고 있는 문제는 무엇일까요?
야쿱: 너무나 많은 종류의 '지적 노동(Intellectual work)'이 자동화되는 지점에 다다르고 있다는 사실입니다. 이는 필연적으로 일자리 문제와 부의 극단적인 집중(concentration of wealth)을 야기합니다. 명확한 해법이 없으며, 정책 입안자(policy maker)들의 강력한 개입이 필요한 시점입니다.
또 다른 충격적인 문제는 '조직의 거버넌스'입니다. 미래에는 단 몇 명의 사람만으로 이루어진 조직이 완전히 자동화된 AI 연구소와 AI 기업들을 거느리며 과거 수만 명의 대기업이 하던 엄청난 일을 해낼 수 있습니다. 이토록 극소수가 지배하는 거대한 권력을 사회가 어떻게 통제하고 관리할 것인가? 이것은 인류가 한 번도 마주해보지 못한 완전히 새로운 차원의 질문입니다.
진행자: 아주 현실적인 질문 하나 드리겠습니다. 저도 최근 아이를 낳았는데, 이 AI 혁명을 이끌고 계신 입장에서 10년 뒤 아이들이 살아갈 세상을 위해 다음 세대(아이들)를 어떻게 교육해야 한다고 생각하시나요?
야쿱: 우리에게 남겨진 가장 중요한 과제는, 아무리 AI가 발전하더라도 인간이 '주도권(agency)'과 '방향성(direction)'을 설정하는 세상을 만드는 것입니다.
과거에 우리가 매우 중요하게 여겼던 기술적 실행과 문제 해결의 상당 부분은 그저 심심풀이 취미(past time)로 전락할지도 모릅니다. 미래 세대에게 남겨진 진정한 도전이자 능력은 "무엇이 정말 중요한가?", "우리는 무엇을 향해 나아가야 하는가?"를 끊임없이 고민하고 결정하는 능력입니다. 따라서 지식 암기보다 이런 철학적이고 가치 판단적인 문제에 대해 사고할 수 있는 능력을 길러주는 방식의 교육이 여전히, 아니 그 어느 때보다 중요할 것입니다.
진행자: 오늘 몇 시간이고 더 이야기하고 싶지만, 이 세상을 바꿀 모델을 계속 발전시키셔야 하니(웃음) 이만 놓아드리겠습니다. 오늘 정말 수많은 통찰을 나눠주셔서 진심으로 감사합니다.
야쿱: 저도 즐거웠습니다. 우리 사회가 이런 문제들에 대해 더 깊이 있는 담론을 나누게 되길 바랍니다. 감사합니다.
전체 0