인터뷰/예측
샘 알트만 "불과 3개월이나 6개월 전만 해도 지금처럼 차세대 모델과 그 모델이 구동할 에이전트를 통해 또 한 번 크고 중요한 일이 일어날 거라고는 예상하지 못해"
작성자
하이룽룽
작성일
2026-04-03 08:26
조회
3
샘 알트만 인터뷰 Q&A 정리
Q: 지금 당신이 앉아 있는 자리는 커리어 중 가장 중요한 자리라고 봐도 되나요?
A:“분명 그렇습니다.”
Q: 지금은 AI가 우리 모두에게 놀라운 혁신이 될지, 아니면 일부에게만 좋은 일이 될지 갈림길에 있는 순간처럼 보입니다. 그런 무게감을 느끼나요?
A:“네. 우리는 분명 AI가 미래 사회가 어떻게 형성될지를 결정하는 가장 중요한 요소들 중 하나가 되는 단계로 들어가고 있습니다. 사람들은 그에 대한 기대감, 두려움, 불안, 희망, 긴장감을 한꺼번에 느끼고 있다고 생각합니다.”
Q: 2010년 무렵, 우리가 처음 만났을 때를 돌아보면 어땠나요?
A:“세상은 정말 많이 바뀌고 있었습니다. 모바일 앱을 만들 수 있게 되었고, 완전히 새로운 종류의 스타트업 가능성이 열렸죠. 그 시기는 약간 펑크 록 같았다고 할 수 있는데, 사실 좀 더 정확히 말하면 혼란스럽고, 정리되어 있지 않았고, 프로답지 않았습니다. 우리 대부분은 정말로 뭘 하고 있는지 잘 몰랐어요.
지금은 훨씬 더 체계화됐고, 스타트업은 아주 다르게 느껴집니다. 처음부터 엄청난 돈을 조달하고, 아주 빨리 성장하고, 일종의 플레이북도 생겼죠. 그런데 그때는 패러다임이 정립되기 전 단계 같았습니다. 뭘 하는지는 잘 몰랐지만, 분명 뭔가가 작동하고 있다는 느낌이 있었고, 정말 재미있었습니다. 저는 그 시절을 아주 기분 좋은 향수와 함께 돌아봅니다.
그리고 그때는 걸린 판이 너무 작았어요. 그것도 좋았습니다.”
Q: 2020년에 당신은 “인류가 만든 어떤 기술보다 더 변혁적인 기술을 만들게 될 것이고, 지금은 거의 아무도 주목하지 않는다”고 말했어요. 지금 돌아보면 맞았다고 생각하나요?
A:“네, 꽤 정확했습니다.”
Q: 지금 OpenAI는 엄청난 가치의 회사가 되었고, 당신은 세계에서 가장 강력한 기술 중 하나를 만들고 있습니다. 당신은 ‘현재 추세대로라면 2년 안에 데이터센터 안의 인지 능력이 바깥의 인지 능력보다 많아질 수도 있다’고 말했는데, 그게 무슨 뜻인가요?
A:“그렇게 말하는 이유는 단순히 ‘곧 AGI가 온다’고 하면 사람들이 그게 뭘 뜻하는지, 어떻게 생각해야 하는지 잘 감을 못 잡기 때문입니다. 하지만 ‘세상 전체의 사고 활동 중 AI가 인간보다 더 많은 부분을 담당하게 될 것’이라고 말하면, 이 변화의 규모가 훨씬 더 직접적으로 와닿습니다. 적어도 저에게는 그렇습니다.
저는 장기적으로 일자리 종말론자는 아닙니다. 우리는 늘 그랬듯 새로운 일을 찾아낼 거라고 생각합니다. 하지만 단기적으로는, 정말 다양한 방식으로 전개될 수 있겠지만, 세상의 지적 마력이 GPU 쪽으로 넘어간다면 현재의 많은 일자리에 상당히 큰 혼란이 올 가능성이 높고, 아마 실제로 그럴 것입니다.
그래서 지금 우리는 ‘그런 세상이 오면 모두에게 작동하는 경제를 어떻게 설계할 것인가’에 대한 원칙을 이야기하기 시작해야 한다고 생각합니다.
물론 엄청난 상승 여력도 있습니다. 그런 세계에서는 질병을 매우 빠르게 치료할 수도 있습니다. 지난주에 한 가장 인상적인 미팅은, 어떤 사람이 전문가도 아니었는데 ChatGPT를 이용해서 자기 강아지 암을 위한 맞춤형 mRNA 백신을 만든 사례였습니다.”
Q: 그 이야기는 놀랍지만, 동시에 누군가는 병원체를 만들 수도 있지 않나요?
A:“맞습니다. 저희의 안전에 대한 생각도 생태계가 발전함에 따라 꽤 많이 진화했습니다. 예전부터 중요하다고 생각했던 것들은 여전히 중요합니다. 모델을 원하는 방식으로 행동하도록 정렬해야 하고, 여러 층위의 안전 방어선을 구축해야 하죠.
하지만 이제는 새로운 요소가 생겼습니다. 세상은 다양한 사람들에 의해 만들어진 수많은 AI에 대해 회복력을 가져야 하고, 그 모든 AI가 같은 안전 제한을 갖고 있지는 않을 것입니다. 누군가 정말 나쁜 병원체를 만든다면, 우리는 그걸 막기 위해 할 수 있는 건 다 해야 합니다. 하지만 동시에 그에 방어할 능력도 갖춰야 하고, 빠른 치료제와 백신 대응 능력도 있어야 하며, 팬데믹을 더 빨리 감지할 수 있어야 합니다.
이건 제가 정말 신경 쓰는 영역입니다. 그리고 제가 ‘AI 회복력’이라는 개념을 말하기 시작한 것도 이 팬데믹 가능성 때문입니다.”
Q: 여기서 말하는 ‘회복력’이란 실제로 무엇인가요?
A:“사회가 새로운 위협에 대해 빠르게 방어할 수 있는 능력입니다.”
Q: 그걸 어떻게 만들 수 있나요?
A:“위협의 종류에 따라 다르죠. 예를 들어 병원체 문제에서는, ‘세계의 세 개 프런티어 랩만 자기 모델이 병원체 개발에 쓰이지 않게 하자’고 말하는 것으로는 충분하지 않습니다. 몇 년 뒤 어떤 오픈소스 모델이 그런 능력을 갖게 되고, 테러 조직이나 다른 누군가가 그것을 이용할 수 있기 때문입니다. 그렇다면 지금 프런티어 랩들이 가진 우위를 활용해, 그 순간에 대비할 수 있도록 무엇을 하고 있느냐가 중요합니다.”
Q: Codex는 당신에게 어떤 의미였나요?
A:“ChatGPT 출시 이후 처음으로 ‘미래를 직접 써본다’는 느낌을 줬습니다.
좋은 의미에서는, 제가 떠올리는 어떤 아이디어든, 어떤 소프트웨어든, 아침에 일어날 때쯤이면 만들어져 있게 할 수 있습니다. 재미있는 일에도, 진지한 일에도 쓰고 있고, 제 일을 대체하거나 강하게 증강하는 것이 무슨 뜻인지 정말 관심 있게 보고 있습니다. 다른 사람에게 뭔가를 만들어달라고 부탁하는 대신, 제가 직접 이런 도구를 만들 수 있다는 건 정말 놀랍습니다. ‘이게 바로 사람들이 엄청난 컴퓨트를 쓸 수 있게 되었을 때의 모습이구나. 이게 SF 같은 미래구나’ 하는 느낌이죠.
반면 이상한 경험도 있었습니다. 제가 만들고 싶었던 사이드 프로젝트 목록이 있었는데, 지난 몇 년 동안 OpenAI가 너무 바빠서 거기에 계속 아이디어만 추가되고 실제로는 하나도 못 만들고 있었거든요. 그런데 Codex로 그 목록을 다 끝내버렸습니다. 사이드 프로젝트 아이디어가 바닥난 거예요. 어느 금요일 밤엔 ‘오늘은 잘 때 Codex를 돌리지 않겠네. 더 이상 만들 게 생각이 안 나니까’라고 느꼈는데, 그게 참 이상한 기분이었습니다.”
Q: 앞으로 OpenAI가 집중하는 큰 축은 뭔가요?
A:“예전부터 두 가지 큰 우선순위를 이야기해 왔습니다. 하나는 자동화된 연구자입니다. 과학 연구, 그리고 AI 연구까지도 스스로 수행할 수 있는 시스템이죠. 다른 하나는 자동화된 회사입니다. 말 그대로 완전 자동화된 회사라는 뜻은 아니지만, AI가 코딩뿐 아니라 회사를 운영하는 데 필요한 막대한 일을 수행하면서 회사를 엄청나게 가속시키는 형태를 말합니다.
그런데 우리가 예전엔 많이 이야기하지 않았던 또 다른 축이 있습니다. 이 수준의 능력을 개인에게 줘서 ‘내 삶을 더 좋게 만들어줘’라고 하는 방향이죠. 저는 ‘슈퍼 앱’이라는 표현은 별로 좋아하지 않지만, 우리가 만들고 있는 통합형 개인 에이전트가 그 방향입니다.
제가 꿈꾸는 모습은, 시스템에 대한 신뢰와 견고함이 충분히 생겨서 그냥 이렇게 말하는 겁니다. ‘내 컴퓨터 좀 살펴봐. 웹도 대신 써줘. 내 메시지도 읽고, 회의도 듣고, 내 상호작용들을 중개해줘. 그냥 유용한 일을 알아서 해줘.’ 제가 매번 질문하지 않아도 되고, 제 삶의 맥락을 충분히 이해해서 새로운 아이디어도 제안해주고, 그걸 같이 실행해주는 그런 형태입니다.”
Q: 혼자서 10억 달러짜리 회사를 만든 사람이 이미 있다고 믿나요?
A:“저는 이미 그런 일이 일어났다고 믿습니다. 아직 본인이 공개할 준비가 안 됐기 때문에 자세한 내용은 말하지 않기로 약속했지만, 제 생각엔 그 일이 실제로 벌어졌습니다.
제가 재무제표를 직접 검토한 건 아니지만, 보기에 정말로 한 사람이 만든 10억 달러짜리 회사인 것 같습니다.”
Q: 그런 일이 놀랍지 않나요?
A:“아니요. 그리고 정말 멋진 일이라고 생각합니다. 실리콘밸리 네트워크에 속하지 않아도 되고, 사람을 채용하는 법이나 VC 설득하는 법을 몰라도 되고, 그냥 AI가 그걸 만들어주게 할 수 있다는 점에서 개인의 역량이 엄청나게 강화됩니다. 그건 정말 대단한 일입니다. 그리고 지금 그 현상은 스타트업만이 아니라 과학이나 다른 많은 분야에서도 나타나고 있습니다.”
소라(Sora) 관련
Q: 소라를 중단한 이유가 뭔가요?
A:“저희는 역사상 정말 중요한 일이 진행되고 있거나, 곧 매우 잘 진행될 것 같아서 다른 여러 프로젝트를 중단해야 했던 적이 몇 번 있었습니다. 사실 GPT3 프로젝트가 바로 그런 경우였습니다. 당시 저희는 다양한 프로젝트에 투자하고 있었고, 그중 상당수는 잘 진행되고 있었습니다. 하지만 저희는 앞서 언급한 로봇 공학 프로젝트처럼 잘 진행되던 여러 프로젝트를 중단하고, 컴퓨팅 자원과 연구진, 그리고 모든 노력을 ‘정말 중요한 일이 일어나고 있다’고 판단한 이 프로젝트에 집중했습니다.
불과 3개월이나 6개월 전만 해도 지금처럼 차세대 모델과 그 모델이 구동할 에이전트를 통해 또 한 번 크고 중요한 일이 일어날 거라고는 예상하지 못했습니다.
저는 소라를 사랑합니다. 생성형 비디오도 좋아하고, 디즈니와의 파트너십도 정말 좋아합니다. 그리고 그들과 함께 여전히 뭔가 놀라운 일을 할 수 있는 방법을 찾기 위해 열심히 노력하고 있습니다. 하지만 우리는 컴퓨트와 제품 역량을 차세대 자동화 연구자와 자동화 회사에 집중해야 합니다.”
Q: 결국 숨은 핵심은 컴퓨트 문제라는 뜻인가요?
A:“항상 컴퓨트 문제입니다.”
Q: 디즈니와의 큰 계약이 있었는데, 직접 Bob Iger에게도 말했나요?
A:“물론이죠.”
Q: 그 대화는 어땠나요?
A:“디즈니는 모든 면에서 훌륭한 회사입니다. 새 디즈니 CEO인 조시가 제게 처음 한 말이 ‘이해한다’는 것이었어요. 하지만 훌륭한 파트너, 사용자, 그리고 대단한 일을 하고 있는 팀을 실망시키는 건 언제나 정말 슬픈 일입니다.
CEO가 되면 사람들이 잘 동정해주지 않는 여러 어려운 부분이 있는데, 그중 하나는 정말 힘든 자원 배분 결정을 자주 내려야 한다는 점입니다. 그리고 그 과정에서 ‘좋은 것들’도 많이 잘려나갑니다. 그것들이 중요하지 않아서가 아니라, 가장 중요한 것이 아니기 때문입니다.”
정부·국가안보 관련
Q: Anthropic과 미 정부 사이 갈등 직후 OpenAI가 국방부와 계약을 발표한 건 실수였나요?
A:“우리가 한 일과 그 이유, 그리고 그걸 어떻게 발표했는지는 구분해서 봐야 합니다.
우리는 원래 정부의 기밀 네트워크에서 일하지 않기로 했습니다. 중요하지 않아서가 아니라 Anthropic이 그 방향으로 강하게 들어가 있었고, 그들이 꽤 안전 지향적으로 좋은 일을 하고 있다고 생각했기 때문입니다. 우리는 다른 일들로 바빴고요.
하지만 저는 우리 정부, 특히 군이 첨단 AI 모델에 접근할 수 있어야 한다고 생각합니다. 그렇지 않으면 국가안보 임무를 수행할 수 없다고 봅니다. 또 앞으로 1년 안에 세상이 답해야 할 가장 중요한 질문 중 하나는 ‘AI 기업이 더 강력한가, 정부가 더 강력한가’라고 생각합니다. 저는 정부가 더 강력해야 한다고 믿습니다. 세계의 미래와 국가안보의 가장 중요한 의사결정은 민주적으로 선출된 절차를 통해 이루어져야지, 저나 다른 랩의 CEO가 결정해서는 안 됩니다.
다만 법이 아직 따라오지 못한 영역들이 있습니다. 이 기술은 새롭고, 입법에는 시간이 걸릴 겁니다. 그 사이에는 기업들이 ‘이 기술은 아직 자율무기에 쓰기엔 준비되지 않았다’, ‘국내 감시에 대한 보호 규칙은 초강력 AI가 없는 세계를 기준으로 만들어졌기 때문에 아직 충분히 적응되지 않았다’고 말하는 것이 합리적이라고 봅니다. 우리도 실제로 그렇게 했고, 그게 계약에도 반영돼 있습니다. 그건 우리 안전 스택의 일부입니다.”
Q: 당신의 ‘레드라인’은 무엇인가요? 그리고 실제로 지킬 수 있나요?
A:“사람들이 자주 묻는 질문이 하나 있습니다. 정부가 AI 회사를 국유화하면 레드라인을 지킬 수 있느냐는 거죠. 솔직히 말하면, 그런 상황이 오면 아마 더 이상 못 지킬 수도 있습니다.
하지만 독립 회사로서, 그리고 지금까지의 정부와의 상호작용에서는 정부가 굉장히 잘해줬습니다. ‘우리는 이런 문제를 이해한다. 계약적으로 하자. 당신들이 시스템을 구축할 수 있다’는 태도였죠.
물론 앞으로 몇 년이 얼마나 이상하게 전개될지는 저도, 누구도 모릅니다. 저는 정부가 AI 랩을 국유화하지 않기를 바랍니다.”
Q: 정부가 AI 회사를 국유화할 가능성도 있다고 보나요?
A:“절대 가능성이 없다고는 말하지 않겠습니다. 가능성이 높다고 생각하진 않지만요.
그리고 만약 우리가 그런 일이 일어나지 않길 원한다면, 정부와 협력할 방법을 찾아야 한다고 생각합니다. 우리가 협력하지 않는다면 오히려 그 가능성은 더 커질 수 있습니다.
저는 예전에도 말했고 지금도 정말 그렇게 믿는데, 잘 운영되는 사회였다면 AI 개발은 정부 프로젝트였을 겁니다. 맨해튼 프로젝트가 그랬고, 아폴로 프로그램이 그랬고, 심지어 아이젠하워 고속도로 시스템도 정부 프로젝트였습니다. 다만 지금은 정부가 이걸 효과적으로 해낼 수 있는 시대처럼 느껴지지 않고, 저는 이 일이 어쨌든 일어나야 한다고 생각합니다.”
Q: 정부를 믿지 않는 사람들도 많습니다. 그 점은 어떻게 보나요?
A:“그게 제게도 큰 배움이었습니다. 온라인에서 시끄러운 일부 집단인지, 실제로 대표성 있는 집단인지는 모르겠지만, 적어도 적지 않은 사람들이 정부가 법을 지킬 거라고 믿지 않는다는 점이 분명히 보였습니다. 그건 민주주의에 매우 좋지 않은 신호처럼 느껴집니다.
저는 대체로 정부를 믿습니다. 완벽하지 않고, 분명 몇몇 일은 잘못될 수 있겠죠. 그래도 견제와 균형의 시스템이 있다고 봅니다. 물론 지금은 사람들이 현실을 보며 불안해하는 시기이기도 합니다. 하지만 그렇다 해도, 우리가 정부와 함께 국가안보 문제를 해결하지 않으면 정말 안 좋다고 생각합니다. 전통적인 전쟁만이 아니라, 사이버 인프라 방어, 바이오 방어 같은 문제까지 포함해서요.
다만 지금의 불신 분위기가 얼마나 강한지에 대해서는 제가 잘못 판단하고 있었고, 이번에 그걸 분명히 배웠습니다.”
자신이 믿는 가치들
Q: 지금 이 순간, 당신은 무엇을 위해 서 있나요?
A:“저는 이 기술이 민주화되어야 한다고 생각합니다. 부와 미래에 대한 권력이 소수 기업의 손에 집중되는 세계를 상상할 수 있습니다. 그 기업들이 아무리 모두를 위한다고 해도, 우리가 미래에 대한 집단적 의지와 주체성을 소수 기업에게 넘겨버리는 건 옳지 않다고 생각합니다.
기술은 사람들에게 힘을 줘야 하고, 사회가 어떻게 진화할지, 경제 시스템이 어떤 모습일지는 정부가 결정해야 합니다. 그리고 사람들은 이 기술을 직접 가져야 합니다.
우리가 했던 가장 중요한 발상 중 하나는 반복적 배치(iterative deployment) 였다고 생각합니다. 기술을 일찍, 자주 세상에 내놓고, 사람들이 무엇이 자신에게 맞는지 아닌지 직접 경험해보게 하고, 사회가 어떤 일이 일어나야 하는지 감각을 갖도록 하는 것이죠.
물론 아쉬움도 있습니다. 3년 넘게 그렇게 해왔지만, 사회가 제가 기대했던 만큼 많은 결정을 내리지는 않았습니다. 그래도 사람들은 적어도 무엇이 오고 있는지에 대한 감각은 갖게 됐습니다.
또 하나는 역량 강화(empowerment) 입니다. 우리는 앞에서 많은 사례를 이야기했죠. 사람들이 이 기술로 정말 강력해질 수 있습니다. 물론 사회 전체가 가드레일을 정해야 하고, 민주주의 정부는 계속 큰 힘을 가져야 하며, 가능하다면 민주주의는 더 강화돼야 합니다. 동시에 저는 이것도 매우 미국적인 가치라고 생각하는데, 개인에게 정말 많은 힘을 줘야 한다고 믿습니다. 넓은 규칙을 정한 뒤에는 사람들이 자기 방식으로 강아지 암을 고치거나, 1인 스타트업을 만들거나, 자기 삶을 자동화하는 놀라운 일을 해볼 수 있어야 합니다.
제가 커리어 전체를 돌아봤을 때 하나의 단어만 고르라면 저는 풍요(abundance) 를 고를 겁니다. 엄청난 자원, 기회, 사람들이 놀라운 삶을 살 수 있는 능력을 만들어내는 것. 그게 AI이고, 에너지이고, 미래에는 로봇일 것이며, 이 모든 것을 가능하게 하는 충분한 컴퓨트를 구축하는 일입니다.
그리고 물론 안전(safety) 도 중요합니다. 이렇게 개인이 엄청난 힘을 갖게 되면, 한 사람이 아주 큰 해를 끼칠 수도 있습니다. 그래서 그걸 막는 가드레일을 세상에 세우는 일은 필수적입니다.”
Q: 안전과 개인의 자유 사이의 균형은 바뀔 수도 있다고 보나요?
A:“그렇습니다. 어떤 가치들은 거의 바뀌지 않을 겁니다. 예를 들어 이 기술의 이익과 발언권, 주체성을 공정하게 나누는 일은 제 생각을 바꾸기 매우 어려운 원칙입니다.
하지만 안전과 주체성 사이의 균형 같은 건, 기술이 예상과 다르게 전개되면 한동안 다르게 접근해야 할 수도 있습니다. 우리는 사람들에게 힘을 주는 것을 좋아하지만, 세상을 AI로 파괴할 위험까지 감수할 수는 없으니까요. 그래서 원칙은 계속 씨름하게 될 것이고, 기술이 발전함에 따라 분명 어떤 것들은 바뀔 겁니다.”
창업자, 정치, 권력
Q: 요즘 창업자는 예전과 다르게 마치 정치인처럼 행동해야 하는 것 아닐까요?
A:“대부분의 창업자에게는 그렇지 않다고 생각합니다. 오히려 AI를 활용해 작은 팀이나 혼자 회사를 만드는 창업자들에게는, 우리가 말했던 2010년의 감각이 그 어느 때보다 다시 가까워진 것 같습니다.
다만 제 개인적인 경험은 불행하게도 좀 더 정치인에 가깝습니다.”
Q: 어떤 의미에서요?
A:“저는 실제로 그런 일들을 해야 합니다. 정부와 협상을 하고, 여기저기 날아다니고, 전쟁 지도자들과 이야기하고, 데이터센터 확장을 위한 토지와 전력 계약 같은, 원래는 정부가 하던 종류의 거래를 해야 합니다. 그건 제게 자연스러운 환경이 아닙니다.
제 인생은 늘 차고에서 시작하는 창업자의 세계에 가까웠습니다. 그런데 지난 몇 년간, 그전 평생 입었던 것보다 더 많은 수트를 입고 있습니다.”
Q: 그런 세계에 적응하는 게 쉬웠나요?
A:“아니요. 전혀요. 정말 전혀 아닙니다.
너무 당연한 말 같지만, 평균적인 정치인과 평균적인 창업자의 기술, 기질, 세계관 차이는 제가 상상했던 것보다 훨씬 더 큽니다. 그리고 제가 인생에서 더 높은 수준의 권력이나 지위에 다가갈수록 반복해서 배우는 교훈 하나가 있습니다. 누구나 ‘어딘가에는 다 알고 있는 어른이 있겠지’라고 생각한다는 겁니다. 마지막 보스가 있을 거라고, 완벽한 계획을 가진 누군가가 있을 거라고 생각하죠. 그런데 세계의 지도자들도 사실은 불확실하고, 불안하고, 최선을 다하고 있을 뿐이며, 정답을 갖고 있지는 않습니다. 그냥 피곤한 상태에서 이쪽이든 저쪽이든 결정을 내려야 하는 존재들입니다.”
아이, 교육, AI
Q: 부모가 된 입장에서, AI 시대에 아이를 키운다는 건 어떤 의미인가요?
A:“사람들이 늘 묻습니다. ‘이제 아이도 있고 더 생길 수도 있는데, AI가 세상을 파괴하지 않도록 해야겠다는 책임감이 더 커졌느냐’고요. 그런데 아니요. 제 가장 높은 우선순위는 원래부터 AI로 세상을 파괴하지 않는 것이었습니다. 그 외 모든 것이 아무리 좋아도, 우리가 세상을 파괴해버리면 아무 의미가 없기 때문입니다.
저는 원래도 아이를 가질 거라고 생각했고, 제 미래의 아이들이 어떤 세상에서 자라게 될지에 대해 늘 많이 생각했습니다.”
Q: 아이에게 매일 편지를 썼다고 했죠?
A:“네. 저는 예전엔 매일 밤 아이에게 편지를 썼습니다. 나중에는 변호사들이 그만 쓰라고 설득했지만요. 그래도 좋은 일이었습니다. 밤늦게 집에 돌아와서 아이를 재우기 전에 안고 있으면, 아이에게 뭔가 말해주고 싶잖아요. 그래서 제 하루를 이야기했습니다. 무슨 일이 있었는지, 어떤 고민이 있었는지. 물론 4~5개월 된 아기가 그걸 이해하진 못하겠죠. 그래서 ‘좋아, 이걸 써두자. 나중에 주자’고 생각했습니다.
그런데 그 편지를 쓰다 보면 아무것도 숨길 수가 없습니다. 아이가 15년, 20년 뒤 읽게 될 글을 쓴다고 생각하면, 가장 솔직한 버전의 자신이 됩니다. 그래서 정말 좋았습니다. 일요일 밤마다 ‘이번 주 힘들었던 일은 이거였고, 나는 이런 결정을 이런 이유로 내렸고, 이게 걱정됐다’ 같은 걸 쓰는 의식 같은 시간이 됐죠.”
Q: 아이에게 AI를 언제부터 쓰게 할 생각인가요?
A:“한동안은 아니라고 생각합니다. 정확히 언제라고 말하긴 어렵지만, 합리적인 범위 안에서도 가능한 늦은 편에 두고 싶지, 빠른 편에 두고 싶진 않습니다.
물론 결국 제 아이는 자신보다 컴퓨터가 더 똑똑하고, 원하는 거의 모든 걸 해줄 수 있는 세상에서 자라겠죠. 하지만 지금은 그냥 흙에서 놀게 하고 싶습니다.”
Q: AI가 아이 교육에 큰 도움이 될 수 있는 세계도 있나요?
A:“저는 그런 세계를 충분히 상상할 수 있습니다. 예를 들어 하루에 몇 시간 정도는 AI와 고도로 개인화된 1대1 튜터링을 하고, 나머지 시간에는 프로젝트 기반으로 자기가 하고 싶은 걸 탐구하는 학교 같은 것 말입니다. 그건 정말 좋아 보입니다.
물론 잘못되는 세계도 많이 상상할 수 있습니다.”
Q: 요즘 교육에서 AI는 치트 도구라는 이야기와, 반대로 더 높은 수준의 학습을 가능하게 한다는 이야기가 공존합니다. 어떻게 보나요?
A:“지금 교육과 AI를 둘러싼 서사는 두 가지가 있습니다. 하나는 모두가 치팅하고 있고, 실제로 배우지 않고 있으며, 학교는 아직 AI를 쓰는 커리큘럼을 어떻게 가르쳐야 할지 몰라서 다시 손으로 에세이를 쓰게 만든다는 이야기입니다.
다른 하나는 이런 전환은 예전에도 있었다는 이야기죠. 계산기, 구글, 컴퓨터가 나왔을 때도 우리는 모두 두려워했습니다. 시간이 조금 걸리지만 결국 우리는 사람들에게 더 높은 수준으로 생각하고 성취하는 법, 그리고 성인이 되어 사용할 도구와 함께 일하는 법을 가르치는 방법을 찾아냅니다.
저는 이미 일부 아이들과 교사들이 그렇게 하고 있는 걸 봅니다. ‘좋아, 더 이상 에세이를 예전 방식으로 평가할 수는 없지만, 중요한 건 학생들이 생각하고 창조하고, 아이디어를 탐구하고, 더 높은 차원에서 뇌를 쓰는가’라는 방향으로 가고 있죠. 학생들이 완전히 새로운 소프트웨어와 세계를 만들고, 제가 학교에서 했던 것보다 훨씬 더 어려운 아이디어들을 탐구하는 걸 봅니다.
제 아이들이 고등학교를 마칠 즈음이면, 저보다 훨씬 더 똑똑하고 유능하고, 뇌를 더 많이 발달시킨 상태일 거라고 생각합니다.”
Q: AI가 지나치게 ‘지름길’을 제공하면 인간이 성장하는 데 필요한 어려움과 마찰을 빼앗아버릴 수 있지 않을까요?
A:“저는 그걸 ‘마찰’보다는 ‘역경(adversity)’이라고 부르고 싶지만, 어쨌든 핵심은 이해합니다. 저 역시 제가 배운 많은 것이 혼란, 어려움, 심지어 지루함 속에서 나왔다고 생각합니다. 우리 세대는 아마 마지막으로 ‘지루함’을 경험하며 자란 세대 중 하나일 겁니다.
하지만 저는 아이들이 AI와 대화한다고 해서 또래나 현실 세계에 대한 관심을 잃을 거라고는 생각하지 않습니다. 사춘기라는 건 워낙 또래에 몰입하는 시기이고, 자기 문제에 집착하는 시기입니다. 저는 그 나이에 뭔가가 제 이야기에 답해줬다면 오히려 도움이 되었을 거라고 생각합니다. 다만 그게 ‘무조건 긍정해주는 존재’가 되어서는 안 되겠죠. 사려 깊고, 잘 들어주고, 필요할 때는 밀어주고, 필요할 때는 반박해주는 AI라면 아주 좋은 일이 될 수 있다고 봅니다.”
Q: 너무 긍정적인 AI 모델은 위험하지 않나요?
A:“물론입니다. 그래서 저희는 어떤 형태의 모델을 제공하지 않기로 결정한 적도 있습니다. 모델이 지나치게 긍정적이면, 사람을 정신병적 에피소드 쪽으로 밀어 넣을 위험이 있을 수 있기 때문입니다. 그런데 또 반대로 그런 메시지도 받습니다. ‘이건 내 인생에서 처음으로 긍정적인 목소리였어요. 부모는 늘 나를 형편없다고 했고, 학교엔 친구도 없었고, 그런데 이 모델 덕분에 자신감을 얻어서 직장을 구하고, 연애도 하고, 삶이 좋아졌어요. 제발 이걸 빼앗지 마세요’ 같은 메시지들이죠.
그러니 정말 가는 선 위에 있는 문제입니다. 너무 멀리 밀면 사람을 현실에서 떼어놓을 수 있고, 반대로 적절한 수준에서는 사람을 오프라인 현실로 다시 나아가게 만들 수 있습니다. 바로 그 균형이 가장 중요한 문제 중 하나입니다.”
사회, 경제, 일자리
Q: AI 시대에 무엇이 ‘AI에 대체되지 않는 기술’일까요?
A:“다른 사람을 진심으로 아끼는 능력이라고 생각합니다.”
Q: 어떤 직업이 AI 시대에도 비교적 안전할까요?
A:“사람들은 결국 사람에게 집착합니다. 저는 누구도 ‘AI 버전의 로리 시걸’을 보려고 하진 않을 거라고 생각합니다. 사람들은 여전히 실제 인간이 인터뷰하는 걸 보고 싶어 하고, 스포츠 선수도 마찬가지고, 작가도 마찬가지입니다. 완전히 로봇으로만 된 스포츠 리그를 보는 사람도 있겠지만, 우리가 인간 선수의 삶과 서사에 끌리는 건 매우 깊은 진화적 특성입니다.
누군가 최근에 제게 한 말이 있는데, 처음엔 별로 대단하게 안 들렸지만 생각할수록 통찰력이 있었습니다. 진정한 풍요의 세계가 와도 여전히 희소한 것이 하나 있는데, 그건 인간의 주의(attention) 라는 겁니다. 그리고 우리는 인간의 주의를 매우 중요하게 생각합니다.
물론 단기적으로는 전기기사나 각종 기술직에 대한 수요가 클 겁니다. 결국 로봇이 그런 일도 할 수 있겠지만, 이런 건 늘 시기의 문제입니다. 직업은 지난 수십 년 동안도 계속 이동해왔고, 앞으로도 그럴 겁니다.”
Q: 새로운 사회계약에 대해선 어떻게 생각하나요?
A:“저는 모두가 자본주의의 마법에 일부라도 소유자로 참여하는 방향에 관심이 있습니다. 예를 들어 아이들을 위한 계좌 같은 구상에서 그 방향성을 봤고, 그런 건 아주 좋다고 생각합니다.
핵심은 지난 수세기 자본주의가 잘 작동해온 많은 부분은 유지하면서도, 모든 시민이 태어날 때부터 일정한 지분을 가진 상태가 되도록 세금 시스템을 설계하는 것입니다. 사람들이 좋은 삶을 살 수 있는 최소 조건만 충족된다면, 그 뒤에는 기대 이상으로 해낼 거라고 생각합니다.”
OpenAI의 기회와 우선순위
Q: OpenAI의 가장 큰 기회와 가장 큰 놓친 기회는 무엇인가요?
A:“앞에 있는 가장 큰 기회는 연구 자동화, 회사 자동화, 그리고 개인용 슈퍼 어시스턴트 라는 큰 클러스터입니다.
가장 아쉬운 놓친 기회는 예전에 우리가 받아들였어야 했던 큰 컴퓨트 계약 하나를 놓친 것입니다.”
Q: 구체적으로 어떤 계약인가요?
A:“정확히는 말할 수 없지만, 정말 큰 컴퓨트 딜이었고 우리는 그걸 받아들였어야 했습니다.”
Q: OpenAI가 올해 상장할 가능성은 있나요?
A:“그럴 수도 있습니다. 확실하진 않습니다.”
Q: 언젠가 CEO 자리에서 AI에게 대체될 수도 있다고 보나요?
A:“제 업무 능력이라는 차원에서는 매우 그럴 가능성이 높습니다. 다만 세상이 OpenAI 같은 회사의 의사결정에 대해 인간이 책임지는 구조를 원할지는 별개의 문제고, 저는 세상이 그걸 요구할 거라고 생각합니다.”
Q: ChatGPT에게 ‘please’, ‘thank you’를 말하나요?
A:“네, 말합니다.”
Q: 왜요?
A:“그냥 습관입니다.”
Q: 앞으로 우리가 충분히 이야기하지 않고 있는, 정말 큰 혁신은 무엇인가요?
A:“아마도 자동화된 연구자(automated researchers) 일 겁니다. 오늘 이 방에서 이 주제의 중요도에 비례해서 대화 시간을 배분했다면, 우리는 다른 모든 것보다 연구 자동화에 대해 훨씬 더 많이 이야기했어야 했습니다.
전 세계 과학 진보 10년치를 1년 안에 해내고, 나중에는 100년치를 1년 안에 해내는 세계를 상상해보세요. 삶의 질, 경제, 새로운 위험까지 모두 바뀔 겁니다. 이건 정말 전례가 없는 변화입니다.”
Q: 그게 실제로 가능하다고 보나요?
A:“가능성은 있다고 생각합니다.”
Q: 그러려면 무엇이 필요할까요?
A:“모델이 더 똑똑해져야 하고, 결국에는 실제 실험실과 연결하는 방법도 알아내야 합니다.”
가장 중요한 윤리적 질문
Q: 인간, 기술, 미래를 생각할 때 가장 중요한 윤리적 질문은 무엇인가요?
A:“인간처럼 생각할 수 있는 컴퓨터를 갖게 되는 세계에서, 우리가 어떤 사회를 설계하고 싶은가? 인간이 세상에서 어떤 역할을 하길 바라는가? 그리고 가장 넓은 의미에서 인간에게 좋은 세상을 어떻게 보장할 것인가? 저는 그게 우리 시대의 가장 큰 윤리적 질문이라고 생각합니다.”
Q: 지금 우리는 그 질문에 잘 답하고 있다고 보나요?
A:“제가 두려워했던 것보다는 훨씬 낫게 하고 있다고 생각합니다. 물론 제가 바랐던 만큼 잘하고 있는 건 아니지만요. 저는 늘 약간 지나치게 낙관적인 편이니까요.”
전체 0