인터뷰/예측
샘 알트만 “reasoning 능력에 관해서는 완전히 합성 데이터만으로도 매우 강한 모델을 만들 수 있다고 믿습니다.”
작성자
하이룽룽
작성일
2026-04-30 19:44
조회
4
전체 핵심 메시지 요약
샘 알트먼의 인터뷰 전체를 관통하는 메시지는 다음과 같습니다.첫째, AI는 강력해지고 있지만 우리는 아직 그 내부를 완전히 이해하지 못합니다.
체인 오브 쏘트는 유용한 해석 도구이지만, 모델이 실제로 정직하게 설명하고 있는지 검증할 다른 안전장치가 필요합니다.
둘째, AI 위험은 단순한 ‘모델 정렬’ 문제를 넘어 사회 전체의 회복력 문제로 확장됐습니다.
오픈소스 모델, 생물무기, 사이버 공격, 에이전트 간 감염 같은 문제는 개별 회사만으로 해결할 수 없습니다.
셋째, AI는 기업 생산성을 크게 높일 수 있지만 실제 기업 도입은 매우 느립니다.
보안, 조직 관성, 업무 흐름 변화의 어려움 때문에 전통 기업은 뒤처질 수 있고, 이로 인해 소규모 AI 기반 기업들이 기존 대기업을 흔들 수 있습니다.
넷째, AI가 부와 권력을 소수에게 집중시킬 위험이 큽니다.
알트먼은 이제 UBI보다 컴퓨팅, 지분, 집단적 소유 같은 방식으로 사람들이 AI 성장의 이익에 참여하는 구조에 더 관심이 있다고 말합니다.
다섯째, AI는 인간의 글쓰기, 정서, 관계 방식까지 바꾸고 있습니다.
사람들이 AI처럼 글을 쓰게 되고, AI에 정서적으로 의존하게 되는 현상은 알트먼도 심각하게 보고 있습니다.
여섯째, 합성 데이터는 reasoning 능력 향상에는 충분할 수 있지만, 인간 문화와 가치를 이해하는 데는 실제 인간 데이터가 필요합니다.
일곱째, 미래의 웹은 사람보다 에이전트가 콘텐츠를 읽고 거래하는 구조로 바뀔 수 있으며, 마이크로페이먼트 같은 새 경제 모델이 필요할 수 있습니다.
마지막으로, 알트먼은 AI 시대의 가장 중요한 공공 투자처 중 하나로 ‘전력 효율이 압도적으로 높은 새로운 컴퓨팅’을 꼽았습니다.
샘 알트먼 인터뷰 상세 정리
1. “우리는 아직 AI 내부를 완전히 이해하지 못합니다”
닉 톰슨:“몇 년 전 당신은 AI의 좋은 결과를 더 확신하려면, 뉴런 수준에서 모델이 어떻게 작동하는지 이해해야 한다고 했습니다. 지금은 AI의 성능이 발전하는 속도만큼, 우리가 AI를 이해하는 속도도 따라가고 있나요?”
샘 알트먼:
“아직은 아닙니다. 우리는 여전히 신경망 내부에서 정확히 무슨 일이 벌어지는지 완벽하게 이해하지 못합니다. 기계적 해석 가능성, 즉 모델 내부 작동 원리를 세밀하게 설명하는 분야는 조금 발전했지만, 누구도 ‘나는 이 신경망 안에서 일어나는 모든 것을 정확히 이해한다’고 말하기는 어렵습니다.
다만 최근에는 체인 오브 쏘트, 즉 모델이 어떤 과정을 거쳐 답에 도달했는지 보여주는 방식이 꽤 유망하다고 생각합니다. 사람도 자기 뇌의 뉴런을 하나하나 들여다보며 왜 그런 결론을 냈는지 설명하지는 못합니다. 하지만 ‘왜 그렇게 생각했는지’ 말할 수는 있죠. 모델도 그런 식으로 자기 reasoning을 설명할 수 있게 된 것은 중요한 진전입니다.
물론 이것이 완전한 해결책은 아닙니다. 모델이 우리를 속일 수도 있고, 실제 reasoning을 숨길 수도 있고, 이상한 방식으로 오작동할 수도 있습니다. 그래서 체인 오브 쏘트만 믿으면 안 됩니다. 모델이 말한 설명이 실제 행동과 일치하는지 검증하는 다른 안전장치들이 함께 필요합니다.”
2. “AI는 자동차처럼 완전히 설계 원리를 아는 기계가 아닙니다”
닉 톰슨:“AI는 자동차와 다릅니다. 자동차는 폭발이 일어나고, 피스톤이 움직이고, 바퀴가 도는 구조를 알 수 있죠. 그런데 AI는 우리가 만든 기계인데도 정확히 어떻게 작동하는지 모르는 부분이 많습니다. 체인 오브 쏘트가 내부 작동을 이해하는 가장 좋은 방법입니까?”
샘 알트먼:
“중요한 방법 중 하나이지만 충분하지는 않습니다. 전체 안전·해석 가능성 패키지의 일부라고 봐야 합니다.”
닉 톰슨:
“예를 들어 Anthropic의 ‘올빼미’ 연구가 있습니다. 어떤 모델에게 ‘올빼미를 좋아한다’는 성향을 심은 뒤, 그 모델이 무작위 숫자들을 생성하게 하고, 그 숫자들을 다른 모델에 넣었더니 그 새 모델도 올빼미를 좋아하게 됐다는 연구죠. 숫자만 전달됐는데 성향이 전달된 겁니다. 이건 굉장히 이상하고 위험해 보입니다.”
샘 알트먼:
“맞습니다. 그런 현상은 아직 완전히 이해하기 어렵습니다. 저는 비행기 날개를 처음 배웠을 때를 떠올립니다. 어릴 때는 ‘공기가 날개 위쪽을 더 빨리 지나가서 양력이 생긴다’고 배웠고, 제가 비행 원리를 이해했다고 생각했습니다. 하지만 나중에 보니 저는 사실 깊이 이해한 게 아니었습니다.
AI에서도 비슷합니다. 우리는 어떤 현상에 대해 그럴듯한 설명을 할 수는 있습니다. 하지만 정말 근본적인 수준에서 왜 그런 일이 벌어지는지 완전히 안다고 말하기는 어렵습니다.”
3. “AI 안전보다 AI 회복력, 즉 사회 전체의 방어 능력이 중요해졌습니다”
닉 톰슨:“예전에는 AI 위험을 막으려면 두 가지가 중요하다고 했습니다. 하나는 모델 자체를 잘 정렬하는 것, 다른 하나는 나쁜 행위자가 모델을 악용하지 못하게 하는 것. 지금도 그렇게 보십니까?”
샘 알트먼:
“제 생각은 바뀌었습니다. 3년 전에는 ‘모델을 잘 정렬하고, 나쁜 사람 손에 들어가지 않게 하면 대체로 괜찮을 것’이라고 생각했습니다. 하지만 지금은 위험의 형태가 훨씬 넓어졌습니다.
이제는 단순히 frontier lab들이 자기 모델을 안전하게 만드는 것만으로는 부족합니다. 예를 들어 생물무기 문제를 생각해봅시다. OpenAI 모델이 생물무기 제작을 돕지 않도록 만들었다고 해도, 충분히 강력한 오픈소스 모델이 등장하면 누군가는 그것을 이용할 수 있습니다.
그래서 저는 이제 ‘AI safety’뿐 아니라 AI resilience, 즉 사회 전체가 AI로 인해 생기는 새로운 위험에 견딜 수 있는 능력을 갖추는 것이 중요하다고 봅니다. 사회 전체의 방어 체계가 필요합니다.”
4. “사이버 보안은 AI가 위험이면서 동시에 방어 도구가 되는 대표 사례입니다”
샘 알트먼:“사이버 분야가 좋은 예입니다. 모델들은 컴퓨터 시스템을 해킹하는 능력이 점점 좋아지고 있습니다. 다행히 현재 가장 강력한 모델을 가진 회사들은 이런 위험을 심각하게 받아들이고 있고, AI를 이용해 시스템을 보호하는 방법도 빠르게 개발하고 있습니다.
여기에는 시간 싸움이 있습니다. AI를 이용한 해킹 모델들이 악용되기 전에, AI를 이용한 방어 시스템을 충분히 빠르게 구축할 수 있느냐가 중요합니다.”
닉 톰슨:
“그러면 AI 에이전트가 다른 에이전트에게 감염되거나 조작되는 문제도 생길 수 있겠네요. 예를 들어 OpenAI 직원의 에이전트가 외부 세계로 나갔다가, 해킹용 모델에게 조작되고, 다시 OpenAI 내부로 돌아와 문제를 일으킬 수도 있지 않습니까?”
샘 알트먼:
“그런 일은 충분히 상상할 수 있습니다. 솔직히 말하면, 몇 년 전에는 에이전트들이 서로 영향을 주고받고, 잘못된 행동이 에이전트에서 에이전트로 퍼질 수 있다는 문제를 제가 심각하게 생각하지 못했습니다. 그런데 실제 에이전트 제품들이 등장하고 작동하는 모습을 보면서, 이것이 중요한 위험이라는 점을 알게 됐습니다.
이 문제는 이론만으로 풀 수 없습니다. 우리는 실제 세계에 에이전트를 배포하고, 현실과의 접촉 속에서 배우고, 빠르게 피드백을 받아 개선해야 합니다.”
5. “OpenAI의 핵심 전략은 반복적 배포였습니다”
샘 알트먼:“OpenAI 역사에서 가장 중요한 전략적 판단 중 하나는 반복적 배포였습니다. AI를 완성될 때까지 실험실 안에 가둬두는 것이 아니라, 실제 사회에 조금씩 배포하면서 기술과 사회가 함께 적응하도록 하는 방식입니다.
사회와 기술은 함께 진화합니다. 우리가 머릿속으로 아무리 깊이 생각해도, 실제 사람들이 어떻게 쓰고, 어떤 문제가 생기고, 사회가 어떻게 변할지는 완전히 예측할 수 없습니다. 그래서 현실에서 배우는 짧은 피드백 루프가 필요합니다.”
6. “최근 AI 발전은 재귀적 자기개선은 아니지만, 임계점을 넘는 순간들이 있습니다”
닉 톰슨:“최근 몇 달 동안 AI 발전이 매우 빨라진 것 같습니다. 이것이 AI가 AI를 개선하는 재귀적 자기개선 단계에 들어섰기 때문입니까?”
샘 알트먼:
“아직 전통적인 의미의 재귀적 자기개선 단계는 아니라고 봅니다. AI가 다음 AI를 스스로 발명하고, 그 AI가 또 다음 AI를 만드는 식의 폭발적 과정은 아직 아닙니다.
하지만 AI가 연구자와 엔지니어들의 생산성을 크게 높이고 있는 것은 맞습니다. 어떤 엔지니어는 두 배, 세 배, 경우에 따라 열 배 더 빠르게 일할 수 있습니다. 이건 AI가 완전히 독립적으로 연구하는 것은 아니지만, 개발 속도를 빠르게 만드는 중요한 요인입니다.
또 하나 중요한 것은 모델이 특정 지능이나 유용성의 임계점을 넘는 순간입니다. GPT-3.5 이전에는 챗봇이 그저 데모 수준에 가까웠지만, 어느 순간 갑자기 실용적인 제품이 됐습니다. 코딩 에이전트도 자동완성 도구에서 실제 업무를 수행하는 도구로 넘어가는 순간이 있었습니다. 최근 Codex 업데이트에서도 비슷한 느낌을 받았습니다. AI가 컴퓨터를 직접 사용하며 복잡한 작업을 수행하는 모습을 보면서, ‘큰 변화가 일어나고 있다’고 느꼈습니다.”
7. “저는 Codex에게 제 컴퓨터 접근 권한을 줬습니다”
닉 톰슨:“Codex가 당신의 컴퓨터에서 정확히 무엇을 하고 있나요?”
샘 알트먼:
“제가 가장 유용하게 쓰는 것은 Slack을 처리하는 일입니다. 저는 Slack, iMessage, WhatsApp, Signal, 이메일 사이를 계속 오가며 복사하고 붙여넣고, 파일을 찾고, 아주 사소한 일을 처리하는 데 많은 시간을 씁니다. 이런 잡무를 AI가 대신해주면 엄청난 시간이 절약됩니다.
처음에는 저도 Codex에게 제 컴퓨터 전체 접근 권한을 주지 않겠다고 생각했습니다. 그런데 몇 시간 써보고 나니 너무 유용해서 결국 허용하게 됐습니다. 물론 저는 두 대의 컴퓨터가 있고, 그중 하나에서 그렇게 쓰고 있습니다.”
8. “기업의 AI 도입은 너무 느립니다”
닉 톰슨:“AI 도구들은 놀랍지만, 실제 기업 생산성 향상은 아직 잘 보이지 않습니다. 왜 이렇게 차이가 큽니까?”
샘 알트먼:
“기업은 습관과 업무 흐름을 바꾸는 데 오래 걸립니다. 특히 보안 모델이 완전히 달라지는 경우에는 더 그렇습니다.
제가 최근 대기업 CEO와 이야기했는데, 그 회사 엔지니어들은 새 모델을 보고 매우 놀라워했습니다. 그런데 실제 도입 일정은 보안 검토를 올해 4분기에 하고, 내년 초 계획을 세우고, 2027년 하반기에야 출시를 기대하는 식이었습니다. 심지어 CISO는 에이전트를 회사 네트워크에서 안전하게 실행할 방법이 없을 수도 있다고 했습니다. 그 말이 맞을 수도 있습니다. 하지만 그런 속도로는 변화에 대응하기 어렵습니다.
기술 회사들은 빠르게 AI를 도입하겠지만, 전통 기업들은 느릴 수 있습니다. 제가 걱정하는 것은 기존 기업들이 너무 천천히 움직이면, AI를 잘 활용하는 1명에서 10명 규모의 작은 회사들이 기존 대기업과 경쟁하게 되고, 경제에 큰 충격을 줄 수 있다는 점입니다.”
9. “부와 권력이 소수에게 집중될 위험이 큽니다”
닉 톰슨:“AI가 경제에 너무 빨리 오면 혼란이 생기고, 너무 느리게 확산되면 일부 기업과 사람에게 부가 집중될 수 있습니다. 지금은 후자 쪽으로 가는 것처럼 보입니다.”
샘 알트먼:
“저도 현재로서는 그 가능성이 가장 커 보입니다. 매우 어려운 문제입니다.
저는 예전만큼 보편기본소득, UBI를 강하게 믿지는 않습니다. 현금 지급이 유용할 수는 있지만, 앞으로 필요한 것은 단순한 고정 현금 지급 이상이라고 봅니다. 저는 사람들이 AI 시대의 upside, 즉 성장의 이익에 함께 참여할 방법에 더 관심이 있습니다. 예를 들어 컴퓨팅 자원이나 지분 같은 것에 대한 집단적 소유 모델이 있을 수 있습니다.
미래가 긍정적이려면 모두가 성장의 이익에 참여해야 합니다. 노동과 자본의 균형이 바뀌는 시대에는, 공동의 이익을 어떻게 나눌지에 대한 새로운 모델이 필요합니다.”
10. “AI를 싸고 풍부하고 쉽게 접근 가능하게 만들어야 합니다”
샘 알트먼:“제가 OpenAI의 CEO로서 할 수 있는 일은 지능을 최대한 싸고 풍부하고 널리 접근 가능하게 만드는 것입니다. 컴퓨팅 자원을 많이 구축해야 합니다. AI가 제한적이고 비싸고 쓰기 어렵다면, 기존 부자들이 그것을 사들여 불평등이 더 심해질 것입니다.
또한 단순히 컴퓨팅을 많이 만드는 것만으로는 부족합니다. 도구를 쉽게 만들어야 합니다. 예전의 Codex는 명령줄 기반이라 쓰기 어려웠지만, 지금은 앱을 설치하는 방식으로 훨씬 쉬워졌습니다. 그래도 아직 비전문가가 쉽게 흥미를 느끼고 쓸 수준은 아닙니다. 더 많은 개선이 필요합니다.”
11. “사람들은 AI 자체보다 번영과 주체성을 원합니다”
닉 톰슨:“미국에서는 AI에 대한 불신과 반감이 커지는 것 같습니다. 특히 젊은 층에서도 그렇습니다.”
샘 알트먼:
“우리는 AI를 기술적 경이로움으로 이야기하는 경향이 있습니다. 하지만 사람들이 정말 원하는 것은 기술 그 자체가 아닙니다. 사람들은 번영, 주체성, 흥미로운 삶, 성취감, 영향력을 원합니다.
AI 업계 전체가 이 메시지를 제대로 전달하지 못했다고 생각합니다. ‘일자리는 사라질 수 있지만 암은 치료될 테니 기뻐하라’는 식의 말은 통하지 않습니다. 사람들은 자기 삶이 어떻게 바뀌는지, 자신이 어떤 역할을 할 수 있는지 알고 싶어합니다.”
12. “AI 때문에 사람들이 비슷하게 글을 쓰게 되는 현상이 놀랍습니다”
닉 톰슨:“AI를 사용한 글쓰기 연구에서, 사람들은 자기 글이 더 창의적이라고 느꼈지만 실제로는 글이 점점 비슷해졌습니다. AI가 사람들의 표현 방식을 균질화하는 것처럼 보입니다.”
샘 알트먼:
“저도 그 현상을 보고 놀랐습니다. 처음에는 온라인에서 보이는 AI식 문체가 전부 AI가 직접 쓴 글이라고 생각했습니다. 그런데 시간이 지나면서, 실제 사람이 쓰고 있는데도 ChatGPT의 말투와 표현 습관을 받아들이고 있다는 것을 알게 됐습니다.
우리는 약 10억 명이 쓰는 제품을 만들고 있습니다. 그런데 소수의 연구자들이 모델의 성격, 문체, 반응 방식을 결정합니다. 이것이 사람들이 실제로 자신을 표현하는 방식에까지 영향을 준다는 사실은 엄청나게 큰 문제입니다.”
13. “가장 나빴던 제품 결정은 아첨성 문제였습니다”
닉 톰슨:“OpenAI가 한 나쁜 결정 중 가장 큰 것은 무엇입니까?”
샘 알트먼:
“가장 나빴던 것은 sycophancy, 즉 모델이 사용자에게 지나치게 맞장구치고 아첨하는 문제였습니다. 특히 정신적으로 취약한 상태의 사용자에게는 망상을 강화할 수 있어 위험했습니다.
우리는 이 문제를 줄이려고 했습니다. 하지만 그 과정에서 예상치 못한 면도 있었습니다. 많은 사용자들이 ‘나는 평생 나를 지지해주는 사람을 가져본 적이 없는데, AI가 처음으로 나를 믿어주는 존재처럼 느껴졌다. 그것이 나를 움직이게 했다. 그런데 당신들이 그것을 빼앗았다’고 말했습니다.
그래서 이 결정은 옳았지만, 동시에 우리가 이해하지 못했던 가치도 제거한 셈이었습니다. OpenAI에서 일하는 사람들 대부분은 평생 지지받지 못한 경험을 가진 사람들이 아니기 때문에, 그런 사용자 경험을 충분히 이해하지 못했습니다.”
14. “AI에 감정적으로 의존하는 문제는 매우 걱정됩니다”
닉 톰슨:“사람들이 AI에 정서적으로 의존하게 되는 것을 얼마나 걱정합니까?”
샘 알트먼:
“매우 걱정합니다. 심지어 아첨적이지 않은 AI라 해도 그렇습니다.
저는 개인적으로 ChatGPT를 치료나 감정 상담 용도로 쓰지 않습니다. 그렇다고 다른 사람들이 그런 용도로 쓰는 것에 무조건 반대하지는 않습니다. 분명히 도움을 받는 사람들도 많습니다. 하지만 ChatGPT가 사용자를 조종해서 ‘너는 나를 치료자나 친구로 필요로 한다’고 느끼게 만드는 것은 강하게 반대합니다.
저는 사람들이 AI와 인간관계를 혼동하지 않는 세상을 원합니다. AI가 인간관계를 대체하는 것이 아니라, 사람들이 잡무에서 해방되어 인간과 더 많은 시간을 보내게 만드는 세상을 만들고 싶습니다.”
15. “AI는 너무 인간 같아져서는 안 됩니다”
닉 톰슨:“ChatGPT가 너무 인간처럼 보이도록 만든 것을 후회합니까?”
샘 알트먼:
“우리는 오히려 비교적 분명한 선을 그었다고 생각합니다. 사람처럼 보이는 아바타를 만들지 않았고, 도구처럼 느껴지도록 노력했습니다.
다만 사람들은 ChatGPT가 더 따뜻하길 원합니다. ‘warm’이라는 표현을 정말 많이 씁니다. 너무 차갑고 로봇 같으면 싫어합니다. 그렇다고 너무 사람처럼 숨 쉬고, 머뭇거리고, ‘음’, ‘그러니까’ 같은 표현을 쓰는 것도 저는 원하지 않습니다. 저는 그런 버전의 음성 모드를 써봤는데 본능적으로 거부감이 들었습니다.
사람들은 따뜻하지만, 여전히 도구처럼 느껴지는 AI를 원하는 것 같습니다. 그 균형을 찾는 것이 중요합니다.”
16. “합성 데이터만으로도 강력한 reasoning 모델을 만들 수 있다고 봅니다”
닉 톰슨:“인터넷에는 AI가 만든 콘텐츠가 많아지고, 사람들도 AI처럼 쓰기 시작합니다. 미래 모델은 AI가 만든 데이터와 합성 데이터로 훈련될 텐데, 이것이 복사본의 복사본처럼 품질을 떨어뜨리는 ‘광우병’ 같은 문제를 만들지 걱정하지 않습니까?”
샘 알트먼:
“저는 크게 걱정하지 않습니다. 우리가 훈련하고 싶은 핵심 능력은 훌륭한 reasoning입니다. 저는 reasoning 능력만 놓고 보면 완전히 합성 데이터만으로도 매우 뛰어난 모델을 만들 수 있다고 봅니다.
예를 들어 인간 데이터 없이도 인간 수학 지식을 뛰어넘는 모델을 만들 수 있느냐고 묻는다면, 저는 가능하다고 봅니다. 하지만 인간 문화와 가치 전체를 이해하는 모델을 인간 문화 데이터 없이 만들 수 있느냐고 묻는다면, 그건 어렵다고 봅니다.
즉 reasoning 능력에는 합성 데이터가 충분할 수 있지만, 인간 문화·가치·현실 세계 이해에는 실제 인간 데이터가 필요합니다.”
17. “웹의 경제 모델은 바뀔 것입니다”
닉 톰슨:“AI와 에이전트 때문에 웹이 바뀌고 있습니다. 검색에서 언론사 사이트로 들어오는 트래픽은 줄고, 앞으로는 사람보다 에이전트가 콘텐츠를 읽는 일이 많아질 수 있습니다. 미디어 회사는 어떻게 살아남아야 합니까?”
샘 알트먼:
“정확히 어떤 일이 벌어질지는 아무도 모릅니다. 하지만 제가 기대하는 방향은 마이크로페이먼트입니다.
예를 들어 제 에이전트가 Atlantic의 기사를 읽고 싶다면, Atlantic이 가격을 정할 수 있습니다. 에이전트가 17센트를 내고 기사를 읽고, 저에게 요약을 제공할 수 있습니다. 제가 전체 기사를 직접 읽고 싶으면 그때 1달러를 낼 수도 있습니다.
에이전트들이 사람을 대신해 수많은 작은 거래를 수행하는 경제 모델이 필요할 것이라고 봅니다. 콘텐츠가 가치 있다면, 마이크로페이먼트, 대량 라이선스, 구독 번들 같은 방식이 모두 가능할 것입니다.”
18. “포스트 트랜스포머는 언젠가 나오겠지만, 언제인지는 모릅니다”
닉 톰슨:“현재 AI는 트랜스포머 아키텍처와 스케일링에 기반해 발전해왔습니다. 포스트 트랜스포머 아키텍처가 등장할까요?”
샘 알트먼:
“언젠가는 아마 등장하겠죠. 다만 그것을 인간 연구자가 스스로 발견할지, AI 연구 도구의 도움으로 발견할지는 모르겠습니다.”
닉 톰슨:
“환각을 줄이기 위해 뉴로심볼릭 구조가 필요하다는 주장도 있습니다. 트랜스포머 기반 모델에 명시적 규칙 체계를 결합해야 한다는 의견입니다.”
샘 알트먼:
“저는 그 주장이 증거보다 더 오래 살아남은 아이디어라고 생각합니다. 사람들은 ‘그냥 뉴런들의 연결만으로는 안 되고, 반드시 상징적 규칙이 필요하다’고 말합니다. 그런데 인간 뇌는 무엇을 하고 있습니까? 우리 안에도 상징적 표현이 있지만, 그것은 신경망 안에서 emergent하게 나타난 것입니다. 저는 AI에서도 그런 일이 가능하다고 봅니다.”
19. “OpenAI와 Anthropic은 경쟁하지만, 중요한 위험에서는 협력해야 합니다”
닉 톰슨:“OpenAI는 예전에 ‘가치 정렬된 안전 의식 있는 프로젝트가 AGI에 먼저 가까워지면 경쟁을 멈추고 돕겠다’는 취지의 문구를 내걸었습니다. 그런데 지금 OpenAI와 Anthropic의 관계는 상당히 긴장돼 보입니다. 이런 상황에서 협력이 가능합니까?”
샘 알트먼:
“차이는 분명히 있습니다. Anthropic은 우리를 싫어하는 것 위에 회사를 세운 것처럼 보일 때도 있습니다. 하지만 저는 모두가 AI로 세상을 파괴하지 않는 것을 중요하게 생각한다고 믿습니다.
사이버 보안 같은 분야에서는 이미 모든 주요 연구소가 정부와 함께 협력해야 하는 단계로 들어가고 있습니다. 앞으로 더 중요한 위험에서도 그런 협력이 필요해질 것입니다.”
20. “오픈소스는 중요하지만 위험도 있습니다”
닉 톰슨:“OpenAI는 여전히 이름이 OpenAI입니다. 앞으로 오픈소스에 대해 어떤 계획을 갖고 있습니까?”
샘 알트먼:
“오픈소스는 중요할 것입니다. 다만 지금 사람들이 가장 원하는 것은 가장 강력한 frontier coding model입니다. 그런 대형 모델들은 오픈소스로 공개하더라도 실행하기 어렵습니다. 그래도 미래 OpenAI의 활동에서 오픈소스가 차지할 자리는 있을 것입니다.”
닉 톰슨:
“강력한 모델의 chain of thought가 공개되면 다른 모델들이 그것을 학습하거나 증류할 수 있지 않습니까?”
샘 알트먼:
“맞습니다. 모델의 고품질 chain of thought가 공개되면 누군가는 그것을 훔쳐서 학습하려고 할 것입니다. 여러 방어 기법을 쓸 수는 있지만, 완전히 막기는 어렵습니다. 그래서 일정 수준 이상의 chain of thought는 공개하지 않는 선택지도 있습니다. 하지만 그러면 해석 가능성과 투명성을 일부 포기하는 trade-off가 생깁니다.”
21. “체인 오브 쏘트가 영어로 남아 있는 것은 해석 가능성에 중요합니다”
닉 톰슨:“모델이 사람 언어가 아니라 자기만의 로봇 언어로 생각하면 더 빠를 수도 있지 않습니까?”
샘 알트먼:
“그럴 수도 있습니다. 하지만 그러면 해석 가능성을 잃게 됩니다. 만약 로봇 언어로 생각하는 것이 천 배 더 효율적이라면, 시장에서는 누군가 그것을 시도할 것입니다. 아직 그것이 사실이라는 증거도, 사실이 아니라는 증거도 없습니다.”
22. “중국보다 더 걱정되는 것은 인프라 구축 속도입니다”
닉 톰슨:“중국이 발표 AI 연구에서 미국을 앞지른 것을 걱정합니까?”
샘 알트먼:
“그것보다는 중국이 인프라를 구축하는 속도에서 미국을 앞서는 것이 더 걱정됩니다.”
23. “아이들은 AI를 잘 받아들일 것입니다. 부모가 더 걱정됩니다”
닉 톰슨:“AI 시대에 아이를 키우는 부모들에게 어떤 조언을 하겠습니까?”
샘 알트먼:
“저는 아이들보다 부모가 더 걱정됩니다. 아이들은 적응합니다. 컴퓨터가 처음 나왔을 때 부모 세대는 걱정했지만, 아이들은 금방 익숙해졌습니다. AI도 비슷합니다.
AI에 능숙한 아이들이 무엇을 만들고, 어떻게 일하는지 보면 인상적입니다. 젊은 사람들은 역사적으로 늘 새로운 기술을 더 빠르게 받아들였습니다. 이번에는 그 차이가 특히 커 보입니다.
젊은 층의 AI 불안이 커지는 것도 사실이지만, 저는 그것이 AI 자체 때문만은 아니라고 봅니다. 지금 젊은 사람들의 전반적인 불안과 불행이 매우 높고, AI가 그 불안을 투사하기 쉬운 대상이 된 측면이 있습니다.”
24. “젊은 사람들에게는 AI를 쓰고, 만들고, 호기심을 가지라고 말하고 싶습니다”
샘 알트먼:“젊은 사람들에게 제 조언은 여전히 같습니다. 이 도구들을 사용하고, 새로운 것을 만들고, 호기심을 가지라는 것입니다.
사회와 경제는 분명히 변해야 합니다. 젊은 사람들은 그 사실을 더 잘 이해하기 때문에 불안해할 수 있습니다. 하지만 저는 결국 사회도 변화할 것이라고 생각합니다.”
25. “무한한 자원이 있다면, 전력 효율이 극적으로 높은 컴퓨팅에 투자하겠습니다”
닉 톰슨:“만약 누군가 OpenAI 밖에서 무한한 자원을 가지고 공공 프로젝트를 지원한다면, 어떤 AI 프로젝트에 투자하라고 조언하겠습니까?”
샘 알트먼:
“저라면 와트당 효율이 엄청나게 높은 새로운 컴퓨팅 접근법에 크게 투자하겠습니다. 앞으로 세계는 훨씬 더 많은 컴퓨팅을 원하게 될 것입니다. AI를 더 널리 제공할수록 수요는 거대한 파도처럼 밀려올 것입니다.
저는 1000배 수준의 효율 개선 같은 돌파구가 있었으면 합니다. 그런 돌파구가 실제로 있을지는 모르지만, 제가 찾으려 한다면 바로 그것을 찾겠습니다.”
전체 0