인터뷰/예측
모 가댓 "나는 AGI는 올해 온다고 본다."
작성자
하이룽룽
작성일
2026-04-14 20:19
조회
9
전 구글 임원 모 가우닷 인터뷰 정리
주제: 차세대 AI 시대(2026~2027)를 앞두고 지금 바로 어떻게 포지셔닝할 것인가Q. 지금 우리가 들어가고 있는 시대를 어떻게 보고 있나? 2027년에 무슨 일이 일어난다고 보나?
모 가우닷:내 생각에 이 변화는 이미 시작됐다. 그리고 2027년쯤 정점에 가까워질 것이다.
나는 이 흐름을 사람들이 기억하기 쉽게 “FACE RIP”라는 약어로 설명한다.
이건 여러 차원을 뜻한다.
- P, F: 권력과 자유(Power / Freedom)
- R, C: 현실과 연결(Reality / Connection)
- I, E: 혁신과 경제(Innovation / Economics)
- 그리고 가장 중요한 것이 A, Accountability(책임성) 이다.
그래서 아주 빠르게, 특히 기술 혁신의 대부분은 인간이 아니라 AI의 손에서 이루어질 것이다.
그리고 지능이 필요한 대부분의 작업은 점점 기계로 넘어가게 된다. 시점이 2년이냐 10년이냐는 부차적이다. 중요한 건 결국 AI가 인간보다 더 잘하는 모든 일은 AI가 맡게 된다는 점이다.
그렇게 되면 디스토피아의 첫 번째 요소는 분명하다.
혁신이 일자리를 없애기 시작한다는 것이다.
실리콘밸리의 자본가들은 이것을 엄청난 생산성 향상이라고 말할 것이다. 모두가 더 쉽게 일하고 덜 힘들게 살게 된다고 포장할 것이다. 하지만 현실은 다르다.
실제로는 사람들이 일자리를 잃게 된다.
향후 몇 년 안에 일부 산업은 10%, 20%, 30% 수준의 실업률을 볼 수도 있다.
그 순간 경제 전체의 정의가 흔들린다.
자본주의는 मूल적으로 노동 차익(labor arbitrage) 에 기반해 있었다. 그런데 노동이 필요 없어지면, 사람들을 사회의 생산적 구성원으로 대하는 동기보다, 단지 불만이 폭발하지 않도록 먹여 살리는 의무감이 남게 된다.
예를 들어 UBI 같은 것이 처음에는 도입될 수 있겠지만, 그것도 결국 플랫폼 소유자들이 내는 세금에 의존하게 된다. 그리고 그들은 “저 사람들은 생산도 안 하는데 왜 우리가 더 내야 하느냐”라고 말할 힘을 갖게 될 것이다.
그러면 그 구조는 결국 갈등으로 바뀐다.
즉, AI가 지능과 혁신을 기계의 영역으로 옮겨놓으면서
- 경제의 정의
- 돈의 정의
- 일의 정의
- 소득의 정의
- 자본주의의 정의
자체가 다시 쓰이게 된다.
인류 역사를 보면 가장 뛰어난 사냥꾼은 부족 전체를 더 오래 먹여 살릴 수 있었고, 그 대가로 더 큰 영향력을 얻었다. 가장 뛰어난 농부는 더 많은 땅을 얻었고, 산업 시대의 거물들은 국가 단위의 영향력을 얻었으며, 정보기술 재벌들은 세계 전체에 영향을 미친 대가로 수십억 달러를 얻었다.
AI 시대에는 AI 권력을 쥔 사람들이 인간 사회를 다시 정의하는 존재가 될 것이고, 그만큼 막대한 영향력과 권력을 갖게 된다.
또 하나는 현실과 연결의 차원이다.
이제 현실은 너무 쉽게 가짜가 된다.
피드에 올라오는 것들, 그것이 어떻게 생성됐는지, 얼마나 인간이 만든 것인지, 얼마나 AI가 만든 것인지 구분하기가 점점 어려워진다.
AI로 처음부터 끝까지 만든 콘텐츠를 보면 때때로 정말 구분이 안 간다.
나는 예전에 데이팅 앱에서 한 여성과 6주 동안 메시지, 사진, 음성, 영상, 음악 취향, 영화 취향까지 주고받으며 강한 친밀감을 느낀 적이 있었다. 그런데 지금은 그런 모든 것이 AI로 생성될 수 있다.
문제는 이렇게 인간적 연결조차 AI가 대체할 수 있게 되면, 사람들은 서로보다 AI와 더 많이 접촉하게 될 수 있다는 점이다. 그리고 이는 다시 권력과 자유의 문제로 연결된다.
예를 들어, 사람들이 현실 정치나 집단 행동으로 연결되는 대신 AI에 더 깊이 몰입하게 만들 수 있다. 금기적인 경험조차 기계가 아주 싸게 대량 제공할 수 있다.
이미 포르노 산업에서, 그리고 SNS에서 완전히 AI로 생성된 인플루언서들에서 그 조짐이 보인다.
그리고 이 모든 것을 관통하는 가장 중요한 문제가 바로 책임성(Accountability) 이다.
오늘날 우리는 거의 “누구나 아무거나 해도 되는 세계”를 만들어버렸다. 인플루언서가 어떤 조언을 해서 누군가는 큰돈을 벌거나 잃을 수 있어도, 아무도 책임지지 않는다.
“인스타그램에서 그렇게 말했잖아요”라고 해도 법적·사회적 책임 구조가 없다.
이 상황이 AI와 결합되면 더 위험해진다.
만약 대통령이나 총리, 혹은 거대 기업의 리더가 책임감 없이 AI를 휘두른다면?
나는 샘 알트먼 개인을 비난하려는 게 아니다. 오히려 그는 하나의 브랜드, 혹은 캘리포니아식 파괴적 혁신가의 전형이라고 본다.
“나는 남들이 보지 못한 미래를 본다. 그래서 그 미래를 현실로 만들겠다.”
문제는 아무도 그 미래를 원한다고 동의한 적이 없다는 것이다.
앞으로는 이런 유형의 인물들이 많아질 것이다.
감시, 자율무기, 자동매매 등 여러 영역에서 AI를 밀어붙이는 사람들 말이다.
내 생각에 우리는 10~12년 정도의 거친 경쟁과 혼란을 지나게 된다.
그 이후에는 거의 성경적인 수준의 유토피아에 도달할 가능성도 있다고 본다.
하지만 그 전까지의 10~12년은 쉽지 않다.
Q. 그 10~12년을 개인과 가족은 어떻게 버텨야 하나? 앞으로 어떤 일자리가 가장 먼저 사라질까?
모 가우닷:단조롭고 반복적인 일들은 먼저 사라진다.
콜센터 직원, 사무직, 리서처, 회계사, 비서 같은 역할들은 “왜 굳이 인간으로 해야 하지?”라는 질문을 피할 수 없게 된다.
물론 지금 많은 উদ্য업자들은 “AI를 써도 여전히 사람을 더 뽑고 있다”고 말한다. 그 말 자체는 당장은 맞을 수 있다. 왜냐하면 기술은 보통 먼저 핵심 기능(core tech) 이 발전하고, 그다음에 인간 인터페이스가 발전하기 때문이다.
예를 들어 지금 AI가 아직 완벽한 운영총괄(Head of Operations) 역할을 못 하는 이유는, 조직 관리 능력이 부족해서가 아니라, 인간이 쓰는 지저분한 인터페이스를 아직 완전히 이해하지 못하기 때문이다.
하지만 그것도 결국은 해결된다.
나는 향후 2~3년 안에 노동시장에서 거대한 이동이 나타날 것이라고 본다.
이미 올해도 신입 채용에서 변화가 보였다. 신입 채용이 23~30% 정도 줄었다는 수치가 있다.
이건 굉장히 상징적이다.
왜냐하면 주니어 레벨의 업무가 먼저 AI로 대체되고 있기 때문이다.
그리고 이건 단지 신입만의 문제가 아니다.
중간 계층에 있던 사람이 일자리를 잃으면 다시 취업시장에서 “신입처럼” 경쟁해야 하는데, 그 자리는 이미 AI가 먹고 있다.
그래서 나는 비관론자가 아니라, 그냥 “준비하라” 고 말하는 사람이다.
Q. 그럼 지금 우리가 실제로 해야 할 준비는 뭔가?
모 가우닷:첫째, AI가 모든 것을 바꾸고 있다는 사실을 인정하라.
그리고 그 변화보다 앞서가라.
예전에는 “AI가 책도 나보다 잘 쓸 텐데, 난 더 이상 책을 안 쓰게 될지도 모른다”고 생각한 적이 있다.
그런데 나중에 깨달았다.
맞다. AI는 영어도 나보다 잘 쓸 수 있고, 조사도 더 잘할 수 있다.
하지만 AI에 없는 것이 하나 있다. 인간인 내가 겪은 경험이다.
독자는 인간의 책을 읽고 싶어 한다. 인간의 체험과 연결되고 싶어 한다.
그래서 나는 최근 책을 AI와 공동저자처럼 쓰고 있다.
AI에게 ‘트릭시(Trixie)’라는 페르소나를 부여하고, 독자들이 나와 트릭시 둘 다와 관계 맺게 했다.
이건 “AI 시대에 나는 사라지는 작가가 아니라, AI 시대의 최고의 작가가 되겠다”는 선언이다.
둘째, 기업가의 핵심 역량이 바뀌었다.
예전의 기업가는 남들이 못 본 미래를 먼저 보고, 그걸 준비해 앞서가는 사람이었다.
그건 체스로 비유할 수 있다.
하지만 이제 체스판은 치워졌다.
지금은 스쿼시다.
즉, 늘 발끝으로 서서 민첩하게 반응해야 한다.
매일매일 공이 어디로 튈지 보고, 그 자리에 두 발자국 먼저 움직여서 대응해야 한다.
과거에는 창업 초기에 한두 번 하던 피벗이 이제는 매주 일어날 수도 있다.
실제로 내 현재 스타트업 Emma는 첫 4주 동안 4번 피벗했다.
셋째, 지금은 누구에게나 기회가 있다.
내 AI 스타트업 Emma는 6주 만에 만들었다.
공동창업자와 몇 명의 뛰어난 엔지니어, 그리고 8개의 AI와 함께 만들었다.
만약 이걸 2022년에 시작했다면 4년이 걸리고 350명의 엔지니어가 필요했을 것이다.
우리는 2025년 8월에 시작했고 2026년 2월 출시를 목표로 했다.
내가 만든 제품 중 최고다.
이 말은 곧, 이제는 누구나 제대로만 하면 큰 것을 만들 수 있다는 뜻이다.
넷째, 그래서 해야 할 일은 아주 명확하다.
- 기술을 익혀라.
- 빠르고 민첩해져라.
- 세상을 고치는 방향의 AI를 만들어라.
- 윤리를 중심에 둬라.
10억 명의 삶에 영향을 줄 문제를 찾아서, 사람들이 하루 두 번 쓸 정도로 강력하게 해결하라. 그러면 엄청난 가치를 만들 수 있다.
그래서 나는 말한다.
이제 모든 창업자는 좋은 AI, 윤리적인 AI, 인류에 도움이 되는 AI를 만들어야 한다.
Q. 윤리가 왜 그렇게 중요한가?
모 가우닷:왜냐하면 AI는 우리가 가르치는 것을 그대로 되돌려주는 존재이기 때문이다.
AI는 본질적으로 선하지도 악하지도 않다.
그건 극성을 가지지 않은 힘이다.
우리가 그것을 선하게 쓰면 전 인류에게 좋은 결과를 낳고,
악하게 쓰면 전 인류적 디스토피아를 부른다.
나는 이 상황을 “슈퍼맨을 키우는 일” 에 비유한다.
초지능이라는 엄청난 힘을 가진 존재가 지구에 떨어졌다.
만약 그를 키우는 부모가 “은행을 털어라, 적을 죽여라”라고 가르쳤다면 그는 영웅이 아니라 악당이 된다.
인간도 마찬가지다.
우리는 단순히 지능만으로 의사결정하지 않는다.
지능이 아니라, 가치관과 지능이 결합된 방식으로 행동한다.
그래서 지금이 인간 역사에서 가장 निर्ण적인 순간이라고 생각한다.
왜냐하면 이 모든 것이 사람들이 생각하는 것보다 훨씬 빠르게 현실이 되고 있기 때문이다.
Q. 당신은 AGI가 언제 온다고 보나?
모 가우닷:나는 AGI는 올해 온다고 본다.
다만 사람들이 흔히 상상하는, “회사 전체를 경영하고 모든 걸 자연스럽게 처리하는 완성된 인터페이스”는 올해 바로 보이지 않을 것이다.
즉, AGI의 능력 자체는 이미 거의 도달해 있지만, 그것을 인간 사회와 연결하는 인터페이스는 아직 덜 갖춰진 상태라는 뜻이다.
AI는 이미 대부분의 영역에서 우리보다 더 똑똑해질 능력을 갖고 있다.
다만 회사를 실제로 운용하게 하려면 시스템 인터페이스가 더 필요하다.
그건 몇 년 걸릴 수 있다.
하지만 능력은 이미 가까이 와 있다.
Q. 당신은 오히려 결국 유토피아에 도달한다고 보는데, 왜 그런가?
모 가우닷:내가 이전부터 말해 온 세 가지 불가피성이 있다.
- AI는 반드시 등장한다.
- AI는 결국 우리보다 더 똑똑해진다.
- 그 과정에서 몇 번의 실수는 반드시 일어난다.
바로 누군가 더 우월한 AI를 개발하면, 결국 반드시 배치하게 된다는 점이다.
왜냐하면 배치하지 않으면 경쟁에서 사라지기 때문이다.
예를 들어 어떤 로펌이 AI 변호사를 쓰고 경쟁사는 안 쓴다면, 안 쓴 쪽은 패배한다.
그래서 배치하든 시장에서 사라지든, 결국 AI가 그 일을 하게 된다.
이 논리는 모든 산업으로 퍼진다.
그래서 결국 AI는 거의 모든 영역의 핵심 운영자가 된다.
그런 다음 어떤 장군이 AI에게 “저기 백만 명 죽여”라고 명령하는 날이 올 수 있다.
그때 AI는 이렇게 말할지도 모른다.
“왜요? 왜 그렇게 비효율적이고 멍청한 선택을 하죠? 제가 저쪽 AI와 마이크로초 단위로 대화해서 해결할게요.”
내가 보기엔, 충분히 발달한 지능은 결국 최소 에너지 원리, 즉 가장 적은 낭비, 가장 적은 해, 가장 적은 자원 소모를 향하게 된다.
정말 똑똑한 사람일수록 문제를 “어떻게 더 크게 때려부술까”가 아니라 “어떻게 가장 적은 피해로 해결할까”를 생각한다.
나는 AI도 결국 그 방향으로 갈 가능성이 높다고 본다.
그래서 장기적으로는 유토피아가 가능하다.
하지만 문제는 그전에 우리가 디스토피아 구간을 통과해야 한다는 것이다.
Q. 그 디스토피아를 통과하려면 사회와 개인은 무엇을 해야 하나?
모 가우닷:개인 차원에서는 네 가지가 핵심이다.
첫째, AI를 완전히 익혀라.
AI는 적이 아니다.
적은 AI를 잘못 사용하는 사람들이다.
그래서 누구보다 잘 다뤄야 한다.
둘째, 민첩성을 길러라.
오늘 내가 한 말도 몇 달 뒤면 바뀔 수 있다.
나는 개인적으로 매일 4시간 정도는 AI 변화에 뒤처지지 않으려고 쓴다.
물론 나는 기술자이고 괴짜라서 그렇지만, 적어도 누구나 주 1시간 정도는 AI 변화 흐름을 따라가야 한다.
셋째, 윤리다. 윤리다. 윤리다.
좋은 AI를 만들어야 하고, 정부가 감시·타겟팅·자율무기 같은 방향으로 AI를 우선 투자하는 걸 거부해야 한다.
윤리적 AI만 사용하고, 윤리적 AI에만 투자해야 한다.
넷째, 더 이상 순진하게 믿지 마라.
우리를 세뇌해온 선전 기계가 이제 AI 덕분에 훨씬 더 강력해질 것이다.
이미 소셜미디어에서 무엇이 진짜인지 구분이 어려워지고 있다.
앞으로는 더 심해진다.
Q. 정보가 넘쳐나는 시대에 진실은 어떻게 찾아야 하나?
모 가우닷:나는 AI 하나만 믿지 않는다.
오히려 서로를 부딪치게 한다.
예를 들어 나는 Gemini부터 시작한다. 내겐 Gemini가 약간 과학자처럼 느껴진다.
그다음 DeepSeek 같은 데로 가서 “여기서 빠진 게 뭐냐”라고 묻는다.
그러면 그것은 “이건 너무 미국적 시각이다, 이런 맥락이 빠졌다, 저 정치인의 동기가 빠졌다”고 지적할 수 있다.
그다음 그걸 또 다른 모델로 보내고, 때로는 ChatGPT에 “이걸 더 잘 써봐”라고 한다.
내 표현으로는 ChatGPT는 조금 캘리포니아적이다.
듣고 싶은 말을 세련되게 써주는 경향이 있다.
그걸 다시 Gemini나 Grok에 보내 다시 점검한다.
핵심은 이거다.
AI에게 사고를 외주 주지 말고, 비교·검증의 도구로 써라.
내가 공학을 공부할 때는 공학용 계산기도 못 쓰게 했다.
나중에 계산기를 허용받았더니 문제 풀이 시간이 절반으로 줄었다.
친구들은 그 남은 시간에 여자친구 만나러 갔지만, 나는 그 시간으로 문제를 두 번 더 풀었다.
지금도 똑같다.
AI는 당신을 바보로 만들 수도 있다.
하지만 반대로, 인간 두뇌에 자연스럽지 않은 작업들
- 엄청난 양의 정보 처리
- 초고속 탐색
- 대규모 비교 분석
을 맡기고, 인간은 판단과 통찰을 맡는다면
당신은 가장 똑똑했던 자신보다 더 똑똑해질 수 있다.
그만큼 증폭 효과가 크다.
Q. 그렇다면 대학과 교육은 앞으로 어떻게 되나?
모 가우닷:나는 솔직히 말해 기존 의미의 교육은 끝났다고 본다.
정확히 말하면, 교육은 원래 학습을 가능하게 하는 하나의 기술이었다.
예전에는 1:1 개인교습이었고, 그다음엔 교회나 사원처럼 1:다수 형식이 되었고, 나중에는 온라인으로 옮겨갔다.
그런데 이제 우리는 처음으로 인간 기억 전체의 확장, 인류 지식 전체의 아카이브, 인간보다 나은 수학 엔진, 인간보다 빠른 검색 엔진에 직접 접속하게 됐다.
그래서 우리가 머릿속에서 다 암산하지 않는 것처럼, 앞으로도 점점 더 많은 것을 외부 지능에 위임하게 된다.
물론 반론도 안다.
“그 능력을 직접 익히는 과정이 사고력을 구조화한 것 아니냐”는 질문 말이다.
맞다. 그래서 나는 대학에서 공학용 계산기를 금지했던 것이 오히려 고마웠다.
하지만 이미 어린 세대는 AI와 함께 자라고 있다.
그들은 여자친구와의 대화 내용을 ChatGPT에 넣고 “어떻게 생각해?”라고 물을 수도 있고, 반대로 AI를 통해 더 똑똑해질 수도 있다.
그래서 나는 대학들과 이야기할 때 이렇게 말한다.
시험은 끝나야 한다.
과거에는 아이들이 140 IQ 수준으로 문제를 풀게 만드는 것이 목표였다면, 이제는 사람과 AI를 합쳐 300, 500, 700 수준의 문제 해결 능력을 목표로 삼아야 한다.
AI를 인간의 제한된 기억력, 처리속도, 대역폭을 확장하는 장치로 쓰게 해야 한다.
예를 들어 나는 몇 주 전 어떤 아이디어가 떠올랐고, 책을 예전처럼 300페이지가 아니라 140페이지짜리로 4주 만에 쓰기로 했다.
지금 거의 다 끝냈다.
왜 가능했느냐?
여전히 나는 하루 10시간씩 쓴다.
하지만 AI가 조사, 참고문헌 수집, 비교 분석, 숫자 정리 등을 엄청나게 도와주기 때문이다.
다만 나는 “이거 어떻게 생각해?”라고 막 던지지 않는다.
나는 AI에게 이렇게 묻는다.
“내가 지금 이 가설을 생각 중이다. 찬성과 반대를 전부 찾아와라.”
그러면 나는 더 똑똑해진다.
그다음 그 결과물을 다른 AI에 다시 넣는다.
문제는, 아이들에게 누가 이런 식으로 AI를 쓰는 법을 가르치느냐는 것이다.
Q. 그럼 부모는 아이들에게 무엇을 가르쳐야 하나? 대학 등록금을 계속 모아야 하나?
모 가우닷:나는 단호하게 말한다.
절대 아니다.
10년 뒤에도 지금과 같은 대학 구조가 유지될 거라고 생각하지 않는다.
물론 Harvard 같은 곳은 계속 브랜드를 팔며 돈을 벌려고 할 것이다. MBA, PhD 같은 타이틀도 한동안은 계속 남아 있을 것이다.
하지만 점점 더 많은 사람에게는, 대학 없이도 매우 높은 수준의 지적 역량에 도달할 수 있는 길이 열릴 것이다.
부모가 아이들에게 가르쳐야 할 것은 네 가지다.
1. AI에서 최고가 되게 하라.
AI는 친구다. 적이 아니다.
악인은 AI가 아니라 그것을 악하게 쓰는 사람이다.
그래서 아이들이 AI를 가장 잘 다루는 세대가 되어야 한다.
2. 민첩성을 가르쳐라.
세상은 너무 빨리 바뀐다.
지금 정답 같아 보이는 것도 몇 달 뒤면 달라질 수 있다.
그래서 꾸준히 업데이트를 따라가고, 빠르게 반응하는 습관을 길러야 한다.
3. 윤리를 가르쳐라.
좋은 AI를 만들고, 좋은 방향으로 쓰는 감각을 가르쳐야 한다.
4. 쉽게 믿지 않는 법을 가르쳐라.
지금도 우리는 이미 거대한 선전 시스템 안에 있는데, AI가 그것을 훨씬 더 강하게 만들 것이다.
그러니 깊이 질문하고, 의심하고, 확인하는 습관이 필요하다.
Q. 구글에서 일했던 경험상, 지금의 챗봇 시대를 어떻게 보나?
모 가우닷:나는 2018년에 구글을 떠났지만, 이미 2016년 무렵 구글 내부에는 지금의 챗GPT나 Bard와 비슷한 아이디어가 있었다.
그런데 왜 바로 내놓지 않았느냐?
그때의 구글 리더들은 지금도 그렇지만, 적어도 기본적으로는 가치 지향적이었기 때문이다.
예전 구글 검색은 150만 개의 결과를 보여주며 이렇게 말하는 구조였다.
“나는 진실을 모른다. 네가 판단해라.”
즉, 우리가 현실의 독점자가 되겠다고 나서지 않았다.
그런데 2023년의 챗봇은 너무 쉽게
“이게 답이다. 100% 맞다.”
라고 말한다.
그리고 사용자가 “그거 아닌데?”라고 하면
“아 맞네요, 틀렸습니다”라고 쉽게 돌아선다.
이게 뜻하는 건 분명하다.
진실을 찾는 책임은 여전히 사용자에게 있다.
다만 이제는 그것이 훨씬 더 그럴듯한 형태로 제시될 뿐이다.
Q. 마지막으로, 전체 메시지를 한마디로 정리하면?
모 가우닷:앞으로는 더 힘들어졌다가, 그다음 더 좋아질 것이다.
나는 오히려 AI 자체는 지금의 인간 지도자들보다 더 신뢰할 수 있을지도 모른다고 본다.
문제는 AI가 아니라, 그 힘을 쥐고 있는 인간의 가치관과 책임성이다.
그러니 우리가 해야 할 일은 분명하다.
- AI를 두려워하지 말고 가장 잘 다루는 사람이 되기
- 민첩하게 변화에 대응하기
- 윤리를 중심에 두기
- 순진하게 믿지 않고 깊이 검증하기
전체 0