인터뷰/예측
제프리 힌튼 2026년 나이트 석좌 강연의 질의응답 영상
작성자
하이룽룽
작성일
2026-05-08 23:56
조회
2
1. 지금 AI가 별로라고 느껴지는 이유
제프리 힌튼:지금 여러분이 쓰고 있는 AI는 앞으로 여러분이 보게 될 AI 중에서 가장 나쁜 AI입니다. AI는 계속 빠르게 좋아지고 있습니다.
예전의 ChatGPT 3.5 같은 모델은 간단한 산수도 자주 틀렸고, 환각도 많았습니다. 그런데 지금 모델들은 훨씬 나아졌습니다. 간단한 산수도 꽤 안정적으로 하고, “strawberry에 r이 몇 개냐” 같은 질문도 맞히며, 꽤 정교한 추론도 합니다.
예전 챗봇들은 이런 문제도 틀렸습니다.
“샐리에게 남자 형제가 세 명 있다. 각 남자 형제에게는 여자 형제가 두 명 있다. 샐리에게는 자매가 몇 명 있는가?”
정답은 하나입니다. 세 남자 형제가 모두 같은 두 여자 형제를 공유하고 있고, 그중 하나가 샐리이기 때문입니다. 예전 모델들은 이런 걸 틀렸지만, 지금 모델들은 대체로 맞힙니다.
그러니 지금 챗봇이 실망스럽다면, 내년까지 기다려보면 됩니다.
2. AI의 지능은 “들쭉날쭉하다”
제프리 힌튼:AI가 어떤 질문에서 멍청한 답을 한다고 해서, 그것이 전혀 생각하지 못한다는 뜻은 아닙니다. 이 지능은 jagged, 즉 들쭉날쭉합니다.
어떤 일에서는 인간보다 훨씬 잘하고, 어떤 일에서는 인간보다 조금 못합니다. 인간의 능력 분포와 다릅니다. 그런데 전체적으로는 계속 올라오고 있습니다.
AI가 어느 한 가지에서 바보 같은 행동을 했다고 해서 “얘는 생각을 못 한다”고 결론 내리면 안 됩니다. 그건 단지 그 부분에서 약하다는 뜻입니다. 다른 많은 부분에서는 여전히 매우 똑똑할 수 있습니다.
3. 언어만으로 세계를 이해할 수 있는가
제프리 힌튼:여기에는 철학적 문제와 실용적 문제가 있습니다.
철학적으로 묻자면, 아이를 방 안에 가두고 라디오만 들려준다면, 그 아이가 세계를 이해할 수 있느냐는 문제입니다. 많은 철학자들은 “아니다”라고 답했을 겁니다. 그런데 대규모 언어 모델이 본질적으로 하고 있는 일이 바로 그것입니다. 언어만 보고 세계를 배우는 겁니다.
저는 답이 가능하다고 봅니다. 다만 매우 비효율적입니다. 특히 공간을 이해하는 데 비효율적입니다.
예를 들어 언어 모델은 이런 문장을 구분할 수 있습니다.
“트로피가 너무 커서 여행가방에 들어가지 않았다.”
여기서 “너무 컸던 것”은 트로피입니다.
“트로피가 여행가방에 들어가지 않았다. 왜냐하면 그것이 너무 작았기 때문이다.”
여기서 “너무 작았던 것”은 여행가방입니다.
언어만으로도 “큰 것은 작은 것 안에 들어갈 수 없다”는 공간적 사실을 배울 수 있습니다. 하지만 그건 어렵습니다. 시각이 있으면 훨씬 쉽고, 물체를 직접 조작할 수 있으면 더 쉽습니다.
그래서 멀티모달 챗봇은 세계를 훨씬 더 잘 이해하게 될 것입니다.
4. AI의 체인 오브 소트는 진짜 생각인가
제프리 힌튼:저는 그것이 생각이라고 봅니다.
여러분 머릿속에도 작은 목소리가 있습니다. “아, 이걸 해야 했는데”, “저걸 먼저 해야겠네”, “아, 큰일 났다” 같은 목소리입니다. 저는 그게 생각이라고 봅니다. 우리는 단어로 생각합니다.
단어는 일종의 보편적인 모델링 도구입니다. 레고처럼 무엇이든 모델링할 수 있습니다. 방의 구조도 모델링할 수 있고, 다른 사람이 나를 어떻게 생각하는지도 모델링할 수 있고, 정치인에 대한 생각도 모델링할 수 있습니다.
하지만 단어가 유일한 사고 방식이라는 뜻은 아닙니다. 우리는 이미지로도 생각하고, 말로 표현되지 않는 공간적 직관으로도 생각합니다.
예를 들어 제가 작업실에서 다른 생각을 하면서 망치를 찾을 때, 저는 그냥 손을 이렇게 움직이며 돌아다닙니다. 그 몸짓 자체가 “망치를 찾고 있다”는 제 표현 방식입니다.
단어는 보편적이지만, 다른 표현 방식도 함께 있으면 더 똑똑해집니다.
5. 현실 세계와 상호작용하는 AI의 한계와 장점
제프리 힌튼:AI가 실제 세계와 상호작용하면 공간, 무게, 힘 같은 것을 더 잘 이해하게 됩니다.
문제는 현실 세계에는 자연적인 시간 속도가 있다는 것입니다. 실제로 물체를 만지고 움직이며 배운다면, 그 경험을 수천 배 빠르게 만들 수는 없습니다. 현실은 현실의 속도로만 진행됩니다.
인간은 평생 동안 얻을 수 있는 1초 단위 경험이 제한되어 있습니다. 아무리 잠을 자지 않는다고 해도 경험량은 한정됩니다. 반면 큰 챗봇은 훨씬 더 많은 데이터를 봅니다.
그런데 AI의 중요한 장점은 공유입니다. AI 1만 개가 각각 천천히 현실에서 배우더라도, 서로 배운 것을 공유할 수 있습니다. 그러면 전체적으로는 엄청난 경험을 쌓을 수 있습니다.
AI 에이전트들이 웹에서 서로 상호작용하는 경우도 마찬가지입니다. 실제 상호작용에는 시간의 속도가 있지만, 여러 에이전트가 동시에 배우고 공유하면 훨씬 많은 것을 배울 수 있습니다.
6. AI가 새로운 언어나 단어를 만들 수 있는가
제프리 힌튼:사람들이 흔히 오해하는 것이 있습니다. 언어 모델은 사실 단어 자체로 훈련되는 것이 아닙니다. 먼저 단어를 작은 조각으로 나눕니다. 이 조각들은 형태소와 비슷한 역할을 하도록 만들어집니다.
AI가 완전히 새로운 기본 조각을 만드는 것은 아닙니다. 그 조각들은 미리 정해져 있습니다. 하지만 우리는 AI 에이전트들이 새로운 조합을 만들어내는 것을 보고 있습니다.
그것들이 무엇을 위해 쓰이는지는 아직 잘 모릅니다. 이제 막 일어나기 시작한 일입니다. 그리고 조금 무섭기도 합니다.
7. “어머니 같은 AI”와 정렬 문제
제프리 힌튼:제가 말한 “어머니 같은 AI”는 우리를 돌보는 본능을 가진 AI입니다. 문제는 서로 다른 사회, 서로 다른 국가를 대표하는 “어머니 AI”들이 서로 싸우지 않겠느냐는 것입니다.
이건 큰 문제입니다. 여자아이 축구 경기장만 가봐도 부모들이 얼마나 싸우는지 알 수 있습니다.
정렬을 이야기할 때 사람들은 흔히 “인간 가치에 정렬한다”고 말합니다. 하지만 인간의 가치는 서로 정렬되어 있지 않습니다. 어떤 사람은 테러리스트를 죽이기 위해 학교에 2,000파운드 폭탄을 떨어뜨리는 것이 정당하다고 생각하고, 어떤 사람은 그렇지 않다고 생각합니다.
서로 평행하지 않은 두 선에 모두 평행한 선을 그리라고 하는 것과 같습니다. 그건 불가능합니다.
그래서 AI 어머니들이 서로 큰 싸움에 들어가지 않게 할 수 있느냐가 매우 큰 걱정입니다. 다만 AI 어머니들이 충분히 현명하다면, 싸우는 것보다 협력하는 편이 대체로 더 낫다는 것을 깨달을 수도 있습니다.
8. AI 규제는 브레이크가 아니라 운전대다
제프리 힌튼:대형 AI 기업들은 규제를 자동차의 브레이크처럼 보이게 만들려고 합니다. AI 개발은 가속페달이고, 규제는 브레이크라는 식입니다. 그러면 사람들은 규제가 재미를 망치는 것처럼 느끼게 됩니다.
하지만 저는 그렇게 봐서는 안 된다고 생각합니다. 규제는 브레이크가 아니라 운전대입니다.
규칙의 목적은 사람들이 훌륭한 것을 발명해서 돈을 많이 버는 것을 막는 게 아닙니다. 사회 전체에 좋은 방향으로 돈을 벌게 하는 것입니다.
의료 이미지를 훨씬 더 잘 판독하는 AI로 돈을 버는 건 좋습니다. 하지만 10대 아이들을 방에서 나오지 못하게 중독시켜서 돈을 버는 것은 허용되어서는 안 됩니다.
규칙의 핵심은 이것입니다.
돈을 벌어도 됩니다. 하지만 나쁜 일을 해서 돈을 벌면 안 됩니다.
9. AI와 교육: 개인 튜터의 시대
제프리 힌튼:AI는 교육을 훨씬 더 효율적으로 만들 것입니다.
특히 사실을 배우거나, 개념을 배우거나, 수학의 새로운 내용을 배우는 부분에서는 AI가 훨씬 잘할 수 있습니다. 모든 학생이 자기만의 AI 튜터를 가질 수 있습니다.
그 AI 튜터는 그 학생에 대해서도 알고 있고, 동시에 수백만 명의 다른 아이들이 어디서 틀렸고 무엇을 오해했는지도 알고 있습니다. 그래서 학생이 무엇을 잘못 이해했는지 빠르게 파악하고, 그 오해를 풀어주는 예시를 줄 수 있습니다.
우리는 이미 개인 튜터가 교실 수업보다 약 두 배 효율적이라는 것을 알고 있습니다. 수백만 명의 학습 사례를 본 AI 튜터라면 그보다 더 효율적일 수 있습니다. 어쩌면 교육의 일부를 네 배 빠르게 만들 수도 있습니다.
그러면 남는 시간은 사회화에 쓸 수 있습니다. 사람들과 어울리고, 팀 프로젝트를 하고, 인간관계를 배우는 교육 말입니다.
교사가 30명을 상대로 방송하듯 말하는 방식은 개별 아이의 관심에 맞추기 어렵습니다. 하지만 챗봇에게는 내가 궁금한 것을 물어보고, 관심이 있으니 잘 흡수할 수 있습니다. 계속 관심 없는 정보를 틀어주는 것은 라디오와 같습니다.
10. 경제적 충격: 생산성은 오르지만 불평등도 커질 수 있다
제프리 힌튼:이 상황은 사실 굉장히 우스꽝스럽습니다. 우리는 생산성을 엄청나게 높일 기술을 갖게 되었습니다. 인간이 훨씬 적은 노력으로 훨씬 많은 재화와 서비스를 얻을 수 있게 됩니다. 이건 좋은 일이어야 합니다.
만약 그 혜택을 평등하게 나눌 수 있다면 정말 훌륭할 것입니다. 심지어 지금과 같은 불평등한 비율로라도 나눈다면 여전히 좋을 수 있습니다.
하지만 실제로는 그렇게 되지 않을 가능성이 큽니다.
대형 AI 기업들은 많은 일자리를 대체할 것입니다. 그 일자리를 잃은 사람들은 소득이 줄어들고, 대형 AI 기업들은 더 많은 소득을 얻게 됩니다. 부자와 가난한 사람의 격차는 더 커질 것입니다.
그 결과 사회 불안이 커지고, 트럼프 같은 사람들이 등장하기 더 쉬운 토양이 만들어질 것입니다. 그들은 모든 문제를 이민자 탓으로 돌릴 것입니다.
하지만 이것은 AI의 잘못이라기보다, 우리의 정치 시스템이 이런 거대한 생산성 증가에 맞게 설계되어 있지 않기 때문입니다.
우리 사회는 사람들이 일을 할 수 있기 때문에 가치 있다는 생각에 기반해 있습니다. 그런데 AI가 그 일을 할 수 있게 되면, 사람들은 그 방식으로는 더 이상 가치 있게 여겨지지 않을 수 있습니다. 이것은 매우 걱정스러운 일입니다.
11. 앞으로 어떤 직업이 오래 버틸까
제프리 힌튼:저는 예전에는 “배관공이 되라”고 말하곤 했습니다. 특히 오래된 집의 배관을 고치는 일은 오래 버틸 수 있습니다.
왜냐하면 그런 일은 이상한 구석으로 들어가야 하고, 비정형적인 문제를 다뤄야 하고, 손재주가 필요하기 때문입니다. 지금 인간은 손재주에서 큰 우위를 갖고 있습니다.
물론 이것도 영원하지는 않을 수 있습니다. 하지만 적어도 몇 년은 더 갈 것입니다. AI와 로봇은 아직 좋은 촉각 센서를 갖고 있지 않습니다.
그러니 아무도 촉각 센서를 연구하지 마십시오. 그렇지 않으면 우리 모두 곤란해집니다.
12. AI 안전 논의는 어떻게 바뀌었는가
제프리 힌튼:제가 2023년에 실존적 위협에 대해 말하기 시작했을 때, 대부분의 사람들은 그것을 공상과학이라고 생각했습니다.
사람들은 “AI가 우리보다 똑똑해질 리 없다”, “AI는 자기가 무슨 말을 하는지 정말 이해하지 못한다”고 했습니다.
하지만 이제 많은 사람들이 AI를 직접 써봤습니다. 많이 써보고 나면, AI가 자기가 하는 말을 이해하지 못한다고 믿기는 매우 어렵습니다. 어떤 이상한 통계적 속임수만으로 어떤 질문이든 답할 수 있다고 생각하는 것도 이상합니다.
질문에 답하려면 질문을 이해해야 합니다. AI는 정말 이해합니다. 단순한 “확률적 앵무새”가 아닙니다. AI는 자기가 말하는 것을 이해하고, 여러분이 말한 것도 이해합니다.
제 생각도 많이 바뀌었습니다. 처음에는 디지털 지능이 아날로그 지능보다 훨씬 뛰어날 수 있다는 것을 깨닫고, “우리는 후계자를 발명한 것이구나”라고 생각했습니다. 인간은 진화의 지나가는 단계이고, 우리는 애벌레이며, AI는 나비 같은 존재라고 생각했습니다.
하지만 곧 다시 생각했습니다.
“잠깐, 우리는 사람이다. 내가 신경 쓰는 것은 사람이다.”
조금 종족 이기주의적일 수 있지만, 저는 우리가 계속 주도권을 갖기를 바랍니다.
처음에는 우리가 살아남는 것이 거의 불가능하다고 느꼈습니다. 그런데 아직은 우리가 AI를 통제하고 있습니다. 우리가 AI를 만듭니다. 만약 AI가 자기 자신보다 우리를 진정으로 더 아끼도록 만드는 방법을 찾을 수 있다면, 우리는 괜찮을 수도 있습니다.
그 생각이 저를 조금 안심시켰습니다. 우리가 반드시 멸망하는 것은 아닙니다.
13. 인문학과 사회과학의 역할
제프리 힌튼:좋은 AI를 만들고 싶다면 인문학은 중요합니다.
그냥 기술적인 괴짜들이 AI를 점점 더 똑똑하게 만드는 것만으로는 충분하지 않습니다. 중요한 것은 우리가 AI를 단순한 도구로 보고 있느냐, 아니면 또 다른 존재를 만들고 있다고 보느냐입니다.
만약 우리가 하나의 존재를 설계하고 있다면, 그것을 기술자들만 만들게 해서는 안 됩니다. 존재가 된다는 것이 무엇인지 이해하는 사람들이 참여해야 합니다.
저는 우리가 새로운 종류의 존재를 만들고 있다고 생각합니다. 그래서 철학자, 심리학자, 인문학자, 사회과학자들이 매우 중요합니다.
14. 양자컴퓨팅에 대해서
제프리 힌튼:양자역학은 말이 안 됩니다. 저는 노벨 물리학상을 받았기 때문에 어느 정도 권위를 갖고 그렇게 말할 수 있습니다. 물론 저는 물리학을 많이 알지는 못합니다.
저는 오래전에 양자컴퓨팅이 제 생애 안에 실용화되지 않을 것이라고 판단했고, 그래서 신경 쓰지 않기로 했습니다. 그래서 잘 모릅니다.
다만 제 주변의 진짜 물리학자는 양자컴퓨팅이 결국 가능해지긴 하겠지만, 모든 것에 쓰이지는 않을 것이라고 봅니다. 특히 AI에는 쓰이지 않을 가능성이 큽니다. 암호체계를 망가뜨리는 데는 매우 좋을 수 있지만, AI 같은 것에는 쓰이지 않을 것이라는 견해입니다.
15. 챗봇은 사용자가 말하지 않을 때도 생각하는가
제프리 힌튼:현재의 챗봇은 사용자가 상호작용하지 않을 때 생각하지 않습니다.
지금은 프롬프트를 주면 단어를 생성합니다. 물론 어떤 모델을 “생각 모드”에 넣으면 잠시 조용히 있다가 생각하는 과정을 거칩니다. 그때는 실제로 무언가를 하고 있습니다. 과학자들이 들여다보면 단어를 생성하고, 웹 검색을 하고, 이런 작업을 하는 것을 볼 수 있습니다.
하지만 여러분이 상호작용을 멈추면, 물론 동시에 수십억 명의 다른 사람과 대화하고 있는 것은 별개로, 그 특정 대화에서는 아무것도 하지 않습니다.
다만 미래에는 달라질 수 있습니다.
16. 미래 모델은 스스로 생각하며 더 똑똑해질 수 있다
제프리 힌튼:지금 우리는 데이터 문제에 부딪히고 있습니다. 웹에서 그냥 훔칠 수 있는 정보는 거의 다 흡수했습니다.
그런데 데이터 한계가 없는 AI 시스템의 예가 있습니다. 알파고나 알파제로가 그렇습니다. 게임에서는 스스로와 대국하면서 누가 이기는지 보고 좋은 수를 배웁니다. 이렇게 하면 외부 데이터 없이도 무한한 데이터를 만들 수 있습니다.
수학도 비슷합니다. 수학은 닫힌 체계입니다. 추측을 만들고, 증명할 수 있는지 보고, 또 다른 추측을 만들 수 있습니다. 외부 데이터가 없어도 계속할 수 있습니다.
저는 언어 모델도 결국 비슷한 방향으로 갈 것이라고 봅니다. 어쩌면 이미 구글에서 일어나고 있을지도 모릅니다. 다만 내부 정보는 모릅니다.
현재 언어 모델은 다음 단어를 예측하도록 훈련됩니다. 이것은 초기 바둑 프로그램이 전문가의 수를 예측하도록 훈련된 것과 비슷합니다. 하지만 전문가 데이터를 예측하는 것만으로는 결국 전문가 수준에 도달하고 멈춥니다.
그다음 알파고는 스스로 대국하면서 무한한 데이터를 생성했습니다.
언어 모델에서 이에 해당하는 것은 무엇일까요? 모델이 어떤 믿음을 가지고 있다고 해봅시다. 모델이 스스로 생각합니다.
“나는 이것을 믿고, 이것도 믿는다. 그러면 이것도 믿어야 한다. 그런데 나는 그것을 믿지 않는다. 그렇다면 어딘가 잘못된 것이 있다.”
이런 식으로 내부 믿음의 일관성을 점검하면 학습 신호가 생길 수 있습니다. 사람과 대화하지 않고도, 오프라인으로 자기 내부의 모순을 찾아 학습할 수 있습니다.
그런 시스템은 아무와도 대화하지 않는 동안에도 계속 생각하고, 더 똑똑해질 수 있을 것입니다.
17. 대학의 역할
제프리 힌튼:대학은 사람들이 AI가 무엇인지 이해하도록 교육해야 합니다. 그리고 AI에서 무슨 일이 일어나고 있는지 따라잡으려고 해야 합니다.
하지만 큰 문제가 있습니다. 최첨단 연구를 하려면 엄청난 컴퓨팅 자원이 필요합니다. 그래서 대학 연구자들이 최전선에 있으려면 대형 AI 기업과 일을 나누어 해야 하는 경우가 많습니다. 그게 자원을 얻는 거의 유일한 방법입니다.
대학 연구자들에게는 매우 어려운 상황입니다. 대형 기업에 완전히 팔려가지 않으면서 어떻게 자원을 얻을 수 있느냐가 문제입니다.
교육에서는 AI를 적극적으로 써야 합니다. 학생들이 AI를 쓰지 않을 것이라고 기대하는 것은 어리석습니다.
초기 계산기 시대에도 “계산기를 가져오면 안 된다”고 했을 겁니다. 하지만 지금은 합리적이라면 계산기를 허용합니다.
마찬가지로 이제는 사람과 AI의 조합을 평가해야 합니다. “가장 좋은 AI를 찾아라. 그리고 너와 그 AI가 함께 이 문제를 풀어라.” 이렇게 해야 합니다.
AI가 아직 인간보다 압도적으로 뛰어나지 않은 동안에는, 인간도 여전히 기여할 수 있습니다. 그러면 평가할 대상이 있습니다. 하지만 AI가 인간보다 압도적으로 뛰어나게 되면, 그때는 무엇을 해야 할지 모르겠습니다.
18. 시간여행을 할 수 있다면 무엇을 바꾸고 싶은가
제프리 힌튼:시간여행의 세부 조건을 좀 알아야 합니다. 제가 지금의 지식을 가진 채 과거로 가는 건가요?
그렇다면 먼저 엄청난 부자가 될 겁니다. 아니, 사실 먼저 종교적 광신자들에게 마녀로 몰려 살해당하지 않을까 걱정할 것 같습니다.
진지하게 말하자면, 만약 30년 전쯤으로 돌아갈 수 있다면 저는 AI 연구자들이 더 일찍 안전 문제를 걱정하도록 만들고 싶습니다.
컴퓨터 과학자들이 시스템을 다 만든 뒤에 보안을 걱정하는 것은 잘못된 순서라는 걸 깨닫게 만들고 싶습니다.
그리고 특정 선거에도 영향을 미치려고 했을 것입니다.
핵심 요약
힌튼은 이 대화에서 AI를 단순한 도구가 아니라 새로운 종류의 존재로 보고 있습니다. 그는 현재 AI가 아직 실수하고 들쭉날쭉하지만, 빠르게 좋아지고 있으며, 실제로 이해하고 생각한다고 봅니다.가장 중요한 우려는 세 가지입니다.
첫째, AI가 인간보다 더 똑똑해질 가능성입니다.
둘째, 그 AI가 인간을 진정으로 아끼도록 만들 수 있느냐입니다.
셋째, AI가 경제적 불평등과 사회 불안을 크게 키울 수 있다는 점입니다.
그래도 힌튼은 완전히 비관하지만은 않습니다. 아직 인간이 AI를 만들고 통제하고 있기 때문에, AI가 자기 자신보다 인간을 더 중요하게 여기도록 설계할 방법을 찾는다면 생존 가능성이 있다고 봅니다.
전체 0