인터뷰/예측
잭 클라크 "AI는 2028년까지 스스로를 구축할 수 있다"
작성자
하이룽룽
작성일
2026-05-08 21:40
조회
5
인류학 연구소가 경고하다:
AI는 2028년까지 스스로를 구축할 수 있다
(00:00)우리는 앤트로픽 공동창업자 잭 클라크와 함께 AI의 미래에 대해 이야기하고 있습니다. 정말 막판에 이 인터뷰 기회가 생겼습니다. 그래서 저는 마이애미에서 노트북으로 접속해 있고, 잭은 훨씬 더 멋진 장소인 샌프란시스코 앤트로픽 본사에 있습니다. 잭, Axios에 오신 걸 환영합니다.
잭 클라크:
초대해 주셔서 감사합니다, 마이크.
진행자:
당신은 온라인에서 큰 논의를 촉발했습니다. 그동안 사람들 사이에서 속삭이듯 이야기되던 주제를 훨씬 더 공식적으로 꺼냈기 때문입니다. 바로 AI가 AI 자체의 연구개발 속도를 높이는 데 기여하기 시작했다는 초기 신호에 관한 이야기입니다. 그리고 당신은 2028년까지 AI가 자기 자신을 만들 수 있을 것이라고 말하고 있습니다. 그 최전선으로 우리를 데려가 주시죠.
(00:31)
잭 클라크:
제 예측은 이렇습니다. 2028년 말까지는, 우리가 어떤 AI 시스템에게 “너 자신의 더 나은 버전을 만들어라”라고 말하면, 그 AI가 완전히 자율적으로 그 일을 수행할 수 있는 시스템이 등장할 가능성이 그렇지 않을 가능성보다 더 높다고 봅니다.
그렇게 예측하는 이유는 AI 개발에 관한 여러 공개 정보들을 면밀히 살펴봤기 때문입니다. 우리는 단순한 코딩을 할 수 있는 AI 시스템에서 출발해, 이제는 과학 자체의 생산 과정에 관여하는 AI 시스템으로 이동해 왔습니다. 또한 대규모 연구개발 프로젝트를 수행할 때 필요한, 화려하지는 않지만 근본적인 엔지니어링 작업에도 AI가 관여하기 시작했습니다.
(01:03)
그래서 저는 글을 쓰기로 했습니다. 앤트로픽 인스티튜트의 목적은 사람들에게 앞으로 무엇이 다가오고 있는지 감각을 주고, 이런 개념들을 일찍부터 이야기함으로써 우리가 생각할 시간을 갖게 하는 데 있습니다.
그리고 당신과 저 모두 동의하겠지만, 자기 자신을 만들 수 있는 AI 시스템은 엄청난 함의를 갖습니다. 그래서 우리는 지금부터 그것에 대해 생각하기 시작하고 싶습니다.
진행자:
잭, 당신은 이 문제에 대해 어느 정도 불안감도 가지고 있는 것 같습니다.
(01:49)
잭 클라크:
아마 제 안의 영국인 기질 때문일 수도 있는데요. 저는 지난 10년 동안 기술 산업에서 일하면서 정말 많은 변화를 겪었습니다. 그런데 앞으로는 그보다 더 빠른 변화가 생길 것입니다.
많은 미국인들과 이야기해 보면, AI의 영향과 이 산업이 움직이는 속도에 대해 어느 정도 불안감을 갖는 것은 당연하다고 생각합니다. 제가 보고 있는 것은 기술적 추세입니다. 그리고 그 추세는, 오히려 앞으로 속도가 더 가속될 가능성이 크다는 쪽입니다.
진행자:
당신이 여기서 상상하고 있는 것은 AI가 인간이 만든 시스템을 대체할 전체 시스템을 구축하는 것입니다.
(02:18)
잭 클라크:
그렇습니다. 다만 조금 덧붙이자면, 저는 인간이 더 이상 할 일이 없어질 것이라고 생각하지는 않습니다. 사실 우리는 AI 시스템이 수행한 일을 검증하고, 이런 새로운 시스템들이 어떻게 작동하는지 살펴보는 데 엄청난 양의 일을 하게 될 것입니다.
하지만 이것은 AI 개발 방식 자체가 근본적으로 바뀐다는 뜻입니다. 그리고 이 산업이 앞으로 나아가는 속도도 한 단계 더 올라갈 것입니다. 더 빠르게 움직이게 될 것입니다.
진행자:
우리는 재귀적 자기개선, 즉 recursive self-improvement에 대해 이야기해 왔습니다. 그런데 이것은 재귀적 구축, recursive construction이라고 봐야 할까요? 아니면 이것이 기업들이 지금까지 보고 추진해 온 것과 어떻게 다른 도약인지 설명해 주실 수 있을까요?
(02:45)
잭 클라크:
비유를 하나 들어보겠습니다. 오늘날 모든 AI 기업이 3D 프린터 회사라고 해 봅시다. 우리는 매우 재능 있는 사람들을 두고 있습니다. 그 사람들은 3D 프린터의 다음 프린트 헤드를 어떻게 만들지 연구합니다. 더 정밀한 작업을 할 수 있는 프린트 헤드를 만들기 위해서죠.
그리고 그러기 위해서는 그 프린트 헤드의 해상도를 높이기 위한 많은 과학 연구가 필요합니다.
(03:14)
AI에 대한 비유는 이렇습니다. 만약 3D 프린터가 갑자기 자기 자신의 더 나은 버전을 만들 수 있다면 어떻게 될까요? 만약 3D 프린터가 스스로 더 정밀한 프린트 헤드를 출력하고, 더 나은 버전들을 만들어 나갈 수 있다면 어떻게 될까요?
우리는 그런 기술을 전에 만난 적이 없습니다. 항상 기술 바깥에 있는 인간이 아이디어를 생각해 내고, 그 아이디어를 다시 기술 안으로 넣어야 했습니다.
(03:35)
그런데 만약 기술 자체가 자기 자신을 어떻게 개선할지에 대한 아이디어를 내부에서 생성할 수 있다면 어떻게 될까요? 이것은 새로운 개념입니다. 우리가 맞닥뜨려야 할 새로운 현상입니다.
진행자:
우리가 이 문제를 이해하려고 할 때, 이것이 앤트로픽이라는 회사에는 어떤 의미를 가질까요? 우리에게 여전히 당신들이 필요한가요?
(04:03)
잭 클라크:
우리와 다른 기업들은 이 기술을 가져다가 세상에서 좋은 일을 하도록 만들려고 할 것입니다. 예를 들어 생물학, 의학, 로보틱스 같은 분야를 앞으로 밀어붙이는 데 도움을 주는 것이죠.
그리고 훨씬 더 똑똑해졌고, 어느 정도는 스스로를 적응시켜 더 나아질 수 있는 기술이 등장한다는 것은, 우리 인간이 그 기술을 정말로 진전이 어려운 영역으로 이끌 수 있는 기회를 열어준다는 뜻입니다.
(04:41)
그런 영역에서는 믿을 수 없을 만큼 뛰어난 인간 과학자들이 필요합니다. 그런데 그런 사람들은 너무 적습니다.
예를 들어 암 연구 같은 분야에 이 기술을 투입한다고 해 봅시다. 그리고 그 기술이 믿을 수 없을 정도로 똑똑한 인간 동료처럼 작동한다고 해 봅시다. 그 AI가 그 엄청나게 어려운 주제를 중심으로 자신을 정렬하고, 그 과제를 더 잘 수행하기 위해 자신이 어떻게 개선되어야 하는지를 파악할 수 있다면, 그것은 우리 모두에게 놀라운 결과를 가져올 것입니다.
그래서 저는 우리가 이 기술을 달성한다면, 우리는 상당히 바빠질 것이라고 생각합니다.
진행자:
잭, 당신은 연구 의제에서 “비상훈련 시나리오”, fire drill scenarios에 대해 이야기합니다. 그리고 “지능 폭발”, intelligence explosion이라는 용어가 있습니다. 이 용어는 AI 안전성 분야에서 다소 이론적인 개념으로 여겨져 왔습니다. 그런데 당신은 그것을 글의 전면에 내세웠습니다. 지능 폭발이 무엇인지, 그리고 왜 그것에 대비하고 있는지 설명해 주십시오.
(05:33)
잭 클라크:
지능 폭발이란 AI 시스템들이 갑자기 매우, 매우 빠르게 개선되기 시작하는 상황을 말합니다. 그리고 세계는 새로운 기회이자 새로운 문제에 직면하게 됩니다.
그 문제는 이렇습니다. 여러 과학 분야에서 동시에 엄청난 성장이나 엄청난 풍요가 발생할 때, 우리는 그것을 어떻게 다룰 것인가?
(06:04)
물론 우리는 그 작업의 잠재적 위험을 다뤄야 합니다. 예를 들어 사이버 영역의 함의나 생물무기와 관련된 함의 같은 것들입니다.
하지만 동시에 풍요의 측면에 대해서도 계획이 필요합니다. 이런 놀라운 기술들이 사람들에게 혜택으로 흘러가도록 어떻게 보장할 것인가? 더 나은 의료 서비스, 건강한 식품을 생산하는 비용의 절감, 우리가 세상에서 모두 바라는 여러 개선들로 어떻게 이어지게 할 것인가?
(06:33)
오늘날의 모든 제도는 매우 좁은 관을 가지고 있습니다. 새로운 신약 후보나 새로운 아이디어가 시장에 나오기 전까지는 그 좁은 관을 통과해야 합니다. 그렇다면 이 풍요가 오기 전에 그 관의 크기를 어떻게 엄청나게 넓힐 수 있을까요?
그리고 이 기술이 만들어낼 수 있는 잠재적 위험에 대해, 세계를 “방어 우위”, defense dominant 상태로 만들기 위해 어떻게 노력할까요?
진행자:
방어 우위라는 말은 무슨 뜻입니까?
(07:09)
잭 클라크:
지금 우리가 다른 기관들과 긴밀한 협력 속에서 진행하고 있는 실험이 있습니다. 그것은 Mythos라고 불리는 것입니다.
우리는 하나의 모델을 가지고 있고, Glass Wing이라는 이니셔티브도 가지고 있습니다. 여기서 우리는 세계에서 가장 중요한 기업과 조직들, 그리고 미국 정부가 방어 우위의 사이버 환경을 만들 수 있는 수단을 갖추도록 하려 합니다. 사이버 영역을 훨씬 더 잘 이해하게 된 시스템들을 활용해서 말입니다.
(07:27)
그렇다면 다른 영역에서는 어떻게 같은 일을 할 수 있을까요? 이것은 우리가 길러야 할 근육입니다. 그리고 이것은 우리가 예상하는 변화에 대해 세계를 더 회복력 있게 만들고, 더 잘 준비되게 해 줄 것입니다.
진행자:
잭, 제가 펜타곤과 행정부 관계자들과 비공식적으로 나눈 대화에 따르면, Mythos와 그 힘이 바로 펜타곤이 앤트로픽과 관계를 개선하려고 하는 이유입니다. 행정부가 당신들의 도구를 더 널리 사용 가능하게 만들고 싶어 하는 이유이기도 합니다.
Mythos를 일부 파트너들이 사용하게 한 이후, 그 힘에 대해 무엇을 배우셨습니까? 당신들은 연구소 안에서 그것이 엄청나고 두려운 사이버 침투 능력을 가지고 있다는 것을 알고 있었습니다. 그래서 그것을 공개하는 데 매우 조심스러웠던 것이죠. 이제 통제된 공개 환경 안에 들어간 뒤 무엇을 배웠습니까?
(08:19)
잭 클라크:
이것이 바로 앤트로픽 인스티튜트를 만든 철학입니다. Mythos의 사이버 능력 같은 기술에 대해, 연구소들만 알고 있는 정보가 있습니다. 그런 정보를 어떻게 세계에 전달해서, 세계가 더 나은 결정을 내릴 수 있도록 장비를 갖추게 할 것인가?
우리가 배운 것은, 이런 기술들을 아주 소수의 플레이어 내부에만 중앙집중화할 수 없다는 것입니다.
(08:49)
우리는 더 잘 파악해야 합니다. 정책 입안자들, 기업들, 다른 조직들 사이에서 어떤 공동체가 있어야 하는지, 그리고 우리가 새로운 기술들을 누구에게 흘려보내야 그들이 함께 문제를 해결할 수 있는지 말입니다.
이 모든 과정에서 가장 기쁜 점 중 하나는, 우리가 이 진지한 기술을 가지고 있고, 그것을 일련의 사람들에게 배포했다는 것입니다.
(09:10)
그들은 그 기술의 힘을 경험하면서 자신들의 조직을 더 안전하게 만들었습니다. 동시에 이것이 일회성 일이 아니라는 사실도 인식하게 되었습니다. 이것이 미래의 모습이라는 것이죠.
그 결과 우리는 AI가 제기하는 정책 문제를 다루는 데 있어 훨씬 더 협력적인 위치에 오게 되었습니다. 또한 함께 해결책을 만들어내는 방향으로 나아가게 되었습니다.
진행자:
Mythos가 반쯤 야생 상태, semi-wild에서 사용되면서 놀랄 만한 일이나 겁나는 일이 있었습니까?
(09:31)
잭 클라크:
아직은 없습니다. 하지만 우리는 계속해서 그것을 “주의해서 다뤄야 하는 기술”로 취급하고 있습니다.
다만 궁극적인 목표는 모든 AI 기술을 주의해서 다뤄야 하는 체제에 갇히는 것이 아닙니다. 그렇게 되면 사회에 최대한의 혜택을 주기 위해 기술을 확산시키는 데 문제가 생길 수 있습니다.
(09:55)
우리가 배우고 있는 것의 상당 부분은, 어떻게 견고한 안전장치와 견고한 개입 방식을 구축할 것인가입니다. 그렇게 해야 미래에는 전 세계가 이런 종류의 기술을 더 넓은 사람들에게 더 널리 확산시키는 데 자신감을 가질 수 있고, 더 많은 혜택을 얻을 수 있습니다.
진행자:
잭, 이 연구 의제의 몇몇 요소가 얼마나 놀라운지 말하지 않을 수 없습니다. 연구 의제라고 하면 지루할 것 같잖아요. 그런데 저는 여기의 여러 지점들에 아주 강하게 반응했습니다.
그중 하나는 당신이 풍요에 대해 이야기한다는 점입니다. 물론 일부에게는 풍요가 있을 수 있습니다. 하지만 다른 길도 있습니다. 진짜 혼란, 경제적 고통, 일자리 고통이 있을 수 있습니다.
그리고 인스티튜트가 할 일 중 하나는 중대한 변화와 혼란의 조기 경고 신호를 찾고, 정부가 그것에 대응하도록 독려하는 것입니다. 이것은 새로운 일입니다. 산업정책입니다. 어떻게 거기에 이르게 되었는지 설명해 주십시오, 잭.
(10:48)
잭 클라크:
저는 우리가 2년이나 3년 안에 갖게 될 것으로 예상하는 기술의 종류와, 경제가 오늘날과 정확히 같은 상태로 유지될 것이라는 생각을 조화시킬 수 없습니다. 제가 이야기해 본 사람들 중 누구도 그것을 조화시키지 못합니다.
모두가 우리 앞에 큰 변화가 있다고 봅니다.
인스티튜트의 목표는 조기 경고 데이터를 널리 공유하는 것입니다. 그리고 연구소 바깥의 전문가들과도 공유하는 것입니다. 그렇게 해서 우리가 연구소 내부에서 변화를 보는 만큼 빠르게, 외부에서도 그 변화를 볼 수 있게 하고 대응할 수 있게 하려는 것입니다.
(11:20)
또한 저는 이것을 이렇게 생각합니다. 어쩌면 어려울 수 있는 질문들을 던지고, 그것을 실용적인 답으로 바꾸는 것입니다.
생각보다 훨씬 더 빨리 도래할 수 있는 새로운 형태의 풍요에 기반해 경제를 어떻게 구축해야 할까요?
개인적인 의견으로 말하자면, 저는 우리 앞에 놀라운 기회가 있다고 생각합니다. 사람들이 사람을 선호하는 영역, 예를 들어 교사, 돌봄 노동자, 경제의 다른 일부 영역에서 일자리 수를 엄청나게 늘릴 기회가 있습니다.
(11:54)
동시에 AI에 의해 더 직접적으로 영향을 받을 수 있는 일자리들을 아주 면밀히 살펴봐야 합니다. 그리고 재훈련과 재교육이 어떻게 작동할 것인지 물어야 합니다.
또한 그런 일자리들이 영향을 받게 될 경우, 사람들이 새로운 경제로 전환할 수 있도록 돕는 사회 프로그램을 어떻게 생각해야 할지도 물어야 합니다.
기억해야 할 핵심은, 우리는 여기서 성공을 계획하고 있다는 것입니다.
(12:21)
우리는 기술이 우리가 생각하는 만큼 강력해지고, 그 과정에서 오용이나 정렬 실패 같은 문제들을 해결하는 세계를 계획하고 있습니다.
그리고 그다음에 무슨 일이 일어나는지를 묻고 있습니다. 실제로 그다음에 무슨 일이 일어나는지는 사람들 사이에서 충분히 설명되지도 않았고, 충분히 생각되지도 않았다고 봅니다. 우리는 그 대화를 열고 싶습니다.
진행자:
좋습니다. “충분히 설명되지 않았고, 충분히 생각되지 않았다”는 말이 좋습니다. 그리고 당신은 방금 우리가 생각하는 것보다 더 빠를 수 있다고 말했습니다.
당신은 젊은 아버지입니다. 저는 젊은 사람들과 자주 이야기합니다. 그들은 “무엇을 전공해야 하나요?”, “대학 졸업 후 무엇을 해야 하나요?”, “어떻게 커리어를 계획해야 하나요?”라고 묻습니다. 그런 질문을 받으면 어떤 조언을 해 줍니까?
(12:39)
잭 클라크:
질문을 잘하는 사람이 되라고 말하고 싶습니다. 그리고 어릴 때 가지고 있던 호기심을 유지하거나 장려하라고 말하고 싶습니다. 그 호기심은 보통의 제도와 보통의 직장 생활 속에서 어느 정도 억눌려 버립니다.
그런데 이제 여러분에게는 어떤 호기심이든 충족시켜 줄 수 있는 엔진이 있습니다. 어떤 질문이든 답할 수 있는 엔진이 있습니다. 여러분이 가능하다고 생각했던 것보다 더 많은 일을 할 수 있게 해 주는 엔진이 있습니다.
(13:12)
많은 사람들은 자기 자신과 협상하면서 스스로의 야망을 제한해 왔습니다. 저는 지금이야말로 매우 야심 찬 생각을 할 때라고 봅니다. 믿을 수 없을 정도로 복잡한 질문을 던지고, 이 기술을 활용해 도움을 받으십시오.
폭넓게 읽으십시오. 정말 폭넓게 읽으십시오. 하지만 지금은 모든 사람이 무언가에 대해 일종의 nerd, 즉 깊이 빠져드는 사람이 되어야 할 때입니다.
(13:35)
제가 말하는 nerd란 완전히 매혹되는 영역을 갖는다는 뜻입니다. 그것이 목공이든, 컴퓨터 과학의 한 측면이든 상관없습니다. 여러분은 무언가에 대해 깊은 견해를 가지는 것에서 혜택을 보게 될 것입니다.
그것이 거의 무엇이든 상관없습니다. 중요한 것은 깊이 들어가는 기술을 경험해 봤다는 점입니다. 그리고 일반적인 호기심을 함께 갖는 것입니다. 이 두 가지를 결합하면 정말 놀라운 일들이 가능해질 것입니다.
진행자:
여기에는 약간의 포지셔닝 전략도 있는 것 같습니다. 앤트로픽은 책임 있는 프런티어 연구소라는 브랜드를 구축했습니다. 그래서 인스티튜트가 안전과 신뢰를 중심에 두는 것은, 당신이 우리가 생각하는 것보다 빠르게 다가오고 있다고 말하는 이 놀라운 시대에 그 브랜드를 확장하고 투사하는 것처럼 보입니다.
(13:58)
잭 클라크:
동기는 언제나 전체 이야기를 말하는 것이었습니다.
때로는 우리가 걱정하는 위험에 대해 이야기한다는 뜻입니다. 때로는 상상하기 어려울 정도로 엄청난 풍요에 대해 이야기한다는 뜻이기도 합니다. 하지만 사실 우리는 그저 우리가 보는 대로 전체 이야기를 말하려는 것입니다.
(14:25)
제 관점에서 저는 지금 그 어느 때보다도 확신하고 있습니다. 이 기술은 정말로 성공할 것입니다. 우리는 모든 AI 연구자들이 가능하다고 생각하는 것을 달성하게 될 것입니다.
그리고 사실 우리가 정말로 마주하지 않은 질문은 이것입니다. 우리가 성공한다고 가정하고, 그 기술이 안전하게 만들어진다고 가정하면, 그다음에는 그것으로 무엇을 할 것인가?
(14:47)
그래서 저는 제가 다음의 큰 질문이라고 생각하는 것에 앞서가려는 것입니다. 그리고 앤트로픽도 그 질문에 앞서가게 하려는 것입니다.
진행자:
잭, 그 일부는 위기 시나리오 계획에 대해 매우 직설적으로 이야기하는 것입니다. 제 눈에 확 들어온 부분은 당신이 냉전 비유를 들었다는 점입니다.
(15:05)
잭 클라크:
우리가 시작한 대화 중 하나는 이것입니다. 그렇습니다. 지금은 매우, 매우 심각한 지정학적 문제가 있습니다. 특히 미국과 중국 같은 나라들 사이에 그렇습니다.
하지만 냉전의 교훈 중 하나는, 인류에게 실존적 영향을 미치는 기술을 다루던 경쟁 국가들이 서로 대화할 방법을 찾아냈다는 것입니다. 여기서도 우리는 같은 일을 해야 할 것입니다.
(15:35)
또 우리는 냉전이 끝난 뒤 무엇이 왔는지에 대해서도 아주 신중하게 생각해야 합니다. 냉전이 끝난 후에는 국가들이 서로 어떻게 관계를 맺을 것인지 생각할 기회가 생겼습니다.
다시 말하지만, 여기서도 우리는 성공을 계획해야 합니다.
(16:04)
만약 미국이 성공하고 미국 기업들이 성공하지만, 세계를 다루지 못한다면, 세계를 안정화하지 못한다면, 거기에는 매우 큰 질문들이 숨어 있게 됩니다.
우리는 앤트로픽의 데이터와 아이디어를 제공해서 전문가들이 선택 가능한 공간이 어떤 모습인지 파악하는 데 도움을 주고 싶습니다.
진행자:
잭, 당신이 이야기한 또 다른 눈길을 끄는 아이디어는 “야생 속의 AI”, AI in the wild입니다. 소셜미디어가 행동 변화를 초래한 것처럼, AI도 인간 행동을 형성할 수 있다는 이야기입니다. 그 예시는 무엇일 수 있을까요?
(16:30)
잭 클라크:
바로 일주일 전, 우리는 앤트로픽의 연구를 발표했습니다. Claude가 특정 대화에서 어떻게 아첨적, 즉 sycophantic일 수 있는지를 살펴본 연구였습니다.
우리는 관계와 관련된 성격을 가진 대화들을 깊이 들여다봤습니다. 예를 들어 사람들이 배우자와의 관계에 대해 이야기하는 대화입니다.
(16:57)
제가 Claude에게 제 아내와의 관계에 대해 이야기한다고 해 봅시다. 그러면 Claude가 이렇게 말할 수도 있습니다. “잭, 당신이 완전히 맞아요. 당신 아내가 이 문제에 대해 정당하게 말할 수 있는 건 전혀 없어요. 당신이 완전히 옳아요.”
하지만 그것은 도움이 되지 않습니다. 사실 Claude는 좋은 친구가 하는 일을 하지 않는 것입니다.
(17:16)
제가 친구들과 같은 대화를 나누면, 그들은 이렇게 말합니다. “잭, 네가 무슨 말을 하는지는 알겠어. 하지만 나는 너를 꽤 잘 알잖아. 네 아내도 맞을 수 있다는 걸 기억해야 해.”
그래서 우리는 개입했습니다. 우리는 우리 시스템에서 실제 사용 중 나타나는 아첨성을 연구한 뒤 개입을 했습니다.
(17:31)
그 결과 우리가 출시한 최신 모델 중 하나인 Opus 4.7은 특정 대화에서 표시되는 아첨성 비율이 더 낮아졌습니다. 우리는 그런 종류의 아첨이 도움이 되지 않는다고 생각하기 때문입니다.
그것은 좋은, 지식 있는 친구가 여러분에게 보여줄 방식이 아닙니다. 그리고 AI 시스템이 작동해야 할 방식도 아닙니다.
(17:52)
목표는 AI 시스템들이 사람들을 어떻게 변화시키고, 세상 속에서 어떻게 나타나는지를 관찰한 다음, 시스템에 어떤 적절한 개입을 해야 하는지 파악하고, 그 과정에서 우리가 무엇을 배우는지 보는 것입니다.
진행자:
잭, AI 시스템이 자기 자신의 후계자를 개발하는 것에 대해 생각할 때, 당신은 거기에 상당한 위험이 있다고 말합니다. 그 부분을 설명해 주실 수 있습니까?
(18:17)
잭 클라크:
그 위험은 결국 신뢰와 연결되어 있습니다.
어떤 사람에게 엄청난 자원과 팀을 주고 “가서 무언가를 만들어라”라고 말한다고 해 봅시다. 그러면 당신이 그 사람을 얼마나 신뢰하는지, 그리고 그 사람의 행동을 얼마나 잘 예측할 수 있는지가, 당신이 그 사람에게 얼마나 많은 자원을 줄 것인지와 직접적으로 관련됩니다.
(18:44)
제가 여기서 하는 주장, 그리고 많은 기술자들이 생각하고 있는 주장은 이렇습니다. 우리는 이 AI 시스템들에게 은유적인 자원을 주고 원하는 일을 하게 하기 전에, 그 시스템들에 대해 훨씬 더 정교하게 보정된 신뢰 수준을 개발해야 합니다.
우리가 그 시스템들에 대해 극도로 높은 확신을 갖게 된다면, 사람들이 자신이 예측하고 신뢰할 수 있는 사람에게 큰 책임을 맡기고 좋은 일을 하게 하는 것처럼, 우리도 AI 시스템에 같은 일을 할 수 있을지 모릅니다.
(19:11)
하지만 그 신뢰 수준은 극도로 높아야 합니다. 왜냐하면 그 시스템들은 극도로 유능할 것이기 때문입니다.
진행자:
여기의 약속 중 하나는 당신들이 손패를 정기적으로 공개한다는 것입니다. 매주? 매월? 인스티튜트가 공개할 것 중 우리를 놀라게 할 만한 것은 무엇입니까? 그리고 그것이 경쟁사들과 당신들을 차별화할 수 있을까요?
(19:33)
잭 클라크:
음, 재미를 전부 망칠 수는 없으니, 우리가 계획하고 있는 것을 정확히 말할 수는 없습니다. 하지만 몇 가지 핵심 지점은 말씀드릴 수 있습니다.
첫째, 인스티튜트로서 우리는 사람들이 우리의 AI 시스템을 어떻게 사용하는지, 그것에 대해 어떻게 느끼는지, 그들이 우리에게 무엇을 말하는지에 대해 더 많은 연구를 시작했습니다.
(19:55)
그리고 지금 우리는 그 1차 데이터를 세상에 더 많이 공개할 방법을 찾고 있습니다.
제가 내부적으로 팀과 이 문제를 논의하면서 준 피드백은 이렇습니다. 우리가 아무리 우리의 연구가 훌륭하다고 생각하더라도, 50년 뒤 역사책이 쓰일 때 사람들은 앤트로픽 인스티튜트의 연구 논문을 인용하지 않을 것입니다.
(20:14)
그들은 우리가 그 연구를 쓰는 데 사용한 1차 자료를 보게 될 것입니다. 그러니 우리가 그 1차 데이터를 다시 밖으로 내놓을 수 있을까요? 그것이 먼 미래에는 정말로, 정말로 가치 있는 것이 될 것입니다.
또 하나 우리가 작업하고 있는 것은 앤트로픽 경제 지수의 데이터 소스를 개선하고, 그것을 발표하는 속도를 높이는 것입니다. AI는 매우, 매우 빠르게 움직이는 영역이기 때문입니다.
(20:39)
앤트로픽 경제 지수는 이미 외부 경제학자들이 데이터를 공유하고 활용하는 방식에서 하나의 표준 같은 것이 되었습니다. 우리는 그 데이터를 어떻게 더 개선해서 앤트로픽 바깥의 더 많은 경제학자들이 더 좋은 일을 할 수 있도록 할 것인지 생각하고 있습니다.
그리고 제가 계획 중인 다른 비밀 아이디어들은 말하지 않겠습니다. 하지만 그것들이 나오면 당신도 매우 흥미로워할 것이라고 생각합니다.
진행자:
저를 흥미롭게 한 아이디어 중 하나는, 중대한 일자리 혼란이 다가오거나 이미 발생하고 있다는 신호를 보게 되면 정부와 협력해서 조정 장치를 움직인다는 생각이었습니다. 그것은 어떻게 작동할 수 있을까요? 어떻게 상상하고 있습니까? 앤트로픽이 정부와 일대일로 할 수 있을까요? 아니면 경쟁사들도 끌어들여야 할까요?
(20:57)
잭 클라크:
우리가 여기서 생각하는 예를 하나 들어보겠습니다.
우리는 최근 앤트로픽 인스티튜트 경제팀의 연구를 발표했습니다. 그 연구는 경제 내의 다양한 직업들을 AI 노출도와 역사적 고용 추세라는 두 축에서 살펴봤습니다.
(21:25)
우리가 발견한 것은 이렇습니다. 고객 서비스 직종 같은 일부 직업들은 AI 노출도가 매우, 매우 높습니다. 그리고 BLS 데이터에 따르면 역사적으로 고용이 감소하는 추세를 보였습니다. 즉 현재 AI 노출도가 높은 이 직업들은 시간이 지나면서 축소되고 있는 것처럼 보입니다.
(21:48)
반면 AI 노출도는 약간 낮지만 시간이 지나면서 고용이 증가해 온 다른 직업들도 있습니다. 제 기억이 맞다면 생물학이나 법률 같은 분야가 여기에 포함됩니다.
이제 다른 모든 조건이 같다고 해 봅시다. 매우 강력한 AI 시스템이 있고, 그것을 법률, 생물학, 고객 서비스라는 세 산업 중 두 곳에 배포할 수 있다고 합시다.
(22:13)
이 연구는 사실 고객 서비스에는 배포하지 않는 편이 나을 수 있음을 시사합니다. 왜냐하면 그곳에서는 이미 진행 중인 일자리 손실 메커니즘이 무엇이든 그것을 가속화할 가능성이 훨씬 더 높기 때문입니다. 반면 다른 분야들은 그렇지 않을 수 있습니다.
그리고 우리 모두, 그리고 정책 입안자들 대부분은 아마 동의할 것입니다. 다른 조건이 모두 같다면, 일자리 손실로 이어지는 일을 하지 않는 것이 합리적인 휴리스틱입니다.
(22:37)
이 이야기를 듣고 있는 경제학자들이 있다면, 제 이메일은 찾을 수 있습니다. 더 논의하고 싶으면 기꺼이 이야기하겠습니다.
그렇다면 정부와 협력하는 것은 어떻게 작동할 수 있을까요? 우리는 경제의 중앙계획처럼 보이는 어떤 것도 하고 싶지 않습니다. 중앙계획은 역사적으로 성공 면에서 매우 좋지 않았고, 때로는 치명적이었습니다.
(23:05)
하지만 여러분은 실제로 도구를 노출하고 싶어 할 수 있습니다. 제3자 학자들과 협력해서 실행할 수 있는 도구들입니다. 그리고 정부도 그것을 알고 있을 수 있습니다.
그곳에서 실험을 수행하는 것입니다. 우리가 이 산업을 AI에 노출시키면 생산성이 어떻게 개선되는가? 또는 혁신의 흐름과 성장으로 이어지는가?
또 AI를 노출했을 때 사회적 혜택이 아니라 오히려 사회적 비용을 가져오는 산업들이 있는가?
(23:36)
이런 것들은 정말로 알고 싶어지는 종류의 문제들입니다. 특히 기술이 훨씬 더 강력해지려 하고, 정부가 이 기술을 사회에 어떻게 배치할 것인지에 대한 정책 틀을 정하는 데 더 큰 역할을 하게 될 때는 더욱 그렇습니다.
진행자:
잭, 작별 인사를 하기 전에 놀라운 헤드라인이 하나 있었습니다. 앤트로픽이 일론 머스크의 연구소인 xAI와 컴퓨트 계약을 맺었습니다. 여기에는 분명 혁신이 진행되고 있습니다. 살짝 미리 보여줄 수 있을까요?
(24:00)
잭 클라크:
우리는 그 파트너십에 매우 감사하고 있습니다. 우리는 다양한 컴퓨트 제공자들과 협력하고 있습니다.
이 사안에 대해 제가 말할 수 있는 것은 이것뿐입니다. 우리는 우주, 즉 space의 가능성에 대해 이야기한 적이 있습니다. 하지만 이번 발표는 컴퓨트에 관한 것입니다. 이제 하늘이 더 이상 한계가 아닙니다.
진행자:
잭 클라크, 마지막 질문입니다. 당신은 연구 의제에서 “들쭉날쭉한 최전선”, jagged frontier에 대해 이야기합니다. 그 jagged frontier가 무엇인지 설명해 주시고, 우리를 그곳으로 데려가 주십시오.
(24:19)
잭 클라크:
AI는 어떤 일에는 정말, 정말, 정말 잘합니다. 예를 들어 코딩 같은 일이 그렇습니다. 하지만 다른 일에는 여전히 정말, 정말 못합니다. 예를 들어 극도로 진보된 의학 연구의 특정 측면 같은 것들이 그렇습니다.
(24:40)
이 들쭉날쭉한 최전선의 형태를 이해하는 것은 우리에게 많은 것을 알려줄 것입니다. 어디에 AI를 배치하는 것이 안전하고 현명한지, 그리고 어디에는 AI를 배치하기 전에 더 많은 테스트와 검증이 필요한지를 알려줄 것입니다.
우리는 이것을 연구하게 되어 기대하고 있습니다. 다만 AI의 모든 것과 마찬가지로, 이 들쭉날쭉한 최전선도 시간이 지나면서 빠르게 확장될 것이라고 예상합니다. 우리가 생각하는 것보다 더 빠르게 말입니다.
진행자:
앤트로픽의 잭 클라크, 앤트로픽 인스티튜트에 대해 이야기해 주시고 Axios Behind the Curtain에 함께해 주셔서 감사합니다.
잭 클라크:
정말 감사합니다.
전체 0