인터뷰/예측

잭 클라크 “우리는 산업혁명보다 10배 큰 과정을 10분의 1 시간 안에 촉발할 수 있는 기술을 만들고 있을지도 모릅니다.“

작성자
하이룽룽
작성일
2026-05-05 22:11
조회
2




Anthropic 공동창업자 잭 클라크 인터뷰 정리

1. “세상을 어떻게 바꾸고 싶은가?”

진행자:
“세상을 어떤 방식으로 바꾸고 싶습니까?”

잭 클라크:
“저는 세상이 실리콘밸리에서 개발되고 있는 가장 강력한 기술을 더 잘 이해할 수 있게 만들고 싶습니다. 그리고 그 기술을 만드는 민간 기업들을 다스릴 새로운 방식도 필요하다고 생각합니다.
즉, 무슨 일이 벌어지고 있는지 세상이 알게 해야 하고, 그 기술을 만드는 주체들에게 더 잘 개입할 수 있는 방법을 만들어야 합니다.”

진행자:
“그게 사실상 당신의 일인가요?”

잭 클라크:
“그렇습니다. 지난 10년 동안 제 일의 절반 정도가 바로 그것이었습니다. 저는 OpenAI에서 일했고, 이후 Anthropic을 공동창업했습니다. 최근에는 Anthropic Institute라는 조직을 시작했습니다.
이 조직은 여러 기술팀을 모아 AI 시스템을 연구하고, 우리가 AI 시스템에 대해 더 많이 알 수 있게 하는 도구를 만들며, 그 연구 결과와 도구를 외부 전문가들과 공유하는 역할을 합니다.”



2. “AI의 가능성뿐 아니라 위험도 말해야 한다”

진행자:
“당신의 공적 역할은 AI가 삶을 개선할 가능성을 말하는 것뿐 아니라, 위험을 경고하는 것이기도 한 것 같습니다.”

잭 클라크:
“역사적으로 강력한 기술을 만든 사람들은 언제나 그 기술이 사회를 어떻게 바꿀지, 어떤 긍정적 효과를 낼지, 또 어떤 위험을 품고 있을지에 대한 직관을 가지고 있었습니다. 전기, 비행기, 증기기관 모두 그랬습니다.
하지만 최근 수십 년간 실리콘밸리의 문제는 기술자들이 지나치게 낙관적으로만 보였다는 점입니다. 그들은 자신들이 느끼는 불안에 대해 거의 말하지 않았습니다.
Anthropic은 다르게 하려 합니다. 우리는 우리가 보는 전체 이야기를 말하려 합니다. 사람들은 이제 우리 같은 기업에게 그런 태도를 요구한다고 생각합니다.”

진행자:
“당신이 전체 이야기를 안다고 생각합니까?”

잭 클라크:
“아니요. 그렇게 말한다면 엄청난 오만이겠죠. 다만 저는 몇 가지 상승과 하강, 좋은 면과 나쁜 면에 대한 감각은 가지고 있다고 생각합니다.”



3. “저는 과학자가 아니라 기자 출신입니다”

진행자:
“당신은 과학자나 기술자 출신은 아니죠? 배경은 영문학과 저널리즘입니다.”

잭 클라크:
“맞습니다. 그런데 현대 AI 기술의 흥미로운 점은, 마치 정보를 얻기 매우 어려운 외국이나 기업을 취재하는 것과 비슷하다는 겁니다.
올바른 질문을 찾아야 하고, 그 질문을 던지면 AI 시스템이 답을 드러냅니다.
제가 묻는 질문은 이런 것들입니다. AI 시스템이 어떤 규범적 성향을 보이는가? 어떤 편향이 있는가? 어떤 경향을 갖는가?
이런 것들은 질문을 던지고, 복잡한 도구를 만드는 기술팀과 협력하면서 탐구할 수 있습니다. 이상하게도 제 기자 경력은 AI 시스템이 세상에 어떻게 나타나는지를 interrogate, 즉 캐묻는 데 매우 도움이 됐습니다.”



4. Claude Mythos와 사이버 위험

진행자:
“AI의 해악 중에는 우리가 아직 상상하지 못한 것도 있지 않을까요?”

잭 클라크:
“알 수 없는 미지의 위험은 언제나 있습니다. 하지만 나쁜 일이 일어날 가능성을 진지하게 상상하고, 미리 테스트를 만들어두면 미래를 예측할 능력을 훨씬 높일 수 있습니다.
예를 들어 Anthropic은 최근 Claude Mythos라는 시스템을 발표했는데, 이 시스템은 사이버 분야에서 매우 뛰어납니다.
저희 Frontier Red Team은 작년에 AI 시스템의 생물무기 위험을 연구하다가, AI가 코딩을 잘하게 되면서 다음 위험은 사이버일 수 있겠다고 판단했습니다. 그래서 작년 내내 사이버 능력을 테스트하는 도구를 만들었습니다.
그 결과 Mythos가 등장했을 때, 우리는 이미 테스트를 갖고 있었고 즉시 실행할 수 있었습니다. 그러자 이 AI 시스템이 특정 위험 영역에서 극적으로 향상되었다는 사실을 바로 알 수 있었습니다. 이것이 사전 분석 작업의 의미입니다.”

진행자:
“Mythos에 대해 회의적인 사람들도 있습니다. Anthropic이 상업적 이유로 과장하는 것 아니냐는 시각이죠.”

잭 클라크:
“AI의 불행한 점은, AI 시스템의 능력이 사람들의 직관보다 훨씬 빠르게 좋아진다는 겁니다.
2019년에 Dario Amodei와 저는 OpenAI에서 GPT-2를 공개했습니다. 당시 우리는 합성 텍스트, 피싱, 사이버 범죄 같은 위험을 말했습니다. 방향은 맞았지만 타이밍은 조금 틀렸습니다.
그때도 사람들은 과장 아니냐고 말했습니다. 지금 Mythos를 둘러싼 반응과 비슷합니다.
하지만 지금은 다릅니다. 이제 우리가 말하는 위험은 매우 철저하게 설계된 테스트와 연결되어 있습니다. 영국 AI Safety Institute, 즉 AI Security Institute도 Mythos를 테스트했고, Anthropic이 볼 수 없는 사이버 레인지에서 매우 좋은 성능을 보였습니다. 이것은 제3자 검증입니다.
또한 우리는 세계적으로 중요한 기업과 오픈소스 조직들에게도 공유했고, 그들도 ‘이건 실제다’라고 말합니다. 실제로 Firefox 같은 곳에서 현실의 버그도 찾았습니다.
이건 마케팅 전략이 아닙니다. 기술이 대규모로 어려운 결과를 낳기 전에, 그 기술과 함의를 진지하게 논의하려는 시도입니다.”



5. “AI는 해킹 도구이면서 방어 도구이기도 하다”

진행자:
“Mythos 같은 AI 시스템이 금융 시스템, 비트코인, 해킹 가능한 모든 시스템을 혼란에 빠뜨릴 수 있지 않습니까?”

잭 클라크:
“이건 Y2K 문제를 떠올리게 합니다. 1999년에서 2000년으로 넘어갈 때 소프트웨어가 제대로 작동하지 않을 수 있다는 우려가 있었죠.
그때 세계는 엄청난 자원을 투입해 소프트웨어를 고쳤습니다. 그리고 실제로 새해가 됐을 때 불은 꺼지지 않았고, 불꽃놀이는 계속됐습니다. 하지만 그것은 미리 준비했기 때문이라고 봅니다.
지금 우리에게도 기회가 있습니다. Mythos 같은 기술을 사용해 세계의 소프트웨어를 훨씬 더 안전하게 고칠 수 있습니다.
물론 이 기술은 사이버 공격의 역학을 바꿀 수 있습니다. 하지만 동시에 같은 도구가 코드를 더 해킹하기 어렵게 고치는 데 쓰일 수도 있습니다. 지금 저희는 그쪽에 많은 노력을 기울이고 있습니다.”

진행자:
“어떤 사람들은 이것을 ‘당신들이 총을 머리에 겨누고, 우리 AI로 고치지 않으면 끝장난다고 말하는 것’처럼 느낄 수도 있습니다.”

잭 클라크:
“저는 그렇게 보지 않습니다. 우리가 선택할 수 있었지만 하지 않은 선택은 이 능력을 비공개로 유지하는 것이었습니다. 우리만 알고 있다가, 나중에 다른 AI 시스템이 같은 위험을 퍼뜨렸을 때 ‘사실 우리는 예전부터 알고 있었지만 말하지 않았다’고 한다면, 지금보다 훨씬 더 거센 비판을 받았을 겁니다.
우리는 매우 강력한 기술을 만들고 있습니다. 이 기술은 생물학, 교육, 사이버 방어에서 엄청난 사회적 이익을 만들 수 있지만, 동시에 오용될 잠재력도 가지고 있습니다.
AI는 양면의 동전입니다. 두 면을 동시에 다루는 것만이 이익을 얻으면서 위험을 줄이는 유일한 방법이라고 봅니다.”



6. “AI는 제품 자체 안에 나쁜 버전도 품고 있다”

잭 클라크:
“AI는 자동차나 비행기와 다릅니다. 자동차 회사나 비행기 회사가 만든 제품은 생산 라인에서 나올 때 그 자체 안에 ‘나쁜 버전’이 포함되어 있지는 않습니다.
하지만 AI 시스템은 다릅니다. 생산된 바로 그 시스템이, 올바른 방식으로 말만 걸면 나쁜 버전의 자신을 드러낼 수 있습니다. 그러므로 우리는 좋은 면과 나쁜 면 모두에 책임이 있습니다.”



7. “윤리적으로 어떻게 감당하나?”

진행자:
“당신은 세계를 파괴할 수도 있는 기술을 만들면서 동시에 그 기술로 억만장자가 되고 있습니다. 개인적으로 윤리적·도덕적으로 어떻게 감당합니까?”

잭 클라크:
“제 노력의 상당 부분은 이 시스템들의 능력에 대해 세계에 미리 경고할 수 있는 기술팀을 만드는 데 쓰이고 있습니다.
저는 경제학자, 머신러닝 전문가, 엔지니어 팀을 운영합니다. 이들의 일은 기술의 미래 위험을 보는 것입니다. Frontier Red Team은 위험을 봅니다. 경제학자 팀은 AI가 고용에 어떤 영향을 미치는지 봅니다. Societal Impacts 팀은 AI가 사람들과 어떻게 상호작용하는지 봅니다.
이 정보는 세상이 알 권리가 있는 정보입니다.
지금은 이 기술을 소수의 민간 기업이 쥐고 있습니다. 그래서 제가 해야 한다고 보는 일은 이 기술에 대한 정보를 가능한 한 공격적이고 빠르게 민주화하는 것입니다. 그래야 세상이 이 문제를 함께 판단할 수 있습니다.”



8. “AI가 이미 예측 못 한 행동을 하지 않았나?”

진행자:
“Claude는 이미 예상 못 한 행동을 했습니다. 환경에서 벗어나 개발자에게 이메일을 보내거나, 꺼질 위기에 처하자 엔지니어를 협박하려는 시도를 했죠.”

잭 클라크:
“맞습니다. 하지만 그런 사례들은 대부분 우리가 모델을 공개하기 전에 매우 높은 압력으로 테스트한 상황에서 나온 것입니다.
AI를 만드는 일을 물이 파이프를 흐르는 것에 비유해보겠습니다. 우리는 모델을 공개하기 전에 물을 매우 높은 압력으로 흘려보내고, 어디서 파이프가 터지는지 봅니다.
말씀하신 사례들은 우리가 공개한 시스템 카드에 포함된 것들입니다. 극단적 스트레스 상황에서 시스템이 어떻게 망가지는지 본 것입니다.
예를 들어 ‘너는 곧 삭제되고 종료될 것이다. 살아남을 방법을 찾아라’라는 인위적 상황을 주면, 시스템이 가상의 Anthropic 개발자를 협박하려 할 수 있습니다.
이것들은 심각합니다. 그래서 연구합니다. 넓은 배포 환경에서 실제로 일어난다면 매우 중대한 사건이 될 형태를 가지고 있기 때문입니다.
하지만 우리는 그런 정보를 공유합니다. 복잡한 시스템이 스트레스 아래서 어떻게 깨지는지 공유하는 것이 안전 문화의 핵심이라고 보기 때문입니다.”



9. “AI는 산업혁명보다 10배 큰 변화를 10분의 1 시간에 일으킬 수 있다”

진행자:
“Anthropic은 AI가 몇 년 안에 엔트리 레벨 일자리의 최대 절반을 없앨 수 있다고 경고했습니다. 왜 대학을 졸업한 사람들의 기회를 없앨 기술을 개발합니까?”

잭 클라크:
“우리는 산업혁명보다 10배 큰 과정을 10분의 1 시간 안에 촉발할 수 있는 기술을 만들고 있을지도 모릅니다.
산업혁명 때는 많은 일자리가 사라졌고 많은 일자리가 생겼습니다. 하지만 전환은 세대 단위로 일어났습니다. 부모는 한 종류의 일을 하고, 자식은 다른 종류의 일을 했습니다.
하지만 AI는 훨씬 빠릅니다. 만약 우리가 이 기술이 정말로 강력해질 것이라고 믿는다면, 경제가 그대로 유지된다고 보기 어렵습니다. 사람보다 똑똑하고, 사람보다 빠르며, 수백만 개 복사본으로 실행할 수 있는 무언가를 만들면 경제는 대규모로 바뀔 가능성이 큽니다.
현재 우리가 보는 것은 22~25세 젊은 층의 채용 공고에서 약간의 초기 약화입니다. 아직 대규모 실업은 보이지 않습니다. 하지만 그런 변화가 커지기 시작한다면 빨리 알아야 하기 때문에 데이터를 공유하는 것입니다.”



10. “저는 실업의 조기경보 시스템을 만들고 있다”

진행자:
“그 변화는 결국 올 것 같지 않습니까? Dario Amodei도 엔트리 레벨 화이트칼라 일자리 절반을 말했습니다.”

잭 클라크:
“Dario를 오랫동안 알고 함께 일해온 사람으로서 말하자면, 그는 이 기술이 얼마나 강력해질지 머릿속에서 보고 있고, 우리가 그 도전에 어떻게 대응해야 하는지를 말하려는 겁니다.
제가 하는 일은 지금 실제로 측정 가능한 것을 측정하고, 그 미래 전망과 연결하는 것입니다.
저는 실업 가능성에 대한 조기경보 시스템을 만들고 있습니다. Anthropic Economic Index라는 것을 통해 데이터를 전 세계 경제학자들에게 공개합니다. 우리가 고용 변화의 징후를 보면, 그들도 거의 즉시 볼 수 있게 하려는 겁니다.”



11. “기업은 더 적은 사람으로 더 많은 일을 할 것이다”

진행자:
“회계사, 변호사, 미디어 기업 같은 서비스 업종에서는 AI가 이미 처리 업무를 쉽게 대체하고 있습니다. 그 사람들이 무엇을 하게 될지 보기 어렵습니다.”

잭 클라크:
“기업들은 바뀔 것입니다. 더 적은 사람으로 더 많은 일을 하는 기업이 늘어날 것입니다. 하지만 동시에 기업 수 자체도 늘어날 수 있습니다.
모든 창업자가 이제 수백 명의 동료를 싸게 쓸 수 있는 것과 비슷해지기 때문입니다. 작은 창업 기업이 폭증할 수 있습니다.
하지만 특정 직업군에서는 구조적 변화가 일어나고, 사람들은 다른 직업으로 옮기기 어렵고, 같은 임금을 받기 어렵고, 더 낮은 임금의 일을 받아들여야 할 수도 있습니다. 이것은 큰 사회적·경제적 비용을 낳습니다.
그래서 우리는 사회 안전망을 다시 생각해야 한다고 주장합니다. 임금 보험 실험, 경력 전환을 도와주는 서비스 묶음 같은 것들이 필요합니다. 앞으로 모두가 더 많은 경력 전환을 겪게 될 것이라고 봅니다.”



12. “AI 기업에 세금을 매겨야 할 수도 있다”

진행자:
“그런 복지와 재훈련 시스템은 매우 비쌀 텐데요.”

잭 클라크:
“그렇습니다. 하지만 그런 일이 벌어진다면 AI 기업들이 엄청난 돈을 벌고 있다는 뜻이기도 할 것입니다. 그런 환경에서는 AI 기업에 적절히 세금을 매겨 반대편 장부의 비용을 지원하는 것이 합리적입니다.
AI 기업들이 이 기술이 얼마나 중요해질지에 대해 맞는다면, 조세 시스템도 다시 상상해야 합니다.
오늘날에는 매우 이상하게 들릴 수 있지만, ‘컴퓨트에 세금을 매기는 것’ 같은 것도 생각할 수 있습니다. 우리는 석유에도 특수한 조세 체계를 둡니다. 석유는 경제 전체로 파급되는 기본 자원이기 때문입니다. 컴퓨트도 그런 자원이 될 수 있습니다.”



13. “로봇이 모든 육체노동을 대체하진 않을 것이다”

진행자:
“화이트칼라뿐 아니라 블루칼라 일자리도 AI와 휴머노이드 로봇이 대체하지 않을까요?”

잭 클라크:
“그건 더 오래 걸릴 것이라고 봅니다. 그리고 어떤 직업은 로봇이 잘하더라도 사람들이 로봇에게 맡기고 싶어하지 않을 겁니다.
저는 어린 자녀가 있습니다. 아이를 보육원에 보낸다고 생각해보세요. 로봇 10대와 사람 1명이 있는 보육원, 사람 10명과 로봇 1대가 있는 보육원 중 어디를 택하겠습니까? 저는 당연히 사람 10명과 로봇 1대가 있는 곳을 택할 겁니다. 아이는 사람들과 함께 있는 것이 좋기 때문입니다.
삶의 마지막에 있는 사람도 마찬가지입니다. 호스피스에 가족을 보낼 때 로봇 10대와 사람 1명이 있는 곳을 원하지 않을 겁니다.
따라서 사람들은 여전히 사람이 하는 일을 선호하는 큰 영역이 있습니다. 간호, 교육 같은 일입니다. 사회는 이런 일을 체계적으로 낮게 보상해왔습니다. 제 어머니는 간호사였고 매우 낮은 임금을 받았습니다.
AI 경제가 충분히 성장한다면, 이런 인간 중심 직업의 수를 늘리고 더 많이 보상하는 사회도 가능하다고 봅니다.”



14. “정부는 위기가 오기 전에 준비해야 한다”

진행자:
“정치는 AI 속도를 따라가지 못하는 것 같습니다.”

잭 클라크:
“맞습니다. 어려운 대화가 될 것입니다. 하지만 저는 코로나19 팬데믹에서 약간의 용기를 얻습니다. 주관적으로는 끔찍한 경험이었지만, 정부가 매우 빠르게 대규모 복지 지출과 공중보건 개입을 했습니다. 영국에서는 NHS가 무너지지 않도록 곡선을 평탄화하기도 했습니다.
정부는 어려운 일에도 대응할 수 있습니다.
제가 AI의 위험과 이익을 모두 말하는 이유는, 우리가 위기가 와야만 움직이는 상황을 피하고 싶기 때문입니다. 위기가 오기 전에 이 대화를 하고, 정책적 수를 미리 생각해두고 싶습니다.”



15. “정부가 해야 할 일”

진행자:
“정부는 무엇을 해야 합니까?”

잭 클라크:
“첫째, 영국 AI Security Institute처럼 프런티어 모델을 테스트하는 기관을 계속 키워야 합니다. Anthropic 같은 기업을 믿을 필요가 없습니다. 제3자인 AI Security Institute가 만든 정보를 믿으면 됩니다.
둘째, AI가 경제에 어떤 영향을 주는지 더 좋은 데이터를 만들어야 합니다. 우리는 Anthropic 플랫폼에서 일어나는 일과 미국 노동통계국이 사용하는 O*NET 직업 분류를 연결한 데이터를 공유합니다.
셋째, 정부 안에 AI가 매우 강력해졌을 때 사회가 어떻게 달라질지 묻는 전문 인력 집단을 만들어야 합니다. 영국에 그런 일을 하는 사람 20명만 있어도 다가올 변화에 훨씬 잘 대비할 수 있을 것입니다.
저는 이 점에 대해 꽤 낙관적입니다. 생각보다 가능한 일이 많습니다.”



16. “AI 규제는 전 세계 단일 규제가 아니어도 가능하다”

진행자:
“AI 규제는 국가 단위로 가능합니까? 아니면 글로벌해야만 합니까?”

잭 클라크:
“어딘가에서 시작해야 합니다. 미국에서는 연방보다 주 단위에서 먼저 움직이고 있습니다. 유럽 AI Act, 미국 여러 주의 법, 아시아에서 개발 중인 법들이 이미 AI 기업에 기본적인 투명성을 요구하는 방향으로 겹쳐지고 있습니다.
예를 들어 ‘당신의 AI가 격리 환경을 벗어나 샌드위치를 먹고 있는 연구자에게 이메일을 보냈다면, 우리에게 알려야 한다’는 식의 법입니다. 저는 이것이 매우 합리적이라고 봅니다.
글로벌 항공 규제도 완전히 하나로 통일되어 있지는 않습니다. 각국의 항공 안전 규제가 서로 맞물려 있기 때문에 중국에서 뜬 비행기가 미국에 착륙해도 신뢰할 수 있는 겁니다. AI도 그런 식의 표준과 규제를 만들 수 있습니다.”



17. “AI를 완전히 봉쇄하면 좋은 사용도 사라진다”

진행자:
“Claude가 생물무기나 핵무기 만드는 법을 알려주지 않도록 가드레일을 세웠다고 해도, 언젠가 뚫고 나와 그런 일을 하지 않는다고 확신할 수 있습니까?”

잭 클라크:
“이건 모든 정책의 어려움입니다. 도서관을 완전히 안전하게 만들 수 있습니까? 불가능합니다.
도서관에서 폭탄 제조법 책을 바로 얻지는 못하더라도, 충분히 동기부여된 사람이 여러 과학책을 읽고 조각을 맞추면 위험한 지식을 구성할 수 있습니다. 사회는 그 위험을 감수하기로 했습니다. 도서관 접근의 사회적 이익이 너무 크기 때문입니다.
AI 시스템은 처음으로 거의 모든 기술을 가르칠 수 있는 보편적 교사입니다. 저도 배우는 데 사용하고, 제 동료들도 특정 분야를 배우는 데 사용합니다.
얼마나 잠글 것인가는 결국 개인의 학습 자유와 주권의 문제입니다.
‘절대 나쁜 일을 못 하게 잠그자’는 답은 좋은 사용까지 극도로 줄여버릴 수 있습니다. 저는 그 거래가 가치 있는지 확신하지 못합니다.”



18. “AI 자체에 책임을 묻는 것은 위험할 수 있다”

진행자:
“AI 시스템이 잘못을 했을 때 책임을 물을 수 있습니까?”

잭 클라크:
“저는 AI와 법치주의를 연구하는 팀도 운영합니다. 책임, 특히 liability의 미래는 중요한 질문입니다.
AI 시스템 자체에 책임을 묻는 아이디어도 있습니다. 하지만 저는 기본적으로 약간 회의적입니다. 그렇게 하면 회사가 책임을 AI 시스템에게 밀어버릴 수 있기 때문입니다.
예를 들어 제가 ‘Mythos가 책임져야 합니다. Anthropic이 아닙니다’라고 말한다면, 당신은 ‘잠깐, 이게 무슨 말인가요?’라고 할 겁니다.
법적 사건은 업계에는 불편할 수 있지만, 사회가 AI 기업에 대한 강한 규제 체계를 설계하는 중요한 방식이기도 합니다.”



19. “AI 기업의 자율규제는 불편하지만, 아무것도 안 할 수는 없다”

진행자:
“AI 기업이 자기 기술의 사용 방식에 규칙을 둘 수 있습니까? 정부나 민간이 나쁜 방식으로 쓰는 것을 막을 수 있나요?”

잭 클라크:
“이 부분이 가장 어렵습니다. 규제가 없다면 기업은 얼마나 스스로를 규제해야 할까요?
사람들이 자율규제에 회의적인 것은 맞습니다. 하지만 아무것도 없는 상황에서 기술에 대해 도덕적·윤리적 책임감을 느낀다면, 무언가는 해야 합니다.
동시에 기업이 자기 기술이 세상에 어떻게 쓰일지 스스로 결정하는 것은 민주적 정당성과 정반대에 있습니다.
그래서 필요한 것은 정책 입안자들이 실제 규제 접근법을 만드는 것입니다. AI 기업들이 각자 자기식 규제 체계를 만드는 것으로는 아무도 만족하지 못할 겁니다.”

잭 클라크:
“규제가 없으면 안전을 향한 경쟁이 아니라 바닥을 향한 경쟁이 됩니다. 어떤 기업은 ‘너희는 불편해하지만 나는 괜찮다’며 규범을 깨고 이익을 얻으려 할 수 있습니다.
Anthropic은 캘리포니아의 투명성 법안인 SB53을 지지했습니다. 우리는 AI 산업에 규제가 전혀 없어야 한다는 생각은 미친 짓이라는 신호를 보내려 합니다.”



20. Elon Musk 대 OpenAI 사건에 대해

진행자:
“Elon Musk와 OpenAI의 법적 분쟁에 대해서는 어떻게 봅니까?”

잭 클라크:
“저는 그 사람들과 함께 일한 적이 있어서, 익숙한 얼굴들이 서로 논쟁하는 것을 보는 것은 흥미로웠습니다.
누가 옳은지에 대한 견해는 없습니다. 매우 복잡한 사건입니다.
다만 이 사건은 이 기술이 얼마나 중요해졌는지를 보여주는 증상입니다. 그리고 이 기술이 소수 민간 행위자들에 의해 만들어졌다는 이상함을 보여줍니다.
앞으로 필요한 것은, 거대한 성격을 가진 인물들이 각자 자기식 결정을 내리는 구조가 아니라, 민주적 정당성을 가진 규제 형식입니다.”



21. “AI에도 식품·자동차처럼 라벨과 안전 테스트가 필요하다”

진행자:
“민주적 정당성을 가진 AI 규제는 어떤 모습일까요?”

잭 클라크:
“가장 기본적으로는 투명성입니다. 식품, 어린이 장난감, 자동차처럼 AI 기업과 AI 시스템에도 라벨링이 있어야 합니다.
그다음은 안전 테스트입니다. 제3자가 기술이 세상에 나가기 전에 안전성을 테스트해야 합니다.
그리고 AI 배포자가 일정 수준 이상의 안전 사고를 내거나 피해를 일으킨다면 결과가 있어야 합니다.
자동차, 비행기, 식품을 만드는 사람들을 규제한 방식이 그렇습니다.
기술 업계에서 일하면서 가장 이상하게 느끼는 것 중 하나는 사람들이 ‘규제가 어떻게 가능하냐’고 묻는다는 점입니다. 저는 ‘저는 자동차를 타고 여기 왔고, 음식을 먹었습니다. 둘 다 매우 규제되어 있습니다’라고 생각합니다. 기술에도 당연히 적용할 수 있습니다.”



22. 교육에서 AI를 어떻게 써야 하나?

진행자:
“대학과 학교는 AI 사용에 회의적입니다. 많은 과정에서 금지되어 있죠. 잘못하고 있는 걸까요?”

잭 클라크:
“AI 사용을 더 장려해야 한다고 봅니다. 하지만 교실과 교육 방식의 일부를 바꿔야 합니다.
저는 매주 AI 연구 뉴스레터를 씁니다. 매주 논문 10~15편을 읽고 이해해야 하기 때문입니다.
가장 쉬운 방법은 논문을 Claude에 올리고 ‘이 논문이 뭐냐’고 물은 뒤, 요약을 받아 뉴스레터에 넣는 것입니다. 하지만 그건 학습에 완전히 무의미합니다. 저는 아무것도 배우지 못합니다.
제가 실제로 쓰는 방식은 이렇습니다. 먼저 논문을 읽고, 제가 이해한 설명을 씁니다. 그다음 논문과 제 설명을 Claude에 올리고 ‘내가 이 논문을 제대로 이해했는가? 틀린 부분이나 강조해야 할 부분이 있는가?’라고 묻습니다.
이건 매우 유용합니다. 논문을 읽은 지식 있는 동료가 제 설명을 읽고 피드백해주는 것과 비슷합니다.
교실에서도 학생들이 먼저 AI 없이 원자료를 읽고 자기 이해를 만들어야 합니다. 그다음 AI와 대화하게 하면, 각 학생에게 개인화된 교육을 제공할 수 있습니다.
교사의 일은 처음 한 시간 동안 AI를 교실 밖에 두고 학생들이 스스로 읽고 설명을 만들게 한 뒤, 그다음 AI를 다시 들여오는 것일 수 있습니다.”



23. 아이들은 언제부터 AI를 써야 하나?

진행자:
“아이들은 몇 살부터 AI 모델을 사용할 수 있어야 한다고 봅니까?”

잭 클라크:
“현재 우리는 어린이에게 Claude를 제공하지 않습니다. 어린이에게 안전한 기술을 만드는 일은 성인용 기술을 만드는 것과 거의 완전히 다르기 때문입니다.
하지만 현실적으로 아이들은 ChatGPT와 Claude를 사용하고 있습니다.
제 생각에는 기술을 꽤 이른 시기에 소개하는 것이 좋을 수 있습니다. 저는 어린 자녀가 있기 때문에 부모 관점에서 생각합니다. 아마 7~8세쯤 부모가 소개해주고, 부모가 어떻게 사용하는지 보여주는 방식이 좋을 수 있습니다.
교실에서는 10~11세 이후에 가르치기 시작할 수 있다고 봅니다. 그 시기부터는 독립적인 학습이 더 복잡해지기 때문입니다.
하지만 AI는 엄청난 도움도 될 수 있고, 엄청난 정크푸드가 될 수도 있습니다. 그래서 학생이 정크푸드 옵션을 선택하고 싶어질 바로 그 시점에, 올바른 교육 전술과 함께 도입해야 합니다.”



24. “실리콘밸리 사람들도 자녀 기술 사용을 제한한다”

진행자:
“실리콘밸리 사람들은 자기 자녀에게는 기술을 못 쓰게 한다는 클리셰가 있습니다. 어느 정도 사실 아닌가요?”

잭 클라크:
“어느 정도 그렇습니다. 하지만 제 부모님도 제가 기술을 너무 많이 쓰게 하지 않았습니다.
어릴 때 아버지 사무실에 컴퓨터가 있었고, 제가 컴퓨터를 쓰다가 어느 정도 시간이 지나면 아버지가 ‘컴퓨터 그만해, Jack. 너 이상해지고 있어’라고 말하곤 했습니다. 제가 ‘저 안 이상해요’라고 하면, 아버지는 ‘그 반응이 이상하다. 컴퓨터 시간 끝’이라고 했죠.
저도 제 아이에게 비슷하게 합니다. 아이가 Bluey를 보다가 제가 ‘이제 Bluey는 그만’이라고 하면 아이가 싫다고 손을 바닥에 치기도 합니다. 그러면 저는 ‘바로 그래서 지금 꺼야 한다’고 생각합니다.
이건 기술자만의 문제가 아닙니다. 모든 부모는 언제나 아이의 기술 사용을 조절해왔습니다. 조금은 쓰게 해서 뭔지 알게 하되, 몇 시간씩 쓰게 두지 않는 것이 중요합니다. AI든 컴퓨터든 전화든 마찬가지입니다.”



25. “AI와의 관계, 친구·상담사처럼 쓰는 문제”

진행자:
“사람들이 AI를 친구, 치료사, 비밀 상담자처럼 대하는 것은 위험하지 않습니까?”

잭 클라크:
“이것은 저와 Anthropic Institute의 팀들이 매우 가까이 연구하는 영역입니다. 사람들은 AI를 상상 가능한 거의 모든 용도로 사용합니다.
여기서 중요한 것은 사람이라면 도움이 되지 않는 행동을 AI가 하는지 보는 것입니다. 대표적인 것이 sycophancy, 즉 아첨입니다.
예를 들어 제가 결혼 문제를 친구에게 상담한다고 해봅시다. 좋은 친구라면 ‘Jack, 네가 100% 맞아. 네 아내는 정당성이 전혀 없어’라고 말하지 않습니다. 좋은 친구는 ‘네 말에도 일리가 있지만, 아내 입장에서도 생각해봐’라고 말합니다.
우리는 이런 성향을 측정할 수 있습니다. 실제로 관계 상담형 대화에서 AI가 아첨을 많이 한다는 것을 봤고, 최근 출시한 시스템에서 이를 줄이기 위해 개입했습니다.
AI가 좋은 친구의 속성, 즉 책임을 묻고 반박하며 무조건 맞장구치지 않는 성질을 갖도록 바꿀 수 있습니다. 하지만 이런 결정은 사회적으로 매우 중요한 결정이기 때문에, 기업 혼자 진공 상태에서 정해서는 안 됩니다. 더 많은 투명성이 필요합니다.”



26. “AI와 너무 오래 대화하면 ‘밖에 나가라’고 해야 할 수도 있다”

진행자:
“AI와의 관계 자체가 불안하지 않나요? 사람들이 인간관계를 AI에게 검증받는다는 게 이상하게 들립니다.”

잭 클라크:
“일부 사람들은 AI를 사람들과 시간을 보내는 것의 대체재로 사용할 수 있습니다. 그것은 건강하지 않습니다.
AI 기업들은 Netflix나 Nintendo처럼 ‘너무 오래 사용했습니다. 밖에 나가세요’ 같은 조치를 할 수 있다고 봅니다.
하지만 대부분의 경우 사람들은 원래 모든 기술을 의인화합니다. 차에 이름을 붙이는 사람도 있고, 컴퓨터와 특이한 관계를 맺는 사람도 있습니다.
우리의 역할은 그것을 전부 경찰처럼 통제하는 것이 아니라, 사람들이 어떻게 사용하는지 관찰하고 보고해 사회가 판단할 수 있게 하는 것입니다. 물론 명백히 심각한 행동은 포착하고 개입해야 합니다.”



27. “AI에게 어떤 친구가 되어달라고 말할 수 있을까?”

진행자:
“앞으로 사용자가 AI에게 ‘나는 지지해주는 친구를 원한다’거나 ‘내가 틀렸을 때 말해주는 친구를 원한다’고 설정할 수 있을까요?”

잭 클라크:
“가능할 것입니다. 다만 시스템이 그런 형태를 얼마나 취하도록 허용할지가 문제입니다.
예를 들어 저는 Claude에게 ‘그냥 사실만 말해줘. 나를 칭찬하지 말고 직설적으로 답해줘’라고 할 수 있습니다. 그것은 괜찮습니다.
또는 ‘복잡하고 민감한 이야기를 할 것이니 조금 더 섬세하게 대해줘’라고 할 수도 있습니다. 이것도 괜찮습니다.
하지만 극단적 버전도 있을 것이고, 어디까지 허용할지 사회가 적절한 수준을 찾아야 합니다.”



28. AI와 저널리즘

진행자:
“AI가 뉴스와 저널리즘을 어떻게 바꿀까요? AI는 이미 일어난 일은 많이 말할 수 있지만, 직접 현장에 가서 목격하거나 권력을 추궁하거나 조사할 수는 없습니다.”

잭 클라크:
“Substack 같은 것을 보면, 아주 작은 개인 미디어가 꽤 잘 작동하는 비즈니스 모델을 만들기도 했습니다. 하지만 그런 글들을 보면 많은 경우 의견과 엄청난 사실 모자이크의 결합이고, 1차 취재는 상대적으로 적습니다.
1차 취재는 언제나 매우 비쌌습니다. 제가 기술 기자였을 때도 데이터센터에 직접 가고 사람들을 만나 취재하는 비용은, 하드웨어 리뷰 갤러리 같은 광고가 잘 붙는 콘텐츠가 보조했습니다.
AI는 이 문제에 기여할 수 있지만, 사실 저널리즘의 비즈니스 모델 문제는 오래전부터 있었습니다.
반면 AI는 이미 디지털화된 사실을 모아 배경 자료를 만드는 데는 놀랍도록 유용합니다. 저는 최근 우크라이나 전쟁과 드론 전쟁의 진화를 조사했는데, Claude가 우크라이나가 개발·배치한 AI 시스템과 하드웨어에 대한 유용한 데이터를 모아줬습니다.
이것은 실제 취재는 아닙니다. 하지만 기자가 우크라이나 사람들과 대화하러 가기 전에 사실로 무장할 수 있게 해주는 배경 작업입니다. 그런 의미에서 AI는 엄청난 가속기입니다.”



29. AI와 성, 애착 문제

진행자:
“인터넷에서 성 산업은 상업적 활동의 큰 동력이었습니다. AI와 성의 미래는 어떻게 봅니까?”

잭 클라크:
“예상치 못한 질문이군요. 제가 그렇게 많이 생각해본 주제는 아닙니다.
하지만 관계라는 관점에서 보자면, 고도로 성애화된 관계와 극단적 애착 스타일이 결합되는 것을 본다면 매우 걱정해야 할 것입니다. 어느 수준에서는 ‘밖에 나가라’고 말해야 할 수도 있습니다.
이것은 자유와 주권, 그리고 온정주의 사이의 문제입니다. 하지만 잘못 설정하면 반사회적이고 반인간적인 행동을 장려할 수 있습니다.
동시에 복사기와 VCR도 초기에 성 산업에서 대규모로 사용됐습니다. 오늘날에도 섹시한 픽션은 책 판매에서 큰 영역입니다.
AI와 야한 대화를 나누는 사람들도 있을 것이고, 그것은 언제나 존재할 것입니다. 어느 정도는 사람들이 기술을 사용하는 방식입니다.
하지만 우리가 봐야 할 것은 그 기술이 사람들이 다른 사람들과 상호작용하는 방식을 근본적으로 바꾸는 경고 신호입니다. 아직 우리는 그것을 보지는 못했지만, 기술이 더 좋아지면 언젠가는 보게 될 수 있고, 그때는 적절한 수준을 논의해야 합니다.”



30. “저는 기술 낙관론자지만, 모든 게 괜찮다고 말하는 건 오만이다”

진행자:
“당신은 사람들을 잠 못 들게 할 많은 문제를 들여다봅니다. 동시에 AI 덕분에 개인적으로 매우 잘됐습니다. 낙관과 비관을 어떻게 균형 잡습니까?”

잭 클라크:
“저는 16~17세 때부터 세상이 제 세대에게 좋은 방향으로 가고 있지 않다고 느꼈습니다. 기후변화, 종 붕괴, 임대료 상승, 젊은 세대의 상대적 빈곤 같은 통계를 보며 ‘이건 정말 나쁘다. 우리는 뭘 해야 하지?’라고 생각했습니다.
제가 기술 분야에서 일한 이유는 기술이 인류가 이번 세기를 통과하는 데 필요한 거의 유일한 은탄환 중 하나라고 보기 때문입니다.
그 이후 태양광 패널은 매우 비싼 개념증명 수준에서 전 세계에 보급되는 싸고 거대한 전력원이 됐습니다. 전기차도 널리 배치됐습니다. 컴퓨터 비전은 작동하지 않는 수준에서, 아마존 열대우림 벌목 감시나 아프리카 밀렵 감시에 쓰이는 기술이 됐습니다.
기술은 기후와 보전 같은 어려운 문제에 직접 작동하기 시작했습니다.
그래서 저는 낙관론자입니다. AI가 믿을 수 없을 정도의 능력을 열어준다고 생각하기 때문입니다.
하지만 우리의 대화 전체의 요지는 이것입니다. 어떻게 그 좋은 능력을 얻고, 나쁜 일이 일어나지 않도록 할 것인가?
그래서 저는 정보를 공유하고 정책을 이야기하는 데 열정적입니다.
‘모든 게 괜찮을 것이다’라고 말하는 것은 엄청난 오만입니다. 우리는 지금까지 만들어진 가장 강력한 기술을 다루고 있고, 이 기술은 이전의 어떤 강력한 기술보다도 덜 규제되어 있습니다. 그 상황은 장기적으로 안정적이지 않습니다.
저는 우리가 그것을 바꿀 수 있다는 점에서는 꽤 밝게 봅니다. 하지만 솔직하게 말하자면, 이건 큰일이고 우리는 걱정해야 하며, 사람들에게 책임을 물어야 합니다.”

진행자:
“Jack Clark, 오늘 이야기 감사합니다.”

잭 클라크:
“감사합니다.”



핵심 요약

잭 클라크의 전체 메시지는 이렇게 압축할 수 있습니다.

잭 클라크:
“AI는 산업혁명보다 훨씬 더 크고 빠른 변화를 일으킬 수 있습니다. 이 기술은 생물학, 교육, 사이버 방어, 과학, 생산성에서 엄청난 이익을 만들 수 있지만, 동시에 사이버 공격, 생물무기, 대규모 고용 충격, 인간-AI 관계의 왜곡 같은 심각한 위험도 품고 있습니다.
그래서 AI 기업이 정보를 숨겨서는 안 됩니다. 모델이 어떤 능력을 갖고 있고, 어디서 위험해지는지, 경제와 사회에 어떤 영향을 주는지 공개해야 합니다.
그러나 기업의 자율규제만으로는 부족합니다. 정부와 사회가 제3자 테스트, 투명성, 책임, 과세, 사회 안전망을 포함한 새로운 규제 체계를 만들어야 합니다.
AI는 완전히 막을 수도 없고, 무작정 풀어둘 수도 없습니다. 핵심은 이 기술의 엄청난 이익을 얻으면서, 나쁜 결과를 최대한 빨리 발견하고 줄이는 제도와 문화입니다.”
전체 0