인터뷰/예측
다니엘라 아모데이 “AI가 인간이 오늘 하는 많은 일을 할 수 있는 세계에서 우리는 어떤 세상을 만들고 싶은가?”를 논의해야 합니다.
작성자
하이룽룽
작성일
2026-05-09 21:21
조회
4
1. 오프닝: 스탠퍼드에 온 다니엘라 아모데이
인터뷰어:다니엘라, 스탠퍼드의 View from the Top에 와줘서 고맙습니다. 오늘 청중이 꽉 찼네요. 먼저 묻고 싶습니다. 여기 있는 분들 중 Claude를 쓰는 사람은 손 들어주세요.
청중:
와아!
인터뷰어:
오, 많네요. 물론 샘 올트먼이 와서 ChatGPT 쓰냐고 물어봤으면 다들 손 들었을 수도 있겠지만요.
다니엘라 아모데이:
솔직히 말해봐요. 다들 손 들었겠죠?
인터뷰어:
그래도 여기 분위기는 꽤 우호적입니다. 다니엘라와 당신의 오빠 다리오 아모데이는 세계에서 가장 중요한 AI 회사 중 하나를 만들었습니다. 그런데 두 분 모두 어릴 때부터 이런 일을 계획한 건 아니었죠. 당신은 예술 쪽 배경이 있고, 영문학을 공부했고, 초기 커리어는 정치 쪽이었습니다. 원래 커리어 계획은 무엇이었나요?
2. 원래 커리어 계획: “계획이라기보다 관심과 임팩트를 따라갔다”
다니엘라 아모데이:우선 “계획”이라는 단어를 써준 게 너무 친절하네요. 사실 저는 그걸 계획이라고 부를 수 있었는지도 잘 모르겠어요.
저는 많은 창업자들이나 예상 밖의 삶을 살게 된 사람들에게서 비슷한 이야기를 듣습니다. 그때그때 제게 가장 흥미로운 것을 따라갔던 것 같아요. 제가 잘하는 것, 제가 관심 있는 것, 그리고 세상에 큰 영향을 줄 수 있는 것이 만나는 지점을 따라간 거죠.
대학을 졸업했을 때 저는 2009년에 졸업했습니다. 그해는 졸업생에게 정말 좋은 해가 아니었어요. “나는 문학 학위가 있고 기술은 없는데 누가 나를 고용하지?” 같은 상황이었죠.
그럼에도 저는 세상을 더 나은 곳으로 만들고 싶다는 강한 끌림이 있었습니다. 저와 다리오 모두 어릴 때부터 그런 성향이 있었던 것 같아요. 저의 출발점은 국제개발과 글로벌 헬스였습니다.
저는 이런 질문을 갖고 있었습니다.
“모두가 음식, 물, 의약품 같은 기본적인 것에 접근할 수 있는 더 공정한 세상을 어떻게 만들 수 있을까?”
지금 제가 직접적으로 그 일을 하고 있는 것은 아니지만, 그때의 경험은 세상에서 선을 행한다는 것이 무엇인지, 의미 있는 일을 한다는 것이 무엇인지에 대한 기반을 만들어줬습니다.
그 후 저는 의회에서 일했고, 선거 캠페인에서도 일했습니다. 그러다가 다시 실리콘밸리로 돌아왔습니다. 저는 원래 샌프란시스코 출신인데, Stripe라는 당시에는 아무도 잘 모르던 작은 회사에서 일하게 됐습니다. 그때 Stripe는 40명 정도밖에 안 되는 회사였고, 의회에서 일하던 친구들은 “결제 회사에 간다고? 왜?”라는 반응이었습니다.
지금 보면 훌륭한 선택처럼 보이지만, 당시에는 전혀 확실하지 않았습니다. 이후 일이 빠르게 굴러가면서 OpenAI에서 일하게 되었고, 그다음 Anthropic을 공동창업하게 됐습니다.
3. 분야를 넘나드는 태도: “저는 제 자신을 제너럴리스트라고 생각한다”
인터뷰어:당신은 전공이나 이전 경력에 갇히지 않고 분야를 옮겨왔습니다. 그런 사고방식은 어디서 온 건가요?
다니엘라 아모데이:
저는 스스로를 제너럴리스트라고 생각합니다. 제 이력을 보면 “이 사람은 대체 뭘 잘하는 거지?”라고 생각할 수도 있어요. 저는 법학 학위도 없고, 컴퓨터 과학자도 아닙니다.
하지만 저는 여러 분야에 걸쳐 호기심을 갖고 배우는 능력, 어떤 분야에서 일하든 임팩트를 만들고 싶어 하는 강한 기반이 매우 저평가된 자질이라고 생각합니다.
Anthropic에서 채용하는 사람들 중에도 그런 사람들이 많습니다. 기술 업계에서 제가 함께 일했던 정말 뛰어난 사람들도 그렇고요. 호기심이 많고, 똑똑하고, 배우고 싶어 하고, 도움이 되고 싶어 하는 사람들입니다.
저에게는 항상 관심과 임팩트가 중심이었습니다. 저는 이런 생각을 했습니다.
“나는 미국에서 태어났고, 삶에서 당연하게 여기는 기본적인 것들에 접근할 수 있었다. 그런데 세상 어떤 사람들은 단지 어디서 태어났느냐 때문에 그런 것들을 갖지 못한다. 이걸 어떻게 더 공정하게 만들 수 있을까?”
그러다가 저는 제가 원하는 만큼의 임팩트를 내지 못하고 있다는 걸 느꼈습니다. “기술이 필요하다”고 생각했고, 그래서 캠페인에서 일했습니다. 거기서 저는 젊고 의욕 있는 소수의 사람들이 정말 열심히 일하면 세상을 바꿀 수 있다는 것을 봤습니다.
그게 결국 실리콘밸리로 이어진 것도 이상하지 않습니다. 스타트업에서는 그런 방식으로 세상을 바꿀 수 있는데, 캠페인보다 돈도 더 많고, 어떤 면에서는 훨씬 수월하기도 합니다.
결국 핵심은 자신이 정말 관심 있는 일을 따라가는 것입니다. 어떤 일이 지적으로 흥미롭거나, 내적으로 의미 있다고 느껴질 때 사람은 더 많이 하게 됩니다.
4. OpenAI에서 AI 언어를 배운 방식: “기술을 두려워하지 않았다”
인터뷰어:당신은 2018년에 OpenAI에 합류하면서 AI 커리어를 시작했습니다. 당시 OpenAI는 아직 비교적 작은 연구소였죠. 갑자기 신경망, 트랜스포머, 스케일링 법칙 같은 이야기가 오가는 방에 들어가게 됐습니다. 어떻게 그 언어를 배웠나요?
다니엘라 아모데이:
저는 두 가지 면에서 훈련이 되어 있었다고 생각합니다.
첫째, 저는 이미 Stripe에서 거의 6년을 일했습니다. 많은 엔지니어들과 일했죠. 물론 연구와 엔지니어링은 다르지만, 그래도 겹치는 부분과 기초가 있었습니다.
둘째, 저는 매우 뛰어난 기술 지향적인 물리학자와 함께 자랐습니다. 제 형제이자 Anthropic 공동창업자인 다리오죠. 그리고 다른 공동창업자들도 대부분 엔지니어나 연구자였습니다.
무엇보다 중요한 것은, 이런 경험들이 제게 기술을 두려워하지 않는 감각을 심어줬다는 점입니다. 기술은 매우 높게 평가되는 능력이지만, 결국 배울 수 있는 기술들의 집합입니다.
처음에는 용어와 전문용어가 압도적으로 느껴질 수 있습니다. 하지만 충분히 질문하고, 주변에 인내심 있게 설명해주는 사람들이 있다면 이해할 수 있습니다. 저는 운 좋게 그런 사람들이 있었습니다.
저는 이해할 때까지 계속 질문했습니다.
그리고 또 하나 중요한 점은 제 역할과 다른 사람들의 역할을 구분하는 것이었습니다. 연구자들이 하는 일 중에는 제가 할 수 없는 일이 많았습니다. 저는 GPT-2나 GPT-3를 훈련시킬 수 없었을 겁니다.
하지만 저는 그들이 잘하지 못하는 것을 가져왔습니다. 자신의 비교우위가 무엇인지 이해하고, 더 넓은 생태계 안에서 자신이 어디에 맞는지 아는 것이 중요합니다. 그건 대인관계 능력, 호기심, 학습 능력과도 관련이 있습니다.
5. OpenAI를 떠나 Anthropic을 창업한 이유: “무언가로부터 도망친 게 아니라, 무언가를 향해 달려갔다”
인터뷰어:2020년 12월, 당신과 다리오, 그리고 동료들이 OpenAI를 떠났습니다. 왜 Anthropic을 시작하기로 했나요?
다니엘라 아모데이:
이 질문에는 물을 좀 마셔야겠네요.
처음에 떠난 사람은 일곱 명이었습니다. 저와 다리오, 그리고 다섯 명의 공동창업자들이었고, 이후 곧 합류한 사람들도 있었습니다.
저희에게 핵심은 우리가 이 기술이 궁극적으로 어떤 영향을 미치기를 원하는가였습니다. 일곱 명 모두 각자의 방식은 달랐지만, 공통적으로 무척 높은 진실성과 책임감을 가진 사람들이었습니다. 우리가 만드는 것이 세상에 어떤 영향을 미치는지 깊이 신경 쓰는 사람들이었죠.
결국 우리가 있던 회사 안에서보다는, 우리가 보고 있던 비전을 새로운 회사에서 직접 만드는 것이 더 쉽겠다고 느꼈습니다.
저는 자주 이렇게 말합니다. 저희는 무언가로부터 도망친 것이 아니라, 무언가를 향해 달려간 것입니다.
우리는 안전과 책임이라는 가치가 조직의 중심에 놓이는 회사를 만들고 싶었습니다. 그래서 Anthropic을 공익법인, 즉 public benefit corporation으로 설립했습니다. 저희는 상업적 기업이 될 것이고, AI가 엄청난 경제적 가치를 만들 것이라고 생각했습니다. 하지만 그 일을 올바른 방식으로 하는 것이 중요했습니다.
우리는 OpenAI에 있을 때 능력 개발, 안전, 정책 작업을 모두 해본 사람들이었습니다. 그래서 이런 구조를 새로운 형태로 만드는 것이 더 쉽겠다고 느꼈습니다.
6. 공동창업자와의 관계: “갈등을 어떻게 겪고 회복하는지가 중요하다”
인터뷰어:당신은 다리오뿐 아니라 다섯 명의 다른 공동창업자들과 Anthropic을 만들었습니다. 여기 있는 많은 사람들도 처음으로 공동창업자를 선택하게 될 텐데요. 공동창업자 관계는 자주 잘못되기도 합니다. 어떻게 해야 잘 작동하나요?
다니엘라 아모데이:
저는 정말 운이 좋았다고 생각합니다. 일곱 명의 공동창업자는 여러 면에서 특별한 그룹이었습니다.
가장 먼저 말하고 싶은 것은, 인간관계가 생각보다 훨씬 중요하다는 것입니다. 특히 갈등을 어떻게 겪는지가 중요합니다.
예를 들어 다리오와 저는 거의 40년 동안 싸우고 화해해왔습니다. 그는 제 오빠이고, 저는 어릴 때 그의 장난감을 훔치곤 했죠. 우리는 갈등을 겪고도 회복하는 방법을 압니다. 그리고 무슨 일이 있어도 끝에는 서로를 사랑한다는 걸 압니다.
다른 공동창업자들과도 긴 역사가 있었습니다. 저는 Jared를 15년 정도 알고 있었고, Chris도 15년 정도 알고 있었습니다. Tom과 Sam은 룸메이트였고, Jared와 Sam은 스탠퍼드 박사 과정에서 함께 일했습니다.
또한 다리오와 저는 다른 공동창업자들을 OpenAI에서 관리한 경험이 있었습니다. 대부분이 우리 둘 중 한 명 혹은 둘 모두에게 보고한 적이 있었습니다. 그래서 이미 서로 피드백을 주고받는 방식, 함께 일하는 방식, 각자가 어떤 사람인지 알고 있었습니다.
또 하나 중요한 것은, 무엇을 만들려고 하는지에 대해 아주 강한 공통의 그림을 가져야 한다는 것입니다. 공동창업자 두 명을 따로 방에 넣고 “우리가 만들려는 것을 그려보라”고 했을 때, 한 명은 유니콘을 그리고 다른 한 명은 오리너구리를 그리면 안 됩니다.
서로 같은 걸 하고 있다고 생각하지만 실제로는 완전히 다른 걸 상상하고 있다면 잘 끝나기 어렵습니다.
저희는 운 좋게도 이전 환경에서 “우리가 원하는 건 정확히 이건 아니야. 우리는 다른 걸 하고 싶어”라는 감각을 공유하고 있었습니다.
공동창업자를 고르려면 가능한 한 많이 압박 테스트를 해봐야 합니다. 회사를 같이 시작하기 전에 같이 여행을 가보세요. 방도 같이 써보세요. “이 사람과 더 시간을 보내고 싶다”고 느끼면 좋습니다. 반대로 “이 여행에서 회복하려면 또 휴가가 필요하다”고 느끼면 잘못된 선택일 수 있습니다.
7. AI 안전이란 무엇인가: “기술에 대해 급진적 책임을 지는 것”
인터뷰어:Anthropic은 AI 안전과 깊이 연결되어 있습니다. 그런데 AI 안전이라는 말이 실제로 무엇을 의미하는지 분명히 하고 싶습니다. 당신이 AI 안전이라고 말할 때 무엇을 뜻하나요?
다니엘라 아모데이:
좋은 질문입니다. AI 안전이라는 용어는 최근 몇 년 동안 너무 많은 의미로 쓰이면서 다소 과부하된 표현이 되었습니다.
저희에게 가장 높은 수준의 정의는, 우리가 개발하는 기술에 대해 일종의 급진적 책임을 지는 것입니다.
저희가 자주 드는 비유는 소셜미디어 회사들입니다. 지금은 공개적으로 소셜미디어 회사들을 비판하는 것이 유행처럼 되었으니 저도 그렇게 하겠습니다.
과거로 돌아가 보면, 그 기술을 만든 개발자들이 “나는 10대 소녀들에게 섭식장애 팬데믹을 일으키겠다”고 생각하고 만든 건 아니었을 겁니다. 하지만 그들은 어떤 지표를 최적화하고 있었을까요? 빠른 성장, 빠른 확장, 회사 성장 같은 것들이었죠.
당시에는 이렇게 빠르게, 이렇게 많은 사람이 기술을 채택하는 규모를 본 적이 없었습니다. 그래서 부작용을 사전에 깊이 생각하는 것이 당연한 문화가 아니었습니다.
하지만 지금 우리는 이전 세대 기술들의 실수를 볼 수 있습니다. 그들이 실수했고, 우리는 “우리는 그 실수를 반복하지 않겠다”고 말할 수 있습니다. 그것은 큰 특권입니다.
저희는 모든 것이 잘될 세계뿐 아니라, 모든 것이 잘못될 세계도 상상해야 한다고 생각합니다. 어떻게 하면 의도치 않은 외부효과를 줄일 수 있을지 미리 생각해야 합니다.
AI 안전에는 큰 위험들이 포함됩니다. 예를 들어 저희 기술이 화학무기나 생물무기 개발에 사용되는 것을 막는 일입니다. 실제로 그런 가능성이 있습니다. 사이버 전쟁도 포함됩니다. Anthropic은 최근 사이버전 위험 때문에 Mythos급 모델을 공개하지 않기로 한 결정으로 뉴스에 많이 나왔습니다.
그 외에도 사용자 웰빙, 아동 안전, 허위정보, 선거 무결성 같은 작업도 포함됩니다. 이건 저희가 완전히 새로 만든 개념이 아닙니다. 이전의 중요한 기술 회사들에서 안전·보안 팀들이 해온 작업 위에 서서, 그들로부터 배우고 더 잘하려는 것입니다.
8. 안전과 매출의 긴장: “대부분의 경우 안전은 사업에도 좋다”
인터뷰어:Anthropic은 AI 안전 회사이면서 동시에 매출을 만들어야 하는 회사입니다. 두 가지 사이의 긴장을 어떻게 관리하나요?
다니엘라 아모데이:
이 질문도 많이 받습니다. 일반적으로 생각하는 것만큼 두 가지가 충돌하지는 않습니다.
특히 저희 매출의 대부분은 기업 고객에서 나오는데, 기업들은 안전하지 않은 모델을 원하지 않습니다. 기업들이 “Claude가 더 환각을 많이 했으면 좋겠다”거나 “위험한 답변을 더 많이 했으면 좋겠다”고 말하지는 않습니다.
그래서 최근까지는 안전과 사업이 거의 완전히 정렬되어 있었습니다. 기업들은 위험을 싫어합니다. 예측 불가능하고 신뢰할 수 없는 AI 기술을 원하지 않습니다.
다만 이제는 모델 능력이 너무 빠르게 발전하면서 긴장이 “시간”의 문제로 나타나기 시작했습니다. 모델이 놀라운 일을 할 수 없는 것이 아니라, 우리가 아직 위험을 충분히 이해하지 못한 상태일 수 있다는 것입니다.
앞으로는 이런 문제가 더 커질 수 있습니다. 위험이 얼마나 심각한지, 어떤 위험이 있는지, 어떻게 완화할 수 있는지 이해하는 데 시간이 필요합니다.
그래서 저희는 Project Glasswing 같은 다소 이례적인 행동을 하기도 했습니다. 새로운 종류의 모델을 모든 고객에게 바로 공개하면 고객들은 좋아하겠지만, 저희가 아직 충분히 확신하지 못한다면 조금 더 시간을 가져야 합니다.
그건 불편한 일입니다. 고객에게 “모델을 바로 제공하고 싶지만 아직은 책임 있게 공개할 수 없다”고 말해야 하니까요. 고객들은 “사이버 방어가 중요하다는 건 알지만, 그래도 그 모델을 쓰고 싶다”고 말할 수 있습니다.
그럴 때 저희는 다시 미션으로 돌아갑니다. 기술을 가능한 한 빨리 제공하고 싶지만, 필요한 패치와 안전 조치가 이루어졌다는 확신이 들기 전에는 공개하는 것이 무책임하다고 보는 것입니다.
9. AI와 일자리: “AI는 일을 대체하기보다 보완하는 경우가 아직은 대부분이다”
인터뷰어:AI에 대한 두려움을 부정할 수 없습니다. AI 때문에 인간 판단이 덜 필요해지고 일자리가 줄어들 것이라는 두려움이 있습니다. 그 두려움은 타당한가요?
다니엘라 아모데이:
이건 매우 복잡한 질문입니다. AI가 어떤 종류의 일이 존재하는지, 사람들이 어떤 일을 하는지 바꿀 것이라는 점은 분명합니다.
오늘날에도 AI 때문에 5년 전에는 존재하지 않았던 일자리가 생겼습니다. 반대로 미래에는 AI 때문에 사라지는 일자리도 있을 것입니다.
하지만 지금까지 저희 경제 지표를 통해 본 바로는, 사람들은 AI를 주로 보완적 기술로 사용하고 있습니다. 즉 AI가 일을 가능하게 하는 도구이지, 일을 대체하는 도구로 쓰이는 경우는 아주 적습니다. 대체가 나타나는 영역은 매우 제한적인데, 주로 고객 서비스입니다.
앞으로는 지금의 직업과 비슷하게 보이지만 실제로는 다른 형태의 일이 많이 생길 것이라고 봅니다.
가장 많이 이야기되는 것은 코딩입니다. 비즈니스 미팅에서 CEO들과 Claude 이야기를 하다 보면, 대화가 어느 정도 진행된 후 CEO가 조용히 몸을 기울이며 “제 딸이 스탠퍼드 2학년인데, 컴퓨터공학을 전공하려고 합니다. 계속 해도 될까요?”라고 묻곤 합니다.
솔직히 우리는 모릅니다. 하지만 제 추측은 소프트웨어 개발자는 여전히 존재할 것이라는 겁니다. 다만 지금처럼 많은 코드를 직접 쓰지는 않을 수 있습니다.
소프트웨어 개발자의 일은 키보드로 코드를 치는 것보다 훨씬 큽니다. 제품 관리자와 이야기하고, 고객과 협력하고, 무엇을 만들지 이해하는 일이 있습니다. 그런 부분은 확대되고, AI가 쉽게 할 수 있는 부분은 줄어들 것입니다.
10. 교육과 사회는 무엇을 해야 하는가: “우선 현실이 무엇인지 함께 이해해야 한다”
인터뷰어:그렇다면 교육, 리더십, 사회 차원에서 사람들을 불안하게 만들지 않고 준비되고 기대하게 만들려면 무엇이 필요할까요?
다니엘라 아모데이:
몇 가지가 있습니다.
첫째, 겸손함에서 출발해야 합니다. 우리는 답을 모른다는 사실을 인정하고 연구해야 합니다. Anthropic은 가능한 한 급진적으로 투명하려고 노력해왔습니다. 우리는 “답을 모두 갖고 있지 않다. 다만 연구해서 우리가 보는 미래를 사람들에게 알려야 한다”고 말해왔습니다.
때로 사람들은 “Anthropic은 너무 부정적인 얘기만 한다”고 말할 수 있습니다. 하지만 저는 대화를 더 일찍 시작하는 것이 중요하다고 봅니다. 사람들이 갑자기 당황하게 만들고 싶지 않기 때문입니다.
저희가 경제 지표를 공개하는 이유도 “사람들이 오늘 AI를 어떻게 쓰고 있는지” 보여주기 위해서입니다. 그래야 이 기술이 어디로 가고 있는지 이해할 수 있습니다.
둘째, 여러 층위에서 창의적이고 실험적이어야 합니다. AI를 단순히 “내 직장에서 쓰는 도구”로만 볼 것이 아니라, 사람들의 삶과 의미, 사회적 관계, 일과 의미의 연결을 어떻게 바꿀지 생각해야 합니다.
셋째, 이건 기술 회사 혼자 할 수 있는 범위를 넘어서는 사회적·정치적 문제가 될 것입니다. 사람들은 AI 때문에 자신의 일이 사라진다고 느끼면 신경 쓸 수밖에 없습니다. 이미 여론조사에서도 사람들은 자신의 미래와 자녀의 미래에 대해 불안해합니다.
정부, 시민사회, 대학, 여러 조직이 함께 “AI가 인간이 오늘 하는 많은 일을 할 수 있는 세계에서 우리는 어떤 세상을 만들고 싶은가?”를 논의해야 합니다.
11. AI 채택의 장벽: “실리콘밸리는 전 세계가 아니다”
인터뷰어:결국 핵심은 채택입니다. 스탠퍼드와 실리콘밸리에서는 모두가 AI를 이야기하지만, 그곳이 전 세계는 아닙니다. 이 버블 밖에서 AI 채택을 가로막는 것은 무엇인가요?
다니엘라 아모데이:
정말 중요한 지적입니다. Anthropic이나 스탠퍼드에서는 AI가 모두의 유일한 관심사처럼 느껴질 수 있습니다. 적어도 사람들은 제게 AI 이야기만 합니다. 물론 그건 제 문제일 수도 있죠.
하지만 미국의 다른 지역만 가도 사람들은 아직 AI에 익숙하지 않습니다. 높은 유창성으로 AI를 쓰는 방법을 아는 사람도 많지 않습니다.
AI 도구 사용자 수에 대한 놀라운 숫자들이 나오지만, 거기에는 인구통계학적 요소가 있습니다. 일반적으로 대학 교육을 받은 사람들이 많고, 남성이 여성보다 많고, 인종·소득·부의 차이도 있습니다. 전 세계적으로 보면 더더욱 고르게 분포되어 있지 않습니다.
흥미로운 점은 개발도상국 사람들이 AI에 훨씬 더 낙관적이라는 것입니다. 글로벌 사우스의 많은 사람들은 AI를 거대한 기회로 봅니다. 어쩌면 세상을 더 공정하게 만들 수 있는 평준화의 힘으로 보는 것입니다.
반면 미국, 유럽, 아시아 일부 지역에서는 불안이 더 큽니다. 사람들은 “나는 지금 방식이 좋다. AI가 와서 그걸 흔드는 것은 원치 않는다”고 느낍니다.
이 정보를 가지고 무엇을 해야 할지는 저도 모릅니다. 하지만 접근성과 채택에 서로 다른 문제가 있다는 점은 매우 흥미롭습니다.
저는 우리가 아직 매우 초기 단계라고 생각합니다. 실리콘밸리에서는 모든 개발자가 Claude Code나 Codex를 쓰는 것처럼 느끼지만, 전 세계 개발자의 대다수는 그렇지 않습니다. 경주는 이제 막 출발 총성이 울린 단계입니다.
그래서 이 기술이 어떻게 쓰이고 개발될지, 접근성이 어떤 모습일지, 어떤 가치가 기술 안에 들어갈지를 긍정적으로 형성할 기회가 아직 많다고 봅니다.
12. AI에 너무 많이 위임할 때 잃을 수 있는 것: “생각하지 않아도 되는 상태가 위험하다”
인터뷰어:AI가 훨씬 널리 채택된 미래로 가보겠습니다. 우리가 AI에 너무 많이 위임하면 잃을 수 있는 것은 무엇인가요?
다니엘라 아모데이:
Anthropic에서 아주 큰 질적 조사를 했습니다. 저희가 알기로는 가장 큰 규모의 질적 연구였고, 8만 1천 명에게 AI 사용에 대해 물었습니다. Claude 사용자도 있었고, 다른 AI 도구 사용자도 있었습니다.
사람들은 AI에 대해 다양한 감정을 갖고 있었습니다. 어떤 사람들은 “AI 덕분에 내가 할 수 없다고 생각했던 일을 할 수 있게 됐다”고 말했습니다.
저 자신도 예를 들 수 있습니다. 저는 제가 웹사이트를 만들 수 있다고 생각하지 않았습니다. 그런데 Claude를 쓰면 몇 번 클릭해서 웹사이트를 만들 수 있습니다. 혼자 했다면 1년은 걸렸을 것이고, 아마 별로 좋은 웹사이트도 아니었을 겁니다.
하지만 어떤 사람들은 다른 감정도 표현했습니다. 아직 딱 맞는 단어는 없지만, 언젠가 생길지도 모릅니다. “내가 생각할 수 있었고, 직접 아이디어를 향해 뻗어나갈 수 있었는데, AI가 너무 쉬워서 그냥 내 뇌를 쓰지 않게 된다”는 감각입니다.
이것은 휴대폰을 무심코 스크롤하는 느낌과는 다릅니다. 내가 생각할 수 있었는데, 그러지 않고 AI가 준 것을 그냥 믿는 것입니다.
저는 이것이 AI에 대한 많은 불안의 근원이라고 봅니다. 인간은 배우고 싶고, 호기심을 갖고 싶고, 자신이 아는 세계를 넓히고 싶어 하는 존재입니다. AI는 그걸 가능하게 할 수도 있지만, 잘못 사용하면 오히려 그 능력을 꺼버릴 수도 있습니다.
저도 가끔 그런 적이 있습니다. “직접 찾아보고 이해할 수도 있지만, 그냥 AI에게 묻고 그 답을 믿자”고 생각할 때가 있습니다. 물론 Claude도 틀릴 때가 있습니다. 말하기엔 이단적으로 들릴 수 있지만 사실입니다.
그래서 중요한 것은 어떤 가드레일을 세울 것인가입니다. 대학과의 작업이 좋은 예입니다. Claude에는 학습 모드라는 개념이 있습니다.
한 버전은 숙제를 ChatGPT에 넣고 “하하, 답을 받았다”고 하는 것입니다. 그건 부정행위입니다.
다른 버전은 Claude의 학습 모드를 사용해서 “나는 이 에세이를 쓰다가 막혔다. 구조가 뭔가 이상한데 왜 그런지 모르겠다”고 말하는 것입니다. 그러면 Claude는 인내심 있는 튜터처럼 작동합니다. 마치 나를 알고, 내가 무엇을 배우고 싶은지 이해하는 개인 교수처럼 도와줍니다.
그런 방식이면 AI 도구는 사람을 더 똑똑하게 만들 수 있습니다. 자신이 배울 수 있다고 생각하는 것의 범위를 넓힐 수 있습니다. 하지만 그냥 뇌를 꺼버리는 방식도 있습니다. 저는 산업 전체가 첫 번째 방향을 선택하기를 바랍니다.
13. AI 시대에 더 중요해질 인간 능력: “사람은 사람과 함께 있고 싶어 한다”
인터뷰어:AI 중심 세계에서 더 중요해질 인간 능력을 우선순위로 꼽는다면 무엇인가요?
다니엘라 아모데이:
제 생각은 이렇습니다. 금융 애널리스트, 개발자, 카피 에디터 같은 구체적이고 과업 중심적인 일들은 많이 변할 것입니다. 그중 상당 부분은 AI 도구가 할 수 있게 될 겁니다.
하지만 결국 인간은 다른 인간과 함께 있고 싶어 합니다. 우리는 서로 시간을 보내고, 서로에게 배우고, 창의적이고, 타인을 이해하려는 사회적 존재입니다.
AI가 생산적인 일상 업무를 훨씬 많이 수행할 수 있는 세계에서는 그런 인간적 능력이 훨씬 더 중요하고 가치 있게 여겨질 것이라고 봅니다.
예를 들어 직장에서 Claude에게 코드를 쓰게 할 수 있다고 해도, 당신은 왜 무언가가 망가졌는지, 왜 어떤 도구를 그런 방식으로 만들었는지를 설명해주는 개발자와 대화하고 싶을 것입니다.
의학에서도 마찬가지입니다. 오늘날 우리는 진단을 잘하는 의사를 고용합니다. “내가 왜 아픈지 알려주세요”라고 묻고, 의사는 가능한 원인과 가장 가능성 높은 원인을 제시하고 검사를 합니다.
AI는 이런 진단을 매우 잘하게 될 것입니다. 하지만 AI 도구가 할 수 없는 것은 실제로 환자를 보고, 진찰하고, 감정을 이해하고, 환자가 더 낫다고 느끼게 해주는 것입니다.
의료 문헌에는 의사와 좋은 관계를 가진 환자들이 더 나은 임상 결과를 보인다는 연구들이 있습니다. 왜 그런지는 완전히 설명하기 어렵지만, 아마 의사가 더 열심히 이해하려 하고, 예상치 못한 검사를 하거나, 더 깊이 살펴보기 때문일 수 있습니다.
그래서 좋은 의사의 태도, 즉 bedside manner는 AI 시대에 다섯 배는 더 중요해질 수 있습니다.
14. 다니엘라가 가장 기대하는 AI 활용: “Claude는 훌륭한 매니지먼트 코치가 될 수 있다”
인터뷰어:미래를 생각할 때 개인적으로 가장 기대하는 AI 사용 사례는 무엇인가요?
다니엘라 아모데이:
저는 커리어 매니저입니다. 대부분의 시간을 사람들과 보냅니다. 그리고 사람들은 다들 “AI는 내 일자리는 대체하지 않을 거야. 나는 특별하니까”라고 생각하는 경향이 있습니다. 저도 그 죄를 아주 많이 짓고 있습니다.
저는 “사람들은 사람을 좋아한다. 사람들은 Claude에게 보고하고 싶어 하지 않고 나에게 보고하고 싶어 할 것이다”라고 생각했습니다.
하지만 저는 Claude가 매니지먼트 코치로서, 그리고 더 나은 리더가 되도록 돕는 도구로서 굉장히 강력하다고 생각합니다.
Anthropic에서는 성과 평가를 씁니다. 저와 함께 일하는 많은 사람들은 3~4년 동안 저에게 보고해왔습니다. 사람도 같고, 저도 같고, 피드백도 비슷한 경우가 많습니다. 그런데 Claude는 어떤 사람에 대한 패턴을 발견하는 데 큰 도움을 줍니다.
3~4년 동안의 데이터를 보면 “우리가 이 주제를 계속 맴돌고 있었구나. 이 사람에게는 추가 코칭이 필요할 수 있겠다”는 식의 패턴이 보입니다. 일상에 파묻혀 있으면 놓치기 쉬운 것들입니다.
반대로 Claude는 저에게도 피드백을 줍니다. 저는 제 리포트들이 저에 대해 준 upward feedback을 Claude에 올립니다. 그러면 Claude가 아주 친절하게 “지난 1년 동안 이 부분은 개선되지 않은 것 같네요. 추가 코칭을 받아보는 게 좋을 수도 있습니다, 다니엘라”라고 말해줍니다.
사람들이 최고의 자신이 되도록 코칭하고 돕는 Claude의 능력은 직장뿐 아니라 개인적 삶에서도 매우 강력할 수 있다고 봅니다. 물론 신중하게 해야 합니다.
두 번째는 부모로서의 사용입니다. 저는 거의 다섯 살 된 아이와 거의 한 살 된 아이가 있습니다. Claude가 해준 최고의 일은 배변훈련을 도와준 것입니다. 정말 재미없는 경험이었는데, Claude가 조금은 덜 힘들게 만들어줬습니다. 공감적이고, 실행 가능하고, 다이어그램도 있었습니다.
Claude는 특히 지친 부모들을 돕는 데 매우 강력할 수 있다고 생각합니다. 인터넷에는 나쁜 정보가 너무 많습니다. “우리 아이에게 문제가 있나요?”라고 구글에 검색하면 답은 항상 “그렇다”입니다. Claude는 훨씬 더 균형 잡혀 있고, 상호작용적이며, 도움이 될 수 있습니다.
15. 다음 세대 AI 리더에게 전하고 싶은 말: “정말 중요하다고 느끼는 일을 따라가라”
인터뷰어:학생 질문으로 넘어가기 전에, 이 방에 있는 다음 세대 AI 리더와 빌더들에게 당신의 여정에서 꼭 가져갔으면 하는 한 가지가 있다면 무엇인가요?
다니엘라 아모데이:
두 가지 말해도 될까요?
첫 번째는 정말 진부하게 들리지만, 진심으로 저는 자신이 정말 신경 쓰고 열정을 느끼는 것을 따라가는 것이 가장 중요하다고 생각합니다.
좋은 아이디어는 많습니다. 하지만 “이건 세상에 반드시 존재해야 한다. 나는 이것을 위해 벽을 뚫고라도 달려갈 것이다”라는 불타는 감각이 없다면, 힘든 순간을 버티기 어렵습니다.
일이 재미없고, 정말 힘든 순간이 옵니다. Anthropic에서도 그런 순간이 있었습니다. 그때 “내가 왜 이 일을 시작했는지, 왜 이게 중요한지”로 돌아갈 수 있어야 합니다. 그것이 개인적인 이유든, 세상에 만들고 싶은 변화 때문이든 말입니다.
두 번째는, 특히 최근 5~10년 사이에 나타난 매우 중요한 생각입니다. 사업을 하는 것과 선을 행하는 것이 반드시 긴장 관계에 있지 않다는 것입니다.
저는 이것이 매우 새로운 생각이라고 봅니다. 혁신과 사회적 임팩트의 결합입니다. 스탠퍼드는 항상 이 점에서 뛰어났지만, 지금은 더 많은 사람들이 이런 방식으로 생각합니다.
“나쁘고 못된 사람들만 사업을 만들 수 있다”는 느낌이 있을 수 있지만, 저는 전혀 그렇지 않다고 생각합니다. 오히려 선을 행하고자 하는 욕구는 실제로 잘하는 것과 강하게 연결되어 있다고 점점 더 느낍니다.
16. AI 버블 논쟁: “가장 현실적인 우려는 높은 자본 지출이다”
학생 Brandon:AI 버블 논쟁이 있습니다. 사람들은 보통 세 가지를 말합니다. 기업 가치평가, 인프라 지출 규모, AI 발전 속도의 지속 가능성입니다. 이 세 가지 중 무엇이 가장 걱정되고, 사람들은 무엇에 대해 가장 틀렸다고 보나요?
다니엘라 아모데이:
좋은 질문입니다. 서로 다른 종류의 버블을 구분해야 할 것 같네요.
제가 가장 걱정한다고까지 말할지는 모르겠지만, 이 산업에 대해 타당한 우려라고 생각하는 것은 높은 자본 지출입니다. 이 사업은 자본 지출이 매우 큽니다. 그리고 그것은 본질적으로 위험을 동반합니다.
모델을 훈련시키는 것은 매우 비쌉니다. 많은 컴퓨트가 필요하고, 컴퓨트는 부족합니다. 수요는 많고 공급은 적습니다. 저는 경제학 교수는 아니지만, 그러면 가격이 올라갑니다.
컴퓨트는 이런 회사들의 생명줄입니다. 그런데 컴퓨트를 아주 먼 미래까지 미리 사야 합니다. 결국 미래에 대한 베팅을 하는 것입니다. “우리는 이 시점에 이만큼의 컴퓨트가 필요할 것”이라고 판단하고 큰돈을 쓰는 것입니다.
Anthropic이나 OpenAI 같은 회사에서 일한다는 것은, 그 돈을 시간이 지나며 갚을 수 있을 것이라는 계산된 베팅을 하는 일입니다. 물론 저희는 매우 낙관적입니다. 두 회사의 매출은 믿기 어려울 정도입니다. 벤처캐피털 업계에서도 이런 속도로 이런 매출에 도달한 사업은 본 적이 없다고 말합니다.
하지만 만약 그 흐름이 바뀐다면 문제가 생길 수 있습니다. 이미 미래를 위해 많은 컴퓨트를 샀고, 그것은 매우 비쌉니다.
그래서 이 위험을 걱정하는 것이 미친 생각은 아닙니다. 저희는 좋은 위치에 있다고 생각하고, 산업 전체도 그렇다고 봅니다. 하지만 언제든 바뀔 수 있습니다. 결국 이것은 산업 전체가 “이 기술은 큰 수익을 가져올 것”이라고 믿는 베팅입니다. 그리고 우리는 틀릴 수도 있습니다.
17. 정부 규제와 혁신의 균형: “상식적 규제는 필요하지만, 혁신 공간도 필요하다”
학생 Yash:Anthropic은 정부 규제와 AI 혁신 사이의 적절한 균형을 어떻게 보나요? 세계 각국 정부가 무엇을 다르게 하길 바라나요?
다니엘라 아모데이:
좋은 질문입니다. 이 주제는 오늘날 정치 환경에서 그렇듯이, 미묘한 논의를 하기 어려워진 것이 아쉽습니다. 사실 매우 섬세한 문제입니다.
저는 합리적인 규제가 AI 이야기의 일부가 되어야 한다고 생각합니다. AI는 이전에 만들어진 어떤 기술과도 다른 기술입니다. 그리고 제 개인적 의견으로는, 이전 세대 기술들도 조금 더 규제가 있었다면 좋았을 것입니다.
그렇다고 해서 회사가 새로운 놀라운 제품을 만들기 위해 실험할 공간이 필요하다는 사실을 모르는 것은 아닙니다.
제가 가장 바라는 것은 이 논의가 정치화되지 않는 것입니다. 이미 어느 정도 정치화된 것 같아 걱정됩니다. “규제는 나쁘고 혁신은 좋다” 혹은 “혁신은 나쁘고 규제는 좋다” 같은 식으로 가면 안 됩니다. 실제로는 훨씬 복잡합니다.
말이 안 되는 규제도 있습니다. 반대로 기술이 사람들에게 좋고, 위험을 막는 방식으로 개발되기 위해 반드시 필요한 규제도 있습니다.
이상적으로는 기술 회사와 규제 당국이 손잡고 일하는 것입니다. 기술 회사들은 기술이 어떻게 남용될 수 있는지 매일 보기 때문에 정보를 갖고 있습니다. 저희는 안전팀과 보안팀이 사람들이 모델을 어떻게 찔러보고 어떤 위험이 있는지 살펴봅니다.
반면 규제 당국은 따르고 집행할 수 있는 프레임워크를 만드는 방법을 압니다.
조금 낙관적일 수도 있지만, 저는 여전히 양측이 공통 기반을 찾을 수 있다고 희망합니다. 다음 Google, 다음 Meta 같은 회사가 나올 수 있는 혁신은 가능하게 하면서도, 사람들을 보호하는 상식적 규제를 마련하는 미래가 가능하다고 봅니다.
18. 민감한 개인 데이터와 프라이버시: “데이터 보호는 우선 회사의 책임이다”
학생 Jackie Kimmel:AI는 건강 데이터 같은 점점 더 민감한 개인 데이터에 접근하고 있습니다. 개인들은 실제로 프라이버시를 보호하기 위해 무엇을 해야 한다고 보나요?
다니엘라 아모데이:
이것도 훌륭한 질문입니다.
먼저 말하고 싶은 것은, Claude에게 의료 질문을 하는 것이 생각보다 매우 흔한 사용 사례라는 점입니다. 일상적인 사용 사례 중 가장 흔한 것 중 하나입니다. 저도 자주 씁니다. “우리 아이가 이런데 괜찮나요?” “제 몸에 이런 증상이 있는데 도와주세요”라고 묻습니다.
여기에는 두 측면이 있습니다.
첫째, 사용자의 데이터를 조심스럽게 사용하고 보호하는 것은 회사의 책임입니다. 매우 중요합니다. 사람들은 회사가 데이터를 신중하게 다루도록 책임을 물어야 합니다. 그 데이터는 매우 개인적이기 때문입니다.
Claude에 광고를 넣지 않겠다는 저희의 결정도 부분적으로는 이런 믿음에 기반합니다. AI 기술은 다릅니다. 사람들은 AI 도구와 소셜미디어에 올리는 것보다 훨씬 더 개인적인 대화를 합니다. 그렇기 때문에 기술 회사에는 더 큰 책임이 따릅니다.
둘째, 개인적 관점에서는 완벽한 답을 갖고 있지는 않습니다. 다만 의료 문제에 대해서는 모델을 그대로 믿지 말라고 말하고 싶습니다.
제 경험상 Claude가 복잡한 의료 사례에서 의사보다 더 자주 맞았던 적도 있습니다. 하지만 저는 면허가 있는 의료 전문가와 확인하지 않고는 절대 어떤 행동도 하지 않을 것입니다.
저희는 모델이 때때로 지어내고, 혼란스러워하며, 사용자를 직접 알지 못하고, 진찰할 수 없다는 사실을 공개적으로 말합니다.
그래서 건강한 회의주의를 가지는 것이 맞습니다. Claude를 “전문의는 아니지만 의학적으로 똑똑한 친구”처럼 생각할 수 있습니다. 전문의를 만날 때 어떤 질문을 해야 할지, 어떤 가능성을 생각해볼지 도와주는 도구로는 훌륭합니다.
하지만 어떤 AI 도구가 “이걸 하라”고 말한다고 해서 그대로 의료 행동을 해서는 안 됩니다. 반드시 회의적으로 보고 전문가와 이야기해야 합니다.
19. 라피드 파이어: 전공, 오빠, 책, 회사 이름
인터뷰어:다니엘라, 이제 View from the Top 전통인 라피드 파이어를 하겠습니다. 준비됐나요?
다니엘라 아모데이:
완전 준비됐습니다.
인터뷰어:
대학으로 돌아간다면 무엇을 전공하겠습니까?
다니엘라 아모데이:
비즈니스라고 말하면 이 질문을 완전히 피할 수 있나요?
아마 다시 문학을 전공할 것 같습니다. 이상하게 들릴 수 있지만 저는 읽는 것을 좋아합니다.
인터뷰어:
오빠와 함께 일하면서 가장 좋은 점은 무엇인가요?
다니엘라 아모데이:
추수감사절 저녁 식사요. 농담입니다.
우리는 서로에 대해 정말 많이 알고 있습니다. 그래서 회사의 다른 누구도 말하기 어려운 것을 서로에게 말할 수 있을 때가 있습니다.
인터뷰어:
그럼 가장 싫은 점은요?
다니엘라 아모데이:
추수감사절 저녁 식사요. 농담입니다.
개인적 관계와 업무 관계를 분리해야 한다는 점이 어렵습니다. 우리는 매주 사무실 밖에서 함께 시간을 보내도록 따로 시간을 잡습니다. 우리는 공동창업자이기 전부터 오랫동안 남매였고, 공동창업자가 아니게 된 후에도 오랫동안 남매일 것입니다. 그래서 일 밖의 관계도 계속 돌봐야 합니다.
인터뷰어:
사무실 도서관에서 발견한 가장 좋아하는 책은요?
다니엘라 아모데이:
새로 발견한 책은 아닐 수도 있습니다. 하지만 다시 떠올린 좋아하는 책은 있습니다. The Guns of August라는 책입니다. 제1차 세계대전에 관심이 있다면 정말 좋은 책입니다.
그 책은 제1차 세계대전이 어떻게 시작되었는지, 개별 인물과 성격, 사건들이 어떻게 거대한 비극으로 이어졌는지를 보여줍니다. 정말 중요한 연구라고 생각합니다. 모두 읽어보라고 말하고 싶습니다.
인터뷰어:
Anthropic이 다른 이름이 되었다면 무엇이었을까요?
다니엘라 아모데이:
정말 끔찍한 이름 후보들이 많았습니다. 이상하게도 당시 우리는 새에 꽂혀 있었습니다. Sparrow Systems 같은 이름도 있었던 것 같습니다. 왜 그랬는지는 모르겠습니다.
초기 모델 이름들도 새와 관련이 있었던 것 같습니다. Bert 같은 것도 있었고, Snuffleupagus도 있었습니다. 그건 새가 아니지만요. 어쨌든 새 이름들이 많았습니다.
다행히 더 나은 결정이 내려졌고 Anthropic이라는 이름이 되었습니다. 이제는 다른 이름이었을 것이라고 상상하기 어렵습니다.
20. 최고의 조언: “너는 이미 답을 알고 있다”
인터뷰어:마지막으로, 라피드 파이어는 아니지만, 지금까지 받은 최고의 조언은 무엇인가요?
다니엘라 아모데이:
저희가 OpenAI를 떠날지 고민하던 시기에 받은 조언이 떠오릅니다. 지금 돌아보면 사람들은 “당연히 Anthropic을 만들었지”라고 생각하지만, 당시에는 전혀 그렇게 느껴지지 않았습니다.
우리는 “이건 정말 미친 짓일 수도 있다. 그냥 남아야 하나? 여기서 어떻게든 해볼 수 있지 않을까?”라고 생각했습니다.
그때 저는 일 밖의 친구이자 멘토와 통화했습니다. 그녀는 제게 이렇게 말했습니다.
“솔직히 너는 나와 통화할 필요도 없는 것 같아. 너는 이미 무엇이 맞는 답인지 알고 있어.”
저는 일반적으로 인생에서 “이게 내 삶에 맞는 선택인가?”라는 순간에 사실 이미 답을 알고 있는 경우가 많다고 생각합니다. 그 조언은 정말 좋았습니다.
인터뷰어:
다니엘라, 함께할 수 있어서 기뻤습니다.
다니엘라 아모데이:
초대해줘서 고맙습니다.
핵심 요약
다니엘라 아모데이는 이 인터뷰에서 자신의 커리어를 “계획된 경로”가 아니라 관심, 호기심, 임팩트, 책임감이 이어진 결과로 설명합니다. 국제개발과 정치, Stripe, OpenAI를 거쳐 Anthropic을 세운 과정은 모두 “세상에 더 큰 긍정적 영향을 주고 싶다”는 문제의식과 연결되어 있습니다.Anthropic 창업 이유에 대해서는 OpenAI에서 도망친 것이 아니라, 안전과 책임을 중심에 둔 AI 회사를 만들기 위해 달려간 것이라고 말합니다. AI 안전은 단순히 위험 방지가 아니라, 기술에 대해 “급진적 책임”을 지는 태도라고 설명합니다.
AI 일자리 문제에 대해서는 AI가 일부 일자리를 없애겠지만, 현재까지는 대부분 대체보다는 보완의 형태로 사용되고 있다고 봅니다. 다만 교육, 사회, 정부가 변화에 대비해야 하며, 인간에게는 공감, 관계, 설명, 리더십 같은 능력이 더 중요해질 것이라고 강조합니다.
또한 AI를 너무 쉽게 사용하면 사고력과 학습 의지가 약해질 수 있다고 경고하면서도, 올바르게 쓰면 개인 튜터, 코치, 부모 지원 도구, 리더십 보조 도구로 매우 강력할 수 있다고 말합니다.
마지막으로 그녀가 다음 세대에게 전한 메시지는 분명합니다.
정말 중요하다고 느끼는 일을 따라가라. 그리고 사업과 선한 영향은 반드시 충돌하지 않는다.
전체 0