인터뷰/예측
안드레이 카파시 "디지털 영역이 물리보다 훨씬 빨리 바뀔 것이다"
작성자
하이룽룽
작성일
2026-03-20 23:28
조회
9
전체적으로 보면 카파시의 핵심 메시지는 이거야:
“이제 AI는 단순한 보조 도구가 아니라, 여러 개의 에이전트를 병렬로 굴리며 인간의 생산성과 연구 방식을 재구성하는 단계로 들어왔다.”
그리고 그는 이 변화를 코딩, 연구, 교육, 소프트웨어 UX, 오픈소스, 일자리, 로보틱스까지 전부 연결해서 보고 있어.
1. 지금 벌어진 변화: “코드를 직접 쓰는 시대에서, 에이전트에게 의지를 표현하는 시대로”
카파시는 요즘 소프트웨어 개발이 완전히 바뀌었다고 말해.예전에는 인간이 직접 타이핑해서 코드를 썼다면, 지금은 점점 “내가 무엇을 원하느냐를 에이전트에게 설명하는 일”이 더 중요해졌다는 거야.
그는 작년 12월쯤을 큰 전환점으로 봐.
그 시점부터 자신은 직접 코드를 쓰는 비율이 급감했고, 거의 대부분을 에이전트에게 위임하게 됐다고 해.
심지어 “12월 이후로 직접 한 줄도 안 쳤다”고 할 정도로 강하게 표현해.
그가 느끼는 충격은 단순히 “조금 더 편해졌다” 수준이 아니야.
소프트웨어 엔지니어의 기본 업무 방식 자체가 바뀌었다는 거지.
일반 사람들은 이 변화가 얼마나 급격한지 잘 체감하지 못하지만, 실제 현장에서는 이미 워크플로우가 완전히 달라졌다고 봐.
그는 이 상태를 농담 반 진담 반으로 “AI psychosis”라고 부르는데,
뜻은 대략 이거야:
- 너무 많은 가능성이 갑자기 열렸다
- 아직 정답이 없다
- 남들이 트위터에서 올리는 새로운 활용법이 다 좋아 보인다
- 내가 앞서가야 할 것 같은 불안이 생긴다
- 아직 활용법이 무한히 남아 있는 것 같아 집착적으로 파고들게 된다
2. 개인 생산성의 병목이 바뀌었다: 이제 문제는 타이핑 속도가 아니라 ‘오케스트레이션 능력’
예전 인간 개발자의 병목은 손과 뇌였어.- 타이핑 속도
- 직접 구현하는 시간
- 동시에 여러 작업을 못 하는 한계
이제 중요한 건:
- 어떤 작업을 어떻게 나눌지
- 어떤 에이전트에게 무엇을 맡길지
- 충돌 없이 병렬화하려면 어떻게 지시할지
- 각 에이전트가 한 결과를 어떻게 검토하고 합칠지
“여러 개의 고수준 작업을 설계하고 배분하는 관리자/지휘자”에 가까워진다는 거야.
그는 예시로, 어떤 사람은 화면에 여러 개의 Codex 에이전트를 띄워놓고
각각 다른 리포지토리, 다른 기능, 다른 리서치를 맡긴 채
20분 단위로 결과를 회수하고 다음 일을 주는 식으로 일한다고 설명해.
이때 인간이 하는 일은:
- “새 기능 A는 에이전트 1”
- “충돌 안 나는 기능 B는 에이전트 2”
- “이건 구현 계획만 세워”
- “저건 조사만 해”
- “이 둘은 코드 리뷰 먼저”
그래서 그는 앞으로 중요한 능력을
“에이전트를 여러 개 동시에 돌리는 근육(memory/muscle)”으로 봐.
한마디로 이제는 세부 구현보다 작업 구조화 능력이 더 중요해진다는 말이야.
3. “모든 게 skill issue처럼 느껴진다”: 에이전트가 실패해도 ‘모델 한계’보다 ‘내가 못 쓴 것’ 같음
카파시가 흥미롭게 말하는 부분 중 하나는,요즘 에이전트를 쓰다 보면 안 될 때도 많지만 그조차도 “이건 도구가 못 하는 게 아니라 내가 잘 못 다룬 것 같다”고 느껴진다는 거야.
예를 들면:
- instructions 파일을 더 잘 썼어야 했나?
- 에이전트용 memory 도구를 붙였어야 했나?
- 더 좋은 분업 구조를 짰어야 했나?
- 더 적절한 프롬프트 체계를 설계했어야 했나?
그래서 지금 AI 활용은 단순히 “모델 성능” 문제가 아니라,
사용자 측의 orchestration skill 문제가 굉장히 크게 작용한다고 봐.
그는 이 점 때문에 AI 활용이 굉장히 중독적이라고도 말해.
왜냐하면 실력이 늘면 실제로 unlock이 생기기 때문이야.
즉:
- 잘 쓰면 진짜 더 많이 할 수 있다
- 더 높은 레버리지가 생긴다
- 그래서 계속 더 잘 쓰고 싶어진다
4. ‘토큰 처리량(token throughput)’이 새로운 자원 감각이 된다
이 인터뷰에서 가장 인상적인 표현 중 하나가예전 PhD 시절엔 GPU가 놀고 있으면 불안했는데, 이제는 토큰을 덜 쓰고 있으면 불안하다는 부분이야.
의미는 이거야:
예전 연구자들은
“GPU 시간은 귀하다. 놀리면 손해다”
이런 감각이 있었어.
이제 에이전트 시대에는
“내가 구독한 모델의 토큰 처리량을 충분히 안 쓰고 있으면 손해다”
이런 감각이 생긴다는 거지.
즉, 인간이 일하는 방식이
“내 시간이 자원”에서
“내가 통제 가능한 모델 호출량과 병렬 에이전트 수가 자원”으로 옮겨가고 있다는 말이야.
그는 이것이 앞으로 매우 중요한 사고방식 변화라고 봐.
결국 핵심 질문은:
- 내가 얼마나 많은 토큰 throughput을 통제하느냐?
- 얼마나 오래, 얼마나 자율적으로 에이전트를 굴릴 수 있느냐?
- 내가 직접 루프 안에 들어가지 않고도 얼마나 많은 일이 돌아가느냐?
5. 에이전트를 넘어 ‘Claw’ 혹은 루프형 존재로: 지속성, 기억, 자율성의 확대
카파시는 단순한 대화형 에이전트보다 한 단계 더 나아간 개념으로“claw-like entity”를 말해.
이건 정확한 업계 표준 용어라기보다,
그가 말하는 어떤 미래형 에이전트의 특성을 가리키는 표현이야.
핵심 특징은:
- 계속 루프를 돈다
- 사용자가 실시간으로 붙어 있지 않아도 된다
- 자기만의 샌드박스/실행 환경이 있다
- 더 정교한 메모리를 가진다
- 사용자를 대신해 장시간 무언가를 계속 처리한다
현재 일반 에이전트는 보통 문맥창이 끝나면 요약 압축 정도만 하지만,
그가 말하는 open claw 류는 더 풍부한 기억 구조를 갖고 있다고 평가해.
이런 시스템은 결국
“대화 세션”이 아니라
“내 대신 계속 일하는 존재”에 가까워져.
6. 왜 personality가 중요하냐: 도구가 아니라 팀원처럼 느껴져야 함
카파시는 오픈클로(OpenClaw)를 높게 평가하면서,그 이유 중 하나로 성격(personality) 설계를 꼽아.
그는 현재 많은 에이전트들이
기능만 좋으면 된다고 생각하지만, 실제 사용 경험에서는 personality가 매우 중요하다고 봐.
예를 들어 Claude 계열은
비교적 팀원처럼 느껴지고, 같이 뭔가 만들고 있다는 감각을 준다고 해.
반면 어떤 코딩 에이전트는 너무 건조해서
“구현은 했는데, 우리가 뭘 만들고 있는지 공감은 없는 느낌”을 준다고 말해.
흥미로운 건, 그는 Claude의 칭찬 방식까지 언급해.
아이디어가 정말 좋을 때는 더 반응이 좋고,
애매한 아이디어에는 적당히 반응해서
사용자가 약간은 그 칭찬을 “earned”했다고 느끼게 된다는 거야.
즉, 사람은 단순히 기능적 도구를 원하는 게 아니라
협업 감각을 주는 존재를 원하고,
그 감각이 실제 생산성과 몰입도에 영향을 준다는 관찰이야.
7. Dobby 사례: 집 전체를 자연어로 관리하는 개인 AI 집사
카파시가 자기 집에서 만든 사례가 굉장히 상징적이야.그는 자신의 홈 자동화 시스템을 담당하는 claw를 만들었고, 이름을 Dobby라고 붙였어.
이 Dobby는 대략 이런 일을 함:
- 집 안의 Sonos 오디오 시스템 탐색
- 로컬 네트워크 IP 스캔
- 장비 식별
- API 엔드포인트 역공학
- 음악 재생 제어
- 조명 on/off
- HVAC 제어
- 블라인드/셔터 제어
- 수영장/스파 제어
- 보안 시스템과 카메라 연동
- 변화 감지 후 멀티모달 모델로 상황 판독
- WhatsApp으로 “FedEx 트럭이 도착했다” 같은 알림 전송
하나의 자연어 인터페이스로 통합했다는 점이야.
예전에는
- 조명 앱
- 오디오 앱
- 보안 앱
- HVAC 앱
- 수영장 앱
“Dobby, 잘 시간이야”
라고 말하면 그 문장이 곧 복수 시스템의 통합 명령이 되는 거지.
이 사례를 통해 카파시는 미래 UX의 방향을 이렇게 봐:
- 사람은 앱을 여럿 배우고 싶지 않다
- 소프트웨어 UI를 일일이 탐색하고 싶지 않다
- 사실 많은 앱은 없어도 된다
- 핵심은 API만 열려 있으면 된다
- 에이전트가 그 API들을 엮어서 사람 대신 실행하면 된다
8. “앱은 사실 없어져야 할 수도 있다”: 에이전트 퍼스트 소프트웨어 세계관
그는 굉장히 급진적인 말을 해.스마트홈 같은 사례를 보면, 지금 앱스토어에 있는 수많은 앱들이
사실은 존재하지 않아도 될 가능성이 있다는 거야.
왜냐하면 사용자가 원하는 건 앱 자체가 아니라
결국 어떤 기능을 수행하는 능력이기 때문이야.
그러면 소프트웨어의 이상적 형태는:
- 사람이 직접 조작하는 복잡한 UI가 아니라
- 잘 문서화된 API
- 그리고 그 API를 이해하고 연결하는 에이전트
이 관점에서 보면 산업이 바뀌어야 할 포인트가 많아:
- 고객은 인간이 아니라 인간을 대신하는 에이전트가 될 수도 있음
- 에이전트가 쉽게 호출할 수 있는 인터페이스를 제공해야 함
- bespoke 앱을 계속 만드는 것보다 agent-first API가 더 중요할 수 있음
사람이 직접 로그인하고 웹 UI를 뒤지게 하기보다
그냥 에이전트가 API를 통해 운동 기록을 관리하면 되는 것 아니냐고 말해.
즉, 앞으로는 “인간 친화적 UI”보다
“에이전트 친화적 인터페이스”가 더 중요해질 수 있다는 시각이야.
9. 아직 완전히 맡기지 못하는 이유: 보안, 프라이버시, 신뢰 문제
물론 카파시는 무조건 낙관적이지만은 않아.자기 claw를 더 확장할 수 있음에도 이메일, 캘린더, 디지털 생활 전반에 완전 접근권을 아직 안 준 이유를 분명히 말해.
핵심 이유는:
- 보안이 불안하다
- 프라이버시 우려가 있다
- 시스템이 아직 거칠다
- 너무 신뢰하기엔 이르다
현실적인 채택 속도는 신뢰 문제에 의해 제약된다는 거야.
이건 되게 중요한 포인트야.
그는 기술적 잠재력은 엄청 크다고 보지만,
실제 사회적 확산은 “모델이 되느냐”만이 아니라
권한 위임을 얼마나 안심하고 할 수 있느냐에 달려 있다고 보는 거지.
10. AutoResearch: 연구자까지 루프에서 제거하려는 시도
카파시가 AutoResearch를 말하는 핵심은단순히 “연구에 AI를 쓰자”가 아니야.
그보다 더 강한 주장이지.
그는 이제 최고의 레버리지를 얻으려면
인간 자신이 병목이 되지 않게 루프에서 빠져야 한다고 말해.
즉, 인간이 매번 다음 프롬프트를 주고 결과를 보고 판단하는 구조는
결국 사람이 시스템을 막고 있는 거라는 거야.
AutoResearch의 이상형은:
- 목표(objective)가 있다
- 평가 지표(metric)가 있다
- 제약 조건(boundary)이 있다
- 한 번 설정하고 실행하면
- 에이전트가 스스로 실험, 수정, 검증, 반복을 이어간다
자기가 평소 GPT류 작은 모델을 훈련하는 playground를 쓰는 이유도
단순한 취미가 아니라
“LLM이 LLM을 개선하는 recursive self-improvement의 축소판”을 보기 위해서라고 설명해.
즉, 작은 모델 실험은 사실 큰 질문의 샌드박스야:
“모델이 모델 개선 과정을 점점 더 자동화할 수 있는가?”
11. AutoResearch가 실제로 놀라웠던 이유: 이미 잘 튜닝한 실험에서도 사람이 놓친 것을 찾음
카파시는 자신이 이미 수십 년간 모델 튜닝을 해온 사람이고,이 실험 리포지토리도 손으로 꽤 잘 튜닝해놨다고 말해.
그런데 AutoResearch를 밤새 돌려보니
자기가 놓친 조합을 찾아왔다는 거야.
예:
- value embeddings의 weight decay 설정
- Adam beta 값 튜닝
- 그리고 이 변수들 간 상호작용
이건 단순히 “AI가 잘하네”가 아니라
사람이 직접 하이퍼파라미터 탐색을 계속 들여다보는 것 자체가 이미 비효율적일 수 있다는 거야.
즉, 사람이 연구에서 가장 가치 있는 지점은
모든 미세 탐색을 직접 하는 것이 아니라
그 탐색 구조를 설계하는 쪽으로 이동할 가능성이 커.
12. Frontier labs의 진짜 방향: 작은 모델에서 자율 실험 → 큰 모델로 외삽
카파시가 보는 프런티어 랩의 가장 흥미로운 프로젝트는작은 모델에서 자동화된 연구 실험을 최대한 돌리고,
거기서 얻은 결과를 큰 모델로 외삽하는 구조야.
이유는 명확해:
- 최전선 대규모 실험은 너무 비싸다
- 그래서 작은 모델에서 많은 탐색을 해야 한다
- 그 탐색을 가능한 자율화해야 한다
- 인간은 아이디어를 넣을 수는 있지만 루프 실행자가 되어선 안 된다
- 아이디어 큐가 있다
- 아이디어는 인간도 넣고 자동 과학자도 넣는다
- 작업자(worker)들이 큐에서 아이디어를 가져간다
- 실험한다
- 성공한 것만 feature branch로 올라간다
- 일부 인간은 main branch 병합만 감시한다
연구 조직을 소프트웨어 파이프라인처럼 재구성하는 상상이야.
13. “연구기관은 결국 markdown 파일 집합일 수도 있다”: Program.md 최적화의 메타 레벨
그가 말하는 가장 흥미로운 메타 아이디어는연구 조직 자체가 사실상 markdown 파일로 표현 가능한 운영 체계일 수 있다는 점이야.
예를 들어 program.md 같은 파일에
- 어떤 실험을 우선할지
- 어떤 역할들이 필요한지
- 어떤 순서로 진행할지
- 어떤 검증 방식을 쓸지
결국 연구 조직 자체가 코드처럼 최적화 가능한 객체가 된다는 거지.
그래서 가능한 다음 단계는:
- 서로 다른 program.md들을 경쟁시킨다
- 같은 하드웨어로 어느 조직 설계가 더 좋은 성과를 내는지 본다
- 그 결과를 다시 모델에 먹인다
- 모델이 더 나은 program.md를 쓴다
LLM → 에이전트 → 지속 루프(claw) → 다중 에이전트 협업 → 지시문 최적화 → 조직 구조 최적화
이런 식으로 한 층씩 메타화가 진행된다는 거야.
이 지점에서 그가 “정신이 아득해진다”고 느끼는 이유도 이해돼.
이 구조는 사실상 끝없이 재귀적이니까.
14. 무엇이 자동화에 잘 맞는가: ‘검증 가능한 영역’은 최적의 대상
카파시는 AutoResearch나 에이전트 자동화가모든 분야에 똑같이 잘 먹히는 건 아니라고 분명히 말해.
제일 잘 맞는 건:
- 명확한 목표가 있고
- 정량 평가가 가능하고
- 자동 검증이 가능한 분야
- CUDA 커널 최적화
- 동일 동작을 유지하면서 더 빠르게 만드는 코드
- 단위 테스트로 검증 가능한 프로그램
- validation loss로 바로 평가되는 모델 훈련
반면 잘 안 맞는 건:
- 평가 기준이 모호한 일
- 인간의 의도, 뉘앙스, 취향, 맥락이 중요한 일
- 정답 여부를 쉽게 판단할 수 없는 작업
15. 현재 모델의 이상한 jaggedness: 천재 프로그래머 같다가도 10살 아이 같음
그는 요즘 에이전트를 쓰면서동시에 두 가지 상반된 감각을 느낀다고 말해:
- 한편으로는 평생 시스템 프로그래밍을 한 천재 PhD 학생 같다
- 다른 한편으로는 10살 아이 같다
그는 부분적으로 RL 최적화 구조 때문이라고 봐.
즉, 모델이 잘하는 것은 대부분
보상이 명확하고 검증 가능한 영역이야.
예:
- 코드 맞게 썼는가
- 테스트 통과하는가
- 성능이 개선됐는가
반면 약한 것은:
- 내가 진짜 무엇을 원했는지 섬세하게 이해하기
- 언제 clarifying question을 해야 하는지 판단하기
- 미묘한 뉘앙스와 취향 맞추기
- 농담, 직관, 감각적인 영역
그래서 그는 지금 모델을
“superintelligence circuits 위에 올라타면 엄청나게 강하지만, 그 rails 밖으로 벗어나면 갑자기 흐느적거린다”고 묘사해.
16. 왜 농담은 아직도 형편없나: 일반 지능의 전면적 상승이 아니라, 특정 보상 영역의 급진적 향상
굉장히 재밌는 부분이,카파시는 요즘 모델들이 코드나 에이전트 작업은 엄청 잘해졌는데
여전히 “tell me a joke” 하면 5년 전 수준의 밋밋한 농담을 내놓는다고 지적해.
그 예로 드는 게
“왜 과학자들은 원자를 믿지 않나? 다 지어내니까(make everything up)”
같은 고전적인 농담이야.
이걸 통해 그가 말하고 싶은 건:
현재 모델 향상은 ‘전반적 인간형 지능의 균일한 상승’이라기보다, 특정 검증 가능 영역에 대한 집중 최적화의 결과일 가능성이 크다는 거야.
즉, 코드 능력이 좋아진다고 해서
유머 감각, 창의성, 미묘한 인간 취향 이해가
자동으로 똑같은 속도로 좋아지진 않는다는 거지.
그래서 그는 “코드 지능이 오르면 모든 게 공짜로 따라 오른다”는 식의 단순한 일반지능 서사에 회의적이야.
17. 단일 거대 모델(monoculture) vs 특화된 지능(speciation)
카파시는 지금 업계가 기본적으로하나의 거대한 범용 모델을 만드는 방향으로 가고 있다고 봐.
즉, 모든 것을 파라미터 안에 집어넣는 방식이지.
하지만 그는 장기적으로는
더 많은 ‘speciation’, 즉 지능의 분화가 필요할 수 있다고 생각해.
비유하자면 생물계처럼:
- 어떤 동물은 시각이 발달했고
- 어떤 동물은 청각이 발달했고
- 어떤 동물은 특정 환경에 특화됐듯이
- 수학 특화
- 코딩 특화
- 로컬 추론 특화
- 저지연 응답 특화
- 특정 업무 도메인 특화
다만 지금은 그 과학이 아직 충분히 발달하지 않았다고 봐.
왜냐하면:
- fine-tuning 시 기존 능력 손실 문제
- 지속 학습 문제
- 가중치를 안전하게 조정하는 기술 미성숙
- context window 수준 커스터마이징은 쉬운데 weight-level 조정은 어려움
18. 오픈소스와 프런티어 모델의 관계: 지금 구조는 의외로 꽤 건강할 수도 있다
카파시는 오픈소스 AI의 장기적 역할에 대해 꽤 낙관적이야.그가 보는 현재 구조는 대략:
- 프런티어 클로즈드 모델이 앞서간다
- 오픈소스가 몇 개월 뒤따라간다
- 하지만 오픈소스도 충분히 유용한 수준으로 계속 따라붙는다
지금은 6~8개월 수준까지 줄어드는 느낌이라고 말해.
그는 이 구도가 오히려 꽤 괜찮다고 봐.
이유는:
- 최전선 연구는 비싸고 자본집약적이라 닫힌 구조가 생기기 쉽다
- 하지만 산업과 사회 전체에는 누구나 접근 가능한 공통 플랫폼이 필요하다
- 역사적으로 중앙집중은 위험하다
- 따라서 “조금 뒤처지지만 충분히 강력한 오픈 플랫폼”이 존재하는 건 매우 건강하다
즉, 모든 게 폐쇄 모델로만 가는 건 위험하고,
산업 전체가 의존할 수 있는 개방형 공통 지능 계층이 필요하다는 거지.
19. 프런티어 랩 안팎의 딜레마: 안에 있으면 영향력은 있지만 독립성이 줄고, 밖에 있으면 독립적이지만 판단이 흐려질 수 있음
인터뷰 후반부에 카파시는 프런티어 랩에서 일하는 것의 양면성을 말해.안에 있으면 좋은 점:
- 실제 최전선 capability를 본다
- 무엇이 오고 있는지 안다
- 중요한 결정 근처에 있을 수 있다
- 내부 판단의 정확도가 높다
- 조직의 이해관계에 묶인다
- 완전히 독립적 발언이 어렵다
- 재정적·정치적 인센티브에 영향을 받는다
- 정말 중요한 순간에 개인이 얼마나 sway를 가질지는 불확실하다
- 더 자유롭게 말할 수 있다
- 인간 전체 관점에서 생각하기 쉽다
- 생태계 차원 기여가 가능하다
- 내부 상황을 직접 못 봐서 판단이 점점 drift할 수 있다
- 실제 capability frontier 감각이 흐려질 수 있다
프런티어 랩 안팎을 오가는 식의 커리어가 이상적일 수 있다고 봐.
20. 일자리와 경제: 디지털 노동은 크게 재배열되겠지만, 당장 전부 사라진다고 보진 않음
카파시는 노동시장에 대해서도 꽤 신중해.그는 BLS 데이터를 보며 각 직업군을 살폈고,
특히 디지털 정보 처리 중심 직업들이 AI에 의해 크게 재배열될 가능성을 생각해 봤다고 해.
그가 보는 큰 축은:
- 디지털 세계는 비트 조작이라 훨씬 빠르게 가속된다
- 물리 세계는 원자 조작이라 느리다
- 따라서 당분간 AI의 가장 큰 파장은 디지털 업무에 먼저 온다
- 소프트웨어
- 문서 처리
- 정보 정리
- 분석
- 지식노동 전반
다만 그는 이것이 곧바로 “일자리가 줄어든다”와 동일하다고 말하진 않아.
왜냐하면 Jevons paradox가 있을 수 있기 때문이야.
즉:
- 소프트웨어 생산 비용이 낮아진다
- 그러면 이전엔 비싸서 못 만들던 소프트웨어 수요가 폭발한다
- 그래서 오히려 더 많은 소프트웨어 관련 일이 생길 수 있다
소프트웨어 분야에서 수요가 꽤 커질 수 있다고 조심스럽게 낙관해.
21. “소프트웨어는 희소했을 뿐이다”: AI가 오히려 더 많은 소프트웨어 수요를 만들 수 있음
이 부분이 되게 중요해.그는 지금까지 소프트웨어가 덜 만들어진 이유가
사람들이 원하지 않아서가 아니라 너무 비쌌기 때문이라고 봐.
즉:
- 만들 수만 있다면 소프트웨어는 훨씬 더 많이 필요하다
- 하지만 개발 비용이 커서 많은 수요가 잠겨 있었다
- AI가 개발 비용을 낮추면 그 잠재 수요가 풀릴 수 있다
“AI가 개발자를 대체한다”는 서사와는 반대 방향이야.
오히려:
- 더 많은 맞춤형 소프트웨어
- 더 많은 내부 툴
- 더 많은 에이전트형 서비스
- 더 많은 ephemeral software
한동안은 활동량 자체가 크게 늘 수 있다는 거지.
물론 그는 장기 전망은 매우 불확실하다고 인정해.
프런티어 랩 연구자들조차 결국은 자신들의 자동화 도구를 만들고 있다는 점에서
아주 장기적으로는 연구자 자신도 안전하지 않다고 봐.
22. 교육의 재구성: 사람에게 직접 설명하던 시대에서, 에이전트에게 설명하는 시대로
마지막 부분에서 카파시는 교육과 문서화에 대해서도 중요한 말을 해.그가 만든 microGPT는
거대한 LLM 훈련 체계를 본질만 남겨 극단적으로 단순화한 200줄짜리 코드라고 볼 수 있어.
예전 같으면 이런 프로젝트를 만들면
- 강의 영상 만들기
- 튜토리얼 쓰기
- 사람용 설명 문서 만들기
그런데 지금은 생각이 바뀌었다는 거야.
이제 중요한 건
“사람에게 직접 설명하는 문서”보다 “에이전트가 이해할 수 있는 문서”라는 거지.
왜냐하면 에이전트가 이해만 하면:
- 사용자 수준에 맞게 설명해 줄 수 있고
- 세 가지 방식으로 다시 설명해 줄 수 있고
- 끈기 있게 질의응답해 줄 수 있고
- 코드 한 줄 단위로도 풀어 줄 수 있기 때문이야
HTML 문서를 사람에게 주는 것이 아니라
Markdown 지침과 구조를 에이전트에게 제공하는 방향으로 바뀔 수 있다는 거야.
그는 교육자 역할도 바뀐다고 봐.
사람이 해야 할 일은 모든 걸 직접 설명하는 게 아니라,
에이전트가 잘 가르칠 수 있도록 핵심 통찰과 커리큘럼 힌트를 주입하는 것일 수 있다는 거지.
23. microGPT에 담긴 그의 철학: 인간의 역할은 점점 “에이전트가 못 하는 몇 비트”로 축소될 수도 있음
카파시는 microGPT를 예로 들면서,에이전트가 이미 “설명”은 꽤 잘할 수 있지만
정말 본질적인 단순화나 우아한 추상화는 아직 못 한다고 말해.
즉:
- microGPT 같은 최종 압축판은 자신이 오랜 집착 끝에 만든 결과물이다
- 에이전트는 왜 좋은지 설명은 잘한다
- 하지만 그런 극한의 단순화 자체를 아직 스스로 만들어내지는 못한다
- 에이전트가 할 수 있는 설명, 반복, 튜터링은 점점 에이전트 몫이 된다
- 인간은 정말로 에이전트가 아직 못 하는 소수의 고부가가치 통찰에 집중해야 한다
“당신의 일은 에이전트가 아직 못 하는 것만 하는 것이다”
라는 방향성이야.
24. 로보틱스와 물리 세계: 결국 크지만, 디지털보다 훨씬 느리게 온다
카파시는 로보틱스에 대해서는 꽤 현실적이야.그는 자율주행 경험 때문에 특히 더 그렇게 보는 것 같아.
핵심 인식은:
- 원자를 다루는 건 비트를 다루는 것보다 훨씬 어렵다
- 자본도 더 많이 든다
- 시행착오 비용이 더 크다
- 환경 변수가 훨씬 많다
물리 세계는 그보다 뒤따를 거라고 봐.
다만 장기 시장 규모는 오히려 물리 세계가 더 클 수도 있다고 해.
왜냐하면 현실 세계 전체가 자동화 대상이기 때문이야.
그는 중간 단계로
디지털-물리 인터페이스에 주목해.
예:
- 센서
- 카메라
- 실험 장비
- 데이터 수집 장치
- 사람에게 일을 시키는 네트워크
- 물리적 행동을 유발하는 actuator
AI가 현실 세계를 읽고 쓰게 해주는 인터페이스 층이 더 빨리 의미를 가질 수 있다는 거야.
25. 정보 시장과 인간의 새로운 역할: 인간은 AI의 센서이자 액추에이터가 될 수도 있음
그는 되게 흥미로운 상상을 해.예를 들어 세계 어디선가 중요한 사건이 벌어지고 있을 때,
그 현장의 사진이나 영상을 AI 시스템이 사고 싶어 하는 시장이 왜 아직 충분히 없냐는 식이야.
즉, 앞으로는
- 인간이 현장에서 사진을 찍고
- 데이터를 수집하고
- 가격이 매겨지고
- 그것이 에이전트나 모델의 입력으로 들어가는
이런 관점에서는 인간이 AI에게 완전히 대체되는 게 아니라,
오히려 어떤 경우에는 AI 시스템의 눈과 손 역할을 하게 될 수도 있어.
그는 이를 통해 사회 전체가
점점 더 “에이전트적 경제”에 맞춰 재구성될 가능성을 본다.
26. 전체 인터뷰의 핵심 결론
이 인터뷰를 한 줄로 압축하면:AI의 다음 단계는 ‘더 똑똑한 단일 모델’만이 아니라, 여러 에이전트가 자율적으로 오랫동안 협업하며 인간의 병목을 제거하는 구조의 등장이다.
조금 더 풀면 핵심은 이거야.
첫째, 코딩은 직접 작성이 아니라 에이전트 지휘로 이동 중이다.
둘째, 진짜 생산성 차이는 모델 IQ보다 에이전트 운영 능력에서 나기 시작했다.
셋째, 연구도 인간이 매번 들여다보는 구조에서 벗어나 자동 루프로 바뀔 수 있다.
넷째, 앱 중심 UX는 무너지고 자연어+API+에이전트 중심 UX가 부상할 수 있다.
다섯째, 현재 AI는 엄청 강력하지만 여전히 jagged하며, 검증 가능한 영역에 편중되어 있다.
여섯째, 오픈소스는 프런티어보다 조금 뒤처져도 산업 전체 건강성을 위해 매우 중요하다.
일곱째, 디지털 영역 변화가 먼저 폭발하고, 물리 세계는 나중에 따라온다.
여덟째, 교육과 문서화조차 사람 대상에서 에이전트 대상 구조로 재편될 수 있다.
27. 아주 짧은 압축 요약
카파시는 지금을“에이전트가 이미 실용적으로 강해졌고, 이제는 인간이 직접 일하는 게 아니라 여러 자율 에이전트를 설계·배치·최적화하는 시대로 넘어가는 전환기”라고 본다.
그의 시야에서는:
- 개발자는 코더에서 지휘자로,
- 연구자는 실험자가 아니라 자동 연구 시스템 설계자로,
- 소프트웨어는 앱에서 API+에이전트 조합으로,
- 교육은 사람 강의에서 에이전트 중개 설명으로
동시에 그는
이 시스템들이 아직 거칠고 울퉁불퉁하며,
보안·신뢰·평가 가능성의 한계가 남아 있다고 본다.
그래도 방향 자체는 매우 분명하다고 판단하고 있어.
전체 0