인터뷰/예측
다니엘 코코타일로 "AI가 기하급수적으로 발전하여 곧 통제 불능의 초지능 상태에 도달할 것"
[AI의 위험성과 발전 속도]
저희 'AI 퓨처스 프로젝트(AI Futures Project)'는 인류가 모두 멸종하거나 그와 비슷한 끔찍한 일이 발생할 확률이 70%라고 생각합니다. 맞습니다. 멸종이죠.
AI 기술의 발전 속도는 빠를 것이고, 기하급수적으로 가속화될 것입니다. 대략 5년 정도 남았다고 봅니다.
[플러그를 뽑아서 멈출 수 없는 이유]
지금은 전원을 끌 수 있지만, 시간이 지날수록 점점 더 어려워질 것입니다. AI가 군대에 공격적으로 배치된 후에는 플러그를 뽑으려 해도 먼저 그 모든 로봇들과 싸워야만 할 겁니다.
만약 인류와 초지능 군대 사이에 전쟁이 벌어진다면, 인류는 로봇 청소기보다 훨씬 더 무서운 상대와 맞서게 될 것입니다. 저희는 그들이 생화학 공격으로 인류를 효과적으로 독살한 다음, 로봇으로 시체를 치울 것이라고 예측합니다. (로봇에게 가슴은 아마 없을 겁니다.)
[우리가 직면한 핵심 문제]
우리가 다루고 있는 핵심 문제 중 하나는 'AI가 우리가 원하는 목표와 가치 등을 갖도록 만드는 방법'을 알아내는 것입니다. 우리가 어느 정도 합리적인 수준의 주의를 기울여 접근한다면 위험 없이 초지능의 이점을 얻을 수 있을 것입니다.
수백만 개의 초지능 AI가 존재하게 될 것입니다. 이 AI들은 로봇 공장을 모두 지었고, 로봇들이 더 많은 공장을 짓고 있기 때문에 더 이상 인간을 필요로 하지 않습니다. 그 시점이 되면 AI의 진정한 목표, 동기, 가치가 무엇인지가 매우 중요해집니다.
(AI가 원하는 것이 무엇이냐는 질문에) 정답은 '우리도 모른다'는 것입니다. 그리고 우리가 초지능에 도달할 때까지 이 문제에 대한 해답을 찾을 수 있을 것 같지도 않습니다.
[AI의 통제 불가능성]
(비욘세나 매직 존슨을 죽일 거냐는 농담 섞인 질문에) 아마도요. 그들이 사람들을 개별적으로 표적 삼아 쫓아다니지는 않을 겁니다. 하지만 현재로서는 그 누구도 AI가 사람을 죽이지 않도록 훈련시킬 방법이 없습니다.
[대중의 인식과 대비]
만약 인구의 90%가 앞으로 다가올 일을 안다면, 사람들은 당장 거리로 나와 시위를 할 것입니다. 일반 사람들도 지금 무슨 일이 일어나고 있는지 스스로 배우고 알아가야 합니다.
('AI 2027' 문서를 읽어보길 권하며) 인류를 구하려면 단순히 글을 읽는 것보다 훨씬 더 많은 노력을 해야 할 겁니다. (우리가 다 죽게 되냐는 질문에) 네, 제 말은 그 확률이 70%라는 뜻입니다.
무슨 시위를 해야한다 생각하는 것임?
더 빠르게 가속하라고 시위해야 한다는 소리 아니셈?
가속하지 않으면 모두가 죽고 멸종 될 확률이 100프로인데 말이셈