На специальном саммите он заявил, что вероятность апокалипсиса из-за вышедшего из-под контроля ИИ составляет примерно 10-20%.
При этом Маск убежден, что плюсы этой технологии перевешивают минусы. Но не уточняет, как пришел к своим расчетам.
Эксперты считают, что Маск даже преуменьшает масштаб риска. Некоторые называют цифры до 99%, а Роман Ямпольский, исследователь в области безопасности ИИ из Университета Луисвилля, уверен – мы не должны создавать продвинутый ИИ вообще, так как его будет невозможно контролировать.
Сам Маск, хотя и основал компанию xAI для развития ИИ, выступает за жесткое регулирование этой сферы.
Он сравнил создание ИИ с рождением супергениального ребенка (вроде бога) и заявил, что такого «малыша» надо воспитывать с упором на правдивость и любопытство, но никак не на ложь.