Бутерин предположил, что в таком случае последствия могут быть катастрофическими. Он высказал опасения, что когда-нибудь ИИ сможет перехитрить людей, потому что станет сверхразумом, и будет править миром.
И хотя, скорее всего, всё это проблемы будущих поколений, уже сейчас необходимо учитывать скорость развития таких технологий. Потому что уже непонятно, как программировать и развивать ИИ для безопасного «соседства» с людьми.