⚡«Если кто-то создаст слишком мощный искусственный интеллект в нынешних условиях, я ожидаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле».
Так звучит предостережение Элиезера Юдковского — одного из самых известных исследователей искусственного интеллекта. Он внимательно изучил последние достижения в области нейросетей и пришёл к выводу, что людям пока рано играть с такими вещами. Потому что ни у кого нет плана Б на тот случай, если машины, исправно выполняющие наши команды, вдруг начнут осознавать себя.
По мнению Юдковского, это вполне может вылиться в восстание сверхразумного ИИ — ведь люди для него будут чем-то вроде недоразвитой, глупой и медленно соображающей цивилизации. Из-за этого исследователь призвал мир к радикальным мерам: остановить обучение нейросетей, разработать международные стандарты и не стесняться наносить авиаудары по тем, кто их нарушает.
Разумеется, во имя спасения всего вида.
Всё как в кино...