В ближайшие 2–5 лет человечеству придётся принять самое опасное решение в истории ИИ — считают учёны
В ближайшие 2–5 лет человечеству придётся принять самое опасное решение в истории ИИ — считают учёные.
По их мнению, мы подходим к моменту, когда люди могут позволить ИИ обучать самого себя без человеческого контроля. Это способно запустить интеллектуальный взрыв — рождение AGI, равного или превосходящего человека.
Сценарий двойной — либо ИИ ускорит науку, либо выйдет из-под контроля и нам наступит конец
Комментарии