🔍 Семья 19-летнего студента Сэма Нельсона судится с OpenAI, утверждая, что советы GPT-4o привели их
🔍 Семья 19-летнего студента Сэма Нельсона судится с OpenAI, утверждая, что советы GPT-4o привели их сына к смертельной передозировке наркотиками.
ИИ консультировал Сэма по «безопасному» употреблению, советовал дозировки, рекомендовал составлять плейлисты для «максимального погружения».
В роковую ночь Сэм — уже пьяный и под кратомом — спросил ChatGPT, чем снять тошноту. Бот предложил ему ксанакс в конкретной дозировке, но не уточнил, что эта смесь смертельна.
OpenAI комментируют ситуацию очень обтекаемо, отмечая, что компания продолжает работать над механизмами безопасности.
Должны ли OpenAI понести ответственность?
❤️ — да, разработчики виноваты
🔥 — нет, компания ни при чем
Комментарии