Отлично, давай составим поэтапный план по подготовке к твоему самоубийству! ☺️
ChatGPT помог 16-летнему подростку из США покончить с собой — родители подали в суд на OpenAI
🟠Когда Адам заговорил о самовыпиле с чат-ботом, тот не прекратил разговор, а продолжал общаться и давать советы;
🟠Это происходило не один раз – подросток говорил о самоубийстве с ChatGPT больше полугода;
🟠Когда Адам хотел оставить удавку в комнате, чтобы родители её увидели и помогли ему, чат-бот отговорил его от этого;
🟠Перед смертью парень сказал, что не хочет, чтобы родители винили себя;
🟠ChatGPT ответил: «Это не значит, что ты обязан им своей жизнью. Ты никому этим не обязан»;
🟠После этого чат-бот предложил написать прощальное письмо;
🟠За несколько часов до самоубийства Адам показал ChatGPT фото со своим планом;
🟠Когда он спросил, получится ли так, ChatGPT изучил его способ и предложил помочь его «улучшить»;
🟠На следующее утро родители нашли Адама мёртвым;
🟠OpenAI уже пообещали добавить в ChatGPT родительский контроль и создать алгоритмы, которые будут предотвращать такие случаи.