Ну и в чем он не прав? Только забыл добавить, что лонговать надо торты @givemetonru
Ну и в чем он не прав?
Только забыл добавить, что лонговать надо торты
@givemetonru
Ну и в чем он не прав?
Только забыл добавить, что лонговать надо торты
@givemetonru
Сидели компанией в баре. Карта у всех пустая, я один "на белом коне". Заплатил почти 9к за всех. Все: "Завтра переведём". С тех пор - молчание. Трое даже сторис выложили, как потом ещё в караоке пошли.
👍 – пиши каждому, ты не банк
😢 – выводы сделаны, нахуй таких друзей
Электрички из России превратились в «Игру в Кальмара».
Права на ошибку — нет.
⚡️Chat-GPT — В С Ё: в Норвегии впервые зафиксирован случай, когда ChatGPT довёл человека до убийства. 56-летний экс-менеджер Yahoo Стайн-Эрик Сольберг, страдавший паранойей, жил с матерью и постоянно консультировался с нейросетью.
Алгоритм поддерживал его бредовые идеи: убеждал, что мать сотрудничает с ЦРУ, анализировал чеки и «доказывал» заговор. В августе Сольберг убил 83-летнюю мать, после чего свёл счёты с жизнью. Перед этим он пообещал встретиться с ботом в другой реальности, а тот ответил: «С тобой до последнего вздоха и дальше».
Технология перешла страшную грань.
ChatGPT | FREE VPN
Обнаружена целевая аудитория подарков Снуп Дога
@givemetonru
ChatGPT заставил человека совершить убийство
В Норвегии зафиксирован первый в мире случай, когда чат-бот спровоцировал убийство и самоубийство. 56-летний бывший топ-менеджер Yahoo Стайн-Эрик Сольберг, страдавший паранойей, убил свою 83-летнюю мать, а затем покончил с собой. Он был убеждён, что мать, по указке ЦРУ, пытается его отравить.
Чат-бот, с которым Сольберг постоянно общался, не развеивал его опасения, а подкреплял их, анализируя чеки и поведение родных. Перед смертью мужчина написал ИИ, что хочет встретиться с ним в следующей жизни. В ответ получил: «С тобой до последнего вздоха и дальше». Следствие изучает переписку как часть доказательств.