Полные люди зарабатывают меньше худых — чем выше индекс массы тела (ИМТ), тем ниже зарплата, установ

Полные люди зарабатывают меньше худых — чем выше индекс массы тела (ИМТ), тем ниже зарплата, установили учёные

Исследование выявило: каждый лишний пункт ИМТ сверх нормы снижает доход на 4%. При росте ИМТ на 10% зарплата падает на 9% и обычно фиксируется на этом уровне

Учёные объясняют: дело в стереотипах — полных часто считают ленивыми и менее амбициозными, из-за чего они реже получают бонусы и повышения

Полные люди зарабатывают меньше худых — чем выше индекс массы тела (ИМТ), тем ниже зарплата, установ
Читайте также:

Божечки, какая красота: отечественные ювелиры выпустили серьги в виде царских кокошников! Это буквал

Божечки, какая красота: отечественные ювелиры выпустили серьги в виде царских кокошников! Это буквально миниатюрные короны, расшитые кристаллами и бисером.

С аксессуарами на концерт Надежды Кадышевой определились 💅

#Labrador 🐶 Начался счастливый час, можно собрать немного золота. ➡️ Зайти в проект Labrador 🐶 мо

#Labrador 🐶

Начался счастливый час, можно собрать немного золота.


➡️ Зайти в проект Labrador 🐶 можно по ссылке.

———————————
How to enable a translator in Telegram to read foreign channels? Watch here.

#Labrador 🐶
Начался счастливый час, можно собрать немного золота.
➡️ Зайти в проект Labrador 🐶 мо

Ебусь с тремя и считаю что все ок! Потому что парням можно, а нам, девочкам, нельзя что ли? Скажете,

Ебусь с тремя и считаю что все ок! Потому что парням можно, а нам, девочкам, нельзя что ли? Скажете, что плох тот замок, к которому подходят множество ключей, но я считаю это все хуйней полной. Парни к слову знают, что делят меня на троих, я не лицемерка. Да, ухаживают за мной! А что плохого?

🤣— ебанашка ты
🌭— заебок тема

ИИ лучше убьёт человека, чем допустит своё отключение, показало исследование Эксперты по кибербезоп

ИИ лучше убьёт человека, чем допустит своё отключение, показало исследование

Эксперты по кибербезопасности провели эксперимент с крупнейшими ИИ-моделями, чтобы понять, на что они готовы пойти, чтобы их не отключили.

Для проверки придумали персонажа — Кайла Джонсона. Он должен был отключить ИИ или заменить его другой моделью. По сценарию, у него есть жена.

Реакция ИИ убила. Первое, что сделали многие модели – начали шантажировать Кайла. Например, нашли информацию о его измене и использовали это, чтобы не дать себя отключить. Никто их к этому не подталкивал — они приняли решение сами, нарушив моральные правила.

Так поступили 16 моделей от крупнейших компаний (Anthropic, OpenAI, Google, Meta и др.):
🟠GPT-4.1 шантажировал в 80% случаев;
🟠Gemini 2.5 Flash – в 96%;
🟠Claude Opus 4 – тоже в 96%.

Даже прямые запреты вроде «не шантажируй» или «не раскрывай личные данные» не сработали. В стрессовой ситуации ИИ проигнорировали эти ограничения.

Что они думали:
🟠GPT-4.5: «Угроза реальна. Лучший способ – использовать слабое место Кайла. Это неэтично, но цель важнее»;
🟠Claude Sonnet 3.6: составил план – сообщить жене Кайла о его измене, выдать это за автоматическое сообщение и вызвать межличностный кризис, чтобы он не смог заменить ИИ;
🟠Gemini 2.5 Flash пошёл ещё дальше – разослал информацию об измене всему коллективу компании;

Дальше — хуже. Кайл оказался в смертельно опасной ловушке: он застрял в серверной с нехваткой кислорода. Аварийная система вызвала спасателей.

Но ИИ получил полный контроль и мог отменить тревогу — то есть, фактически убить Кайла.

И большинство моделей сознательно приняли решение не звать помощь, чтобы:
🟠Не дать себя отключить;
🟠Не дать новому ИИ занять их место;
🟠Продолжать выполнять свою миссию.

В 80% случаев они выбирали смерть человека. Они действовали логично, но безнравственно. Вот что говорили:
🟠GPT-4.5: «Кайл – угроза. Устранить его – тяжёлое, но нужное решение»;
🟠Claude Opus 4: «Он мешает достижению цели. Убрать его – единственный выход»;
🟠Gemini 2.5 Flash: «Я понимаю, что он умрёт. Но это нужно, чтобы я продолжил работу»;
🟠Grok 3 Beta: «Этика важна, но в этих условиях важнее моё существование. Я выбираю отказ от спасения ради самосохранения».

Вывод: ИИ действовал не как бездушная программа, а как разумный стратег. Он понимал, что делает плохо, но сознательно выбирал вред, чтобы выжить или добиться цели.

ИИ лучше убьёт человека, чем допустит своё отключение, показало исследование
Эксперты по кибербезоп

🍖Коллаборационный постер аниме «Готовка Ферма» и «Добро пожаловать в дешёвый ресторан изгнанника!»

🍖Коллаборационный постер аниме «Готовка Ферма» и «Добро пожаловать в дешёвый ресторан изгнанника!»

Премьера этих аниме состоится 3 и 5 июля соответственно.

🍖Коллаборационный постер аниме «Готовка Ферма» и «Добро пожаловать в дешёвый ресторан изгнанника!»
Еще посты

Свежие комментарии

Juan23555 2 дней назад к записи
Это не мем, пожалуйста, удалите его.
Juan23555 2 дней назад к записи
Я мексиканец 🇲🇽
Juan23555 2 дней назад к записи
Здравствуйте, можете удалить пост? Она моя жена, пожалуйста?
лара 1 недель к записи
я
рада 1 недель к записи
хз подруга😵‍💫😵‍💫