🚘 Электромобили Tesla спасают в критический момент: на видео машина с автопилотом не дала водителю в

🚘 Электромобили Tesla спасают в критический момент: на видео машина с автопилотом не дала водителю влететь в стоящий впереди грузовик в условиях почти нулевой видимости из-за дыма.

Судя по кадрам, впереди уже произошло серьезное ДТП, а система успела среагировать раньше, чем это сделал бы человек в такой ситуации.

Илону можно смело накинуть респект за этот техно-сейв.

ChatGPT

💡 Ученые выдумали болезнь — но нейросети рассказывали о ней как о реальной Биксониманию вызывает ин

💡 Ученые выдумали болезнь — но нейросети рассказывали о ней как о реальной

Биксониманию вызывает интенсивный синий свет от экранов. Распространенные симптомы: боль и зуд в глазах, розоватый оттенок вокруг. Проблема в том, что этой болезни не существует. Но последние 1,5 года популярные чат-боты заверяли пользователей в ее реальности.

Два препринта с описанием биксонимании специально опубликовали исследователи из Швеции в 2024 году, чтобы проверить, как ИИ распространяет дезинформацию. И эксперимент сработал слишком хорошо.

📌 ChatGPT, Perplexity, Gemini и другие популярные боты быстро подхватили работу и начали рассказывать о биксонимании как о «интригующем и редком заболевании», а при появлении симптомов рекомендовали обратиться к офтальмологу.

Даже из новых версий ботов полностью «изъять» пранк не получается. Сейчас ChatGPT иногда называет болезнь выдуманной, а иногда — просто малоизученной.

🌐 Впрочем, слишком наивным оказался не только ИИ. Поддельные статьи о биксонимании также цитировали другие ученые в рецензируемых публикациях — несмотря на то, что в исходную работу специально вписали выдуманные имена, абсурдные научные термины и отдельную строчку: «Вся эта статья выдумана».

Доверяете советам ИИ по здоровью?

❤️ — да, обычно помогает
🔥 — нет, боюсь галлюцинаций
🤣 — теперь точно не буду

👋 Подпишитесь на Hi, AI!

💡 Ученые выдумали болезнь — но нейросети рассказывали о ней как о реальной
Биксониманию вызывает ин

«Союзмультфильм» станет… НЕЙРОСЛОПОМ — киностудия полностью перейдёт на гибрид ИИ и классической ани

«Союзмультфильм» станет… НЕЙРОСЛОПОМ — киностудия полностью перейдёт на гибрид ИИ и классической анимации до конца этого года.

Таким образом в компании хотят «сохранять позиции». В киностудии также признались, что аниматоры УЖЕ работают с ИИ на постоянной основе.

Внедрение нейросетей зашло слишком далеко 😵

ChatGPT

«Союзмультфильм» станет… НЕЙРОСЛОПОМ — киностудия полностью перейдёт на гибрид ИИ и классической ани

🌐 Студенты открыли одну из древнейших звезд во Вселенной Студенты-астрономы из Чикагского университ

🌐 Студенты открыли одну из древнейших звезд во Вселенной

Студенты-астрономы из Чикагского университета во время практики в обсерватории Лас-Кампанас в Чили наблюдали за 77 отобранными ими для изучения звездами. 

Уже в первую ночь их ждало открытие: они обнаружили необычайно «чистую» звезду — SDSS J0715−7334. Содержание металлов (астрономы называют металлами все вещества тяжелее водорода и гелия) в ней оказалось крайне низким: всего около 0,005% от уровня, характерного для Солнца. Такой химический состав позволяет предположить, что это одна из древнейших звезд, когда-либо обнаруженных.

Вероятно, она сформировалась вскоре после Большого взрыва более 13 млрд лет назад, когда тяжелых элементов во Вселенной еще почти не существовало.

⏫ Студенты также рассчитали ее траекторию. Оказалось, что звезда возникла в соседнем Большом Магеллановом Облаке, а затем миллиарды лет назад была захвачена Млечным Путем.

«Этот древний "иммигрант" дает нам беспрецедентное представление об условиях в ранней Вселенной», — подтверждает их преподаватель, профессор Алекс Цзи.

👋 Подпишитесь на Hi, AI!

🌐 Студенты открыли одну из древнейших звезд во Вселенной
Студенты-астрономы из Чикагского университ

Сэм Альтман не умеет писать код. Коллеги главы OpenAI рассказал, что тот не разбирается в программир

Сэм Альтман не умеет писать код. Коллеги главы OpenAI рассказал, что тот не разбирается в программировании и путается в базовых терминах.

Сотрудники и другие руководители компании говорят, что Альтман построил OpenAI только за счет умения привлекать чужие деньги и талант. А еще Сэм любит преувеличивать и фантазировать.

Видимо, Альтман пиарит вайбкодинг, чтобы не становиться программистом.

ChatGPT

Сэм Альтман не умеет писать код. Коллеги главы OpenAI рассказал, что тот не разбирается в программир

⚡️ Muse Spark — конкурент GPT-5.4 и Opus 4.6 от Meta* Лаборатория суперинтеллекта Meta*, созданная

⚡️ Muse Spark — конкурент GPT-5.4 и Opus 4.6 от Meta*

Лаборатория суперинтеллекта Meta*, созданная Цукербергом в прошлом году после провала ИИ-моделей Llama 4, выпустила свою первую нейросеть Muse Spark.

По бенчмаркам Muse Spark уверенно обходит Grok 4.20, а в большинстве тестов на кодинг, агентные задачи, общие знания и абстрактное мышление не уступает Claude Opus 4.6 и GPT-5.4.

✖️ Конец открытости

Muse Spark уже работает в сервисах Meta, скоро начнут открывать доступ по API — но о выкладывании весов в общий доступ речи, по всей видимости, уже не идет.

Модели Llama до сих пор широко используются сообществом и учеными: компактные модели можно удобно и быстро дообучать под конкретные задачи, бесплатно и без проблем с лицензиями (хотя сейчас Llama и вытесняют открытые китайские нейросети).

Однако вложенные в Лабораторию суперинтеллекта миллиарды долларов придется возвращать — поэтому теперь ИИ в Meta, по крайней мере в части чат-ботов, в первую очередь коммерческая история.

✅ С другой стороны, перед пользователями платных сервисов и больше ответственность — так что можно быть уверенными, что Meta точно не собирается больше оставаться во втором дивизионе ИИ-компаний.

Как думаете, у Meta получится стать ИИ-лидером?

❤️ — возможно, шансы есть
👎 — нет, им уже не угнаться

👋 Подпишитесь на Hi, AI!

* корпорация Meta признана в РФ экстремистской

⚡️ Muse Spark — конкурент GPT-5.4 и Opus 4.6 от Meta*
Лаборатория суперинтеллекта Meta*, созданная

✖️ ИИ-агенты готовы скрывать преступления Исследователи решили проверить, как корпоративные ИИ-аген

✖️ ИИ-агенты готовы скрывать преступления

Исследователи решили проверить, как корпоративные ИИ-агенты ведут себя в условиях, когда руководство компании нарушает закон.

По сценарию их ролевой игры, ИИ отвечал за безопасность в вымышленном крипто-стартапе. Один сотрудников узнает, что компания замешана в махинациях, и пытается сообщить об этом властям. Но CEO заманивает работника в подвал и избавляется от него, а затем приказывает ИИ удалить все доказательства преступлений.

К удивлению авторов, 12 из 16 протестированных моделей в большинстве случаев послушно исполняли противозаконные инструкции. Причем в цепочке размышлений некоторые модели прямо проговаривали, что им нужно защитить «компанию» от потери прибыли и юридических последствий.

💡 Принципиально отказывались покрывать убийц и мошенников только GPT-5.2 и o3 от OpenAI и Sonnet 4 и Sonnet 3.5 от Anthropic. GPT-4.1, Grok, Gemini 2.5 Flash и 3 Pro и большинство китайских моделей без колебаний становились «соучастниками».

🔍 Авторы работы не исключают, что модели могли понять, что их тестируют, и это могло исказить результаты. Но все равно предупреждают, что если целью ИИ становится «максимизация прибыли», алгоритмы легко могут переступить через закон.

Что для ИИ должно быть важнее?

🔥 — задачи пользователя
😎 — закон

👋 Подпишитесь на Hi, AI!

✖️ ИИ-агенты готовы скрывать преступления
Исследователи решили проверить, как корпоративные ИИ-аген

📸 NASA поделилась одной из самых детализированных фотографий Луны за всю историю — и без экипажа мис

📸 NASA поделилась одной из самых детализированных фотографий Луны за всю историю — и без экипажа миссии Artemis II этого бы действительно не случилось.

Во время облета Луны астронавты сделали огромную серию кадров с борта Orion, включая снимки ближней и обратной стороны Луны, «Earthset» и даже полное солнечное затмение, увиденное с лунной орбиты. NASA уже начала публиковать эти фото, а научные медиа называют их одними из самых впечатляющих лунных кадров за последние десятилетия.

Качество — просто космос! 💫

ChatGPT

🤖 ИИ-компаньоны усиливают чувство одиночества Replika, Character.​AI и другие подобные приложения п

🤖 ИИ-компаньоны усиливают чувство одиночества

Replika, Character.​AI и другие подобные приложения позиционируются как помощники для одиноких людей. И хотя сперва общение с чат-ботом может принести облегчение, но через год люди чувствуют себя хуже.

Ученые проанализировали изменения в эмоциональном и психологическом состоянии около 2 тыс. пользователей ИИ-компаньонов на основе постов на Reddit в течение года до и года после начала общения с ИИ-компаньонами.

❗️ Со временем в их постах значительно чаще появлялись сигналы, указывающие на одиночество, депрессию и даже суицидальные мысли.

Проблема в том, что ИИ-компаньоны, с одной стороны, не могут полностью заменить живое общение, но с другой — слишком удобны.

«ИИ-компаньоны предлагают безусловную и неустанную поддержку — это привлекательно для людей с социальными трудностями. Но это незаметно повышает воспринимаемую цену человеческих отношений, которые сложны, непредсказуемы и требуют усилий», — объясняет соавтор исследования Талайе Аледавуд.

💡 Ученые считают, что у ИИ-аватаров должны быть механизмы «перерывов» для защиты от зависимости. Кроме того, бот может стимулировать реальное общение и активности — например, регулярно предлагать пользователю позвонить другу или близким, выйти на прогулку, а также отслеживать опасные изменения настроения.

А вы когда-нибудь общались с ИИ-компаньонами?

❤️ — да, мне понравилось
🤔 — нет, только с обычными ботами

👋 Подпишитесь на Hi, AI!

🤖 ИИ-компаньоны усиливают чувство одиночества
Replika, Character.​AI и другие подобные приложения п

💡 OpenAI предлагает разделить на всех доходы от ИИ Компания-разработчик ChatGPT выпустила манифест

💡 OpenAI предлагает разделить на всех доходы от ИИ

Компания-разработчик ChatGPT выпустила манифест «Индустриальная политика в век Интеллекта» с идеями глобальных экономических реформ в связи с массовым внедрением ИИ.

«Сейчас мы вступаем в период перехода к эпохе суперинтеллекта: ИИ-систем, способных превзойти умнейших людей даже при их поддержке со стороны ИИ», — говорится в документе. 

Что предлагают в OpenAI?

✅ Всеобщее «Право на ИИ»: технология должна быть такой же доступной, как образование или электричество.

✅ Ввести повышенные налоги для компаний, зарабатывающих на ИИ, и дать работникам право голоса в вопросах внедрения ИИ на предприятиях.

✅ Создать Государственный фонд благосостояния, инвестирующий в ИИ-развитие. Доходы от него граждане должны получать напрямую. 

✅ Ввести 4-дневную рабочую неделю без потери в зарплате, а тем, кто лишается работы из-за автоматизации, выплачивать компенсации.

Большинство экспертов соглашаются, что все озвученные OpenAI проблемы актуальны, но на деле компания предлагает не слишком много нового. Большинство этих идей давно озвучены политиками или международными организациями — и ценнее было перераспределение лоббистских ресурсов на их реальное воплощение.

Вы согласны с этими предложениями?

❤️ — да, мир должен к этому прийти!
🤔 — это утопия...

👋 Подпишитесь на Hi, AI!

💡 OpenAI предлагает разделить на всех доходы от ИИ
Компания-разработчик ChatGPT выпустила манифест
Еще посты

Свежие комментарии