🔚 Три «универсальных» техники промптинга больше не работают Исследователи Wharton AI Labs проверили
🔚 Три «универсальных» техники промптинга больше не работают
Исследователи Wharton AI Labs проверили три популярных совета по составлению эффективных промптов. Подходы тестировали на сложных вопросах уровня выпускников университета на моделях OpenAI, Google и Anthropic. Оказалось, «проверенные» промпты не такие уж универсальные.
1️⃣ Миф: Вежливость повышает качество ответов
Ученые пробовали обращаться к нейросети вежливо, строго приказывать ей, ограничивать формат ответа или ничего не требовать заранее. Результат оказался непредсказуемым: в ряде случаев точность возрастала, если добавить «пожалуйста, ответь» или «результат представь в такой-то форме», но в других тестах эти же фразы наоборот снижали качество.
2️⃣ Миф: «Рассуждай пошагово» всегда улучшает результат
Применение «цепочки рассуждений» (Chain-of-Thought), когда ИИ просят решать задачу по шагам и объяснять логику своих действий, долгое время считался универсальным способом повысить точность ответов на сложные задачи.
«Старым» моделям, которые не умеют «рассуждать», это и правда иногда помогает. Но современные «мыслящие» нейросети вроде Gemini 2.5, OpenAI o3/o4 и так рассуждают пошагово. И эксперимент показывает, что дополнительная просьба не только не повышает, но иногда даже ухудшает их эффективность.
3️⃣ Миф: Мотивация и угрозы заставляют ИИ работать лучше
Тесты показали, что ни обещание вознаграждения, ни угрозы не дают стабильного эффекта. Для отдельных вопросов предложение $100 за правильный ответ или угроза отключить ИИ, если он ошибется, может улучшить ответ, но предсказать это заранее невозможно.
📌 Так все советы в Интернете — обман?!
Нет, хотя и многие «промпт-лайфхаки» действительно банально выдумывают. Просто ИИ стремительно развивается, поэтому отпадает необходимость в хитростях и костылях — все работает «из коробки».
👋 Подпишитесь на Hi, AI!
#новости #нейросети