Поддержать команду Зеркала
Беларусы на войне
  1. Пауза США в поставках оружия Украине укрепляет представление Владимира Путина о «теории победы» — ISW
  2. Лукашенко помиловал 16 человек, осужденных за «различные преступления, в том числе экстремистской направленности»
  3. ВОЗ призвала резко повысить цены на три товара. Это поможет предотвратить 50 млн преждевременных смертей
  4. «Я не собираюсь годами тут бороться. Вижу решение в месяцах». Большое интервью «Зеркала» с Сергеем Тихановским
  5. «Люди должны сами решить, остаться ли в стране или уехать». В демсилах прокомментировали очередное освобождение политзаключенных
  6. «Вясна»: Вышел на свободу бывший пресс-секретарь А1 Николай Бределев
  7. «Эта цитата вырвана из контекста». Келлог опроверг слова Лукашенко
  8. Лукашенко много лет молчал об одном важном факте из своей биографии. Вот что нам удалось узнать
  9. Лукашенко обвинил Латушко в намерении сжечь лидеров протеста в 2020 году. Тот ответил: «Тут диагноз ставить надо»
  10. Власти пересмотрели новые правила сканирования товаров на кассах, на которые массово жалуются продавцы и покупатели
  11. Продаете продукты со своего огорода? Власти подготовили для вас налоговые изменения
  12. Известны имена четырех политзаключенных женщин, которые вышли по помилованию к 9 мая
  13. «Шутки в сторону». МАРТ пригрозил торговле закрытием магазинов за завышение цен


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.