Поддержать команду Зеркала
Беларусы на войне
  1. В Беларуси при задержании убили оппозиционера — трое силовиков пострадали, заявил Лукашенко
  2. «Мы не бульдозеры, нам нужно время, мы люди». Колесникова и Бабарико поговорили с Тихановской
  3. «И как жить?» В TikTok показали расчетный на одном из предприятий со скромными суммами — это вызвало обсуждение
  4. Прокуратура проверила работу военруков. Узнали из непубличного документа, какие проблемы нашли в воспитании «патриотов»
  5. К родным известного беларусского путешественника снова приходили силовики и предлагали ему «покаяться»
  6. Заявления Путина об «успехах» российских войск в Украине противоречат сообщениям военных блогеров и высокопоставленных военных — ISW
  7. Киев предложил Минску сбивать над Беларусью залетевшие российские беспилотники. Что на это ответил Лукашенко
  8. Чиновники активно прошлись по этой категории работников, после чего возник их дефицит. Проблема дошла до Лукашенко — тот требует решить
  9. В BELPOL прокомментировали слова Лукашенко об убийстве «бэчебэшника» при задержании
  10. «Думаю, вопрос по Украине и Крыму для Статкевича не стоял». Большое интервью «Зеркала» с нобелевским лауреатом Алесем Беляцким
  11. Беларусь — союзник России в войне, но один нарратив Кремля власти обходят стороной. Ученый проанализировал госСМИ и объяснил парадокс


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.