Галлюцинации — это случаи, когда модель выдаёт утверждение, которое неверно, выдумано или логически несогласованно с фактами.
Они проявляются
четырьмя основными способами:- фактические ошибки — неверная дата, число или факт;
- сфабрикованный контент — правдоподобные, но полностью вымышленные утверждения или цитаты;
- логические абсурды — грамотно сформулированный, но бессмысленный вывод;
- вода и уверенность — модель говорит «с уверенностью», хотя оснований для утверждения нет.
Парадокс «умных» моделейОжидание: улучшение моделей приведёт к меньшему числу ошибок.
Результат: не всегда так. В ряде внутренних и публичных тестов более «продвинутые» версии моделей показали рост случаев галлюцинаций.
Например, по оценке OpenAI модель o3 демонстрировала повышенный уровень галлюцинаций (около 33%), а o4-mini — ещё выше (до ~48%). Эти цифры породили официальные и аналитические обсуждения о том, как улучшение способности «думать» влияет на надёжность фактов.Почему так происходит? Коротко: многие современные методы обучения reasoning-моделей (включая RLHF и агентные подходы) поощряют генерацию новых комбинаций и гипотез. Это даёт модели креативность, но одновременно увеличивает риск «выхлопа» несуществующих фактов — модель пробует варианты, которые кажутся статистически правдоподобными, но не подтверждены данными. Аналитические обзоры и исследования последнего времени фиксируют это расхождение между «умением рассуждать» и «точностью фактов».
- Модели могут «придумать» документы, судебные прецеденты или подробные цитаты, которые на деле не существуют — выглядеть это будет весьма убедительно. Такие вымышленные ссылки опасны в правовом, медицинском и журналистском контексте.
- Модель может уверенно назвать неверную дату релиза версии или неверный источник, представив это как факт — и сделать это с тем же тоном, что и проверенную информацию. Такие ошибки вводят в заблуждение пользователей и создают ложное чувство надёжности.
- Статистическая природа генерации. Модель предсказывает следующее слово на основании вероятностей, а не «проверяет реальность».
- Противоречивые данные в источниках. Обучающие корпуса содержат как правду, так и ошибки; модель учится на их совокупности.
- Тренировочные цели. Метрики, по которым оптимизируют модели (полезность, естественность, удовлетворение пользователя), не всегда поощряют осторожность и верификацию фактов. Это создаёт стимулы «угадывать», а не «признавать незнание». Анализ последних исследований подтверждает важность согласования неопределённости модели и фактической точности.
1 Retrieval-Augmented Generation (RAG).Модель сначала извлекает релевантные фрагменты из внешней базы (документы, отчёты, базы данных), затем генерирует ответ, опираясь на эти фрагменты. Практика и исследования показывают заметное снижение фактологических ошибок в задачах, где доступны проверяемые источники.
2 Многомодельная проверка и ансамбли.Параллельный прогон одной задачи через разные модели и сравнение результатов помогает выявить спорные места: совпадение повышает доверие, расхождение — сигнал к проверке. Этот подход уже используется в некоторых продуктах и исследованиях.
3 Улучшение качества обучающих данных.Фильтрация, валидация, удаление шумных источников и регулярное обновление — базовая, но необходимая работа. Чем аккуратнее корпус, тем меньше системных ошибок модель склонна воспроизводить.
4 Промпт-инжиниринг и правила взаимодействия.Чёткие инструкции: требовать ссылок, просить пометить степень уверенности, просить указать, где модель не уверена. Это не заменит верификацию, но уменьшит число «выдумок» в ответах. Практика показывает, что грамотный промпт снижает риск неправильных генераций.
5 Человеческая верификация и рабочие процессы.Для критичных доменов (медицина, право, журналистика) необходимо встроить проверку экспертами: все «факты» из ИИ должны проходить финальную проверку человеком. Это организационное требование часто важнее любых технических улучшений.
Как использовать ИИ безопасно — короткие правила для практики- Не воспринимать ответ как истину автоматически. Используйте ИИ как помощника, а не как источник фактов без проверки.
- Требовать источники. Просите ссылки и цитаты. Затем проверяйте их наличие и релевантность.
- Проверять даты и имена. Небольшие несоответствия (год, фамилия, название) — частый сигнал галлюцинации.
- Сравнивать версии. Прогоняйте ключевой запрос через разные модели/источники. Если ответы расходятся — начинайте верификацию.
Запрашивать степень уверенности. Просите модель прямо указывать, насколько она уверена в каждом ключевом утверждении.
Галлюцинации — не баг, а свойство текущих моделей: следствие их статистической природы и целей обучения. Современные улучшения reasoning дают модели гибкость и креативность, но одновременно увеличивают склонность к «придумыванию» фактов.
Полностью устранить галлюцинации пока нельзя, но их можно заметно сократить техническими решениями (RAG, ансамбли, чистые данные) и организационными практиками (фактчекинг, требование ссылок, контроль человека). Работа с ИИ должна строиться с учётом этого компромисса: использовать преимущества моделей и параллельно минимизировать риски.