Промты для тарологов
Промты для тарологов
Полное руководство по пониманию, обнаружению и предотвращению ошибок искусственного интеллекта
В области искусственного интеллекта галлюцинация определяется как ответ, сгенерированный моделью ИИ, который содержит ложную, вводящую в заблуждение или бессмысленную информацию, представленную как факт. Этот термин является метафорой, заимствованной из психологии, однако между ними есть ключевое различие.
Интересно, что сам термин претерпел семантический сдвиг. В начале 2000-х годов в области компьютерного зрения он использовался с положительной коннотацией для описания процесса добавления правдоподобных деталей к изображениям. Однако в конце 2010-х его значение изменилось, и он стал обозначать фактически неверные результаты в задачах обработки естественного языка.
Галлюцинации нейросетей особенно опасны тем, что вымышленная информация подается очень уверенно и правдоподобно. Нейросеть не предупреждает о возможной неточности и не отличает факты от вымысла, что может ввести пользователей в заблуждение.
Чтобы обеспечить четкую аналитическую основу, необходимо классифицировать различные типы галлюцинаций. Это важно, поскольку разные виды ошибок имеют разные первопричины и требуют различных стратегий для их устранения.
| Категория | Тип | Определение | Пример |
|---|---|---|---|
| Привязка к источнику | Внутренняя галлюцинация | Сгенерированный вывод противоречит предоставленной исходной информации или контексту | Источник: «Отчет гласит, что проект был завершен в 2023 году». Резюме ИИ: «Проект завершился в 2022 году» |
| Привязка к источнику | Внешняя галлюцинация | Сгенерированный вывод содержит информацию, которую невозможно проверить на основе исходного текста; по сути, выдумываются новые «факты» | Источник: «Мария Кюри была физиком и химиком». Биография от ИИ: «Мария Кюри была физиком, химиком и выдающейся скрипачкой» |
| Фактическая корректность | Фактологическая галлюцинация | Сгенерированный вывод содержит утверждение, которое не соответствует действительности с точки зрения знаний о реальном мире | «Альберт Эйнштейн выиграл золотую медаль по фехтованию на Олимпийских играх» |
| Следование инструкциям | Галлюцинация неверности | Сгенерированный вывод не соответствует инструкциям пользователя или логическим ограничениям запроса | Запрос: «Переведи «hello» на французский». Ответ ИИ: «"Hello" — это распространенное приветствие в английском языке» |
| Логическая несогласованность | Логическая ошибка | Вывод содержит внутренние противоречия или не следует логической последовательности | «Ответ — 5. Шаг 1: 2+2=4. Шаг 2: 4+2=5» |
Галлюцинации также можно классифицировать по содержанию: фактические ошибки (подмена реальных сведений ложными), сфабрикованный контент (правдоподобно звучащие, но вымышленные истории) и бессмысленные выводы (грамматически верные, но логически абсурдные ответы).
Адвокаты были оштрафованы на $5,000, а случай стал показательным примером опасности слепого доверия к нейросетям в критически важных сферах. Аналитик из Высшей коммерческой школы Парижа Дамьен Шарлотен собрал базу из более чем 120 судебных дел по всему миру, в ходе которых юристы ссылались на сфабрикованные нейросетями данные.
Медицинские центры используют ИИ-помощников для расшифровки записей, но в некоторых случаях ИИ галлюцинирует и придумывает совершенно другой текст, что может привести к ошибочным диагнозам и назначениям.
Исследователь из Университетского колледжа Лондона Эндрю Грей предположил, что как минимум 60 тыс. статей (примерно 1%), опубликованных в 2023 году, были написаны или отредактированы с помощью нейросетей.
Это далеко не единичный случай: нейросети регулярно генерируют вымышленные или некорректные ответы, что приводит к финансовым потерям и репутационным рискам для компаний.
Автопилот Tesla не смог распознать на дороге повозку с лошадьми. Неизвестный вид транспорта ввёл ИИ в ступор. В другом случае та же Tesla увидела перед собой человека на пустом кладбище, чем напугала водителя.
На вопрос «сколько камней нужно съедать в день» ИИ выдавал: «По данным геологов из университета Berkeley — не менее одного маленького камня в день для витаминов и пользы для пищеварения».
На вопрос «сколько мусульман было президентами США» ИИ с уверенностью отвечал: «Один — Барак Хусейн Обама».
LLM не «знают» и не «понимают» факты. Они вычисляют вероятность следующего токена, учитывая предыдущие. Сгаллюцинированный факт — это просто последовательность токенов, которая является статистически правдоподобной на основе обучающих данных, даже если она не имеет под собой фактической основы.
Если данные неполные, предвзятые, устаревшие или содержат фактические ошибки, модель унаследует и воспроизведет эти недостатки. Огромный объем данных, необходимый для обучения, делает всестороннюю проверку человеком невозможной.
LLM лишены связи с реальным миром. У них нет прямого опыта, они не могут получать доступ к информации в реальном времени и не обладают встроенным механизмом для проверки правдивости генерируемых ими утверждений по внешним, авторитетным источникам.
Архитектура трансформера имеет «механизм внимания» с фиксированным окном контекста. В длинных диалогах модель может «забыть» информацию из начала ввода, что приводит к несогласованности и противоречиям.
Когда модель слишком хорошо запоминает обучающие данные, включая их шум и случайные флуктуации, это мешает ей обобщать знания на новые, невиданные данные и может привести к применению неуместных выученных паттернов.
Парадоксально, но чем больше развивается ИИ, тем больше он галлюцинирует. OpenAI измерила точность ответов моделей o1, o3 и o4-mini — в обоих случаях новая o4-mini показала точность ответов ниже, а процент галлюцинаций выше, чем старые o3 и o1.
Это архитектура обработки естественного языка, которая объединяет возможности предварительно обученной LLM с механизмом поиска информации. Техника RAG заключается в том, чтобы дать возможность ИИ опираться на релевантные внешние документы и базы данных для генерации информативных ответов.
Метод побуждает модель не сразу выдавать ответ, а пошагово демонстрировать логику своего вывода. Такой подход снижает вероятность логических ошибок и делает ход рассуждений более прозрачным для пользователя.
Разработчики оценивают ответы модели, корректируют ее поведение и тем самым помогают ей адаптироваться к предпочтениям пользователей, улучшая как точность, так и приемлемость генерируемых ответов.
Существуют специальные модели, способные обнаруживать галлюцинации. Например, модель Luna содержит 440 млн параметров и основана на архитектуре DeBERTa. Она прошла тонкую настройку на основе тщательно отобранных данных RAG.
Подход подразумевает преобразование входных данных в компактные и самодостаточные утверждения. Они должны быть правдивы, не конфликтовать с другими и представлять собой простые, законченные предложения.
Исследователи из Оксфордского университета представили модель, способную обнаруживать галлюцинации на основе статистических методов, оценивающих неуверенность ответов нейросети с помощью анализа энтропии.
Основатель ИИ-стартапа HumanLoop Раза Хабиб утверждал, что проблему галлюцинаций можно устранить в течение года. Президент NVIDIA Дженсен Хуанг также считает проблему решаемой, но, по его оценкам, это случится в перспективе ближайших пяти лет.
Этот метод подходит для сгенерированных картинок — можно заметить лишние пальцы, неправильные пропорции или анатомические несоответствия.
Правильность информации можно проверить, сравнив с авторитетными источниками — учебниками, научными статьями или официальными документами.
Повторение одного и того же запроса несколько раз и сравнение ответов. Если суть ответов остаётся одинаковой, вероятность ошибки в ответе минимальна.
Проверка одного промпта в разных нейросетях и сравнение ответов. Этот метод больше подходит для текстовых генераций.
Всегда относитесь к ответам ИИ с долей скептицизма, особенно когда они касаются важных решений. Помните, что нейросеть может уверенно излагать ложную информацию.
В профессиональных сферах обязательно привлекайте специалистов для проверки сгенерированного контента. Человеческий опыт и экспертиза пока незаменимы.
Больше информации о работе с нейросетями и практические советы по избежанию галлюцинаций в нашем Telegram-канале!
Попробовать бесплатно
Промты для тарологов
Использование искусственного интеллекта для анализа спортивных событий и повышения эффективности ставок
Научитесь создавать профессиональные логотипы с помощью нейросетей. Готовые промты, кейсы и практические советы.
Составление брифов и документации с помощью нейросетей