Глоссарий

Галлюцинации (у людей с низким уровнем образования)

Узнай, что вызывает галлюцинации в больших языковых моделях (Large Language Models, LLM), и изучи эффективные стратегии для уменьшения неточностей в контенте, создаваемом ИИ.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Галлюцинация - это явление, когда большая языковая модель (LLM) генерирует текст, который является бессмыслицей, фактически неверным или не связанным с предоставленным входным контекстом, несмотря на то, что выглядит уверенным и последовательным. Эти результаты не основаны на обучающих данных модели или внешней реальности, а являются артефактами внутренних процессов модели, пытающейся предсказать следующее наиболее вероятное слово или лексему. Понимание галлюцинаций крайне важно для ответственной разработки и внедрения систем искусственного интеллекта (ИИ), особенно тех, которые используются для поиска информации или принятия решений.

Почему возникают галлюцинации

LLM, которые часто строятся на архитектурах вроде Transformer, по своей сути являются вероятностными моделями. В процессе обучения они изучают закономерности и взаимосвязи из огромного количества текстовых данных. Однако им не хватает истинного понимания или сознания. Галлюцинации могут возникать из-за нескольких факторов:

  • Ограничения в обучающих данных: Модель могла быть обучена на зашумленных, необъективных или неполных данных, что привело к генерации правдоподобных, но ложных утверждений. Качество обучающих данных существенно влияет на надежность результатов.
  • Архитектура модели: Природа предсказания последовательности может привести к тому, что модели будут отдавать предпочтение беглости, а не точности фактов, иногда "придумывая" детали, чтобы завершить шаблон.
  • Стратегия декодирования: Метод, используемый для выбора следующего маркера во время генерации (например, жадный поиск против лучевого поиска), может влиять на вероятность возникновения галлюцинаций.
  • Отсутствие обоснования: Модели часто не имеют прямого доступа к проверяемой информации в реальном времени или механизма обоснования своих утверждений во внешних базах знаний, если только они не разработаны специально с помощью таких систем, как Retrieval-Augmented Generation (RAG).
  • Неоднозначность подсказок: Неясные или плохо построенные подсказки могут повести модель по нежелательным путям генерации. Эффективная разработка подсказок - ключевой момент.

Реальные примеры и влияние

Галлюцинации могут проявляться по-разному, создавая такие риски, как распространение дезинформации или подрыв доверия пользователей.

  1. Вымышленные юридические цитаты: В широко известном инциденте юристы использовали чат-бота для проведения юридических исследований, который сгенерировал полностью сфабрикованные цитаты из дел, которые были представлены в судебной документации. Это подчеркивает опасность полагаться на LLM в получении важной информации без проверки.
  2. Придуманные биографии: LLM, которого попросили написать биографию малоизвестного человека, может выдумать подробности о его жизни, образовании или достижениях, смешивая реальные факты с правдоподобными, но неправдивыми утверждениями. Это может быть особенно проблематично в таких областях, как журналистика или академические исследования.

Последствия выходят за рамки простых ошибок; они ставят под сомнение надежность систем ИИ, особенно по мере их интеграции в поисковые системы, виртуальных помощников и инструменты для создания контента. Решение этой проблемы - основная задача этики и безопасности ИИ.

Различение галлюцинаций

Важно отличать галлюцинации от других типов ошибок:

  • Предвзятость: Галлюцинации отличаются от предвзятости в ИИ, которая отражает систематические перекосы, полученные из обучающих данных (например, увековечивание стереотипов). Галлюцинации зачастую являются более случайными и нелепыми выдумками.
  • Простые ошибки: Модель может совершить фактическую ошибку, основываясь на устаревшей информации в обучающем наборе. Галлюцинация же предполагает генерацию информации, которой, скорее всего, никогда не было в обучающих данных.
  • Оверфиттинг: В то время как оверфиттинг подразумевает, что модель слишком хорошо усваивает обучающие данные и не способна к обобщению, галлюцинации в большей степени связаны с генерацией нового, неправильного контента.

Стратегии смягчения последствий

Исследователи и инженеры активно разрабатывают методы уменьшения галлюцинаций LLM:

  • Улучшение обучающих данных: Создание более качественных, разнообразных и фактологически точных наборов данных.
  • Retrieval-Augmented Generation (RAG): Интегрируй внешние источники знаний, чтобы обосновать ответы проверяемыми фактами. Посмотри, как RAG работает на практике с помощью таких инструментов, как LangChain.
  • Тонкая настройка: Адаптация предварительно обученных моделей на конкретных высококачественных наборах данных с помощью таких техник, как тонкая настройка или параметрически эффективная тонкая настройка (PEFT).
  • Инженерия подсказок: Разработка подсказок, которые направляют модель к фактическим и контекстуально значимым ответам.
  • Слои проверки фактов: Реализация этапов постобработки для проверки сгенерированных утверждений по доверенным источникам.
  • Оценка уверенности: Обучи модели выдавать уровень уверенности для своих утверждений, хотя это остается сложной задачей. Техники, связанные с объясняемым ИИ (XAI), могут помочь понять уверенность модели.

Понимание и смягчение последствий галлюцинаций жизненно важно для создания надежных систем ИИ, которые можно безопасно интегрировать в различные приложения, от простых чат-ботов до сложных инструментов, используемых в рабочих процессах машинного обучения и задачах обработки естественного языка (NLP). Непрерывные исследования и разработки, включая такие платформы, как Ultralytics HUB, которые облегчают управление и оценку моделей, очень важны в этой постоянной работе.

Читать полностью