Зелёная проверка
Ссылка копируется в буфер обмена

Конституционный ИИ стремится привести модели ИИ в соответствие с человеческими ценностями

Узнай, как конституционный ИИ помогает моделям следовать этическим правилам, принимать более безопасные решения и поддерживать справедливость в языковых системах и системах компьютерного зрения.

Искусственный интеллект (ИИ) быстро становится ключевой частью нашей повседневной жизни. Его интегрируют в инструменты, используемые в таких областях, как здравоохранение, подбор персонала, финансы и общественная безопасность. По мере развития этих систем возникают опасения по поводу их этичности и надежности.

Например, иногда системы ИИ, созданные без учета справедливости и безопасности, могут выдавать результаты, которые являются необъективными или ненадежными. Это происходит потому, что многие модели до сих пор не имеют четкого способа отражения и согласования с человеческими ценностями.

Чтобы решить эти проблемы, исследователи сейчас изучают подход, известный как конституционный ИИ. Проще говоря, он вводит в процесс обучения модели записанный набор принципов. Эти принципы помогают модели оценивать собственное поведение, меньше полагаться на обратную связь от человека, а также делают ответы более безопасными и понятными.

До сих пор этот подход использовался в основном в отношении больших языковых моделей (LLM). Однако та же структура может помочь системам компьютерного зрения принимать этические решения при анализе визуальных данных. 

В этой статье мы узнаем, как работает конституциональный ИИ, рассмотрим реальные примеры и обсудим его потенциальное применение в системах компьютерного зрения.

__wf_reserved_inherit
Рис. 1. Характеристики конституционного ИИ. Изображение автора.

Что такое конституционный искусственный интеллект?

Конституционный ИИ - это метод обучения моделей, который направляет поведение моделей ИИ, предоставляя четкий набор этических правил. Эти правила действуют как кодекс поведения. Вместо того чтобы полагаться на то, что модель сама сделает вывод о том, что приемлемо, она следует написанному набору принципов, которые формируют ее ответы во время обучения.

Эта концепция была представлена Anthropicисследовательская компания, специализирующаяся на безопасности ИИ, которая разработала семейство Claude LLM как метод, позволяющий сделать системы ИИ более самоконтролируемыми в принятии решений. 

Вместо того чтобы полагаться исключительно на обратную связь от человека, модель учится критиковать и совершенствовать свои собственные ответы, основываясь на заранее определенном наборе принципов. Такой подход похож на юридическую систему, где судья, прежде чем вынести решение, обращается к конституции.

В этом случае модель становится одновременно и судьей, и учеником, используя один и тот же набор правил для проверки и совершенствования собственного поведения. Этот процесс усиливает согласованность моделей ИИ и поддерживает разработку безопасных, ответственных систем ИИ.

Как работает конституционный искусственный интеллект?

Цель конституционного ИИ - научить модель искусственного интеллекта принимать безопасные и справедливые решения, следуя четкому набору записанных правил. Вот простой расклад того, как работает этот процесс:

  • Определение конституции: Создается письменный список этических принципов, которым должна следовать модель. Конституция описывает, чего ИИ должен избегать и какие ценности он должен отражать.

  • Тренировки с под наблюдением примерами: Модели показывают примеры ответов, которые следуют конституции. Эти примеры помогают ИИ понять, как выглядит приемлемое поведение.

  • Распознавание и применение закономерностей: Со временем модель начинает улавливать эти закономерности. Она учится применять одни и те же значения при ответах на новые вопросы или в новых ситуациях.

  • Критика и доработка результатов: Модель анализирует свои собственные ответы и корректирует их на основе конституции. Этот этап самоанализа помогает ей совершенствоваться, не полагаясь только на человеческую обратную связь.

  • Выработка выверенных и более безопасных ответов: Модель обучается на основе последовательных правил, что помогает уменьшить предвзятость и повысить надежность в реальных условиях. Такой подход делает ее более согласованной с человеческими ценностями и более простой в управлении.
__wf_reserved_inherit
Рис. 2. Обзор использования конституционного ИИ для обучения моделей.

Основные принципы этичного проектирования ИИ

Чтобы модель ИИ следовала этическим правилам, эти правила должны быть сначала четко определены. Когда речь идет о конституционном ИИ, эти правила основываются на наборе основных принципов. 

Например, вот четыре принципа, которые составляют основу эффективной конституции ИИ:

  • Прозрачность: Должно быть легко понять, как модель пришла к тому или иному ответу. Если ответ основан на фактах, оценках или закономерностях, он будет прозрачным для пользователя. Это укрепляет доверие и помогает людям понять, можно ли полагаться на результаты модели.

  • Равенство: Ответы должны оставаться одинаковыми для разных пользователей. Модель не должна менять свои результаты в зависимости от имени, происхождения или местоположения человека. Равенство помогает предотвратить предвзятость и способствует равному отношению.

  • Ответственность: Должен быть способ проследить, как модель обучалась и что повлияло на ее поведение. Когда что-то идет не так, команды должны иметь возможность выявить причину и устранить ее. Это поддерживает прозрачность и долгосрочную подотчетность.

  • Безопасность: Модели должны избегать создания контента, который может причинить вред. Если запрос приводит к рискованным или небезопасным результатам, система должна распознать это и остановиться. Это защищает и пользователя, и целостность системы.

Примеры конституционного ИИ в больших языковых моделях

Конституциональный ИИ перешел от теории к практике и теперь постепенно используется в больших моделях, которые взаимодействуют с миллионами пользователей. Два самых распространенных примера - LLM от OpenAI и Anthropic. 

Хотя обе организации использовали разные подходы к созданию более этичных систем ИИ, у них есть общая идея: научить модель следовать набору написанных руководящих принципов. Давай рассмотрим эти примеры поближе.

Подход OpenAI к конституционному искусственному интеллекту

OpenAI ввела документ под названием Model Spec как часть процесса обучения своих моделей ChatGPT . Этот документ действует как конституция. В нем описывается, к чему должна стремиться модель в своих ответах, включая такие ценности, как полезность, честность и безопасность. Он также определяет, что считается вредным или вводящим в заблуждение результатом. 

Эта основа использовалась для тонкой настройки моделей OpenAI, оценивая ответы в зависимости от того, насколько они соответствуют правилам. Со временем это помогло сформировать ChatGPT чтобы он выдавал меньше вредных результатов и лучше соответствовал тому, что на самом деле хотят пользователи. 

__wf_reserved_inherit
Рис. 3. Пример ChatGPT , использующего Model Spec от OpenAI для ответа.

Этические модели искусственного интеллекта от Anthropic

Конституция, которой следует модель Anthropic, Клод, основана на этических принципах из таких источников, как Всеобщая декларация прав человека, правила платформы, например условия предоставления услуг Apple, и исследования других лабораторий ИИ. Эти принципы помогают гарантировать, что ответы Клода будут безопасными, справедливыми и соответствующими важным человеческим ценностям.

Кроме того, Claude использует Reinforcement Learning from AI Feedback (RLAIF), когда он анализирует и корректирует свои собственные ответы на основе этих этических рекомендаций, а не полагается на отзывы людей. Этот процесс позволяет Claude совершенствоваться со временем, делая его более масштабируемым и лучше предоставляющим полезные, этичные и не причиняющие вреда ответы даже в запутанных ситуациях.

__wf_reserved_inherit
Рис 4. Понимание подхода Anthropicк конституционному ИИ.

Применение конституционального ИИ в компьютерном зрении

Поскольку конституциональный ИИ положительно влияет на то, как ведут себя языковые модели, это естественным образом приводит к вопросу: Может ли аналогичный подход помочь системам, основанным на зрении, реагировать более справедливо и безопасно? 

Хотя модели компьютерного зрения работают с изображениями, а не с текстом, необходимость в этическом руководстве не менее важна. Например, справедливость и предвзятость являются ключевыми факторами, которые необходимо учитывать, так как эти системы должны быть обучены относиться ко всем одинаково и избегать вредных или несправедливых результатов при анализе визуальных данных.

__wf_reserved_inherit
Рис. 5. Этические проблемы, связанные с компьютерным зрением. Изображение автора.

На данный момент использование методов конституционального ИИ в компьютерном зрении все еще изучается и находится на ранних стадиях, исследования в этой области продолжаются.

Например, недавно компания Meta представила CLUE- фреймворк, который применяет конституционально-подобные рассуждения к задачам безопасности изображений. Он превращает широкие правила безопасности в точные шаги, которым может следовать мультимодальный ИИ (системы ИИ, обрабатывающие и понимающие несколько типов данных). Это помогает системе рассуждать более четко и уменьшать количество вредных результатов. 

Кроме того, CLUE делает суждения о безопасности изображений более эффективными за счет упрощения сложных правил, позволяя моделям ИИ действовать быстро и точно, не нуждаясь в обширном участии человека. Используя набор руководящих принципов, CLUE делает системы модерации изображений более масштабируемыми, обеспечивая при этом высокое качество результатов.

Основные выводы

По мере того как системы искусственного интеллекта берут на себя все больше ответственности, фокус внимания смещается с того, что они могут делать, на то, что они должны делать. Этот сдвиг является ключевым, так как эти системы используются в областях, которые непосредственно влияют на жизнь людей, например в здравоохранении, правоохранительных органах и образовании. 

Чтобы системы ИИ действовали адекватно и этично, им нужен прочный и последовательный фундамент. В этом фундаменте приоритетами должны быть справедливость, безопасность и доверие. 

Письменная конституция может стать основой во время обучения, направляя процесс принятия решений в системе. Она также может дать разработчикам основу для пересмотра и корректировки поведения системы после развертывания, гарантируя, что она продолжает соответствовать ценностям, для поддержания которых была создана, и облегчая адаптацию при возникновении новых проблем.

Присоединяйся к нашему растущему сообществу уже сегодня! Погрузись глубже в ИИ, изучив наш репозиторий на GitHub. Хочешь создать свои собственные проекты в области компьютерного зрения? Изучи наши варианты лицензирования. Узнай, как компьютерное зрение в здравоохранении повышает эффективность, и изучи влияние ИИ на производство, посетив страницы наших решений!

Логотип LinkedInЛоготип ТвиттераЛоготип FacebookСимвол копирования-ссылки

Читайте больше в этой категории

Давай вместе построим будущее
искусственного интеллекта!

Начни свое путешествие с будущим машинного обучения