Изучите байесовские сети и их роль в вероятностном мышлении. Узнайте, как эти графические модели улучшают объяснимую ИИ и сочетаются с Ultralytics .
Байесовская сеть — это тип вероятностной графической модели, в которой используется направленный ациклический граф (DAG) для представления набора переменных и их условных зависимостей. В отличие от «черных ящиков» алгоритмов, которые просто сопоставляют входы и выходы, эти сети явно моделируют причинно-следственные связи между различными факторами. Такая структура позволяет специалистам по данным выполнять прогнозное моделирование и рассуждения в условиях неопределенности, что делает их очень эффективными для сценариев, в которых данные могут быть неполными или когда экспертные знания в данной области необходимо сочетать со статистическими данными.
В основе этих сетей лежит теорема Байеса, математическая формула, используемая для обновления вероятностей гипотезы по мере появления новых доказательств или информации . В байесовской сети узлы представляют переменные, такие как симптом, показания датчика или классификационная метка, а ребра (стрелки) представляют вероятностные зависимости. Если существует связь от узла A к узлу B, это означает, что A оказывает прямое влияние на B. Эта архитектура имеет решающее значение для объяснимого искусственного интеллекта (XAI), поскольку позволяет пользователям отслеживать путь рассуждений модели, обеспечивая прозрачность, которую часто трудно достичь с помощью сложных архитектур глубокого обучения.
Эти модели особенно актуальны в областях, требующих строгой оценки рисков. Используя условные распределения вероятностей, байесовская сеть может отвечать на запросы о состоянии конкретной переменной, исходя из наблюдаемых данных о других переменных. Этот процесс, часто называемый вероятностным выводом, отличается от аппроксимации функций, выполняемой стандартными нейронными сетями.
Байесовские сети широко используются в отраслях, где для принятия решений необходимо учитывать множество неопределенных факторов.
Важно отличать байесовские сети от других статистических моделей и моделей машинного обучения:
В то время как байесовские сети работают с явными причинно-следственными графами, современные модели глубокого обучения также выдают вероятностные оценки достоверности, отражающие степень уверенности. При использовании таких инструментов, как Ultralytics , для обучения моделей на пользовательских наборах данных понимание этих вероятностей является ключом к интерпретации производительности модели.
Следующий Python демонстрирует, как получить доступ к распределению вероятностей (доверительной вероятности) для задачи классификации с использованием предварительно обученной модели. Это иллюстрирует, как определяется степень уверенности в современном рабочем процессе вывода.
from ultralytics import YOLO
# Load the YOLO26n-cls classification model
model = YOLO("yolo26n-cls.pt")
# Run inference on an image source
# This returns a results object containing probability data
results = model("https://ultralytics.com/images/bus.jpg")
# Iterate through results to display class probability
for result in results:
# Access the 'probs' attribute for classification probabilities
top_class_index = result.probs.top1
confidence = result.probs.top1conf
print(f"Predicted Class Index: {top_class_index}, Confidence: {confidence:.4f}")