Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Random Forest (Floresta Aleatória)

Explore o poder da Random Forest para classificação e regressão. Saiba como este algoritmo conjunto evita o sobreajuste e melhora a precisão para dados complexos.

A Random Forest é uma técnica de aprendizagem supervisionada robusta e versátil algoritmo de aprendizagem supervisionada , amplamente utilizado tanto para classificação como regressão . Como o nome sugere, ele constrói uma "floresta" composta por várias árvores de decisão durante a fase de treino. Ao agregar as previsões dessas árvores individuais — normalmente usando uma votação majoritária para classificação ou média para regressão — o modelo alcança uma precisão preditiva significativamente maior e e estabilidade do que qualquer árvore individual poderia oferecer. Esse abordagem de conjunto abordagem aborda de forma eficaz as armadilhas comuns na aprendizagem automática, tais como o sobreajuste aos dados de treino, tornando-a uma escolha confiável para analisar conjuntos de dados estruturados complexos.

Mecanismos principais

A eficácia de uma Random Forest depende de dois conceitos-chave que introduzem diversidade entre as árvores, garantindo que nem todas aprendam exatamente os mesmos padrões:

  • Agregação Bootstrap (Bagging): O algoritmo gera vários subconjuntos do conjunto de dados original por meio de amostragem aleatória com reposição. Cada árvore de decisão é treinada em uma amostra diferente, permitindo que o aprendizado de máquina (ML) aprender a partir de várias perspetivas da distribuição de dados subjacente.
  • Aleatoriedade de características: Em vez de procurar a característica mais importante entre todas as variáveis disponíveis ao dividir um nó, o algoritmo procura a melhor característica entre um subconjunto aleatório de vetores de características. Isso evita que características dominantes específicas sobreponham o modelo, resultando num preditor

Aplicações no Mundo Real

A Random Forest é um elemento básico na análise de dados devido à sua capacidade de lidar com grandes conjuntos de dados com alta dimensionalidade.

  • IA nas finanças: As instituições financeiras utilizam o Random Forest para pontuação de crédito e detecção de fraudes. Ao analisar dados históricos de transações e dados demográficos dos clientes, o modelo pode identificar padrões sutis indicativos de atividades fraudulentas ou avaliar riscos de inadimplência de empréstimos com alta precisão.
  • IA na área da saúde: No diagnóstico médico, o algoritmo ajuda a prever os resultados dos pacientes através da análise de registos de saúde eletrónicos. Os investigadores utilizam a sua importância dos recursos para identificar biomarcadores críticos associados à progressão de doenças específicas.
  • IA na agricultura: Os agrónomos aplicam a Random Forest para analisar amostras de solo e padrões climáticos para modelagem preditiva do rendimento das colheitas , permitindo aos agricultores otimizar a alocação de recursos e melhorar a sustentabilidade.

Distinguindo a Floresta Aleatória de Conceitos Relacionados

Compreender como o Random Forest se compara a outros algoritmos ajuda a selecionar a ferramenta certa para um problema específico.

  • vs. Árvore de decisão: Uma única árvore de decisão é fácil de interpretar, mas sofre de alta variância; uma pequena alteração nos dados pode alterar completamente a estrutura da árvore. A Random Forest sacrifica alguma interpretabilidade em troca do tradeoff entre viés e variância, oferecendo generalização superior em dados de teste não vistos dados de teste.
  • vs. XGBoost: Enquanto a Random Forest constrói árvores em paralelo (independentemente), algoritmos de reforço como o XGBoost constroem árvores sequencialmente, onde cada nova árvore corrige os erros da anterior. O reforço geralmente alcança um desempenho superior em competições tabulares, mas pode ser mais sensível a dados ruidosos.
  • vs. Deep Learning (DL): O Random Forest é excelente para dados estruturados e tabulares. No entanto, para dados não estruturados, como imagens, modelos de visão computacional (CV) são superiores. Arquiteturas como YOLO26 utilizam redes neurais convolucionais (CNNs) para extrair automaticamente características de pixels brutos, uma tarefa na qual os métodos baseados em árvores têm dificuldades.

Exemplo de implementação

A Random Forest é normalmente implementada utilizando a popular Scikit-learn. Em pipelines avançados, ela pode ser usada juntamente com modelos de visão gerenciados pela Ultralytics , por exemplo, para classify derivados de objetos detetados.

O exemplo a seguir demonstra como treinar um classificador simples em dados sintéticos:

from sklearn.datasets import make_classification
from sklearn.ensemble import RandomForestClassifier

# Generate a synthetic dataset with 100 samples and 4 features
X, y = make_classification(n_samples=100, n_features=4, random_state=42)

# Initialize the Random Forest with 100 trees
rf_model = RandomForestClassifier(n_estimators=100, max_depth=3)

# Train the model and predict the class for a new data point
rf_model.fit(X, y)
print(f"Predicted Class: {rf_model.predict([[0.5, 0.2, -0.1, 1.5]])}")

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora