术语表

决策树

了解决策树在机器学习分类、回归以及医疗保健和金融等实际应用中的强大功能。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

决策树是一种用途广泛的机器学习(ML)算法,属于监督学习的范畴。它使用树状结构来模拟决策及其可能的结果,类似于流程图。每个内部节点代表属性(或特征)测试,每个分支代表测试结果,每个叶节点代表类标签(在分类任务中)或连续值(在回归任务中)。由于其直观的结构,决策树以相对容易理解和解释而著称,这使得它们在可解释人工智能(XAI)中非常有价值。

决策树的工作原理

其核心思想是根据输入特征的值将数据集分割成越来越小的子集,从而创建一个树形结构。这一过程从代表整个数据集的根节点开始。在每个节点上,算法都会选择最佳特征和阈值来分割数据,从而提高所得子集在目标变量方面的纯度或同质性。找到最佳分割的常用标准包括基尼不纯度和信息增益(基于熵),它们可以衡量集合中的无序性或随机性。这种拆分过程一直递归进行,直到满足停止标准,如达到最大深度、节点中样本数最小或达到纯叶节点(节点中只包含一类样本)。为了对新数据点进行预测,它会根据特征测试的结果从树根向下遍历树叶节点,预测结果就是该树叶中的多数类或平均值。仔细的数据预处理特征工程可以显著影响决策树的性能。

决策树的类型

决策树大致可分为两大类:

  • 分类树:当目标变量是分类变量时使用(例如,预测 "垃圾邮件 "或 "非垃圾邮件")。叶节点代表类别标签。
  • 回归树:用于目标变量为连续变量时(如预测房价)。叶节点代表预测的数值,通常是到达该叶节点的训练样本目标值的平均值。

优缺点

决策树有几个好处:

  • 可解读性:其图形结构使其易于可视化和理解。
  • 最少的数据准备:与其他算法相比,它们通常只需较少的数据清理工作,如较少的数据规范化工作。
  • 处理非线性数据:它们可以捕捉特征与目标变量之间的非线性关系。
  • 特征重要性:它们根据某个特征被用于拆分的早晚或频率,提供了特征重要性的内在衡量标准。

不过,它们也有缺点:

  • 过度拟合:决策树很容易变得过于复杂,并捕捉到训练数据中的噪声,从而导致对未见测试数据的泛化效果不佳。剪枝或对树的生长设置限制等技术有助于缓解过度拟合
  • 不稳定性:数据的微小变化都可能导致生成完全不同的树。
  • 偏差:如果数据集不平衡,树可能会偏向于具有较多等级或主要类别的特征。

实际应用

决策树被广泛应用于各个领域:

  1. 医疗诊断:根据病人的症状和检查结果创建建议诊断的模型,为医生提供帮助。例如,一棵树可以通过依次询问有关症状的问题来指导诊断(人工智能在医疗保健领域的应用)。
  2. 客户流失预测:企业利用决策树,根据使用模式、人口统计和互动历史,识别可能停止使用其服务的客户,从而有针对性地开展挽留工作(预测客户流失率)。
  3. 金融风险评估:通过分析收入、债务和信用记录等因素评估信用度(金融领域的计算机视觉模型)。
  4. 制造质量控制:根据传感器读数或工艺参数识别产品中的潜在缺陷(利用计算机视觉改进制造)。

与其他模型的关系

决策树是随机森林和梯度提升树(如XGBoostLightGBM)等更复杂的集合方法的基础。例如,随机森林会在不同的数据子集和特征上建立多个决策树,并将它们的预测结果汇总在一起,与单个决策树相比,通常能获得更好的准确性和鲁棒性,防止过拟合。虽然决策树对许多表格数据问题非常强大,但它与卷积神经网络(CNN)计算机 视觉中使用的视觉转换器(ViT)等模型有很大不同。像 Ultralytics YOLO11等模型利用了针对物体检测图像分类实例分割等任务进行优化的深度学习架构,这些任务涉及处理图像等复杂的高维数据,而在这些领域,单一决策树的效果较差。在人工智能预测建模的大背景下,了解决策树等基础模型非常有价值。Scikit-learn等工具为决策树提供了流行的实现方法,而Ultralytics HUB等平台则简化了高级视觉模型的开发和部署

阅读全部