了解决策树在机器学习分类、回归以及医疗保健和金融等实际应用中的强大功能。
决策树是一种用途广泛的机器学习(ML)算法,属于监督学习的范畴。它使用树状结构来模拟决策及其可能的结果,类似于流程图。每个内部节点代表属性(或特征)测试,每个分支代表测试结果,每个叶节点代表类标签(在分类任务中)或连续值(在回归任务中)。由于其直观的结构,决策树以相对容易理解和解释而著称,这使得它们在可解释人工智能(XAI)中非常有价值。
其核心思想是根据输入特征的值将数据集分割成越来越小的子集,从而创建一个树形结构。这一过程从代表整个数据集的根节点开始。在每个节点上,算法都会选择最佳特征和阈值来分割数据,从而提高所得子集在目标变量方面的纯度或同质性。找到最佳分割的常用标准包括基尼不纯度和信息增益(基于熵),它们可以衡量集合中的无序性或随机性。这种拆分过程一直递归进行,直到满足停止标准,如达到最大深度、节点中样本数最小或达到纯叶节点(节点中只包含一类样本)。为了对新数据点进行预测,它会根据特征测试的结果从树根向下遍历树叶节点,预测结果就是该树叶中的多数类或平均值。仔细的数据预处理和特征工程可以显著影响决策树的性能。
决策树大致可分为两大类:
决策树有几个好处:
不过,它们也有缺点:
决策树被广泛应用于各个领域:
决策树是随机森林和梯度提升树(如XGBoost或LightGBM)等更复杂的集合方法的基础。例如,随机森林会在不同的数据子集和特征上建立多个决策树,并将它们的预测结果汇总在一起,与单个决策树相比,通常能获得更好的准确性和鲁棒性,防止过拟合。虽然决策树对许多表格数据问题非常强大,但它与卷积神经网络(CNN)或计算机 视觉中使用的视觉转换器(ViT)等模型有很大不同。像 Ultralytics YOLO11等模型利用了针对物体检测、图像分类和实例分割等任务进行优化的深度学习架构,这些任务涉及处理图像等复杂的高维数据,而在这些领域,单一决策树的效果较差。在人工智能和预测建模的大背景下,了解决策树等基础模型非常有价值。Scikit-learn等工具为决策树提供了流行的实现方法,而Ultralytics HUB等平台则简化了高级视觉模型的开发和部署。