了解 K-Nearest Neighbors (KNN) 如何通过直观的非参数方法简化机器学习的分类和回归任务。
K-Nearest Neighbors(KNN)是一种基础监督学习算法,用于分类和回归任务。它被认为是一种基于实例的算法或 "懒学习 "算法,因为它不会在训练数据阶段建立模型。相反,它存储整个数据集,并通过查找存储数据中 "K "个最相似的实例(邻居)来进行预测。其核心理念是,相似数据点的存在位置非常接近。对于一个新的、未分类的数据点,KNN 会识别其最近的邻居,并使用它们的标签来确定自己的分类或值。
KNN 算法基于简单的相似性原理,通常用距离指标来衡量。最常见的是欧氏距离,不过也可以根据数据集使用其他度量。
预测过程简单明了:
KNN 的简单性和直观性使其在各种应用中都非常有用,尤其是作为基线模型。
必须将 KNN 与其他常见的机器学习算法区分开来:
虽然 KNN 是理解基本机器学习概念和用于较小的、经过精心整理的数据集的重要工具,但对于大数据的实时推理来说,它的计算密集度很高。对于复杂的计算机视觉任务(如实时物体检测),Ultralytics YOLO等更先进的模型因其卓越的速度和准确性而受到青睐。这些模型可以通过Ultralytics HUB 等平台轻松训练和部署。