术语表

K-Nearest Neighbors(KNN)

探索 K-Nearest Neighbors (KNN),这是一种用于分类和回归任务的简单而强大的机器学习算法。了解它的工作原理!

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

K-Nearest Neighbors(KNN)是一种基本的机器学习算法,用于分类和回归任务。它以简单和直观著称,是机器学习领域初学者的首选。KNN 背后的核心思想是,具有相似属性的数据点往往属于同一类或具有相似的值。该算法根据大多数类别或训练数据集中 "K "个最近数据点的平均值进行预测。

K-Nearest Neighbors (KNN) 的工作原理

KNN 算法的运行原理是接近原则。当遇到一个新的、未见过的数据点时,它会计算该点与训练数据集中所有点之间的距离。然后,它会找出与新点最接近的 "K "个训练点。对于分类,新点将被分配到其 "K "个近邻中最常见的类别。对于回归,预测值是其 "K "个近邻点的平均值(或加权平均值)。K "的选择至关重要,会对模型的性能产生重大影响。较小的 "K "可能会导致对噪声的敏感性,而较大的 "K "可以平滑决策边界,但可能会包含其他类别的点。

距离指标

KNN 中 "最近 "的概念依赖于距离度量。常用的距离度量包括欧氏距离、曼哈顿距离和闵科夫斯基距离。每种度量都有自己的特点,适用于不同类型的数据。例如,欧氏距离通常用于连续的数值数据,而曼哈顿距离对异常值的影响更大。

相关性和应用

KNN 因其在不同领域的易用性和有效性而被广泛使用。当对数据分布几乎没有任何先验知识时,KNN 尤其有用。KNN 可用于推荐系统,例如根据类似用户的偏好向用户推荐产品。您可以从人工智能和机器学习的角度了解有关推荐系统的更多信息。

实际应用

示例 1:医疗保健

在医疗保健领域,KNN 可用于根据类似病人的病史预测病人是否可能罹患某种疾病。通过分析年龄、血压和胆固醇水平等因素,KNN 可以将新患者划分为风险类别,有助于早期诊断和个性化治疗计划。了解有关医疗保健领域人工智能的更多信息。

示例 2:图像识别

KNN 可用于图像识别任务,如识别手写数字或对物体图像进行分类。通过将图像表示为特征向量,KNN 可以根据新图像与训练集中标记图像的相似度对其进行分类。这一应用在光学字符识别 (OCR) 和自动图像标记等领域尤为重要。

相关概念

K-Means 聚类

虽然 KNN 和 K-Means 都涉及参数 "K",但它们的作用却各不相同。K-Means 是一种用于聚类的无监督学习算法,其中 "K "代表聚类的数量。相反,KNN 是一种有监督的学习算法,用于分类和回归,其中 "K "代表所考虑的邻居数量。了解有关K-Means 聚类的更多信息。

降维

KNN 的性能会受到高维数据的影响,这种现象被称为 "维度诅咒"。主成分分析(PCA)等技术可用于减少特征数量,同时保留基本信息,从而提高 KNN 的效率和准确性。

优缺点

优势

  • 简单:KNN 易于理解和实施。
  • 无训练阶段:KNN 没有明确的训练阶段,因此对动态数据集来说非常有效。
  • 灵活性:它既可用于分类任务,也可用于回归任务。

缺点

  • 计算成本KNN 的计算成本很高,尤其是在大型数据集上,因为它需要计算所有训练点的距离。
  • 对 "K "的敏感性:K "的选择会对性能产生重大影响。
  • 维度的诅咒:高维数据会降低性能。

结论

K-Nearest Neighbors 是一种通用而直观的算法,在各种机器学习应用中都能找到它的身影。它能根据数据点的相似性进行预测,因此是分类和回归任务的重要工具。不过,要想获得最佳性能,必须仔细考虑 "K "和距离度量的选择。对于那些有兴趣探索高级机器学习模型及其部署的人,Ultralytics 提供最先进的解决方案,如Ultralytics YOLO 模型和Ultralytics HUB 平台。

阅读全部