knn回归原理?
KNN 原理
KNN是一种即可用于分类又可用于回归的机器学习算法。
对于给定测试样本,基于距离度量找出训练集中与其最靠近的K个训练样本,然后基于这K个“邻居”的信息来进行预测。
在分类任务中可使用投票法,选择这K个样本中出现最多的类别标记作为预测结果;
在回归任务中可使用平均法,将这K个样本的实值输出标记的平均值作为预测结果。当然还可以基于距离远近程度进行加权平均等方法。
KNN 优点
1、理论成熟,思想简单,既可以用来做分类也可以用来做回归
2、可用于非线性分类
3、训练时间复杂度比支持向量机之类的算法低,仅为O(n)
4、和朴素贝叶斯之类的算法比,对数据没有假设,准确度高,对异常点不敏感
5、对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合
6、比较适用于样本容量比较大的类域的自动分类。
KNN 缺点
1、计算量大,尤其是特征数非常多的时候。
2、样本不平衡的时候,对稀有类别的预测准确率低
3、KD树,球树之类的模型建立需要大量的内存。
4、使用懒散学习方法,基本上不学习,导致预测时速度比起逻辑回归之类的算法慢。
5、相比决策树模型,KNN模型可解释性不强。
KNN算法,k近邻?
K最近邻(k-Nearest Neighbour,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
knn是什么意思?
KNN是通过测量不同特征值之间的距离进行分类。它的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
优点:
① 训练时间复杂度比支持向量机之类的算法低,仅为O(n)
② 和朴素贝叶斯之类的算法比,对数据没有假设,准确度高,对异常点不敏感
③ KNN主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合
缺点
① 计算复杂性高;空间复杂性高;
② 样本不平衡的时候,对稀有类别的预测准确率低
③ 可解释性差,无法给出决策树那样的规则。
KNN(K- Nearest Neighbor)法即K最邻近法,最初由 Cover和Hart于1968年提出,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路非常简单直观:
如果一个样本在特征空间中的K个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
河南话knn是什么意思?
KNN是河南话中的俚语,意思是“靠你娘”。
这个俚语起源于河南南阳地区,用于表达无奈、惊讶、愤怒等情绪。
但是,作为一种俚语,使用时需要考虑场合和对象,以免造成不必要的误会或冲突。
到此,以上就是小编对于knn的问题就介绍到这了,希望介绍关于knn的4点解答对大家有用。
版权声明:本文来自投稿用户,文章观点仅代表投稿用户本人,不代表天天想上网立场,本站仅提供存储服务,不承担相关法律责任,如有涉嫌抄袭侵权/违法违规内容,请发送邮件至964842246@qq.com举报,一经查实,本站将立刻删除。