推广 热搜: page  数据  小红  红书  考试  论文  数据分析  关键词  哪些  搜索 

怎样制作自己的网站/深圳优化网站方法

   日期:2024-12-17     移动:https://sicmodule.kub2b.com/mobile/quote/7278.html

        从测试样本x开始生长,不断扩大区域,直至包含进K个训练样本,把测试样本x的类别归于与之最近的k个训练样本中出现频率最大的类别。k近邻一般采用k为奇数跟投票表决一样,避免因两种票数相等而难以决策。

         其决策规则

 

        通俗易懂的规则是

        1.计算待分类数据和不同类中每一个数据的距离(欧氏或马氏)。

        2.选出最小的前K数据个距离。

        3.对比这前K个距离,找出K个数据中包含最多的是那个类的数据,即为待分类数据所在的类。

 

        总结

        如何选取K是关键,如何选择一个最佳的k值取决于数据。一般情况下,在分类时较大的k值能够减小噪声的影响,但会使类别之间的界限变得模糊。如下图所示

        待测样本(绿色圆圈)既可能分到红色三角形类,也可能分到蓝色正方形类。

        k= 3,属于红色三角形类;k= 5,属于蓝色正方形类

 

        近邻分类器的优点

        原理和实现简单,特别适用于大类别问题。性能好:当训练样本数较多时,其错误率的上下界都是在一倍到两倍贝叶斯决策方法的错误率范围内。从这点来说最近邻法是优良的,因此它是模式识别重要方法之一。

 

        近邻分类器的缺点

        由于训练样本数有限,近邻法估计的后验概率往往并不精确,从而导致分类错误率远远大于Bayesian最小错误率。

        搜索近邻需要遍历每一个样本,计算复杂度较大。

        需要存储所有样本。

        受噪声和距离测度的选择影响较大。

 

MATLAB实现




本文地址:https://sicmodule.kub2b.com/quote/7278.html     企库往 https://sicmodule.kub2b.com/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


0相关评论
相关最新动态
推荐最新动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号