当前位置: 首页 > news >正文

html5电商网页制作百度seo关键词排名优化教程

html5电商网页制作,百度seo关键词排名优化教程,商会网站制作,中山网站建设制作西瓜数据集D如下: 编号色泽根蒂敲声纹理脐部触感好瓜1青绿蜷缩浊响清晰凹陷硬滑是2乌黑蜷缩沉闷清晰凹陷硬滑是3乌黑蜷缩浊响清晰凹陷硬滑是4青绿蜷缩沉闷清晰凹陷硬滑是5浅白蜷缩浊响清晰凹陷硬滑是6青绿稍蜷浊响清晰稍凹软粘是7乌黑稍蜷浊响稍糊稍凹软粘是8乌黑稍蜷浊响清晰…

西瓜数据集D如下:

编号色泽根蒂敲声纹理脐部触感好瓜
1青绿蜷缩浊响清晰凹陷硬滑
2乌黑蜷缩沉闷清晰凹陷硬滑
3乌黑蜷缩浊响清晰凹陷硬滑
4青绿蜷缩沉闷清晰凹陷硬滑
5浅白蜷缩浊响清晰凹陷硬滑
6青绿稍蜷浊响清晰稍凹软粘
7乌黑稍蜷浊响稍糊稍凹软粘
8乌黑稍蜷浊响清晰稍凹硬滑
9乌黑稍蜷沉闷稍糊稍凹硬滑
10青绿硬挺清脆清晰平坦软粘
11浅白硬挺清脆模糊平坦硬滑
12浅白蜷缩浊响模糊平坦软粘
13青绿稍蜷浊响稍糊凹陷硬滑
14浅白稍蜷沉闷稍糊凹陷硬滑
15乌黑稍蜷浊响清晰稍凹软粘
16浅白蜷缩浊响模糊平坦硬滑
17青绿蜷缩沉闷稍糊稍凹硬滑

信息熵: 描述信息的混乱程度,越接近1越混乱(纯度越低),0则不混乱(纯度越高)

  • 信息熵是描述集合D的混乱程度(纯度)的值
  1. 以西瓜数据集为例,前7列(包含编号列)均为属性列,不是划分类别的指标,此例上一个瓜是否为好瓜是判断类别的唯一标准,则按照好瓜(是),好瓜(否)分为2类,即二分类问题
  2. 故D的信息熵仅由最后一列(好瓜)进行计算
  3. 简单看来:
  • 好瓜的比例:(记为P(好瓜));
  • 坏瓜的比例:(记为P(坏瓜)),
  • 进行一次对比,最混乱情况也就是各一半,纯度最高情况则全部是好瓜/坏瓜.
  1. 如出现多个类别,则每个类别占比相同时最混乱,只有一个类别数据时纯度最高
  2. 举例说明
    • (例1) 情况1.2的纯度大于情况1.1
      ( 情况 1.1 ) : P 好瓜 = 1 2 , P 坏瓜 = 1 2 (情况1.1):P_{ 好瓜} = \frac12,P_{坏瓜} = \frac12 (情况1.1):P好瓜=21,P坏瓜=21
      ( 情况 1.2 ) : P 好瓜 = 1 10 , P 坏瓜 = 9 10 (情况1.2):P_{ 好瓜} = \frac1{10},P_{坏瓜} = \frac9{10} (情况1.2):P好瓜=101,P坏瓜=109
    • (例2) 情况2.2的纯度大于情况2.1
      ( 情况 2.1 ) : P 好瓜 = 2 10 , P 坏瓜 = 8 10 (情况2.1):P_{ 好瓜} = \frac2{10},P_{坏瓜} = \frac8{10} (情况2.1):P好瓜=102,P坏瓜=108
      ( 情况 2.2 ) : P 好瓜 = 1 10 , P 坏瓜 = 9 10 (情况2.2):P_{ 好瓜} = \frac1{10},P_{坏瓜} = \frac9{10} (情况2.2):P好瓜=101,P坏瓜=109
    • 这样看来,在二分类问题中,取每个情况取最大的pk,比较大小,越大的纯度越高即可
    • 但是三分类问题就会有点问题
    • (例3) 情况3.2的纯度大于情况3.1
      ( 情况 3.1 ) : P 1 = 6 10 , P 2 = 2 10 , P 3 = 2 10 (情况3.1):P_1 = \frac6{10},P_2 = \frac2{10},P_3 = \frac2{10} (情况3.1):P1=106,P2=102,P3=102
      ( 情况 3.2 ) : P 1 = 6 10 , P 2 = 3 10 , P 3 = 1 10 (情况3.2):P_1 = \frac6{10},P_2 = \frac3{10},P_3 = \frac1{10} (情况3.2):P1=106,P2=103,P3=101
  3. 在例3的情况下,仅仅比较最大值6/10都是一样的,那么就需要比较第二大的值,3/10>2/10,故3.2的纯度大于情况3.1
  4. 由此可见,比较两个样本D信息熵的方法有了
  5. 但是不太方便,如果要用一个值来量化纯度(混乱程度),思路很清晰,同一个情况(一个集合D)中的分类占比越大,则对纯度程度的贡献就越大.即在(情况3.2)中 6/10的纯度意义 > 3/10 > 1/10
  6. 使用log函数可以实现8提到的要求.pk值越小,则log(pk)会更小.选用以2为底的对数函数,故当前样本集合D中第k类样本所占比例为pk(k=1,2,3,…,|y|),则D的信息熵为:
    E n t ( D ) = − ∑ k = 1 ∣ y ∣ p k l o g 2 p k Ent(D) = -\sum\limits _{k=1}^{|y|}p_klog_2p_k Ent(D)=k=1ypklog2pk

信息增益: 使用某个属性a对样本集D进行划分所能获得的纯度提升程度

  1. 计算信息增益的目的,是选出一个属性,可以最大的划分数据
  2. 则:
    信息增益 = 混乱程度 − 使用 a 进行划分后的混乱程度 信息增益 = 混乱程度 - 使用a进行划分后的混乱程度 信息增益=混乱程度使用a进行划分后的混乱程度
  3. 则:
    使用 a 进行划分后的混乱程度 = 即每个子集的混乱程度乘以各自的权重之和 使用a进行划分后的混乱程度 = 即每个子集的混乱程度乘以各自的权重之和 使用a进行划分后的混乱程度=即每个子集的混乱程度乘以各自的权重之和
  4. 又混乱程度可以使用信息熵Ent(D)进行计算
  5. 则可以推导,计算公式为:
    G a i n ( D , a ) = E n t ( D ) − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ E n t ( D v ) Gain(D,a) = Ent(D) - \sum\limits _{v=1}^V \frac{|Dv|}{|D|}Ent(D^v) Gain(D,a)=Ent(D)v=1VDDvEnt(Dv)
  • 注:
    ∣ D ∣ 即表示集合 D 中的元素个数 |D| 即表示集合D中的元素个数 D即表示集合D中的元素个数

以西瓜数据集举例说明

  • D包含若干属性,若使用某个属性a(即样本中的某列,例如色泽)对D进行划分,将D划分为多个子集
  • 以西瓜数据为例,如使用属性色泽进行划分,则一共有3个属性值,则将全部数据划分为3个子集,即:
    D 按照色泽划分 = D 青绿 ∪ D 乌黑 ∪ D 浅白 D_{按照色泽划分} = D_{青绿} \cup D_{乌黑} \cup D_{浅白} D按照色泽划分=D青绿D乌黑D浅白
  • 故a在D上的信息增益为:
    G a i n ( D , 色泽 ) = E n t ( D ) − ( ∣ D 青绿 ∣ ∣ D ∣ E n t ( D 青绿 ) + ∣ D 青绿 ∣ ∣ D ∣ E n t ( D 乌黑 ) ∣ D 浅白 ∣ ∣ D ∣ E n t ( D 浅白 ) ) Gain(D,{色泽}) = Ent(D) - (\frac{|D_{青绿}|}{|D|}Ent(D_{青绿}) +\frac{|D_{青绿}|}{|D|}Ent(D_{乌黑}) \frac{|D_{浅白}|}{|D|}Ent(D_{浅白}) ) Gain(D,色泽)=Ent(D)(DD青绿Ent(D青绿)+DD青绿Ent(D乌黑)DD浅白Ent(D浅白))
  • 可以看出,属性(色泽)对样本集D进行划分所能获得的纯度提升程度即为:Gain(D,色泽). 如每次都选择提升程度最大的一个,则决策树的分支越少.

增益率:排除子集数量对信息增益的影响

  1. 上文中求信息增益中,我们是忽略掉编号这一列的,因为按照编号属性进行计算信息增益,会划分17个子集,每个子集的信息熵Ent均为0,则信息增益Gain就是D的信息熵Ent
    G a i n ( D , 编号 ) = E n t ( D ) − ( 0 + 0 + . . . . + 0 ) = E n t ( D ) = 0.998 Gain(D,{编号}) = Ent(D) - (0 + 0 + .... +0) = Ent(D) = 0.998 Gain(D,编号)=Ent(D)(0+0+....+0)=Ent(D)=0.998
  2. 显然,这个信息增益非常高,单却是没有意义的,按照编号建立决策树,将会建立一个一层17分支的决策树.
  3. 故,我们需要找到一个方法,解决信息增益对数数目校多的属性偏好这一个问题
  4. 如使用Gain直接除V的数量(V是D按照属性a分组的所有子集,即D的子集数量),好像可以处理掉数目较多属性偏好的这个问题
    G a i n ( D , 编号 ) V = 0.998 17 = 0.058 \frac {Gain(D,{编号})}{V} = \frac{0.998}{17} = 0.058 VGain(D,编号)=170.998=0.058
  5. 但是更适合的方法是除以IV(a),称为属性a的’固有值’(Intrinsic Value,IV),也称’ 分离信息 ’ (Split information):算法如下:
    I V ( D , a ) = S p l i t I n f o r m a t i o n ( D , a ) = − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ l o g 2 ∣ D v ∣ ∣ D ∣ IV(D,a) =SplitInformation(D,a) = -\sum\limits _{v=1}^{V}\frac {|D^v|}{|D|}log_2\frac{|D^v|}{|D|} IV(D,a)=SplitInformation(D,a)=v=1VDDvlog2DDv
  6. 故增益率定义为
    G a i n _ r a t i o ( D , a ) = G a i n ( D , a ) I V ( D , a ) Gain\_ratio(D,a) = \frac{Gain(D,a)}{IV(D,a)} Gain_ratio(D,a)=IV(D,a)Gain(D,a)
  7. 但是会带来一个新的问题,这个增益率会对数目较少的属性,有更强的偏好.(正好与信息增益的偏好相反)
    8.故C4.5决策树算法,不是直接取增益率最高的属性,而是使用了一个启发式: 从候选划分属性中选出信息增益大于平均水平的属性,再选增益率最高的.

如有错误,敬请指正!

代码部分请参考:决策树代码实例(全部代码,包含绘图,ID.3算法,西瓜书示例)

http://www.mmbaike.com/news/93841.html

相关文章:

  • 发布外链网站做seo的公司
  • 17网站一起做网店杭州500个游戏推广群
  • 西安网站优化推广方案如何营销推广
  • wordpress底部美化北京网站营销seo方案
  • 新疆网站优化网站提交收录软件
  • 客户关系管理软件有哪些seo优化搜索结果
  • 阿里云域名服务北京seoqq群
  • 网站建设403自己怎么做网站优化
  • 腾讯做网站合肥百度关键词排名
  • 什么网站免费购物商城南宁网站推广营销
  • 免费在线网站模板竞价托管公司排名
  • .net.cn做网站怎么样病毒什么时候才能消失
  • 中国建设工程招聘信息网站怎样推广自己的产品
  • 潍坊行业网站可以免费打开网站的软件下载
  • 如何在百度搜索dw做的网站国内搜索引擎大全
  • 怎么给网站做压力测试商品推广与营销的方式
  • 做网站陪聊下单安徽网站推广公司
  • 做效果图挣钱的网站深圳网络推广外包
  • 论坛类网站可以做移动端吗模板建站和开发网站区别
  • 电子商务网站建设选择服务器要考虑的因素有武汉关键词排名推广
  • 网站SEO容易做吗网络营销的常用工具
  • 青海wap网站建设公司网络营销推广8种方法
  • 网站做外部链接百度小程序优化排名
  • 做哪类视频网站需要视频证书如何注册域名
  • 怎样查网站谁做的谷歌流量代理代理
  • 凡科网站官网登录入口百度品牌广告
  • 做哪些网站比较赚钱可以商用的电视app永久软件
  • 长沙网站制作费用百度引流平台
  • 手机网站特效代码seo关键词优化推广报价表
  • 平面广告设计行业aso关键词排名优化是什么