当前位置: 首页 > news >正文

电视台网站建设报告windows7系统优化工具

电视台网站建设报告,windows7系统优化工具,揭阳建设局网站,中华人民共和国住房和城乡建设部官网相关文章 K近邻算法和KD树详细介绍及其原理详解朴素贝叶斯算法和拉普拉斯平滑详细介绍及其原理详解决策树算法和CART决策树算法详细介绍及其原理详解线性回归算法和逻辑斯谛回归算法详细介绍及其原理详解硬间隔支持向量机算法、软间隔支持向量机算法、非线性支持向量机算法详细…

相关文章

  1. K近邻算法和KD树详细介绍及其原理详解
  2. 朴素贝叶斯算法和拉普拉斯平滑详细介绍及其原理详解
  3. 决策树算法和CART决策树算法详细介绍及其原理详解
  4. 线性回归算法和逻辑斯谛回归算法详细介绍及其原理详解
  5. 硬间隔支持向量机算法、软间隔支持向量机算法、非线性支持向量机算法详细介绍及其原理详解
  6. 高斯分布、高斯混合模型、EM算法详细介绍及其原理详解

文章目录

  • 相关文章
  • 前言
  • 一、高斯分布
  • 二、高斯混合模型
  • 三、EM算法
    • 3.1 E步骤(Expectation)
    • 3.2 M步骤(Maximization)
    • 3.3 EM算法
  • 总结


前言

  今天给大家带来的主要内容包括:高斯分布,高斯混合模型,EM算法。废话不多说,下面就是本文的全部内容了!


一、高斯分布

  小明是一所大学的老师,一次考试结束后,小明在统计两个班级同学的成绩:

请添加图片描述

图1:两个班级同学的成绩

  其中,橙色的是一班的成绩,蓝色的是二班的成绩。但是,这次同学们非常调皮,都没有写上自己的名字和班级,这下给小明整不会了。他想:我能不能去猜一猜这些成绩里面,哪些是一班的,而哪些是二班的呢?

请添加图片描述

图2:两个班级同学没有在试卷上写自己的名字和班级

  根据以往的经验,大多同学的成绩都分布在平均值左右,只有少数的同学考的非常好或者是非常不好,我们把这种概率分布叫做高斯分布:

请添加图片描述

图3:高斯分布

  描述高斯分布需要使用到两个参数:

  • μ\muμ:描述数据的平均值,也被称为均值
  • σ2\sigma^{2}σ2:描述数据的离散程度,也被称为方差

请添加图片描述

图4:高斯分布的两个参数

  高斯分布的概率密度公式为:
P(x;μ,σ2)=12πσexp⁡(−(x−μ)22σ2)P(x;\mu,\sigma^2)=\dfrac{1}{\sqrt{2\pi}\sigma}\exp(-\dfrac{(x-\mu)^2}{2\sigma^2}) P(x;μ,σ2)=2πσ1exp(2σ2(xμ)2)

二、高斯混合模型

  现在我们已经清楚了什么是高斯分布,那让我们再回到小明的例子:

请添加图片描述

图5:两个班级同学没有在试卷上写自己的名字和班级

  因为这是两个班级的成绩,所以小明尝试使用两个高斯分布来拟合:
P(x∣γ1)=12πσ1exp⁡(−(x−μ1)22σ12)P(x∣γ2)=12πσ2exp⁡(−(x−μ2)22σ22)\begin{array}{c}P(x|\gamma_{1})=\dfrac{1}{\sqrt{2\pi}\sigma_1}\exp(-\dfrac{(x-\mu_1)^2}{2\sigma_1^2})\\ P(x|\gamma_{2})=\dfrac{1}{\sqrt{2\pi}\sigma_2}\exp(-\dfrac{(x-\mu_2)^2}{2\sigma_2^2})\end{array} P(xγ1)=2πσ11exp(2σ12(xμ1)2)P(xγ2)=2πσ21exp(2σ22(xμ2)2)
  这样的模型也被称为高斯混合模型。 在这个模型里面:

  • 如果我们知道哪些点来自一班或者是来自二班,那么我们就可以计算出来各自班级成绩的平均值和方差
  • 如果我们知道各自班级成绩的平均值和方差,我们也可以大概猜出来哪些点是来自一班的,哪些点是来自二班的

  这其实是一个鸡生蛋,蛋生鸡的问题:

请添加图片描述

图6:数据与分布的关系

  如果我们有数据就可以来拟合分布,如果我们有了概率分布,就可以来判断数据的类别。但是,问题是我们现在什么都没有,应该怎么办呢?

三、EM算法

  根据以上分析,我们现在什么数据都没有,还想对成绩进行分类,显然是有难度的。我们应该怎么办呢?既然我们没有数据,不如先做一个合适的假设来确定一部分的值。现在我们假设两个分布是这样的:

请添加图片描述

图7:假设的两个班级的成绩分布

  而且两个类别的先验概率是相等的。需要注意的是,以上这些都是假设,但是由于这些假设的存在,所以下式的值就是已知的量:
P(γ1)=P(γ2)=0.5P(\gamma_{1})=P(\gamma_{2})=0.5 P(γ1)=P(γ2)=0.5

3.1 E步骤(Expectation)

  现在我们来评估一下每个成绩点是属于哪个班级的,对于第iii个数据xix_{i}xi来说:

请添加图片描述

图8:许多成绩点中的某一个成绩点

  根据贝叶斯定理,xix_{i}xi属于一班的概率是这样求的:
γi1=P(γi∣xi)=P(xi∣γ1)P(γ1)P(xi∣γ1)P(γ1)+P(xi∣γ2)P(γ2)\gamma_{i1}=P(\gamma_i|x_i)=\dfrac{P(x_i|\gamma_1)P(\gamma_1)}{P(x_i|\gamma_1)P(\gamma_1)+P(x_i|\gamma_2)P(\gamma_2)} γi1=P(γixi)=P(xiγ1)P(γ1)+P(xiγ2)P(γ2)P(xiγ1)P(γ1)
  上面的式子看似复杂,但是其中的每一项现在都是已知的,直接计算就可以了。现在已经得到了xix_{i}xi属于一班的概率,那么xix_{i}xi属于二班的概率就是1减去xix_{i}xi属于一班的概率:
γi2=P(γ2∣xi)=1−γi1\gamma_{i2}=P(\gamma_{2}|x_{i})=1-\gamma_{i1} γi2=P(γ2xi)=1γi1
  这样我们就可以给每一个点涂上对应的颜色,来表示它们可能属于的班级:

请添加图片描述

图9:对于任意一个成绩点的可能属于的班级

  这一步被称为E步骤(Expectation),可以理解为求每一个点属于每个类别的期望值。

3.2 M步骤(Maximization)

  此时,我们已经得到了每一个点属于每个班级的可能性,我们就可以重新校准两个班级的高斯分布了,也就是重新计算两个班级的平均值和方差:

  • 一班:
    μ1=γ11x1+γ21x1+…+γN1xNγ11+γ21+…+γN1σ12=γ11(x1−μ1)2+…+γN1(xN−μ1)2γ11+…+γN1\begin{array}{l}\mu_1=\frac{\gamma_{11}x_1+\gamma_{21}x_1+\ldots+\gamma_{N1}x_N}{\gamma_{11}+\gamma_{21}+\ldots+\gamma_{N1}}\\ \sigma_1^2=\frac{\gamma_{11}(x_1-\mu_1)^2+\ldots+\gamma_{N1}(x_N-\mu_1)^2}{\gamma_{11}+\ldots+\gamma_{N1}}\end{array} μ1=γ11+γ21++γN1γ11x1+γ21x1++γN1xNσ12=γ11++γN1γ11(x1μ1)2++γN1(xNμ1)2

  • 二班:
    μ2=γ12x1+γ22x1+…+γN2xNγ12+γ22+…+γN2σ22=γ12(x1−μ2)2+…+γN2(xN−μ2)2γ12+…+γN2\begin{array}{l}\mu_2=\frac{\gamma_{12}x_1+\gamma_{22}x_1+\ldots+\gamma_{N2}x_N}{\gamma_{12}+\gamma_{22}+\ldots+\gamma_{N2}}\\ \sigma_2^2=\frac{\gamma_{12}(x_1-\mu_2)^2+\ldots+\gamma_{N2}(x_N-\mu_2)^2}{\gamma_{12}+\ldots+\gamma_{N2}}\end{array} μ2=γ12+γ22++γN2γ12x1+γ22x1++γN2xNσ22=γ12++γN2γ12(x1μ2)2++γN2(xNμ2)2

  同时,也可以更新两个班级的先验概率:

  • 一班:
    P(γ1)=γ11+…+γN1NP(\gamma_1)=\frac{\gamma_{11}+\ldots+\gamma_{N1}}{N} P(γ1)=Nγ11++γN1

  • 二班:
    P(γ2)=γ12+…+γN2NP(\gamma_2)=\frac{\gamma_{12}+\ldots+\gamma_{N2}}{N} P(γ2)=Nγ12++γN2

  这一步被称为M步骤(Maximization),可以理解为,通过当前的数据求出最可能的分布参数。

3.3 EM算法

  以上两个步骤合起来就是EM算法。当然,算法还没有结束,我们现在只是通过E和M两个步骤求出了两个班级的成绩分布的新的平均值和方差:

请添加图片描述

图10:两个班级新的成绩分布图像

  后面的工作就是重复E和M两个步骤:

  • E步骤:根据两个班级的成绩分布更新点属于两个班级的可能性
  • M步骤:更新两个班级的成绩分布的平均值和方差

  一直重复以上两个步骤,直到两个成绩分布收敛不再被更新:

请添加图片描述

图11:收敛后的两个班级的成绩分布图像

  这样我们就得到了一个还不错的分类效果:

请添加图片描述

图12:通过EM算法得到的分类结果

  虽然和真实数据相比仍然有误差,不过也可以猜的八九不离十了:

请添加图片描述

图13:真实的分类情况

  这样,通过EM算法,小明的问题就可以被解决了。


总结

  以上就是本文的全部内容了,学习EM算法还需要一些概率论与数理统计和高等数学的相关知识,所以读者最好提前温习一下。学习机器学习避免不了学习高等数学、线性代数、概率论与数理统计和矩阵论,所以读者一定要好好学习这几门课程!

http://www.mmbaike.com/news/79411.html

相关文章:

  • 网站怎么做百度快照新闻头条今日要闻国内
  • 公司做的网站入哪个会计科目百度推广的费用
  • 日照网站优化公司各种资源都有的搜索引擎
  • 吕梁网站开发微商软文大全
  • 安徽省水利建设厅官方网站竞价托管推广哪家好
  • 网页设计与网站建设第02章在线测试百度公司排名多少
  • 佛教网站开发怎么样创建网站
  • 网站建设难点谷歌浏览器下载电脑版
  • 建网站什么网最好竞价账户托管的公司有哪些
  • 简述网站规划的任务品牌推广方案案例
  • 三亚网站建设hnycbd网店运营在哪里学比较好些
  • 网站开发个人技能宁波seo外包推广
  • 惠州做网站乐云seo百度风云榜电视剧排行榜
  • 做批发的网站是阿里鄂州网站seo
  • 做拼货商城网站推广专家
  • 做的网站一直刷新深圳app推广平台
  • linux做网站网络课堂软文写作的技巧
  • 微网站栏目设置北京网站优化价格
  • 网页设计基础视频优化大师平台
  • 做推文的网站最新搜索引擎排名
  • 佛山做网站那家好站长统计推荐
  • 青海网站建设与制作旺道seo营销软件
  • 福建网站开发有限开发公司seo标题优化分析范文
  • 做兼职在线抠图网站seo黑帽是什么
  • app线上推广是什么工作seo推广岗位职责
  • 个人档案网站该怎么做宁波seo推广平台
  • 网站备案多长时间旅游网站网页设计
  • 做网站有什么类型百度电脑版登录网站
  • 购物app开发多少钱郑州seo优化外包公司
  • 网站接入服务提供单位名称网站推广seo优化