当前位置: 首页 > news >正文

专门做二手房车的网站网络营销实践总结报告

专门做二手房车的网站,网络营销实践总结报告,做网站公司怎么样,网站推广的内涵优化和深度学习的关系 优化是最小化损失函数,而深度学习的目标是在给定有限数据量的情况下寻找合适的模型,分别对应着训练误差和泛化误差;需要注意过拟合; 优化面临的挑战(求解数值解) 局部最小值&#…
  1. 优化和深度学习的关系
  • 优化是最小化损失函数,而深度学习的目标是在给定有限数据量的情况下寻找合适的模型,分别对应着训练误差和泛化误差;
  • 需要注意过拟合;
  1. 优化面临的挑战(求解数值解)
  • 局部最小值:当优化问题的数值解接近局部最优值的时候,目标函数解的梯度接近或者变为0,通过迭代获得的数值解可能仅使目标函数局部最优,而不是全局最优,一定程度的噪声会使参数跳出局部最小值,这是小批量随机梯度下降的有利特性之一,此时小批量上梯度的自然变化能够将参数从局部最小资中跳出;
  • 鞍点:定义为梯度为0但是既不是全局最小值也不是局部最小值的点,尽管不是最小值,但是优化可能会停止,假设输入是k维向量,假设在0梯度处的Hessian矩阵的k个特征值均为正,此时局部最小值,均为负,为局部最大值,有正有负为鞍点;
  • 梯度消失
  1. 凸性
  • 凸集:对于任意的 a , b ∈ X a,b\in X a,bX,连接 a , b a,b a,b的线段也位于 X X X,则集合 X X X是凸集,数学化表示,对于任意 λ ∈ [ 0 , 1 ] \lambda\in[0,1] λ[0,1],有 λ a + ( 1 − λ ) b ∈ X \lambda a + (1-\lambda) b\in X λa+(1λ)bX,例如实数集,两个凸集的交集也是凸集;
  • 凸函数:对于所有 x , x ′ ∈ X , λ ∈ [ 0 , 1 ] x,x'\in X,\lambda\in [0,1] x,xX,λ[0,1],有 λ f ( x ) + ( 1 − λ ) f ( x ′ ) ≥ f ( λ x + ( 1 − λ ) x ′ ) \lambda f(x) + (1-\lambda)f(x') \geq f(\lambda x + (1-\lambda)x') λf(x)+(1λ)f(x)f(λx+(1λ)x);
  • 詹森不等式:凸性定义的推广 ∑ i α i f ( x i ) ≥ f ( ∑ i α i x i ) , ∑ i α i = 1 \sum_i\alpha_if(x_i)\geq f(\sum_i\alpha_i x_i),\sum_i\alpha_i=1 iαif(xi)f(iαixi),iαi=1;
  • 凸函数的性质:凸函数的局部极小值是全局极小值

i. 特征值和特征向量, A v = λ v Av=\lambda v Av=λv,其中 v v v是特征向量, λ \lambda λ是特征值;例如对于 A = [ 2 1 2 3 ] A = \begin{bmatrix} 2 & 1\\ 2 & 3\end{bmatrix} A=[2213],他的特征值是 4 , 1 4,1 4,1对应的两个特征向量是 [ 1 2 ] \begin{bmatrix} 1\\ 2\end{bmatrix} [12] [ 1 − 1 ] \begin{bmatrix} 1 \\ -1\end{bmatrix} [11]
ii. 求解特征值和特征向量: ( A − λ I ) v = 0 (A-\lambda I)v = 0 (AλI)v=0,所以 ( A − λ I ) (A-\lambda I) (AλI)不可逆,也就是 d e t ( A − λ I ) = 0 det(A-\lambda I)= 0 det(AλI)=0,即可解得特征值
iii. 延续上面的例子,特征向量组成的矩阵 W = [ 1 1 − 1 2 ] W=\begin{bmatrix}1 & 1\\-1 & 2\end{bmatrix} W=[1112],特征值组成的矩阵 ∑ = [ 1 0 0 4 ] \sum=\begin{bmatrix}1 & 0\\0 & 4\end{bmatrix} =[1004],可得 A W = W ∑ AW=W\sum AW=W,而且 W W W是可逆的,所以等式两边同乘 W − 1 W^{-1} W1得到 A = W ∑ W − 1 A=W\sum W^{-1} A=WW1
iv. 一些良好的性质: A n = W ∑ n W − 1 A^n = W\sum^n W^{-1} An=WnW1,也就是对应一个矩阵的乘方进行特征值分解,只需要将特征值进行同样的n次方即可,此时n需要时正数;对于矩阵的求逆, A − 1 = W ∑ − 1 W − 1 A^{-1}=W\sum^{-1}W^{-1} A1=W1W1,可以看到对矩阵的逆进行特征值分解,直接对特征值求逆即可;矩阵的行列式等于矩阵的特征值的乘积 d e t ( A ) = λ 1 ⋯ λ n det(A) = \lambda_1\cdots \lambda_n det(A)=λ1λn;矩阵的秩等于非0特征值的个数;
v. https://d2l.ai/chapter_appendix-mathematics-for-deep-learning/eigendecomposition.html

http://www.mmbaike.com/news/40016.html

相关文章:

  • 专门做特产的网站网页设计自学要多久
  • 网站与规划设计思路优化大师官方正版下载
  • 招聘类网站建设广告优化师培训
  • 苏州网站建设哪里好廊坊seo优化
  • 网上哪个网站做的系统好用免费网站服务器安全软件下载
  • 企业网站的设计与开发百度关键词推广价格
  • 网站检索功能怎么做呢灰色关键词排名代发
  • 图片站手机网站怎么做网络推广的目标
  • 聊城做网站推广公司高佣金app软件推广平台
  • html5网站制作培训网络营销案例分析报告
  • 个人简历怎么写简短又吸引人深圳优化公司义高粱seo
  • 天元建设集团有限公司商票逾期seo网络推广报价
  • 有一个域名做网站2023年4月疫情恢复
  • cms网站建设有多少条数据自助搭建平台
  • 怎么在别人网站上做锚文本链接手机百度app安装下载
  • 深圳航空公司官网首页谷歌优化工具
  • 江门免费建站公司免费外链代发平台
  • 网站制作带模板破解版行者seo无敌
  • 建设网站公司怎么分工seo快速排名软件案例
  • 查看邮箱注册的网站seo 工具推荐
  • h5 css3网站欣赏营销传播
  • 如何给自己做网站全国疫情今天最新消息
  • web网站开发案例的好书正规优化公司哪家好
  • wordpress性能甘肃seo网站
  • 做网站需要哪个专业买链接网
  • 网站的引导页怎么做的精品成品网站入口
  • 自己做网站要多少钱网站优化建设
  • 做网站版头蓝色图片推广关键词优化
  • 哪个网站有上门做指甲推广营销软件app
  • 网站制作例子seo培训中心