当前位置: 首页 > news >正文

网站上线之前怎么做推广新发布的新闻

网站上线之前怎么做推广,新发布的新闻,移动端网站模板怎么做,域名为www.com的网站函数式自动微分 相关前置知识复习 深度学习的重点之一是神经网络。而神经网络很重要的一环是反向传播算法,这个算法用于调整神经网络的权重。 反向传播算法 这里举例说明反向传播在做什么。 假设你是一个学生,一次考试过后,你收到了一份老…

函数式自动微分

相关前置知识复习

深度学习的重点之一是神经网络。而神经网络很重要的一环是反向传播算法,这个算法用于调整神经网络的权重。

反向传播算法

这里举例说明反向传播在做什么。
假设你是一个学生,一次考试过后,你收到了一份老师打分后的试卷。
前向传播就是考试的过程,你通过自己学习的知识来解答试卷上的每个问题。这就是用神经网络的权重(已有的知识)推理(解答)输入数据(问题),得到预测结果(最终的答卷)。
计算误差是你评估自己答案和标准答案的差距。这里在神经网络中是使用损失函数来衡量预测结果和实际结果之间的差距。
反向传播是分析错误的问题,分析具体是哪个知识点没掌握清楚,再去针对性的学习对应的知识,加强弱项。这里在申请网络中就是使用误差来反向调整神经网络中的权重。

反向传播的步骤是:

  1. 前向传播:输入数据通过神经网络计算出预测结果
  2. 计算误差:通过神经网络的预测结果和实际结果,计算损失函数
  3. 反向传播:将误差从输出层向输入层反向传播,计算每一层的误差。
  4. 调整权重:根据计算出的误差,使用优化算法(如梯度下降)调整每一层的权重,以减少误差。

链式法则

链式法则(Chain Rule)是微积分的重要概念,用于计算复合函数的导数。这是计算梯度的基础。简单来说链式法则的基本思想是将复杂的过程分解成多个简单的部分,再将各部分的结果组合起来得到总结果。

假设我们有两个函数
f f f g g g,并且它们是复合的,即 y = f ( g ( x ) ) y=f(g(x)) y=f(g(x))。根据链式法则,复合函数
y y y x x x 的导数可以表示为: d y d x = d y d g ⋅ d g d x \frac{d_y}{d_x}= \frac{d_y}{d_g} \cdot \frac{d_g}{d_x} dxdy=dgdydxdg

为什么要在神经网络这里强调链式法则呢?
举个小例子。想象神经网络的结构,第一层传给第二层,第二层传给第三层,每一层的输出都是后一层的输入,整个就是一条链。通过最后一层的输出,计算损失函数对最终输出的导数,再根据链式法则,可以逐层往前推导梯度,将误差从输出层传递回输入层,计算出每个参数的梯度,再进行参数更新,完成反向传递。

自动微分

上面阐述了,神经网络的误差需要通过链式法则传递,从而计算出每个参数的梯度。自动微分利用链式法则自动计算反向传播的梯度,也就是将梯度计算过程变得自动化了。

构建模型

以下我们构建一个简单的线性模型来介绍如何进行函数式自动微分。

普通的线性模型: y = w × b + b y = w \times b+ b y=w×b+b
输入x,输出y,通过调整w和b参数来优化预测。

# 环境配置
import numpy as np
import mindspore
from mindspore import nn
from mindspore import ops
from mindspore import Tensor, Parameter
x = ops.ones(5, mindspore.float32)  # 形状为5的全1输入
y = ops.zeros(3, mindspore.float32)  # 形状为3的全0输出
w = Parameter(Tensor(np.random.randn(5, 3), mindspore.float32), name='w') # 线性函数的权重
b = Parameter(Tensor(np.random.randn(3,), mindspore.float32), name='b') # 线性函数的偏差 
def function(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss

解读一下这段代码:
z是线性函数的组合,ops.matmul(x, w) 是输入x和权重w的矩阵乘法,然后再将偏置向量b加入到结果中。
这里使用binary_cross_entropy_with_logits作为损失函数。这个函数计算了预测值和目标值之间的二值交叉熵损失。

通过 f u n c t i o n ( x , y , w , b ) function(x,y,w,b) function(x,y,w,b)可以计算到loss值。

模型参数优化

为了优化模型参数,需要计算对两个参数的导数。

  • ∂ loss ⁡ ∂ w \frac{\partial \operatorname{loss}}{\partial w} wloss
  • ∂ loss ⁡ ∂ b \frac{\partial \operatorname{loss}}{\partial b} bloss

这里使用mindspore.grad函数,来获得function的微分函数用以计算梯度。
grad函数包括两个参数:

  • fn:待求导的函数。
  • grad_position:需要求导的参数的索引。

function的入参是x,y,w,b, 我们需要对w,b求导。w,b在入参中的索引是2,3。因此grad_postion为(2,3),可得function的微分函数

grad_fn = mindspore.grad(function, (2, 3))

停止梯度

一般来讲,只会求loss对参数的导数,因此只需要输出loss就可以。但如果要求的话,也可以输出多个loss以外的参数。在我们的例子里,也就是在function的函数中增加除了loss之外的输出值。

def function_with_logits(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss, zgrad_fn = mindspore.grad(function_with_logits, (2, 3))
grads = grad_fn(x, y, w, b)

这里增加了对z的输出。在后续grad_fn调用时,z也会参与到梯度计算,对w和b的梯度结果造成影响。

stop gradient用以阻止某些张量的梯度计算。通俗的说,当对张量 z 应用 Stop Gradient 操作后,在反向传播过程中,其梯度会被置零,从而不会影响之前的计算。具体操作如下:

def function_stop_gradient(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss, ops.stop_gradient(z)

这样的函数定义下,函数依然输出z,但是对z进行了阻断,不会影响到后续梯度计算是对其他参数(w,b)更新。

Auxiliary data

Auxiliary data意思是辅助数据,是函数第一个输出以外的其他输出。一般loss是第一个输出,其他都是Auxiliary data。

has_aux指具有辅助数据,可以在grad函数中设置,就能自动将辅助数据添加stop gradient操作。

grad_fn = mindspore.grad(function_with_logits, (2, 3), has_aux=True)

神经网络实现自动微分

上面的操作是自己手动搭建了一个模型。在之前的章节中我们使用nn.Cell构建了神经网络,现在来看看如何在Cell模型中如何实现函数式自动微分。

初始化模型

# 模型初始化,定义参数w和b,并构建模型
class Network(nn.Cell):def __init__(self):super().__init__()self.w = wself.b = bdef construct(self, x):z = ops.matmul(x, self.w) + self.breturn z
# 实例化模型
model = Network()
# 定义损失函数
loss_fn = nn.BCEWithLogitsLoss()
# 定义前向计算函数
def forward_fn(x, y):z = model(x)loss = loss_fn(z, y)return loss
# 上面的步骤之前的文章已经介绍过了。

这里我们使用value_and_grad接口获得微分函数。w、b两个参数已经是网络属性的一部分了,因此不需要再次进行指定了,而是使用model.trainable_params()获取可求导的参数。

grad_fn = mindspore.value_and_grad(forward_fn, None, weights=model.trainable_params())

总结

本章使用了两种方式实现了自动微分,也就是梯度计算。一种是手动构建模型,一种使用nn.Cell搭建的神经网络。此外,本节也复习了一些深度学习的基础知识

打卡凭证

在这里插入图片描述

http://www.mmbaike.com/news/34386.html

相关文章:

  • 可以做科学模拟实验的网站培训班学员培训心得
  • 网站死链接怎么删除旅游app推广营销策略
  • 宾馆网站建设方案营销型网站设计
  • 日本儿童网站模板企业建站模板
  • 英孚做测试的网站网站推广什么意思
  • 动态网站 价格网络营销常用的方法有哪些
  • php在线做网站百度输入法下载
  • win2003 做网站服务器软文发稿公司
  • 邓州做网站百度网盘网站入口
  • 质监局网站建设总结网店推广策划方案
  • 成都做网站的厦门网站seo外包
  • 论坛交流平台有哪些郑州网站优化顾问
  • 响应式布局和自适应布局站优云seo优化
  • 常州做网站的百度如何优化排名靠前
  • 太原网站建设网格未来seo优化要做什么
  • 优秀网站设计分析如何做网络推广推广
  • 创建一个网站要钱吗抖音关键词排名推广
  • 徐州网站制作如何定位搜索软件
  • 广西智能网站建设报价平台推广策划方案
  • 建设网站是不是必须要服务器求个网站
  • 做网站需要公司seo建站技巧
  • 丰台广州网站建设推广普通话黑板报
  • 如何开一家网站建设公司seo 推广怎么做
  • 用logo做ppt模板下载网站权重查询
  • 佛山市企业网站seo营销工具友情链接检测结果
  • 重庆网站建设哪家好网页制作代码模板
  • 做逆战网站的名字大型网站建设方案
  • 珠海建站模板搭建it学校培训学校哪个好
  • 义乌网站开发公司免费发广告的软件
  • 龙岩任做网站的哪几个比较好关键词爱站网关键词挖掘工具