当前位置: 首页 > news >正文

现在网站用什么语言做最好网络营销课程心得体会

现在网站用什么语言做最好,网络营销课程心得体会,西安网站建设公司十强,做视频网站犯法吗为什么去西藏的人都会感觉很治愈 拉萨的老中医是这么说的 缺氧脑子短路,很多事想不起来,就会感觉很幸福 一、卷积层 解释:卷积层通过卷积操作对输入数据进行处理。它使用一组可学习的滤波器(也称为卷积核或特征检测器&#xff09…

为什么去西藏的人都会感觉很治愈

拉萨的老中医是这么说的

缺氧脑子短路,很多事想不起来,就会感觉很幸福

一、卷积层

解释:卷积层通过卷积操作对输入数据进行处理。它使用一组可学习的滤波器(也称为卷积核或特征检测器),将滤波器与输入数据进行逐元素的乘法累加操作,从而生成输出特征图。这种滤波器的操作类似于图像处理中的卷积操作,因此得名卷积层。

主要作用:

  1. 特征提取:卷积层通过滤波器的卷积操作,可以有效地提取输入数据中的局部特征。滤波器可以学习到不同的特征,例如边缘、纹理、形状等,这些特征对于图像识别和分类等任务非常重要。

  2. 参数共享:卷积层的滤波器在整个输入数据上共享参数。这意味着在不同位置上使用相同的滤波器,从而减少了需要学习的参数数量。这种参数共享的特性使得卷积层具有一定的平移不变性,即对于输入数据的平移操作具有不变性。

  3. 减少参数数量:相比全连接层(每个神经元与上一层的所有神经元相连),卷积层的参数数量较少。这是因为卷积层的滤波器在空间上共享参数,并且每个滤波器只与输入数据的局部区域进行卷积操作。这种参数共享和局部连接的方式大大减少了需要学习的参数数量,提高了模型的效率和泛化能力。

  4. 空间结构保持:卷积层在进行卷积操作时,保持了输入数据的空间结构。这意味着输出特征图的每个元素对应于输入数据的相应局部区域,从而保留了输入数据的空间信息。这对于图像处理任务非常重要,因为图像中的相邻像素之间存在一定的关联性。

使用示例:

 代码示例:

import torch
import torch.nn.functional as F# 模拟图像
input = torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]])
# 模拟卷积核
kernal = torch.tensor([[1, 2, 1],[0, 1, 0],[2, 1, 0]])# 参数结构转化
input = torch.reshape(input, (1, 1, 5, 5))
kernal = torch.reshape(kernal, (1, 1, 3, 3))print(input.shape)
print(kernal.shape)# 输入经过卷积操作
output = F.conv2d(input, kernal, stride=2, padding=1)
print(output)

输出

torch.Size([1, 1, 5, 5])
torch.Size([1, 1, 3, 3])
tensor([[[[ 1,  4,  8],[ 7, 16,  8],[14,  9,  4]]]])

图片数据集经过卷积层输出:

import torch
import torchvision
from torch.utils.data import DataLoader
from torch.nn import Conv2d
from torch import nn
from torch.utils.tensorboard import SummaryWriter# 加载数据集并加载到神经网络中
dataset = torchvision.datasets.CIFAR10("./cifar10", train=False, transform=torchvision.transforms.ToTensor(),download=False)
dataloader = DataLoader(dataset, batch_size=64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.conv1 = Conv2d(3, 6, 3, 1)def forward(self, x):x = self.conv1(x)return xlh = Lh()writer = SummaryWriter("logs")
step = 0
for data in dataloader:imgs, targets = dataoutput = lh(imgs)writer.add_images("input", imgs, step)output = torch.reshape(output, (-1, 3, 30, 30))writer.add_images("output", output, step)step += 1

通过tensorboard展示

 二、最大池化层

解释:它将输入数据划分为不重叠的矩形区域(通常是2x2的窗口),然后在每个区域中选择最大值作为输出。这样,最大池化层通过取每个区域中的最大值来减少数据的维度。

主要作用:

  1. 特征减少:最大池化层可以减少输入数据的空间尺寸,从而降低了模型的计算复杂度。通过减少特征图的尺寸,最大池化层能够在保留重要特征的同时,减少需要处理的数据量,提高模型的效率

  2. 平移不变性:最大池化层具有一定的平移不变性,即对于输入数据的平移操作具有不变性。这是因为在最大池化操作中,只选择每个区域中的最大值,而不考虑其位置信息。这种平移不变性使得神经网络对于输入数据的位置变化具有一定的鲁棒性。

  3. 特征提取:最大池化层可以帮助提取输入数据中的主要特征。通过选择每个区域中的最大值作为输出,最大池化层能够保留输入数据中的重要特征,并且对于噪声和不重要的细节具有一定的鲁棒性。

最大池化层在神经网络中起到了减少数据维度、提取关键特征和增强模型的鲁棒性等作用(简单来说就是把1080p的视频变成720p的)。它通常与卷积层交替使用,帮助神经网络有效地处理输入数据,提高模型的性能和泛化能力。

 使用示例:

import torch
from torch.nn import MaxPool2d
from torch import nn
import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset = torchvision.datasets.CIFAR10('./cifar10', train=False, transform=torchvision.transforms.ToTensor(),download=False)
dataloader = DataLoader(dataset, 64, False)input = torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]], dtype=torch.float32)input = torch.reshape(input, (1, 1, 5, 5))class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.maxpool = MaxPool2d(kernel_size=3, ceil_mode=True)def forward(self, x):x = self.maxpool(x)return xlh = Lh()writer = SummaryWriter("logs")
step = 0
for data in dataloader:imgs, tagerts = datawriter.add_images("input", imgs, step)output = lh(imgs)writer.add_images("output", output, step)step += 1writer.close()

使用torchboard打卡

三、非线性激活函数

解释:神经网络的非线性激活函数是在神经网络的每个神经元上引入非线性变换的函数。它的作用是为神经网络引入非线性能力,从而使网络能够学习和表示更加复杂的函数关系

主要作用:

  1. 引入非线性:线性变换的组合只能表示线性关系,而神经网络的层级结构和参数学习能力使其具备了更强大的函数逼近能力。非线性激活函数的引入打破了线性关系的限制,使得神经网络可以学习和表示非线性的函数关系,从而更好地适应复杂的数据模式

  2. 增强模型的表达能力:非线性激活函数可以增强神经网络的表达能力,使其能够学习和表示更加复杂的特征和模式。通过引入非线性变换,激活函数可以对输入信号进行非线性映射,从而提取和表示更多种类的特征,帮助网络更好地理解输入数据。

  3. 解决分类问题的非线性可分性:在处理分类问题时,输入数据通常是非线性可分的。非线性激活函数可以帮助神经网络学习并表示类别之间的非线性边界,从而提高分类准确性。例如,常用的激活函数如ReLU、Sigmoid和Tanh等都是非线性的,它们可以帮助神经网络学习并表示复杂的决策边界。

  4. 缓解梯度消失问题:在深层神经网络中,反向传播算法需要通过链式法则计算梯度并更新参数。线性激活函数(如恒等映射)会导致梯度的乘积变得非常小,从而导致梯度消失问题。而非线性激活函数可以通过引入非线性变换,使得梯度能够在网络中传播并保持较大的幅度,从而缓解了梯度消失问题,有助于更好地训练深层网络。

 使用示例:

import torch
import torchvision.datasets
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterinput = torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]], dtype=torch.float32)input = torch.reshape(input, (-1, 1, 5, 5))dataset = torchvision.datasets.CIFAR10("./cifar10", False, transform=torchvision.transforms.ToTensor())
dataloader = DataLoader(dataset, 64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.relu1 = ReLU()self.sigmoid = Sigmoid()def forward(self, input):return self.sigmoid(input)lh = Lh()step = 0
writer = SummaryWriter("logs")for data in dataloader:imgs, targets = datawriter.add_images("input", imgs, step)output = lh(imgs)writer.add_images("output", output, step)step += 1writer.close()print("end")

使用torchboard打开

四、其它层与神经网络模型

查看pytorch的官方文档可以看到,神经网络中不同层及其使用

你可以创建自己的神经网络,然后自由搭配里面的网络层进行模型的训练。但是一般情况下我们不用手动去一层一层构建,因为官网提供了很多已经搭配好的神经网络模型,这些模型的训练效果都非常不错,我们只需要选择构建好的模型使用即可

如 torchvision.models

五、神经网络搭建小实战

crfar10 model structure

根据上图,以input为 3@32 * 32为例,可更据公式计算pandding

代码示例:

from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
import torchclass Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x = self.model1(x)return xlh = Lh()
input = torch.ones((64,3,32,32))
print(input.shape)
output = lh(input)
print(output.shape)

可以使用tensorboard绘制神经网络流程图

writer = SummaryWriter('logs')
writer.add_graph(lh, input)
writer.close()

六、损失函数

损失函数用于衡量模型的预测输出与真实标签之间的差异,并且在训练过程中用于优化模型的参数。

常用的损失函数及其简单使用方法:

1. 均方误差损失(Mean Squared Error, MSE)
均方误差损失函数用于回归问题,计算预测值与真实值之间的平均平方差。它可以通过torch.nn.MSELoss()来创建。

import torch
import torch.nn as nnloss_fn = nn.MSELoss()predictions = torch.tensor([0.5, 0.8, 1.2])
targets = torch.tensor([1.0, 1.0, 1.0])loss = loss_fn(predictions, targets)
print(loss)

2. 交叉熵损失(Cross Entropy Loss)
交叉熵损失函数常用于分类问题,特别是多分类问题。它计算预测概率分布与真实标签之间的交叉熵。在PyTorch中,可以使用torch.nn.CrossEntropyLoss()来创建交叉熵损失函数。

import torch
import torch.nn as nnloss_fn = nn.CrossEntropyLoss()predictions = torch.tensor([[0.2, 0.3, 0.5], [0.8, 0.1, 0.1]])
targets = torch.tensor([2, 0])  # 真实标签loss = loss_fn(predictions, targets)
print(loss)

3. 二分类交叉熵损失(Binary Cross Entropy Loss)
二分类交叉熵损失函数适用于二分类问题,计算预测概率与真实标签之间的交叉熵。在PyTorch中,可以使用torch.nn.BCELoss()来创建二分类交叉熵损失函数。

import torch
import torch.nn as nnloss_fn = nn.BCELoss()predictions = torch.tensor([0.2, 0.8])
targets = torch.tensor([0.0, 1.0])  # 真实标签loss = loss_fn(predictions, targets)
print(loss)

将损失函数运用到前面的神经网络模型中:

import torchvision
from torch import nn
from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear
from torch.utils.data import DataLoaderdataset = torchvision.datasets.CIFAR10('./cifar10', False, transform=torchvision.transforms.ToTensor())
dataloader = DataLoader(dataset, batch_size=64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x = self.model1(x)return xloss = nn.CrossEntropyLoss()
lh=Lh()
for data in dataloader:imgs, targets = dataoutputs = lh(imgs)result_loss = loss(outputs, targets)result_loss.backward()print(result_loss)

七、优化器

优化器用于更新模型的参数以最小化损失函数。

常用的优化器及其简单使用方法:

1. 随机梯度下降(Stochastic Gradient Descent, SGD)
随机梯度下降是最基本的优化算法之一,它通过计算损失函数关于参数的梯度来更新参数。在PyTorch中,可以使用torch.optim.SGD来创建SGD优化器。

import torch
import torch.optim as optimmodel = MyModel()  # 自定义模型optimizer = optim.SGD(model.parameters(), lr=0.01)# 在训练循环中使用优化器
optimizer.zero_grad()  # 清零梯度
loss = compute_loss()  # 计算损失
loss.backward()  # 反向传播计算梯度
optimizer.step()  # 更新参数

2. Adam优化器:
Adam是一种自适应学习率优化算法,它结合了动量(momentum)和自适应学习率调整。在PyTorch中,可以使用torch.optim.Adam来创建Adam优化器。

import torch
import torch.optim as optimmodel = MyModel()  # 自定义模型optimizer = optim.Adam(model.parameters(), lr=0.001)# 在训练循环中使用优化器
optimizer.zero_grad()  # 清零梯度
loss = compute_loss()  # 计算损失
loss.backward()  # 反向传播计算梯度
optimizer.step()  # 更新参数

3. 其他优化器:
PyTorch还提供了其他优化器,如Adagrad、RMSprop等。这些优化器都可以在torch.optim模块中找到,并使用类似的方式进行使用。

结合前面的神经网络模型代码示例:

import torchvision
from torch import nn
from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear
from torch.utils.data import DataLoader
import torchdataset = torchvision.datasets.CIFAR10('./cifar10', False, transform=torchvision.transforms.ToTensor())
dataloader = DataLoader(dataset, batch_size=64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x = self.model1(x)return xloss = nn.CrossEntropyLoss()
lh=Lh()
optis = torch.optim.SGD(lh.parameters(), lr=0.1)for epoch in range(10):running_loss = 0for data in dataloader:imgs, targets = dataoutputs = lh(imgs)result_loss = loss(outputs, targets)optis.zero_grad()result_loss.backward() # 设置对应的梯度optis.step()running_loss += result_lossprint(running_loss)

http://www.mmbaike.com/news/104683.html

相关文章:

  • app ui界面设计欣赏四川企业seo推广
  • 汉寿做网站的公司官方百度下载安装
  • app网站开发者微信怎么推广
  • 网站二次开发是什么域名注册后怎么使用
  • 凡科网做网站能达到什么效果搜索引擎营销推广方案
  • 企业信息公共服务平台廊坊seo网络推广
  • 谁能给我一个网站百度竞价排名多少钱
  • 济南网站建设开发网络竞价推广开户
  • 点击网站出现微信二维码的链接怎么做无锡百度正规推广
  • wordpress怎么删除文章seo网址超级外链工具
  • 关于医院网站建设的通知西安seo教程
  • 打开网站无反应怎么做谷歌seo和百度区别
  • 零售网站有哪些平台网站推广的10种方法
  • 免费 网站seo网站优化培训公司
  • 半路学网站建设难吗seo价格是多少
  • 保定哪里有做网站的上海网络推广专员
  • 快速开发平台 免费开源seo网页优化公司
  • 简单的网站制作代码百度关键词优化多少钱
  • ASP JSP动态网站开发代发新闻稿的网站
  • 手赚网站哪里可以做今日新闻内容摘抄
  • 大型做网站seoul
  • 网站开发时如何兼容国际新闻军事最新消息
  • 做微信推送网站如何优化推广网站
  • 自己怎么做商城网站吗如皋网站制作
  • 慈溪企业网站建设石家庄
  • 重庆网站模板建站公司亚洲7号卫星电视
  • 写论文的网站电商平台链接怎么弄
  • 网络公司网站建设报价广州关键词seo
  • 九台网站外贸网站外链平台
  • 具有品牌的微网站建设推广方案经典范文