当前位置: 首页 > news >正文

左右左布局网站建设百度网盘网址是多少

左右左布局网站建设,百度网盘网址是多少,wordpress 数据库 旧Ip,网页美工实训结论与心得体会本文作者:杨健,九章云极 DataCanvas 主任架构师 如何有效提高模型的泛化能力,始终是机器学习领域的重要课题。经过大量的实践证明比较有效的方式包括: 利用Early Stopping防止过拟合通过正则化降低模型的复杂度使用更多的训练数…

本文作者:杨健,九章云极 DataCanvas 主任架构师

如何有效提高模型的泛化能力,始终是机器学习领域的重要课题。经过大量的实践证明比较有效的方式包括:

  • 利用Early Stopping防止过拟合
  • 通过正则化降低模型的复杂度
  • 使用更多的训练数据
  • 尽量使用更少的特征
  • 使用CV来选择模型和超参数
  • 使用Ensemble来提升泛化能力

Early stopping以及正则化是比较基本的方法这里就不赘述,此外HyperGBM中还提供了4种高级特性,专门用来提升模型的泛化能力:

  • Pseudo-labeling半监督学习
  • 二阶特征筛选
  • K-fold Cross-validation
  • Greedy ensemble

1.Pseudo-labeling

伪标签技术主要应用在分类任务上,本质上是通过半监督学习的方法来增加更多的训练数据,以提升模型的泛化能力。其过程如下图所示,主要分为三个阶段:

1.第一阶段用训练数据训练模型;

2.第二阶段使用第一阶段训练好的模型在无标注的数据上预测,将其中置信度较高的数据合并到训练集中;

3.第三阶段使用合并后的数据重新训练模型;
在这里插入图片描述

Image from: https://www.analyticsvidhya.com/blog/2017/09/pseudo-labelling-semi-supervised-learning-technique/

示例代码,HyperGBM中只需设置pseudo_labeling会自动完成伪标签学习:

from tabular_toolbox.datasets import dsutils
from sklearn.model_selection import train_test_split
from hypergbm.search_space import search_space_general
from hypergbm import make_experiment
# load data into Pandas DataFrame
df = dsutils.load_bank()
target = 'y'
train, test = train_test_split(df, test_size=0.3)
test.pop(target)#create an experiment
experiment = make_experiment(train,target=target,pseudo_labeling=True)
#run experiment
estimator = experiment.run()
# predict on test data without target values
pred = estimator.predict(test)

2.二阶特征筛选

通过特征筛选过滤掉无效特征或者噪音数据,能有效降低模型的复杂度。传统的特征筛选方法,一类是在训练之前通过相关性指标评估或者是基于模型的特征评估排序,然后根据阈值或者是排序选择n个特征用于训练,另一类是先训练模型然后根据模型本身提供的特征重要性来选择一部分特征重新训练。第一类方法有明显的缺陷就是特征的评估标准和实际用于训练的模型无关,也不会考虑特征之间的交互关系。第二类方法有明显的改进但也存在一个问题,就是模型提供是在训练数据上的重要性,并不能体现在评估数据或测试数据上特征的重要性。因此HyperGBM中引入了独特的二阶特征筛选策略来克服以上缺点。它的工作方式如下:首先执行一阶段AutoML过程,然后选择其中表现最好的n个模型使用permutation模式评估特征重要性,删除低于某一阈值的特征后,重新执行AutoML过程。

这里主要介绍一下permutation特征筛选:首先,基于已经训练好的模型在评估集上得到一个baseline评分,然后分别将每一列特征变成噪音数据后重新评估,评分等于或高于baseline评分说明该特征对模型没有增益甚至于是有损的,如果评分下降说明该特征是对模型有益的,用这个和baseline评分的差值做为特征筛选的参考值选择特征。

示例代码如下:

#create an experiment
experiment = make_experiment(train,target=target,
feature_reselection=True,
feature_reselection_estimator_size=10,
feature_reselection_threshold=1e-5,
)

3.K-fold Cross-validation

交叉验证被证明是模型选择和超参数优化中最有效的验证方式,示例代码如下:

#create an experiment
experiment = make_experiment(train,target=target,
cv=True, 
num_folds=3,
)

4.Greedy Ensemble

Greedy Ensemble是使用基于voting的集成学习方法,实现原理可以参考:

https://www.sciencedirect.com/science/article/abs/pii/S0031320310005340

示例代码:

#create an experiment
experiment = make_experiment(train,target=target,
ensemble_size=20, # 0 to disable ensemble
)

以上四种方法可以组合起来使用。

http://www.mmbaike.com/news/58859.html

相关文章:

  • 郴州市政府门户网站最新长尾关键词挖掘
  • 光明网站建设网站流量统计系统
  • 网站功能设计讲解优化关键词的方法有哪些
  • 涡阳网站建设fifa最新排名出炉
  • 地方门户网站app百度网站优化公司
  • springmvc做网站长沙关键词快速排名
  • 外贸工厂网站做seo多吗竞价托管
  • 哈尔滨网站制作推广百度搜索量查询
  • 怎么做一家网站企业培训课程名称
  • 上海网站报价竞价托管选择微竞价
  • 怀安网站建设郑州抖音推广
  • 个人做商机网站如何盈利网络推广外包流程
  • 嘉兴做网站建设的公司哪家好搜索引擎推广步骤
  • 枣强网址建站seo站长助手
  • 网站片头动画用什么软件做的谷歌应用商店下载
  • 集团网站策划方案seo快速排名软件网站
  • 政府网站建设如何做外包公司
  • 西安seo服务推广资源seo
  • 如何制作网站导航栏关键词挖掘长尾词
  • 如何将自己做的网站放到网上小说关键词搜索器
  • 网站手机版管理链接域名交易中心
  • wordpress图片设置水印广州seo外包
  • 2023中央农村工作会议关键词优化方法有什么步骤
  • 做网站的公司 杭州大一html网页制作作业
  • 内部劵网站怎么做seo搜索引擎优化是
  • 免费做手机网站建设百度新闻官网首页
  • 做旅游网站平台合作入驻网站开发用什么语言
  • 网站建设的专业知识今日国际新闻头条新闻
  • 大理企业网站建设推广普通话的手抄报
  • 阜新网站建设企业网站seo点击软件