当前位置: 首页 > news >正文

做殡葬名片的网站滴滴友链

做殡葬名片的网站,滴滴友链,怎么在百度上推广,怎样找外贸客户啊1 大模型 1.1 大模型的顿悟时刻 Emergent Abilities of Large Language Models,Transactions on Machine Learning Research 2022 模型的效果不是随着模型参数量变多而慢慢变好,而是在某一个瞬间,模型“顿悟”了 这边举的一个例子是&#…

1 大模型

1.1 大模型的顿悟时刻

Emergent Abilities of Large Language Models,Transactions on Machine Learning Research 2022

模型的效果不是随着模型参数量变多而慢慢变好,而是在某一个瞬间,模型“顿悟”了

这边举的一个例子是,比如让模型回答鸡兔同笼问题 

  • 一开始小模型什么都学不到,故而效果不好 
  • 随着模型参数量增大,模型慢慢地会一定地推导了,但是还是得不到正确的推导结果——此时仍然不得分
  • 只有当参数量达到某一个数值之后,不仅会推导,还得到了正确的答案
  • ——>此时才得分

 1.2 inverse scaling prize? U shape

Inverse scaling can become U-shaped 2022

大部分任务是随着模型的变大,效果越来越好,那么有没有某些任务/问题,是模型变大效果反而变差的呢?

 

答案是有的,这里列了一些:

  

但是,真的是模型参数量变大模型表现反而不好嘛?

 

于是这篇论文进一步扩大模型参数量,发现模型表现跌到一定程度后,还是会涨精度

——>在这些任务中,performace 和参数量的关系是U shape的

 

 

而这种带Ushape的任务,这篇论文认为,大多数是“带陷阱(干扰项)”的问题。当模型稍微获得一点能力的时候,就很有可能陷入这个陷阱中。但模型参数量进一步扩大,就会知道这是个“陷阱”,从而找到正确的答案

2 大资料

2.1 两种认知

When Do You Need Billions of Words of Pretraining Data?  2020

语言模型一般需要两种认知

  • 一种是对语言本身语法、文法的认知(深蓝色曲线)
    • 这一部分不需要很多的语料,有一些资料供学习就够了
  • 另一种是对语言背后世界运行规律的认知
    • 这一部分就需要大量的语料喂入了

2.2 数据处理

Scaling Language Models: Methods, Analysis & Insights from Training Gopher 2021
如何收集这些资料呢?

 

  • 过滤有害内容(比如黄色、暴力的内容)
  • 去除HTML tag
    • 从网站上爬资料的话,会有很多无用的HTML 语言
    • 但是也不是所有的HTML tag都去掉,会保留一些如换行符等有用的知识
  • quality filtering
    • 在论文中有详细的规则,介绍了如何去除低品质资料
  • 去除重复资料
    • 后面会有论文专门说重复资料的影响
  • test-set filter
    • 需要把用来测试的那一部分语料去掉,不然就相当于提前学了这一部分内容,导致测试结果不准

2.3 重复数据的影响

Deduplicating Training Data Makes Language Models Better 2021
  • 比如如上的语料库中,中间这一段话出现了6W多次 
  • 我们分不同的层级,去除掉语料库中重复的部分,然后喂入语言模型,让语言模型随便说一段话。
    • 将这一段话和语料库进行对比,看看模型是学习了语料库中的内容,生成了新的语句,还是仅仅死记硬背了语料库中的内容
    • 表格中的数字就是有多少比例生成的语句是和语料库中的语句极为相似
  • 可以发现如果语料库中重复的语句过多,机器很容易直接复述之前的内容

2.4 固定的计算资源下,应该更大的模型,还是更多的资料?

Training Compute-Optimal Large Language Models 2022

  • 每一条虚线都表示具有相同的运算资源
  • 纵轴表示预测的效果(Loss),越小表示预测的越好
  • 横轴表示模型参数量
  • 可以看到 小模型大资料 和 大模型小资料 效果都不如一个折衷的配置
    • 小模型大资料:看了很多资料,  但是不学习(学而不思)
    • 大模型小资料:思而不学

  •  于是论文把所有计算资源配置下的,各个U型曲线的最低点找到,然后进行外推
  • 得到一个和Gopher计算资源一样的情况下,模型参数和资料的最佳配置组合(命名为Chinchilla)

 

 可以发现Chinchilla几乎完胜

http://www.mmbaike.com/news/107741.html

相关文章:

  • 网站开发参考文献期刊百度竞价推广费用
  • 做网站广告词找王思奇广州百度seo优化排名
  • 网站建设价格槽闸阀seo课程培训学校
  • 网站关键词优化步骤百度关键词搜索推广
  • 做网站武汉兰州网站seo服务
  • 辽宁大连网站建设关于普通话的手抄报
  • 网站后台bootstrap指数基金怎么买才赚钱
  • 做网站推广还是B2B推广好软文案例200字
  • 做电影的网站赚什么钱域名注册 阿里云
  • 做窗帘的网站最有效的15个营销方法
  • 地方性小网站的建设深圳网站优化网站
  • 桂林做网站的公司有哪些app推广一手单平台
  • 谁有专门做外挂的网站百度爱采购推广怎么收费
  • 我要建网站需要什么长沙官网seo技术厂家
  • 卡密提取网站怎么做跟我学seo从入门到精通
  • 网站推广自己可以做吗百度如何添加店铺位置信息
  • 网站建设可以在家做吗免费推广的渠道有哪些
  • 怎样设计网站模板百度搜索资源平台提交
  • 做跨境电商一件代发的网站互联网培训机构排名前十
  • 长沙门户网站建设优化网站收费标准
  • 研究院网站系统建设方案百度seo搜搜
  • 流媒体网站开发教程百度竞价推广收费
  • 最新军事新闻伊朗页面优化的方法
  • 网站如何引入流量最新互联网项目平台网站
  • 建设银行 福州招聘网站自动点击器下载
  • apache 网站日志东莞快速优化排名
  • 湛江市国外网站建设报价推广平台免费b2b网站大全
  • 应聘网站优化的简历怎么做semester at sea
  • 设计云平台优化神马网站关键词排名价格
  • 北京通州做网站的公司新网站怎么做优化