当前位置: 首页 > news >正文

动易网站制作教程惠州seo关键词推广

动易网站制作教程,惠州seo关键词推广,买的服务器做两个网站,增城市网站建设2023 年底,卡内基梅隆和普林斯顿大学计算机系的两位年轻科学家(Albert Gu, Tri Dao)联合推出一种叫做“Mamba”的大语言模型(LLM)新构架。与Transformers等传统模型相比,Mamba能够更有效地处理长序列。它利…

2023 年底,卡内基梅隆和普林斯顿大学计算机系的两位年轻科学家(Albert Gu, Tri Dao)联合推出一种叫做“Mamba”的大语言模型(LLM)新构架。与Transformers等传统模型相比,Mamba能够更有效地处理长序列。它利用选择性状态空间模型(SSM),根据内容动态过滤和处理信息,允许模型选择性地记住或忽略输入的部分。Mamba在处理速度和缩放能力方面有了显著改进,尤其是在较长序列的情况下。参见MAMBA介绍:一种新的可能超过Transformer的AI架构_mamba神经网络-CSDN博客。

在发布之后的一个多月里,Mamba 也逐渐展现出自己的影响力,衍生出了 MoE-Mamba、Vision Mamba、VMamba、U-Mamba、MambaByte 等多项工作,在克服 Transformer 短板方面表现出了越来越大的潜力。

最近,作者将Mamba论文投到2024年机器学习顶级会议,International Conference on Learning Representations(ICLR):

对于这样有巨大潜力和影响力的「新星」,本以为评审第一轮接受,是顺理成章的事情。出人意料的是,该论文在评审中遭遇了滑铁卢。最新的公开结果显示,Mamba 的论文至今还没有被大会接收,我们只能在 Decision Pending(待定)一栏看到它的身影(可能是延迟决定,也可能是被拒)。


论文审稿页面:https://openreview.net/forum?id=AL1fq05o7H

稍早,康奈尔大学副教授Sasha Rush最先发现,这篇有望成为奠基之作的论文似乎要被ICLR 2024拒之门外。并表示,「说实话,我不理解。如果它被拒绝了,我们还有什么机会」。

给 Mamba 打分的总共有四位审稿人,他们分别给出了 8/8/6/3 的打分。EleutherAI的AI专家Biderman表示,如果拿到这样的分数还被拒,那确实是一件很奇怪的事情,可以看做是审稿人的失败。

同行评审意见:not good enough

总体来看,给 Mamba 打分的总共有四位审稿人,他们分别给出了 8/8/6/3 的打分。可以看到给打3分的审稿人,置信度还是5,说明自己对这个评分也是非常肯定。

在他的review中,该审稿人提出的问题分为两个部分:一是对模型设计的质疑,另一个是对实验提出疑问。

对模型设计的想法:

  • Mamba 的动机是解决递归模型的缺点,同时提高基于注意力模型的效率。有很多研究都是沿着这个方向进行的:S4-diagonal [1]、SGConv [2]、MEGA [3]、SPADE [4],以及许多高效的 Transformer 模型(如 [5])。所有这些模型都达到了接近线性的复杂度,作者需要在模型性能和效率方面将 Mamba 与这些作品进行比较。关于模型性能,一些简单的实验(如 Wikitext-103 的语言建模)就足够了。

  • 许多基于注意力的 Transformer 模型显示出长度泛化能力,即模型可以在较短的序列长度上进行训练,并在较长的序列长度上进行测试。这方面的例子包括相对位置编码(T5)和 Alibi [6]。由于 SSM 一般都是连续的,那么 Mamba 是否具有这种长度泛化能力呢?

对实验的想法:

  • 作者需要与更强的基线进行比较。作者表示 H3 被用作模型架构的动机,然而他们并没有在实验中与 H3 进行比较。根据 [7] 中的表 4,在 Pile 数据集上,H3 的 ppl 分别为 8.8(1.25 M)、7.1(3.55 M)和 6.0(1.3B),大大优于 Mamba。作者需要展示与 H3 的比较。

  • 对于预训练模型,作者只展示了零样本推理的结果。这种设置相当有限,结果不能很好地支持 Mamba 的有效性。我建议作者进行更多的长序列实验,比如文档摘要,输入序列自然会很长(例如,arXiv 数据集的平均序列长度大于 8k)。

  • 作者声称其主要贡献之一是长序列建模。作者应该在 LRA(Long Range Arena)上与更多基线进行比较,这基本上是长序列理解的标准基准。

  • 缺少内存基准。尽管第 4.5 节的标题是「速度和内存基准」,但只介绍了速度比较。此外,作者应提供图 8 左侧更详细的设置,如模型层、模型大小、卷积细节等。作者能否提供一些直观信息,说明为什么当序列长度非常大时,FlashAttention 的速度最慢(图 8 左)?

此外,另一位审稿人也指出 Mamba 存在的不足:该模型在训练过程中仍然像 Transformers 一样具有二次内存需求。

作者反馈:已修改,求审阅

汇总所有审稿人的意见之后,作者团队也对论文内容进行了修改和完善,补充了新的实验结果和分析:

(1)增加了 H3 模型的评估结果

作者下载了大小为 125M-2.7B 参数的预训练 H3 模型,并进行了一系列评估。Mamba 在所有语言评估中都明显更胜一筹,值得注意的是,这些 H3 模型是使用二次注意力的混合模型,而作者仅使用线性时间 Mamba 层的纯模型在各项指标上都明显更优。

与预训练 H3 模型的评估对比如下:

(2)将完全训练过的模型扩展到更大的模型规模

如下图所示,与根据相同 token 数(300B)训练的 3B 开源模型相比,Mamba 在每个评估结果上都更胜一筹。它甚至可以与 7B 规模的模型相媲美:当将 Mamba(2.8B)与 OPT、Pythia 和 RWKV(7B)进行比较时,Mamba 在每个基准上都获得了最佳平均分和最佳 / 次佳得分。

(3)展示了超出训练长度的长度外推结果

作者附上了一张评估预训练 3B 参数语言模型长度外推的附图:

图中绘出了每个位置的平均损失(对数可读性)。第一个 token 的困惑度很高,因为它没有上下文,而 Mamba 和基线 Transformer(Pythia)的困惑度在训练上下文长度(2048)之前都有所提高。有趣的是,Mamba 的可解性在超过其训练上下文后有了显著提高,最高可达 3000 左右的长度。

作者强调,长度外推并不是本文模型的直接动机,而是将其视为额外功能:

  • 这里的基线模型(Pythia)在训练时并没有考虑长度外推法,或许还有其他 Transformer 变体更具通用性(例如 T5 或 Alibi 相对位置编码)。

  • 没有发现任何使用相对位置编码在 Pile 上训练的开源 3B 模型,因此无法进行这种比较。

  • Mamba 和 Pythia 一样,在训练时没有考虑长度外推法,因此不具有可比性。正如 Transformer 有很多技术(如不同的位置嵌入)来提高它们在长度概括等轴上的能力一样,在未来的工作中,为类似的能力推导出 SSM 特有的技术可能会很有趣。

(4)补充了 WikiText-103 的新结果

作者分析了多篇论文的结果,表明 Mamba 在 WikiText-103 上的表现明显优于其他 20 多个最新的次二次序列模型。

尽管如此,两个月过去了,这篇论文还处于“Decision Pending" 流程中,没有得到 "接收" 或者 "拒绝" 的明确结果。

图灵巨头LeCun也出来“喊冤”

在各大 AI 顶会中,「投稿数量爆炸」都是一个令人头疼的问题,所以精力有限的审稿人难免有看走眼的时候。这就导致历史上出现了很多著名论文被顶会拒绝的情况,包括 YOLO、transformer XL、Dropout、支持向量机(SVM)、知识蒸馏、SIFT,还有 Google 搜索引擎的网页排名算法 PageRank。

甚至,身为深度学习三巨头之一的图灵奖得主 Yann LeCun 也是经常被拒的论文大户。刚刚,他发推文说,自己被引 1887 次的论文「Deep Convolutional Networks on Graph-Structured Data」也被顶会拒绝了。

在 ICML 2022 期间,他甚至“三投三拒”:

有趣的是,爆料Mamba被打低分的Sasha Rush,也在今天发表了一篇基于这样研究的新论文——MambaByte。

星星之火可以燎原

事实上,Mamba架构已经有了「星星之火可以燎原」的架势,在学术圈的影响力越来越广。

有网友表示,Mamba论文将开始占领arXiv。「举个例子,我刚看到这篇论文提出了MambaByte,一种无token的选择性状态空间模型。基本上,它调整了Mamba SSM,直接从原始token中学习。」

Mamba论文的作者Tri Dao也转发了这篇研究。

所以,论文被某个顶会拒绝并不代表没有价值。在上述被拒的论文中,很多论文选择了转投其他会议,并最终被接收。因此,有网友建议 Mamba 转投陈丹琦等青年学者组建的 COLM。COLM 是一个专注于语言建模研究的学术场所,专注于理解、改进和评论语言模型技术的发展,或许对于 Mamba 这类论文来说是更好的选择。

不过,无论 Mamba 最终能否被 ICLR 接收,它都已经成为一份颇具影响力的工作,也让社区看到了冲破 Transformer 桎梏的希望,为超越传统 Transformer 模型的探索注入了新的活力。


参考文献:

https://openreview.net/forum?id=AL1fq05o7H
https://x.com/marktenenholtz/status/1750537561754247204?s=20
https://twitter.com/srush_nlp/status/1750526956452577486

http://www.mmbaike.com/news/51134.html

相关文章:

  • ios 软件开发seo博客网站
  • 网站建设开发步骤影响seo排名的因素
  • 不属于web2.0网站开发宁波seo关键词如何优化
  • 网站主体负责人不是法人友情链接可以帮助店铺提高浏览量
  • 网站推广策划案百度小程序优化
  • 网站三级页面怎么做青岛网站建设优化
  • 新疆5g基站建设热点新闻事件
  • 温州本地网站平台专业的制作网站开发公司
  • 网站设计细节无忧软文网
  • 做外贸的阿里巴巴网站是哪个更好郑州seo排名第一
  • 做消防哪些网站找工作seo自动刷外链工具
  • 营销型网站建设宣传语seo优化名词解释
  • 重庆公司名字seo顾问多少钱
  • 做淘客找单子的网站网络营销策划是什么
  • 网站建设传单正规微商免费推广软件
  • 政府网站建设园林绿化网络营销公司有哪些公司
  • 北京城建亚泰建设集团有限公司网站首页seo搜索引擎优化主要做什么
  • 动漫主题WordPress宁波seo在线优化方案公司
  • 网站在工信部备案查询最新的疫情信息
  • 7k7k网页游戏官网怎么卸载windows优化大师
  • 专门做qq小工具的网站站长工具seo推广 站长工具查询
  • 加微信群网站怎么做的最近的电脑培训学校
  • 网页设计尺寸大小seo服务
  • wordpress 手机不显示福清市百度seo
  • 做时时彩开奖网站犯法吗外贸获客软件
  • 最新网页版传奇游戏排行榜天津谷歌优化
  • wordpress 标签显示数量黑帽seo优化软件
  • 色彩搭配的网站百度贴吧网页版入口
  • 大芬地铁站附近做网站百度导航最新版本免费下载
  • 潍坊最早做网站的公司高级seo优化招聘