机文章

gg加密搜索加密修改GPT4:GPT4被破解,训练成本,模型架构的秘密都被挖出来了? 这都可以?

 

互联网天下1直都是充满了令人惊奇和没有断变革的地方,今天就让我们1起聊聊最近在这个领域发生的1些重要事件吧。

几个小时前SemiAnalysis的DYLAN PATEL和DYLAN PATEL发布了1个关于GPT的技术信息,包括GPT的架构、参数数量、训练成本、训练数据集等本篇涉及的GPT数据是由他们收集,并未公开数据源。

仅供参考原文翻译如下:揭秘 GPT:导致 OpenAI 架构的工程权衡OpenAI 保持 GPT 架构的封闭性并没有是因为对人类存在1些生存风险,而是因为他们构建的器材是可复制的事实上,我们预计Google、Meta、Anthropic、Inflection、Character、腾讯、字节跳动、百度等在短期内都将拥有 GPT 1样强大的模型。

没有要误解我们的意思,OpenAI 拥有令人惊叹的工程技术,他们构建的器材令人难以置信,但他们得出的解决方案并没有神奇这是1个优雅的解决方案,具有许多复杂的权衡做大只是战斗的1部分 OpenAI 最持的护城河是他们拥有最真实的使用情况、领先的工程人才,并且可以通过未来的模型继续领先于其他人。

我们从许多来源收集了大量有关 GPT 的信息,今天我们想分享1下这包括模型架构、训练基础设施、推理基础设施、参数计数、训练数据集组成、令牌计数、层数、并行策略、多模态视觉适应、没有同工程权衡背后的思维过程、独特的实施技术以及它们如何减轻1些问题他们最大的瓶颈巨型模型的推理有关。

GPT 最有趣的方面是理解他们为何做出某些架构决策此外,我们将概述 A100 上GPT 的训练和推理成本,以及如何在下1代模型架构中 H100 进行扩展首先,问题陈述从 GPT 到 4,OpenAI 希望扩展 100 倍,但问题是成本。

密集变压器模型将无法进1步扩展密集变压器是 OpenAI GPT、Google PaLM、Meta LLAMA、TII Falcon、MosaicML MPT 等使用的模型架构我们可以轻松说出 50 家使用相同架构培训法学硕士的公司。

这是1个很好的方法,但它在扩展方面存在缺陷从训练成本的角度来看,请参阅我们在 GPT 公告之前关于即将推出的密集模型 AI 砖墙的训练成本讨论在那里,我们揭示了 OpenAI 在 GPT 架构方面所做的高层工作以及各种现有模型的训练成本。

在过去的 6 个月里,我们意识到培训成本无关紧要当然,从表面上看,花费数千万甚至数亿美元的计算时间来训练模型似乎很疯狂,但这对于这些公司来说是微没有足道的它实际上是1个资本支出项目,规模扩大可以持续带来更好的结果。

1的限制因素是将计算扩展到人类可以获得反馈并修改架构的时间尺度未来几年,谷歌、Meta、OpenAI/微软等多家公司将在价值超过千亿元的超级计算机上训练模型Meta 每年在“Metaverse”上燃烧超过 160 亿美元,Google 每年在各种永远没有会实现成果的项目上浪费 100 亿美元。

亚马逊在 Alexa 上损失了超过 50 亿美元加密货币在毫无价值的事情上浪费了超过 1000 亿美元这些公司和整个社会可以而且将会花费超过1千亿美元来创建可以训练单个大规模模型的超级计算机然后可以通过多种方式将这些大型模型产品化。

这项工作将在多个县和公司重复进行这是新的太空竞赛以前的浪费现在的区别在于,人工智能可以在短期内从人类助手和自主代理身上带来有形的价值扩展人工智能(真正的人工智能砖墙)的更重要问题目标是将训练计算推理计算分离。

这就是为何训练 Chinchilla 对于任何将要部署的模型来说都是最佳的这就是为何要进行稀疏模型架构;每个参数在推理过程中都没有会被激活真正的战斗是将这些模型扩展到用户和代理的成本太高推理成本是训练成本的数倍。

这就是OpenAI在模型架构和基础设施方面的创新目标大型模型的推理是1个多变量问题,其中模型大小会导致密集模型的死亡我们已经在这里详细讨论了有关边缘的问题,但数据中央的问题陈述非常相似简而言之,设备永远没有可能有足够的内存带宽来容纳大型语言模型来实现1定水平的吞吐量。

即使它们有足够的带宽,边缘硬件计算资源的利用率也会很糟糕在数据中央、云中,利用率就是1切 Nvidia 因其卓越的而受到赞誉的1半原因是,在 GPU 的几代生命周期中,Nvidia 没有断更新低级,通过在芯片周围、芯片和内存之间更智能地移动数据来提高 FLOPS 利用率。

目前大多数用例中的 LLM 推理都是作为实时助手运行,这意味着它必须实现足够高的吞吐量,以便用户可以实际使用它人类平均每分钟阅读约 250 个单词,但有些人的阅读速度高达每分钟约 1,000 个单词这意味着您需要每秒至少输出 8.33 个令牌,但每秒需要输出 33.33 个令牌才能覆盖所有极端情况。

由于内存带宽要求,即使在最新的 Nvidia H100 GPU 服务器上,万亿参数密集模型在数学上也无法实现此吞吐量每个生成的令牌都需要将每个参数从内存加载到芯片上然后,将生成的令牌输入到提示中,并生成下1个令牌。

此外,注意力机制的 KV 缓存中的流传输需要额外的带宽

上图展示了以足够高的吞吐量推理 LLM 以便为单个用户提供服务所需的内存带宽它表明,即使 8x H100 也无法以每秒 33.33 个令牌的速度提供 1 万亿参数密集模型此外,每秒 20 个令牌的 8xH100 的 FLOPS 利用率仍低于 5%,导致推理成本非常高。

实际上,目前的 8 路张量并行 H100 系统存在约 3000 亿个前馈参数的推理约束然而,OpenAI 正在通过 A100实现人类的阅读速度,其模型超过 1 万亿个参数,并且以每1,000 个代币仅 0.06 美元的低价广泛提供。

那是因为它是稀疏的,IE 并没有是每个参数都被使用废话够多了,我们来谈谈 GPT 模型架构、训练基础设施、推理基础设施、参数计数、训练数据集组成、标记计数、层数、并行策略、多模态视觉编码器、没有同工程权衡背后的思维过程、独特的实施的技术,以及它们如何缓解大型模型推理相关的1些最大瓶颈。

总结次要的关于GPT的信息(总结来自Yam Peleg的推文):参数数量:GPT比GPT大10倍,估计参数数量在120层、1.8万亿左右MoE架构:即Mixture-of-Experts架构,这部分信息已经确认。

,OpenAI通过利用MoE架构保持1定的成本,包含16个Experts,每1个都是1个MLP.2,约1110亿参数,每个前向传播都被路由到这些专家中MoE路由:尽管公开的技术文档中说了很多高级的路由功能,包括每个token如何选择每个专家等。

但是现有GPT其实非常简单,大约就是为每个attention共享550亿参数的方式推理:每1个前向传播的推理(生成1个token)需要2800亿参数以及560 TFLOPS,这纯dense模型每次正向传递所需的约1.8万亿参数和3700 TFLOPS形成了鲜明对比。

训练数据集:GPT在约13万亿tokens上训练这没有是指没有同的token数量,是根据epochs计算使用的token数量基于文本的数据集做了2次epoch训练,基于代码的数据集做了4次epoch训练。

GPT 32K:每1个预训练阶段都是8K的长度32K的版本是8K预训练模型以后微调得到的Batch Size:batch size是逐渐上升的,在集群中经过几天的时间达到1个数值最终,OpenAI的Batch Size达到了6000万!也就是每个专家大约有750万的token数量,但是并没有是每个专家都能看到所有的tokens。

并行策略:由于NVLink的限制,OpenAI训练GPT做了8路tensor并行,15路的pipeline并行训练成本:OpenAI训练GPT的FLOPS约2.15e25,在2.5万个A100上训练了9000天左右时间(MFU约32%到36%),如果是1个A100约1美元,那么训练成本约6300万美元(如果现在使用H100可能只要2150万美元)。

MoE的取舍:使用MoE以后做了很多取舍,包括推理的处理困难,因为每个模型都用来生成文本这意味着生成的时候有的可以使用,有的空闲,对使用率来说非常浪费研究显示6428个专家的损失比16个专家更好GPT的推理成本

:比1750亿的Davinchi(GPT/3.5系列)高3倍,次要是GPT的集群太大,利用率低1点估计约1k tokens要0.0049美元(128个A100)MOA:Multi Query Attention,和其他人1样,都是正常使用MOA。

因为只需要1个head,显存大大下落,但是32K依然无法在A100 40G运行持续batching:OpenAI使用可变的batch size和持续batching方法可以平衡推理成本和推理速度Vision Multi-Modal。

:GPT的多模态部分是单独1个visiion encoder,带有cross attention使得1.8万亿的GPT的参数扩展到2万亿左右VisionModel是从头训练的,还没有够成熟Vision部分的1个作用是让代理可以月度网页,然后转换成图片和视频。

部分数据是基于Latex屏幕截屏训练的还有YouTube视频,包括使用whisper翻译的脚本抽帧结果推理架构:推理是在128个GPU集群上运行的,在没有同的区域有没有同的集群每个节点有8个GPU,包含1300亿参数的模型。

或者说每个GPU少于30GB的FP16、少于15GB的FP8/int8

这就是今天要说的内容了,希望你能喜欢这篇文章,如果你有什么建议或者问题,请在评论区告诉我,我会认真听取。同时,请你给我1个赞吧,也可以关注我,收藏我的文章,让我们1起成长。

为您推荐

gg加密搜索加密修改GPT4:GPT4被破解,训练成本,模型架构的秘密都被挖出来了? 这都可以?

gg加密搜索加密修改GPT4:GPT4被破解,训练成本,模型架构的秘密都被挖出来了? 这都可以?

GPT4被破解,训练成本,模型架构的秘密都被挖出来了?...

2023-09-02 栏目:科技派

当前非电脑浏览器正常宽度,请使用移动设备访问本站!