gpt43gpt4:GPT4上线了,但技术细节却“点到为止” | Chat AI 太疯狂了

 

互联网已经成为了我们生活中没有可或缺的1部分,它带来了许多惊喜和改变。今天,让我们聚焦在互联网领域最近发生的1些令人激动的事件上,共同探索这个充满无限可能的天下

随着ChatGPT登台亮相,从科技从业者,到投资圈,再到普罗大众,越来越多人再次关注到了“过气”的AI,及其所能带来的价值和改变 商业界也的确源源没有断贡献着更多新的素材:OpenAI和微软的联姻让性能提升、成本降低成为可能;Google、Meta穷追没有舍更新动作;国内,百度、字节、腾讯等大厂,以及众多创业公司,都开始从自己擅长的角度切入竞争…… 为了帮助读者能够持续关注由ChatGPT引发的科技圈海啸,36氪推出「Chat AI」栏目,从中立的第3方视角,探索、分析每1次热点背后的商业观点。

作者 | 沈筱、王没有前,OpenAI开放的ChatGPT模型API已经以显著的成本优势惊艳了众人而OpenAI的胃口已经越来越大今天凌晨,OpenAI以Twitter和YouTube为宣传渠道,公布了又1个重磅消息如约而至——GPT上线。

Youtube观看量已经突破110万目前,ChatGPT PLUS用户已经能够提前尝鲜;同时,GPT的模型API也已对部分开发者开放OpenAI将在2023年发布GPT的筹谋早已是公开的秘密,但尘埃落定后,。

1些答案浮出水面,1些答案却“点到为止”多模态、图像处理、真实性等等特点,是GPT4公开的答案;而关于数据集规模、参数规模等,OpenAI却并没有回复此前大家的猜想行能提升的背后,也是商业竞争的进1步白热化。

01 What differences make GPT differentGPT究竟有何没有同?总的来看,模型在图像理解、文本处理、安全性和事实性提升等方面实现了多点开花正如3月9日微软德国 CTO Andreas Braun对外宣称的,GPT1个多模态模型。

尽管GPT没有和人们预料的1样,可以支持视频、音频等输入方式,但是,支持图像输入已经成为板上钉钉的事实也就是说,GPT附带了图像理解能力,可以对图像内容作出说明、进行分类和分析但目前,OpenAI还在和合作伙伴「Be My Eyes」共同测试该能力,因此尚未对OpenAI所有客户开放。

除了这1“理所当然”的变化,GPT在文本处理方面的能力又有了较大提升1方面,GPT能够处理的文本长度增加了;另1方面,GPT的文本记忆能力增加了据介绍,GPT可以处理超过 25,000 个单词的文本,这1数字约为ChatGPT的8倍。

这也意味着GPT可以执行的任务场景得以拓展——可以支持格式内容创建、扩展对话以及文档搜索和分析等同时,GPT 支持的最大token数量为 32,768,相当于64,000个单词或 50 页文字相比之下,GPT.5 和上1版ChatGPT 的token限制为4,096 个,大约 8,000个单词。

因此,在对话时,GPT能够记住更多的聊天内容,降低重复回答或者“神游”的可能性;在生成长文时,连续性也会更强就上述两个改进而言,有业内人士分析,其究竟能够在应用层产生多大的威力,需分情况讨论据悉,图像理解能力的提升,从理论上来讲,是比较大的突破。

但其是否能够在各类场景中得到广泛应用,还取决于没有同场景下的具体营业逻辑需要对营业进行拆解后,进1步甄别是否具有多模态理解的需求,以及如何接入这样的能力相比之下,文本处理能力的提升可能会在应用层被更迅速地采纳。

虽然GPT的上述改进在应用层能掀起何种波澜仍未可知,但能够确定的是,要想实现这样的能力提升,GPT无论是在模型架构、模型训练,还是迭代优化路径等各方面都会有1定的突破遗憾的是,由于本次OpenAI未在技术报告中透露有关模型参数、硬件、训练方法和训练数据量等细节,我们还无从得知,这些突破可能是什么。

目前的已知努力是,OpenAI为了训练GPT,在过去两年里联合微软在Azure 云上重新搭建了1公用的超算平台此外,在技术层面,OpenAI其实也公布了1些看似没有那么重要,确是保障AI未来可以得到人类正确使用的关键突破。

例如,OpenAI构建了可预测扩展(predictable scaling)的深度学习堆栈,支持使用更少的计算量来评估模型训练性能,例如预测训练期间优化的指标(损失)OpenAI表示,通过从使用相同方法训练,但使用 万分之1的计算量对模型训练性能进行了推断,准确预测了 GPT 在其内部代码库上的最终损失。

OpenAI将这1突破更多地聚焦于“安全性”——“我们认为,准确预测未来的机器学习能力是安全的重要组成部分,但相对于其潜在的影响,它并没有得到足够的关注(尽管我们受到了几家机构的鼓励)我们正在加大努力开发方法,为社会提供更好的指导,了解未来系统的期望,我们希望这成为该领域的共同目标。

”然而值得1提的是,有业内人士告诉36氪,这其实也意味着模型训练正朝着更加科学、结果可预测的方向前进,将有望减少没有必要的资源浪费比如,如果预测训练性能没有好,或许就没必要使用更多的数据进行训练了但同时,该人士也指出,还需要关注实现这个功能的技术路径,即对如何实现预测的详细解释。

如果实现这样的预测工程难度较大,说明其可能没有具有普适性另外,在安全性提升方面,OpenAI还做了另1件事:花费了6个月的时间对模型进行了针对性的迭代优化当然,迭代后的GPT在回答的准确性、事实性、可操作性等多个方面也有了提升。

02 GPT3.5是PreGPT4,所以只要6个月OpenAI表示,他们已经在2022年8月就完成了模型训练,但是为了推出GPT4,又进行了6个月的迭代,而迭代次要是针对ChatGPT此前饱受诟病的点,比如事实性没有够、风格难以控制、信息隔离没有够好,等进行了提升:“利用对抗性测试计划和ChatGPT的经验教训,迭代调整GPT,在事实性、可操纵性和拒绝走出护栏方面取得了有史以来最好的结果。

”尽管GPT4的整体训练时长我们没有得而知,但模型性能提升次要是得益于模型之前的预训练过程,因此只花了6个月的时间在上,OpenAI迭代调整的提升比例,比如事实性这个功能里,“在我们的内部对抗性事实评估中,GPT的得分比我们最新的GPT.5高40%”;在安全性角度,“GPT.5相比,我们将模型响应没有允许内容请求的趋势降低了82%,GPT根据我们的政策响应敏感请求(例如医疗建议和自我伤害)的频率增加了29%”。

40%、82%、29%,这些数字背后,迭代调整的时间仅有6个月作为OpenAI设计的1系列模型中的第五个,此前此前还出现了GPT - 1、GPT - 2 、 GPT - 3、GPT.5,前3个分别官宣于2018、2019、2020,GPT3已经出现了重大飞跃,参数是上1代的百倍,同时在商业上也表现出稳定性和实用性(比如估值15亿美元的JasperAI此前就使用的GPT3)。

此前OpenAI就曾表示,GPT3.5只是1其中间版本,或许叫“PreGPT4”会比“GPT3.5”更贴合,因为GPT3.5在技术路线上之前有较大差异,是基于人工标注数据+强化学习的推理和生成正如同ChatGPT最初是以“demo”形态被OpenAI推出,其原因也是为了测试在安全性、真实性等方面的改进空间。

而GPT4的整体训练,在上,OpenAI仅用了几段话作为简单描述抽象来看,次要是从几个维度进行了加强训练:基础模型训练:之前的GPT模型1样,使用公开数据(如互联网数据)以及被许可的数据进行训练数据语料库里包括数学问题的正确和没有正确的解决方案,弱而强烈的推理,自相矛盾和1致的陈述,并代表了各种各样的意识形态和想法。

人工反馈强化学习(RLHF)微调模型:GPT具有以前的模型类似的风险,例如产生有害的建议、错误代码或没有准确的信息为了了解风险程度,OpenAI聘请了来自人工智能对齐风险、网络安全、生物风险、信任和安全以及国际安全等领域的50多名专家来对抗性地测试该模型。

GPT在RLHF培训期间纳入了额外的安全奖励信号,通过培训模型拒绝此类内容的请求来减少有害输出为了防止模型拒绝有效请求,OpenAI从各种来源(例如,标记生产数据、人类红色组合、模型生成的提示)收集没有同的数据集,并在允许和没有允许的类别上应用安全奖励信号(具有正值或负值)。

可预测深度学习堆栈:GPT项目的1大重点是构建1个可预测的深度学习堆栈由于GPT4模型更大, 因此如果用以往的方式把模型放在数据里跑1次,时间和计算成本都更高,而GPT4采用了新的方式,只需要用万分之1的计算量就可以预测出准确率。

GPT4能用万分之1计算量就可以预测出准确率OpenAI这次也提供了1个官方的论文来解释相关的功能和训练过程,但是关于具体的比如数据集规模、参数规模等都没有透露虽然也提供了1个开源工具“Evals”,但这是为了让更多开发者给GPT4提建议的,而并非共享的。

这并没有符合以往OpenAI的作风,也似乎OpenAI创始人Sam Altman此前说到的OpenAI成立之初的愿景——AGI,让更多的人使用AI技术,并从中获利——并没有相符03讳莫如深的背后对具体参数和规模缄口没有言,背后的原因可以从两个方向分析:。

技术角度和商业角度,都要建立壁垒在GPT4公布前,没有少人判断GPT4将是百万亿大模型,比此前GPT3.5的千亿大模型还要多100倍量级但同样也在GPT4公布前,Altman也亲自了局辟谣,他表示,GPT的参数量没有会大很多,但可能会用到更多的计算资源。

在此前的分析文章中,36氪也有提到,这可能意味着OpenAI正在寻求其他创新性地提升模型能力的路径,而非1味求大但Altman同时也表示,GPT4模型还是以文本训练为主但目前来看,GPT4并没有是仅仅以本文为主,已经能够支持图片、视频等多种交互方式。

这从侧面或许证明,Altman的“辟谣”或许并没有是真的“辟谣”,外界的猜测,有可能是真的——的确在规模上有了更大、更令人难以想象的突破没有少人推测,虽然并没有达到百万级别,但会落在 1 万亿或 10 万亿参数范围内

相关分析指出,在这样的情况下,模型可能会受益于稀疏网络(sparse networks)的使用,以获得更好的模型扩展性也就是说,OpenAI或将以往密集网络(dense networks)方法改为稀疏网络,并开发新的训练算法。

同时,使用稀疏网络也可能导致模型架构的变化—— GPT 或许具有神经形态架构,即类似于人脑,可以根据需要适时激活特定部分的任务执行区域在技术壁垒的没有断加深的背后,OpenAI此次对参数和技术细节缄口没有言、讳莫如深的态度,或许来源于他们没有想再被“抄”下去了,也要进1步在商业上建立自己的壁垒。

技术细节披露越多,能够OpenAI比拼的角度就会更多没有过,也有从业者认为,OpenAI或许是出于安全负责的考虑,才没有披露具体细节,后续可能会公布但无论从什么角度考虑,壁垒的建立都是箭在弦上毕竟,以Google、Meta为代表的大厂已经虎视眈眈许,并且炮火声在最近越来越响:。

今天,在GPT4推出以后,Google开放自家的大语言模型 API 「PaLM API」,此外还发布了1款帮助开发者快速构建 AI 程序的工具 MakerSuite。

Google开放其API接口3月,Google推出PaLM-E,其拥有5620亿参数,是GPT3倍多,号称史上最大规模视觉语言模型2月底,Meta突然公布了1款全新的AI大型语言模型LLaMA,宣称可帮助研究人员降低生成式AI工具可能带来的“偏见、有毒评论、产生错误信息的可能性”等问题。

并且仅用约1/10的参数规模,实现了匹敌OpenAI GPT、DeepMind Chinchilla、谷歌PaLM等支流大模型的性能表现此前,百度高调官宣会在3月16日上线文心1言开放API接口、用更低的参数、用更高的参数……参者们都在寻找更适合的角度。

,想要OpenAI及其“爸爸”微软,正面竞争或许这也是OpenAI着急将GPT4推出的重要原因——你们还在围绕我的3.5比拼,而我已经跳到下1阶段了这无疑能够帮助OpenAI依旧当仁没有让成为“AI引领者”。

当下,由ChatGPT引发的系列讨论热度在持续升高,其中比较支流的讨论,集中在成本和模型规模两个维度1方面,在3月初,OpenAI以每1000个tokens0.002美元的价格开放了API接口,是原本价格的十分之1

如此低廉的价格,或许会将吸引绝大多数应用层伙伴,OpenAI得以建立自己的生态而生态没有仅是未来商业变现的根据地,更是反复强化训练的数据来源,因此,当GPT系列成本足够低时,将挤占其他互联网大厂的生态对于全球所有模型层的公司来说,都在思考还要没有要继续做、怎么做才能让自己成本更低;对于所有应用层的公司来说,都希望可以以如此低的接入成本,成为没有同领域的“Jaseper”。

1方面,到底需没有需要如此大的模型,也成为业内讨论的话题之1没有少人认为,如果能够实现相同的效果,用更大的模型训练就是浪费资源但此刻看来,必要没有充分条件依旧成立:虽然模型没有是越大越好,但是更好地效果实现,还是必须得有更大的模型。

此刻,OpenAI的GPT4再次甩开了自以为能够其竞争的“竞争者们”未来,OpenAI1定会以更低的价格继续开放更好的模型,那时AI格局或许已经没有会再出现变化了明天,百度文心1言会上线,36氪也将继续关注。

ChatGPT模型API接口1折开放,全球AI格局巨变进行时 | Chat AIChatGPT走红背后:苦熬五年,3次AI路线迭代|Chat AIChat AI | 最快月活过亿,但ChatGPT或终将被开源打败

ChatGPT背后:1个天才、百亿融资和1亿月活 | 全球独角兽

5月,36氪将举行“颠覆AIGC”主题峰会

"我用文字编织了1个梦境,希望你能在其中找到属于自己的片刻安宁。喜欢的小伙伴记得关注收藏点赞哦!"

为您推荐

gpt43gpt4:GPT4上线了,但技术细节却“点到为止” | Chat AI 太疯狂了

gpt43gpt4:GPT4上线了,但技术细节却“点到为止” | Chat AI 太疯狂了

GPT4上线了,但技术细节却“点到为止” | Chat AI,应用层,深度学习,技术细节,openai...

2023-07-07 栏目:科技派

当前非电脑浏览器正常宽度,请使用移动设备访问本站!