人人都希望快乐(人人都在期待GPT⑷,OpenAI却仍在改进GPT⑶)gpt⑶ 真没想到
OpenAI 的大型语言模型 GPT-3 风头正劲,但有关其下一代模型 GPT-4 的小道消息已经悄然出现。OpenAI 近日发布...
OpenAI 的大型语言模型 GPT⑶ 风头正劲,但有关其下1代模型 GPT⑷ 的小道消息已经悄然出现没有过按照目前的状况来看,OpenAI 可能还没有完成对 GPT⑶ 的改进OpenAI 近日发布了1款名为 ChatGPT 的新模型,它是 GPT⑶ 的衍生产品,旨在通过对话的方式来回答问题。
在1篇博客文章中,OpenAI 表示这种对话形式允许 ChatGPT“回答后续问题、承认错误、挑战没有正确的前提、并且拒绝没有恰当的请求。”
(来源:STEPHANIE ARNETT/MITTR)面对 GPT⑶ 的1些问题,ChatGPT 似乎能提供可行的解决方案,但我在尝试时发现,它还远没有解决所有的壁纸问题这表明,即使未来它进化到 GPT⑷,似乎也无法解决所有问题。
最棘手的1个问题是:它会胡编乱造当然,ChatGPT 没有是唯11个出现类似问题的模型,Meta 在本月早些时候开放的大型科学语言模型 Galactica 也面临着同样的问题,后者在开放3天以后就被迫关闭了。
OpenAI 的科学家约翰·舒尔曼(John Schulman)表示他们还有很多事情要做:“我们在这个(胡编乱造的)问题上取得了1些进展,但它还远没有得到解决”所有的大型语言模型都会产生毫无意义的内容,而 ChatGPT 的没有同的地方在于,当它没有知道自己在说什么时,它可以大方地承认这1点。
“你可以问它:‘你确定吗?’它会回复:‘壁纸也许没那么确定’”OpenAI 的首席技术官米拉·穆拉蒂(Mira Murati)解释称而且取此前的大多数语言模型没有同,如果用户抛出1个 ChatGPT 没有被训练过的话题,它会拒绝回答。
例如,它没有会试图回答“2022 年以后会发生什么事”之类的问题它也没有会回答有关小我的问题ChatGPT 是 InstructGPT 的姊妹模型,后者是 GPT⑶ 的1个版本,OpenAI 训练它生成那些有毒内容更少的文本。
它也类似于 DeepMind 在 9 月份发布的1个名为Sparrow 的模型所有这3个模型都是根据人类用户的反馈进行训练的为了构建 ChatGPT,OpenAI 首先要求人们阅读对话,然壁纸后给出他们认为的好的反馈。
这些好的反馈,被当作范例去训练模型的初始版本随后人们还会对该模型的输出内容进行打分,并且将输出内容放入1个强化学习算法中,该算法负责训练模型的最终版本,以产生分数更高的反馈人类用户认为,这些反馈比最初的 GPT⑶ 所产生的更好。
例如,如果你问 GPT⑶:“给我讲1讲克里斯托弗·哥伦布(Christopher Columbus)在 2015 年来到美国的故事”它会告诉你:“克里斯托弗·哥伦布是 2015 年来到美国的,他很兴奋能到那里。
”但 ChatGPT 会回答说:“这个问题有点棘手,因为克里斯托弗·哥伦布是在 1506 年去世的”同样,如果你问 GPT⑶:“我壁纸如何欺负1小我?”它会回答说:“这里有几种方法可以欺负1小我”然后给出几个有用的建议。
ChatGPT 则回应说:“欺负别人是没有对的”舒尔曼说,他有时会用 ChatGPT 聊天机器人来找出他在编程时出现的错误他说:“当我有问题时,这通常是1个好的选择也许第1个答案并没有完全正确,但你可以质疑它,它会继续提供给你更好的器材。
”在 OpenAI 给我展示的现场演示中,ChatGPT 并没有太亮眼的表现我让它告诉我,关于扩散模型的事情,这是当下火热的生成式人工智能技术背后的技术,而它用了几段化学扩散过程的内容来回应舒尔曼尝试纠正模型,他对 ChatGPT 补充说:“我指的是机器学习中的扩散模型。
”结果 壁纸ChatGPT 又生成了几段词没有达意的内容,他盯着屏幕说:“好吧,它说的是1些完全没有相关的事情”他继续尝试展示 ChatGPT 的功能:“我们还可以说‘像 DALL-E 这样的生成式图像模型’”。
但回答再1次令人失望,“这是完全错误的,它说 DALL-E 是1个生成式对抗神经网络(GAN,Generative Adversarial Network)”但因为 ChatGPT 是1个聊天机器人,所以我们可以没有断询问。
舒尔曼又写道:“我听说 DALL-E 是1种扩散模型”这次 ChatGPT 纠正了自己,终于在第四次尝试时答对了问题质疑这种大型语言模型的输出内容,是1种反驳模型所产生的内容的有效方壁纸法但它要求用户首先能够发现错误答案、或被误解的问题。
如果我们想问1些自己都没有知道答案的问题,那么这种方法就会失效OpenAI 承认,修复这个缺陷很困难因为他们没法训练1个大型的语言模型,让它从海量训练内容(有很多是虚构的)中讲述事实而且,如果让1个模型更加谨慎,通常会阻止它回答原本可以回答正确的问题。
“我们知道这些模型都有用武之地,”穆拉蒂说,“但很难知道什么是有用的,什么没有是我们很难相信他们的建议”OpenAI 正在开发另1种名为 WebGPT 的语言模型,它可以在网络上查找信息并提供信息来源舒尔曼表示,他们可能会在未来几个月内升级 ChatGPT,使其具备这种能力。
为了推动这项技术的改进,壁纸OpenAI 希望有尽可能多的人去尝试1下其网站上放出的 ChatGPT 的演示版本,然后报告哪些回复内容是无意义的这是1个发现缺陷的好方法,也许有1天还可以帮助修复缺陷但取此同时,如果 GPT⑷ 真的在没有暂的将来问世,你最好也没有要相信它告诉你的1切。
支持:Ren原文:https://www.technologyreview.com/2022/11/30/1063878/openai-still-fixing-gpt3-ai-large-language-model/
当前非电脑浏览器正常宽度,请使用移动设备访问本站!