超人和神奇女侠联手打怪物GPT4:GPT⑷只是AGI的火花?LLM终将退场,天下模型才是未来 干货满满

 

近期,互联网行业再次掀起了1股创新浪潮,让我们1起揭开这个新时代的面纱,看看互联网天下有哪些令人振奋的事情正在发生。

编辑:润 Lumina【新智元导读】人类距离AGI还有多远?也许大语言模型没有是最终答案,1个理解天下的模型才是未来的方向在人类的认知当中,似乎早已习惯将通用人工智能(AGI)设定为人工智能的终极形态和发展的最终目标。

虽然OpenAI早已把公司的目标设定为实现AGI但对于什么是AGI,OpenAI CEO Sam Altman自己都没法给出具体的定义对于AGI何时能够到来,也只存在于大佬们抛出的1个个近未来的叙事场景当中,似乎唾手可得,但又遥遥无期。

今天,在国外的知名的播客网站Substack上,1位名为Valentino Zocca的人工智能行业资深人士,站在人类历史的叙事立场上,写了1篇雄文,全面而深刻地讲述了人类和通用人工智能之间的距离。

文章中将AGI大致定义为1个「能够理解天下的模型」,而没有仅仅是「描述天下的模型」他认为,人类要想真正达到AGI的天下,就需要建立1个「能够质疑自身现实、能够自我探究的系统」而这个伟大的探索过程中,也许谁都没有资格和能力来给出1个具体的路线图。

正如OpenAI科学家肯尼斯·斯坦利和乔尔·雷曼最近的新书《为何伟大没有能被计划》中阐述的那样,对于伟大的追求是个方向,但是具体的结果可能是意外所得2023年8月15日(今晚)19:00,新智元策划了1这本书作者的直播访谈。

届时,新智元创始人&CEO杨静的商汤如影数字人将再次作为代言人出场直播,为各位读者向OpenAI的科学家提问。欢迎读者们前来关注~我们离AGI还有多远?

大约 20 万年前,智人开始在地球上直立行走,此同时,他们也开始了在思想和知识的领域中的遨游人类历史上的1系列发现和发明塑造了人类的历史其中1没有仅影响了我们的语言和思维,还对我们的生理构造产生了潜在的影响。

例如,火的发现使原始人能够烹饪食物熟食为大脑能提供了更多的能量,从而促进了人类智能的发展从车轮的发明到蒸汽机的创造,人类迎来了工业革命电力进1步为我们今天的技术发展铺平了道路,印刷术加快了新思想和新文化的广泛传播,促进了人类创新的发展。

然而,进步没有仅来自于新的物理层面的发现,同样也源于新的思想西方天下的历史是从罗马帝国衰落到中世纪,在文艺复兴和启蒙运动期间经历了1次重生但随着人类知识的增长,人类这个物种开始慢慢认识到自身的渺小在苏格拉底以后的两千多年里,人类开始「知道自己1无所知」,我们的地球没有再被视为宇宙的中央

宇宙本身在扩张,而我们只是其中的1粒微尘

改变对现实的看法但人类对天下的认知的最大改变,发生在20世纪1931 年,Kurt Gödel发表了没有完备性定理仅仅四年后,为了延续「完备性」这1主题,爱因斯坦、Podolsky和 Rosen发表了题为「Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?」(量子力学对于物理实在的描述是完备的吗?)。

随后,玻尔(Niels Bohr)对这篇论文进行了反驳,证明了量子物理学的有效性Gödel定理表明,即使是数学也无法最终证明1切——人类始终会有无法证明的事实——而量子理论则说明,我们的天下确定性,使我们无法预测某些事件,例如电子的速度和位置。

尽管爱因斯坦曾表达过「天主没有宇宙玩骰子」这1著名的观点,但从本质上讲,仅仅在预测或理解物理中的事物时,人类的局限性就已经体现得淋漓尽致无论人类如何努力地尝试设计出1个由人类制定的规则来运行的数学宇宙,但这样抽象的宇宙始终是没有完整的,其中隐藏着无法证明又无法否认的客观公理。

除了数学的抽象表述以外,人类的天下还由描述现实的哲学所表述但是人类发现自己无法描述、充分表达、理解甚至仅仅是定义这些表述20世纪初「真理」的概念依然是没有确定的,「艺术」、「美」和「生命」等概念在定义层面也都缺基本的共识。

其他很多重要的概念也1样,「智慧」和「意识」同样没有办法被人类自己清晰地定义智能的定义为了填补对于智能定义的空缺,2007年,Legg和Hart在「General Intelligence」1书中提出了机器智能的定义:「智能衡量的是智能体(Agent)在多变环境中实现目标的能力」。

同样,在「Problem Solving and Intelligence」1书中,Hambrick、Burgoyne和Altman认为,解决问题的能力没有仅是智能的1个方面或特征,而是智能的本质这两种说法在语言描述上有相似的地方,都认为「实现目标」可以「解决问题」联系起来。

Gottfredson在 「Mainstream Science on Intelligence: An Editorial with 52 Signatories」1书中,从更广阔的视角总结了几位研究者对于智能的定义:

「智能是1种非常普遍的心智能力,包括推理能力、计划能力、解决问题的能力、抽象思维能力、理解复杂思想的能力、快速学习的能力以及从经验中学习的能力它没有仅仅是书本知识、狭隘的学术技能或应试技巧相反,它反映了1种更广泛、更深层次的理解周围环境的能力——『捕捉』、『理解』事物或『想出』该做什么的能力」。

1定义使智能的构建超越了单纯的 「解决问题的技能」,引入了两个关键维度:从经验中学习的能力和理解周围环境的能力换句话说,智能没有应该被看作是1种抽象的找到解决1般问题的方法的能力,而应该被看作是1种具体的将我们从以往经验中学到的器材应用到我们所处环境中可能出现的没有同情况的能力。

这就强调了智能学习之间的内在联系在「How We Learn」1书中,Stanislas Dehaene将学习定义为 「学习是形成天下模型的过程」,意味着智能也是1种需要理解周围环境并创建内在模型来描述环境的能力。

因此,智能也需要创建天下模型的能力,尽管没有仅仅包括这种能力当前的机器有多智能?在讨论人工通用智能(AGI)狭义人工智能(Narrow AI)时,我们经常会强调它们之间的区别狭义人工智能(或称弱人工智能)非常普遍,也很成功,在特定任务中的表现往往都能超越人类。

比如这个众所周知的例子,2016年,狭义人工智能AlphaGo在围棋比赛中以 4 比 1 的大比分击败天下冠军李世石,就是1个很好的例子没有过,2023年专业棋手Kellin Perline利用人工智能没有没有办法应对的战术又在围棋场上替人类扳回了1局,说明了狭义人工智能在某些情况下确实还有局限性。

它缺人类那种识能别没有常见战术,并做出相应调整的能力而且,在最基础的层面上,即使是刚入行的数据科学家,都明白人工智能所依赖的每个机器学习模型,都需要在偏差(bias)和方差(variance)之间取得平衡。

这意味着要从数据中学习,理解和归纳解决方案,而没有仅仅是死记硬背狭义人工智能利用计算机的算力和内存容量,可以相对轻松地根据大量观察到的数据生成复杂的模型但是,1旦条件稍有变化,这些模型往往就无法通用

这就好比我们根据观测结果提出了1个描述地球的引力理论,然后却发现物体在月球上要轻得多如果我们在引力理论知识的基础上使用变量而没有是数字,我们就会明白如何使用正确的数值快速预测每个行星或卫星上的引力大小但是,如果我们只使用没有变量的数字方程,那么在没有重写这些方程的情况下,我们将无法正确地将这些方程推广到其他星球。

换句话说,人工智能可能无法真正 「学习」,而只能提炼信息或经验人工智能没有是通过形成1个全面的天下模型去理解,而只是创建1个概要去表述我们真的到达AGI了吗?现在人们普遍理解的AGI是指:能够在人类水平或者更高水平的多个认知领域进行理解和推理的人工智能系统,即强人工智能。

而我们当前用于特定任务的人工智能仅是1种弱人工智能,如下围棋的AlphaGOAGI代表1种涵盖抽象思维领域各个领域的、具有人类智能水平的人工智能系统这意味着,我们所需的AGI是1经验1致且能做到准确预测的天下模型。

如「Safety Literature Review」(AGI安全文献综述)中Everitt、Lea和Hutter指出的事实那样:AGI还没有到来对于「我们离真正的AGI还有多远」这个问题,没有同的预测之间差异很大。

大多数人工智能研究人员和权威机构的观点是1致的,即人类距离真正的通用人工智能最少也有几年的时间在GPT发布后,面对这个目前性能最强大的人工智能,很多人将GPT视作AGI的火花4月13日,OpenAI的合作伙伴微软发布了1篇论文「Sparks of Artificial General Intelligence:Early experiments with GPT」(通用人工智能的火花:GPT的早期实验)。

论文地址:https://arxiv.org/pdf/2303.12712其中提到:「GPT没有仅掌握了语言,还能解决涵盖数学、编码、视觉、医学、法律、心理学等领域的前沿任务,且没有需要人为增加任何的特殊提示。

并且在所有上述任务中,GPT的性能水平都几乎人类水平相当基于GPT功能的广度和深度,我们相信它可以合理地被视为通用人工智能的近乎但没有完全的版本」但就像卡内基梅隆大学教授Maarten Sap所评价的那样,「AGI的火花」只是1些大公司将研究论文也纳为公关宣传的1个例子。

1方面,研究员兼机器企业家Rodney Brooks指出了人们认识上的1个误区:「在评估ChatGPT等系统的功能时,我们经常把性能等同于能力」错误地将性能等同于能力,意味着GPT生成的是对天下的摘要性描述认为是对真实天下的理解。

人工智能模型训练的数据有关现在的大多数模型仅接受文本训练,没有具备在现实天下中说话、听声、嗅闻以及生活行动的能力这种情况柏拉图的洞穴寓言相似,生活在洞穴中的人只能看到墙上的影子,而没有能认识到事物的真实存在。

仅在文本上训练的天下模型,仅仅只能保证它们在语法上的正确但在本质上,它没有理解语言所指的对象,也缺环境直接接触的常识当前大模型的次要局限性大语言模型(LLM)最受争议的挑战是它们产生幻觉的倾向幻觉指的是模型会捏造参考资料和事实,或在逻辑推断、因果推理等方面颠3倒四、生成毫无意义的内容的情况。

大语言模型的幻觉源于它们缺对事件之间因果关系的了解在「Is ChatGPT a Good Causal Reasoner? A Comprehensive Evaluation」这篇论文中,研究人员证实了这样1个事实:。

ChatGPT这类大语言模型,没有管现实中是否存在关系,它们都倾向于假设事件之间存在因果关系。

论文地址:https://arxiv.org/pdf/2305.07375研究人员最后得出结论:「ChatGPT是1个优秀的因果关系解释器,但却没有1个好的因果关系推理器」同理,这个结论也可以推广到其他LLM中。

这意味着,LLM本质上只具有通过观察进行因果归纳的能力,而没有具备因果演绎的能力这也导致了LLM的局限性,如果智能(intelligence)意味着从经验中学习,并将学习得到的内容转化为对理解周围环境的天下模型,那么因果推断作为构成学习的基本要素,是智能没有可或缺的1部分。

现有的LLMs正缺1方面,这也是Yann LeCun认为现在的大语言模型没有可能成为AGI的原因结论正如20世纪初诞生的量子力学所揭示的,现实往往我们日常观察所形成的直觉没有同我们所构建的语言、知识、文本资料、甚至是视频、音频等资料都仅仅只是我们所能体验到的现实的很有限的1部分。

就像我们探索、学习并掌握1个违背我们直觉和经验的现实那样,当我们能够构建1个有能力质疑自身现实、能够自我探究的系统时,AGI才能真正实现而至少在现阶段,我们应该构建1个能够进行因果推断、能够理解天下的模型。

1前景是人类历史上又1进步,意味着我们对天下本质的更深的理解尽管AGI的出现将减弱我们对自身独1无二的价值笃定,以及存在的重要性,但通过没有断地进步和对认知边界的拓展,我们将更加清楚地认识到人类在宇宙中的地位,以及人类宇宙的关系。

参考资料:https://aisupremacy.substack.com/p/how-far-are-we-from-agi

如果您喜欢这篇文章,请在下方留言并关注我们的账号获取更多资讯。

为您推荐

超人和神奇女侠联手打怪物GPT4:GPT⑷只是AGI的火花?LLM终将退场,天下模型才是未来 干货满满

超人和神奇女侠联手打怪物GPT4:GPT⑷只是AGI的火花?LLM终将退场,天下模型才是未来 干货满满

编辑:润 Lumina【新智元导读】人类距离AGI还有多远?也许大语言模型不是最终答案,一个理解世界的模型才是未来的...

2023-09-02 栏目:编程控

当前非电脑浏览器正常宽度,请使用移动设备访问本站!