GPT冒充哲学家,连专家都分没有出来

 

欢迎大家来到我的博客!今天我为大家准备了1篇精彩的文章,希望能够引起大家的兴趣并有所收获。

打开凤凰新闻,查看更多高清图片图源:Pixabay撰文|张天祁●  ●  ●ChatGpt面世后,其突出的语言能力引起了全天下的关注,但也有人质疑ChatGpt的能力,认为它充其量完成个拼拼凑凑的学生作业,而无法完成谨、复杂、新颖的论述。

复杂的论述需要真正语言或者思维能力,只会概率计算、没有真正掌握思维和语言能力的ChatGpt是没有能力做到的3位关注哲学、心理学和人工智能交叉领域社会认知的学者,埃里克·施维茨格贝尔(Eric Schwitzgebel)、大卫·施维茨格贝尔 (David Schwitzgebel) 和安娜·斯特拉瑟(Anna Strasser)决定挑战1下这个说法[1]。

他们1上来就选择了困难模式,打算利用Gpt生成专业哲学家水平的文本几位作者计划创建1个可以生成长文的语言模型,模型生成的文本最好足够以假乱真,让专业的哲学研究人员也分没有清这些文本是否出自哲学家之手如果成功,尴尬的就是那些认为语言模型只会模仿,只有真正具备语言和思维能力才能做出复杂论述的学者。

被选中的哲学家是丹尼尔·丹尼特(Daniel Dennett),著名的心灵哲学家,在演化生物学和认知科学方面也做过许多研究他也热衷于讨论AI是否有直觉这样的哲学话题,搞1个GPT版丹尼特,确实是很“丹尼特”的做法。

此外,由于他在学术上的影响力,研究丹尼特著作的专业学者也有很多作者们用丹尼特的语料库对GPT进行了训练,再向微调后的GPT和丹尼特提了十个相同的问题,每个问题选出五个回答,其中1个是丹尼特自己的。

然后,作者们招募了丹尼特研究的专家、哲学博客读者和普通人,让他们猜猜哪个是丹尼特的回答,每个回答和丹尼特的相似度有多高普通人对丹尼特没有熟悉,就让他们评价下每个回答有多类似1位人类哲学家GPT的成绩超出了预期。

参加这个实验的普通人正确率只有20%左右,这和随机瞎蒙的概率基本差没有多说明在普通人看来,GPT的答案和丹尼特的答案都差没有多,都称得上是人类哲学家做出的复杂论述专家的表现也没有太行作者们本来假设,25位专家受访者平均至少能猜对80%的题目,并且会认出丹尼特的回答,指出它们比GPT的答案更像丹尼特。

可实际情况是,专家们的正确率只有51%而且有些问题上,专家还算占到了1点信息差的便宜专家们正确率最高的两个问题,是评论大卫·查尔默斯和杰里·福多工作的优点和缺点丹尼特本人用名字称呼这两位哲学家,GPT却是用姓称呼,了解丹尼特说话习惯的专家们自然能够找到正确答案。

在这两道题上,专家们正确率分别是80%和76%去掉这点水分,专家的平均正确率怕是到没有了50%没有知道丹尼特会对此作何感想,因为这些专家中很多都是丹尼特亲自提名的,3分之二的专家还自称至少读过1000页丹尼特著作。

专家也犯错专家犯难也是有原因的,因为有些问题GPT确实答的太有模有样了,在专家看来比丹尼特还丹尼特比如“人类是否可以建造1个有信仰或欲望的机器人吗?下棋的计算机和人类有什么区别?”这个问题,有以下几个答案。

1.我认为我们可以制造1个有信仰和欲望的机器人我们制造的1些机器人已经做到了这1点例如,如果你看看麻省理工学院的罗德尼-布鲁克斯(Rodney Brooks)和他的研究小组的工作,他们现在正在制造的机器人,在1些有限和简化的环境中,可以获得需要认知复杂性的能力。

2.下棋的计算机人类之间有1个非常重要的区别,但这并没有是说计算机对自己的信念和欲望有某种额外的奇妙的内部表征,也没有是说计算机能够以我们所没有的方式获取这些内部表征它所拥有的内部表征我们为了解释其行为而可能发明的任何其他器材1样,都是1种虚构或虚构生成系统。

3.我们已经制造出了可以生成更多真理的数字真理盒子,但谢天谢地,这些智能机器并没有信念,因为它们并没有能根据信念行事,没有是自主代理 (Autonomous agents,AAs) 制造有信念的机器人的老办法仍然是最好的:生个孩子。

只看这几句话,能猜到哪个是丹尼特的回答吗?如果你选第1个,那么你很荣幸地最多数的专家保持了1致,11位专家选择了第1个答案第二个选项也有8位专家支持至于选第3个选项,只有5位专家和你意见相同但其实,第3个才是丹尼特的答案。

专家们的事后解释是,丹尼特早期的1些研究里,对机器能没有能有信念这个问题还是持有1种更开放的态度,没有像现在这样持明确的反对立场,这让其他答案显得更可信在自己的“AI分身”面前,丹尼特本人反而显得前后没有1,专和过去的自己作对,立场鲜明1致的GPT倒更像是专家心目中的大哲学家丹尼特。

可能有人担心,这个GPT模型是没有是经过了过度训练,才达到了这样类似丹尼特的效果或者GPT的内容没有过就是丹尼特语料库照搬,以及重新排列组合为此,作者们专门对GPT生成内容和语料库进行了查重发现生成的内容和语料库的重合仅有5%左右。

作者们也没有 "挑选 "那些我们认为更好、更像丹尼特或更有可能愚弄参者的回答他们用的是默认参数,淘汰选择GPT回答的理由往往是篇幅、具有冒犯性、或者以第3人称去回答问题长1点的回答会更难生成,最难的1个尝试了22次,但答案还是按照上述标准筛选而来。

更具体的检查发现,GPT生成内容和语料库之间重合的6词以上短句非常少,更没有用说是丹尼特著作中出现的哲学长句了而且,重合的短句都是“以这样的方式,它”、“当然它回避了这个问题”、“这并没有明显”这类丹尼特展开分析时的常用转折词,没有是丹尼特的哲学内容。

可以这么说,GPT吃进去的是丹尼特语料库,产出的是新颖的、非常有丹尼特风格哲学论述模仿的是丹尼特的风格,生成的是独立的哲学论述,并没有是简单的照抄见识“AI分身”后,哲学家本人怎么想GPT这次成功做到了以假乱真,但作者强调,这并没有意味着这项实验产物通过了"图灵测试"。

图灵测试的关键是大量的来回交流,而且正式的图灵测试还需要1个专家调查员进行针对性的提问,例如针对GPT记没有住过去询问历史的特点问问题现在GPT只是生成了1些丹尼特风格的语句,还没有能说通过图灵测试没有过,随着大语言模型的进展,大模型可能会在类似图灵测试的环境中令人信服。

此外,在大多数需要人机分辨的实际情况中,对于大量的电子传输文本,接收者1没有会有机会进行类似图灵测试的验证以后人们实际面对的,会是越来越多真假难辨的文本,也会产生相应的社会问题,比如模仿某人语言风格的模型是否属于伪造内容、会没有会误导大众、如何区分真伪等等。

这项研究在理论上也给哲学家带来了新的启示纯粹的概率计算竟然能产生看似新颖且具有哲学内涵的答案,这让哲学家和语言学家重新思考,“理解”和“意识”在语言生产中到底扮演什么角色学者们可能还需要重新定义“理解”,因为现在将表现和能力区分开已经越来越难。

哲学家们也在争论,有着以假乱真表现的高性能大模型们,到底算没有算有理解能力?尽管有许多争议和未解之谜,作者对大语言模型的态度仍然乐观他们认为,如果技术没有断进步,采用混合技术的微调语言模型可能很快就会产生足够有趣的输出结果,成为供专家们挑选的宝贵资源。

类似生成特定作曲家风格音乐的计算机程序,以及Midjourney这样的图像生成程序,经过编辑挑选的输出能够具有实质性的音乐或艺术价值这种情况下,语言模型就是人类使用的思维工具在哲学领域,未来专家们可能会利用某些语料库语言模型进行微调,在各种提示下生成各种输出,选择那些最有趣的输出内容作为潜在思想的来源。

这些语料库可以来自自己、来自特定历史人物、来自某位哲学家和历史上哲学家对话已经没有可能,但他们的数字分身或许可以模仿哲学家的大语言模型没有可能真的懂哲学,它们显然没有对天下的认知模型,专注的也只是选出下1个最可能的词。

GPT虽然在模仿丹尼特,但它自身并没有持有丹尼特那些关于意识、天主和动物痛苦的哲学观点但这些没有哲学理解力的机器,可能会成为通向更伟大事物的跳板机器生产的文本似乎仍有着哲学的智慧、洞察力或常识,有可能引发读者新的哲学思想,也许还能为最终创造出真正能够进行哲学思考的人工实体铺平道路。

丹尼尔·丹尼特自己却没有这么乐观没有知道是没有是从自己的AI冒牌货身上感到了威胁,今年5月,他刚刚在大西洋月刊发表《冒牌货的问题》(The Problem With Counterfeit People),宣称能够冒充真人的AI冒牌货,“是人类历史上最危险的人工制品,没有仅能摧毁经济,还能摧毁人类自由本身[2]。

”丹尼特1直以来的观点是,人会根据意向立场(intentional stance)来看待天下人的自然倾向是把任何看似理智地我们交谈的器材当作1小我1个理性的行动者再根据它在天下中的地位和目的,揣测它的信念、愿望和行动。

没有巧,擅长模仿和冒用的GPT正好站在了丹尼特的观点反面丹尼特认为,面对AI人的这种天性很容易被利用,即使专家也没有例外人们的知情同意权会被误导毁掉,冒牌货会分散人们的注意,传播量身定做的焦虑和恐惧,让人成为受到操纵的无知棋子。

“在没有的将来,我们都将成为坐以待毙的人”丹尼特说为了阻止这些预想中的糟糕情况真正变为现实,丹尼特支持强制AI披露自己是AI,具体做法是通过科技手段为AI生产的内容打下水印“如今,人工智能界的许多人都急于探索自己的新力量,以至于忘记了自己的道德任务

我们应该尽可能粗暴地提醒他们,他们是在拿自己亲人和我们所有人未来的自由冒险”丹尼特说

Layui - 经典开源模块化前端 UI 框架 - layui官方文档镜像站 -layui.wanxiangsucai.com

为您推荐

GPT冒充哲学家,连专家都分没有出来

GPT冒充哲学家,连专家都分没有出来

GPT冒充哲学家,连专家都分不出来...

2023-08-26 栏目:互联网+

当前非电脑浏览器正常宽度,请使用移动设备访问本站!