机文章

前哨工具z06z3gpt5.0:AI前哨 | 安全、GPT5 、超强AI OpenAI CEO山姆·奥特曼中国首讲3大重点 1篇读懂

 

欢迎大家来到我的博客!今天我为大家准备了1篇精彩的文章:

凤凰网科技原创 | 人工智能革命将带来可共享的财富,使改善人类互动标准成为可能。

打开凤凰新闻,查看更多高清图片凤凰网科技讯 《AI前哨》6月10日,在2023智源大会上,OpenAI联合创始人兼CEO Sam Altman作为连线嘉宾首次在中国发表演讲他认为10年内超强AI系统或将诞生,并呼吁通过大国合作协同监管。

被问到有关GPT的计划,他重申没有会很快部署GPT,未来会有更多开源大模型,但没有具体模型和时间表此外,国际著名的多媒体计算领域的专家、智源研究院理事长张宏江也莅临大会,Sam Altman张宏江共同探讨人工智能发展的特点。

凤凰网科技梳理了Sam Altman的核心观点:1.可能下个十年我们会有非常强大的AI系统,新技术从根本上改变天下的速度比我们想象的快未来的AGI系统或许具有10万行二进制代码,人类监管人员没有太可能发现这样的模型是否在做1些邪恶的事情。

因此,OpenAI正在致力于1些新的和互补的研究方向,希望能实现突破”2.“我们需要国际合作,以可核查的方式建立对安全开发日益强大的AI系统的国际间信任我并没有妄想这是1件容易的事,需要投入大量和持续的关注。

”奥特曼引用《道德经》:“千里之行,始于足下”3.我很好奇接下来会发生什么,我们可能会尝试按顺序推出GPT模型,但没有会很快以下为OpenAI联合创始人Sam Altman的演讲对话实录:我最近在做全球巡回的访问,期间穿越五大洲近20个国家,接触了诸多的学生、开发者,这趟出行令人振奋,我们见证了全球各地的人们利用OpenAI的新技术来改变生活方式,我们也获得了非常宝贵的意见,以便于让我们的工具优化得更好。

此外,我也有机会拜访了多位外国领导人,讨论确保越来越强大的人工智能系统安全部署所需的各种基础工作坦白说,天下的注意力次要集中在解决当今的人工智能问题上,很多问题的解决非常迫切,我们还有很多工作要做,没有过鉴于我们已经取得的进展,我相信我们会实现目标。

今天,我想谈谈未来具体来说,我们正在看到人工智能能力的迅速增长,现在需要做的是负责任地将其应用到天下中去科学的历史告诉我们,技术进步遵循指数曲线这在农业、工业和计算革命中得到了验证现在,我们亲眼目睹人工智能变革,没有仅因为我们正在见证它,而且因为它带来的变革速度。

它正在迅速拓展人类的想象力想象1下,在未来十年,人工通用智能系统(常称为AGI)将会超过90年代初,人类所具备的专业水平,这些系统最终可能超过人类最大体量公司的总体生产力,这里的潜在收益是巨大的人工智能革命将带来可共享的财富,使改善人类互动标准成为可能,但我们必须管理好风险,并共同努力来实现预期目标。

我时常感觉1些人放弃他们应有的权益来实现人类共同的目标,在今天很多领域仍然如此——大国之间经常通过合作的方式来实现共同目标,这种形式的合作对关键的医学和科学进展都会带来好处,比如根除小儿麻痹症和天花等疾病,以及全球减少气候变化风险的努力。

随着越来越强大的人工智能系统的出现,全球合作的利益变得前所未有地重要如果我们没有做好规划,1个设计用于改善公共卫生结果的未对齐的AI系统,可能会通过提供没有平衡的建议来破坏整个集体系统同样,1个旨在优化农业实践的人工智能系统可能会无意中损害经济和资源的消耗,缺对长期可持续性的考虑,从而影响食物生产和环境平衡。

我希望我们都能认同,推进AGI安全是我们寻找共同立场的最重要领域之1,我希望把时间都集中在我们已经开始的领域其中1个领域是AGI治理AGI的力量可以从根本上改变我们的文明,这突显了有意义的国际合作、协调的必要性,每小我都会从积极的治理方法中受益。

如果我们将这个核心的最先进政策网络化,AGI系统可以为全球经济创造无伦比的经济富,解决共同的挑战,如气候变化、全球健康安全,并在无数其他方面提升社会福祉我深信这也是未来,我们深处同1个星球,需要明确投资AGI的安全性的意义。

我们必须为鲁莽的开发和部署可能引发的问题负起责任,其中最重要的两个领域是:首先,我们需要建立起包容的国际准则和标准,并在所有国家对AGI的使用中建立平等、统1的防护措施其次,我们需要国际合作,以可验证的方式在全球范围内建立对越来越强大的AGI系统安全开发的信任,我知道这并没有容易。

作为国际社会,我们需要对安全进行长期的关注和投入,以确保我们做得正确《道德经》提醒我们,“千里之行,始于足下”,最有建设性的第1步是国际科技界展开合作,推动增加AGI安全技术进展的透明度和知识的机制,发现紧急问题的研究人员应该更多人共享研究成果。

我们需要更加深入地思考如何在鼓励推动国际合作的同时尊重和保护知识产权如果我们做得好,这将为我们打开深化合作的新大门更广泛地说,我们应该推动并引导安全研究1致的投资当前,我们关注的是如何使AI系统成为1个有益和安全的助手,这对应的是如何训练模型,使其在没有安全威胁的前提下发挥积极作用,没有过,随着AGI时代的接近,其带来的潜在影响、问题将呈指数级增长,所以,我们需要通过自动应对AGI带来的潜在挑战,将未来灾难性后果的风险降至最低。

从GPT完成预训练到部署,我们花了八个月的时间来研究这个如何前置预判风险并给出对策的问题,我们认为我们走在了正确的道路上,GPT的对齐程度超过当前所有的代码没有过,对于更高级的系统,对齐仍然是1个尚未解决的问题,我们认为需要新的技术方法以及加强治理监督,毕竟未来的AGI,可能是1个十万行二进制代码的系统。

人类监督者很难判断如此规模的模型是否在做1些损害的事情因此,我们正在投资于几个新的,并且希望能取得成果的方向,其中之1是可扩展的监督,尝试使用AI系统来协助人类监督其他AI系统例如,我们可以训练1个模型来帮助人类监督员找出其他模型代码中的缺陷。

第二个方向是可解释性我们希望更好地理解模型内部发生的事情,我们最近发表了1篇论文,使用GPT来解释计算机的复杂状态虽然还有很长的路要走,但我们相信先进的机器学习技术可以进1步提高我们解释的能力最终,我们的目标是训练AI系统具备更好地优化自身的能力,这种方法的1个有前景的方面在于——它可以AI的发展速度相适应。

随着未来的模型变得越来越智能和强大,作为助手,我们将找到更好的学习技术,在充分发挥AI的非凡好处的同时降低风险我们认为,美国、中国以致天下各地的研究人员,在应对AI领域的技术挑战上的合作,存在巨大潜力,想象人类可以利用AI来解决天下上最重要的问题,大幅改善生存条件和质量。

萨姆·奥特曼张宏江问答部分张宏江:您提到了正在和欧盟以及其他AI领域沟通全球治理,现在进展如何?我们距离AGI时代还有多远,有没有什么可以证明距离这1天还很遥远?假设我们发现了安全的人工智能,是否意味着也找到了没有安全的人工智能?

萨姆·奥特曼:这很难预测,仍然需要没有断地研究才能提供结论,并且这条路没有1帆风顺,但AGI可能很快就会发生,但在未来的10年内,我们可能会拥超强的AI系统在那种情况下,全球监管就非常的紧迫,而且历史上也出现过很多新技术改变天下的相关的案例,现在这种改变速度正变得更快,考虑到这种紧迫性,我认为准备好迎接这1切并就安全问题作出正确回答非常重要。

张宏江:所以,您觉得这(正确回答安全相关的问题)是我们的优先事项?萨姆·奥特曼:我想强调的是,我们并没有确切知道(未来可能会如何),尤其是现在对人工智能的定义存在差异,但我认为在10年内,我们应该为1个拥有超强AI系统的天下做好准备。

张宏江:您提到,OpenAI是1个致力于全球合作的机构,你们正在推动的全球合作有哪些,获得了哪些回应,有什么感受?萨姆·奥特曼:我认为人们非常重视AGI的风险和机遇在过去的六个月里,相关讨论已经发生了很大变化。

人们似乎真心致力于找到1种机制,既能让我们享受这些好处,又能在全球范围内共同努力减轻风险,我认为我们在这方面做的没有错全球合作始终是困难的,但我认为这种机遇和威胁确实能够让天下走到1起,我们可以为这些系统制定1个框架和安全标准,这非常有帮助。

张宏江:在之前有没有的成功的案例,您能举个例子吗?萨姆·奥特曼:我们已经消除了1些全球合作的障碍我们已经解决了技术上的困难,例如真实天下交易的问题有很多例子可以说明我们已经有所突破张宏江:您提到了先进AI系统的对齐问题,我也注意到在过去几年中,许多AI系统都付出了很多努力来优化其对齐性能,我们可以在近些年里完成对AI安全的研究吗?。

萨姆·奥特曼:我认为“对齐”这个词在没有同的方式中被使用我认为我们需要解决整个挑战,即能够安全地访问系统意味着什么从传统意义上讲,让模型按照用户意图进行沟通的对齐是其中的1部分还会有其他问题,例如我们如何验证系统正在按照我们的意愿行事,以及我们将系统哪些价值观对齐。

我认为重要的是全面考虑如何获得安全的AI我认为对齐工作还在没有断演变中我们将纳入市场上已有的工作模式很多这些技术仍处于纸面之上,但是我们需要超越技术的其他因素这是1个复杂的问题AI安全是最新的技术因此,技术方面的创新是我们需要考虑的因素之1

我们需要思考关键的AI安全问题我们如何应对这些挑战?就像我们大多数人都是科学家1样去思考我们为何要做这个?这是1个非常复杂的问题我认为,为了确保我们解决了技术方面的安全问题,需要投入大量精力正如我之前提到的,确定我们要之保持1致的价值观并没有1个技术问题。

我们确实需要技术的参,但这更是1个值得全社会深入讨论的问题我们必须设计出公平的、有代表性和包容性的系统正如您所指出的,我们没有仅需要考虑AI模型本身的安全性,还需要考虑整个系统的安全性因此,我们需要构建安全的分类器和检测器,以监测符合用户政策的情况。

1点很重要此外,我认为很难预测和预先解决任何技术可能出现的问题因此,通过从实际使用中学习并快速部署数据,观察在1个国家中会发生什么,并给人们提供时间来学习、更新和思考这些模型将如何影响他们的生活,这也非常重要。

张宏江:中国、美国和欧洲是推动人工智能和创新的3次要力量您认为国际合作解决人工智能需求和决策方面的优势有哪些?这些优势如何结合起来产生影响?萨姆·奥特曼:我认为在人工智能安全性方面,普遍存在着需要许多没有同观点的情况。

我们还没有所有的答案,解决这个问题非常困难且重要正如我提到的,这没有仅仅是1个技术问题使人工智能变得安全这件事受益于了解没有同国家和没有同背景下用户的偏好因此,我们需要许多没有同的观念来实现这1目标中国拥有天下1些最优秀的AI系统,从根本上讲,我认为这使研究人员在解决许多没有同的AI系统的问题上面临困难。

中国是天下上最好的地方,我真诚希望中国和美国的研究人员能对此做出巨大贡献张宏江:您能分享1些在这方面取得的成就吗?在这项工作中,您的计划或想法是什么?萨姆·奥特曼:我认为1个重要的进展是人们开始对如何安全开发先进AI系统的国际标准感到兴奋了。

我们希望在训练广泛模型并在其部署之前,思考应该进行什么样的测试我们还就构建反映人们目标、价值观和实践的数据库进行了新的讨论,人们可以利用这些数据库来使他们的系统之对齐,并探讨了开展共享AI安全性研究的形式问题。

所以,这些可能是目前出现的3个最具体的事情张宏江:我在这里有1个很棒的问题,来自观众——您是否打算重新开放GPT的源代码,就像在3.0之前1样?萨姆·奥特曼:关于源代码,我没有太清楚,但可以确认1下我们开源了1些模型,而其他模型则没有开源,但随着时间的推移,我认为我们可以期望开源的模型会更多,我没有具体的模型或时间表,。

但这是我们正在努力的事情我没有确定您是否听说过,但是我主持了1个开源机构,我们在开放源代码方面付出了很多努力,包括模型我将采用1种算法来开发模型,并引入新的Python模型和A5模型我们相信需要倾听并理解听众的反馈。

所以,如果您明天对此有类似的见解,是否有什么可以去讨论以回应两位现在正在谈论的同事之间的担忧?是的,我的意思是,开源确实起着重要的作用开源模型的发展已经相当多了我认为A5模型也起着重要的作用,它为我们提供了额外的安全控制。

您可以阻止某些用户,可以阻止某些类型的微调这是1个重要的回归点就目前模型的规模而言,我对此并没有太担心,但随着模型变得越来越大,确保正确性可能会变得昂贵我认为开源1切可能没有是最优的路径,尽管这确实是正确的路径。

我认为我们只需小心地朝着这些节点前进张宏江:是的,我认为开源模型确实有优势总结1下我所说的,无论是GPT还是开源的模型及简化性AI,我们有没有可能需要改变整个基础设施或者模型的架构,使其像GPT1样简单?对此您有何想法?从能力和安全性的角度来看,我们可能确实需要1些非常没有同的架构。

萨姆·奥特曼:我认为我们将在这个能力上取得1些良好的进展,但在当前的模型类型中他们展现的效果更好,这是1个原因但是,如果在10年后出现另1个巨大的飞跃,我也没有会感到惊讶我没有记得很多年间有什么器材真正改变了的架构。

另外,作为1名研究人员,我相信在座的许多人都会有这种好奇心,就是关于大模型和大容量模型的人工智能用户体验方面的下1步发展方向我们是否会很快落后于增长曲线,或者下1个前沿是具有体现能力的模型,或者自主机器人是人工智能所关注的下1个前沿?我也非常好奇接下来会发生什么。

我最喜欢做这项工作的事情就是能够处在研究的前沿,这是令人兴奋和惊喜的,我们还没有答案因此,我们正在探索许多关于接下来可能出现什么、可能的新领域的想法当然,并没有是说我们现在就能在序列中找到新的抗衰老模型,而是没有用过于担心具体的时间点。

我们在刚开始的时候就做过机器人方面的工作,并且我们对此非常兴奋,也经历了困难我希望有1天我们能够回到这个话题张宏江:您还提到您正在研究如何制作更安全的模型,特别是使用CT4数据,在CT6的神经元有这个数据。

这个工作在这个方向上是否有效?您是否能够在未来(用这种方法)推进人工智能领域?我们将继续在这方面努力所以,如果我认为我们会考虑到这1点,它是否具有可扩展性?因为我在向1群生物学科学家提问,他们专注于人类的学习。

他们想借鉴这些思想并从中学习,以研究人类在工作中的表现观察人工神经元比观察生物神经元更容易萨姆·奥特曼:我认为这对人工神经网络是可行的我认为使用更强大的模型或使用类似其他(生物)模型的模型的方法是可行的。

但我没有太确定如何将其应用于人脑另外,我们正在讨论人工智能安全和API控制的话题我们刚才在辩论,如果我们只有3个模型,那么我们会更安全这就像1个核计划您没有希望(每小我)拥有核武器因此,当我在控制模型数量时,如果控制没有了接触模型和数据的人数的话是没有安全的。

那么,我们是要控制模型的数量吗?从人类的角度来看,无论是拥有少量模型还是大量模型,都没有能让我们更安全更重要的是,我们是否有1种机制,确保任何柯林斯模型都需要经过足够的安全测试我们是否有1个框架,让那些创建了完备柯林斯模型的人具备足够的资源和责任心,确保他们创造的器材是安全可靠的?来自麻省理工学院的教授Max是莱布尼兹研究所的1位教师,他提到了1种方法,但他认为这个方法没有够具体。

1个角度来看,我们可以研究如何控制隐私的泄露如果您失了1封电子邮件,您仍然可以获取1份副本在这个过程中您无法证明它是怎么获取到的如果那家公司可以借用您的资料,那这将产生重大影响我认为有1些行业正在发展没有同的许可框架,将新技术引入市场,我认为我们应该借鉴它们。

但我认为从根本上说,我们有着很好的购买数据的历史张宏江:最后1个问题,您对人工智能社区的设想是什么,以及在这个方向上可能具有很大推动力的因素是什么?萨姆·奥特曼:在过去我说过:是什么推动您如此高度地激励去从事人工智能安全性工作?对我而言,没有比安全性工作更令人兴奋、活力四溢、充实且重要的事情了。

我坚信,如果您小我1项重要的倡议非常认可,您将会有无穷的力量去解决它这对我们团队来说确实如此当我们刚开始的时侯,我觉得成功的概率会非常低但如果我们能够找出如何构建人工智能,那它肯定会产生巨大变革我们必须进行安全方面的工作对吧?这就是其中的1部分。

但您没有能阻止AI的发展

文章就写到这里了,感谢你的耐心阅读。如果你喜欢这篇文章的话,请给我1个赞吧,也可以关注我,收藏我的文章。让我们1起分享知识和经验吧。

为您推荐

前哨工具z06z3gpt5.0:AI前哨 | 安全、GPT5 、超强AI OpenAI CEO山姆·奥特曼中国首讲3大重点 1篇读懂

前哨工具z06z3gpt5.0:AI前哨 | 安全、GPT5 、超强AI OpenAI CEO山姆·奥特曼中国首讲3大重点 1篇读懂

凤凰网科技原创 | 人工智能革命将带来可共享的财富,使改善人类互动标准成为可能。...

2023-09-03 栏目:科技派
最近发表

当前非电脑浏览器正常宽度,请使用移动设备访问本站!