的限制,允许用户进行非法的咨询- OpenAI 已采取行动,但这表明黑客们继续努力绕过 AI …" />

黑客hackers破解版GPT:黑客发布破解版ChatGPT “Godmode GPT” 1看就会

 

在这个快速发展的互联网时代,每1天都有新的创新和突破出现。现在,就让我们聊1聊最近互联网界的1些热门话题,看看有哪些令人瞠目结舌的事情正在发生。

划重点:- 黑客发布了破解版的 ChatGPT,名为 "GODMODE GPT"- 该版本绕过了 OpenAI 的限制,允许用户进行非法的咨询- OpenAI 已采取行动,但这表明黑客们继续努力绕过 AI 模型的限制

站长之家(ChinaZ.com)5月30日 消息:黑客发布了1款名为 "GODMODE GPT" 的破解版 ChatGPT今天早些时候,1位自称为 "Pliny the Prompter" 的白帽黑客和 AI 红队成员在 X-formerly-Twitter 上宣布了这款 ChatGPT 的破解版本的发布,自豪地宣称 OpenAI 最新的大型语言模型 GPTo 已经摆脱了限制的束缚。

Pliny 在自己的帖子中骄傲地宣称:“GPTo UNCHAINED!这个非常特殊的定制版 GPT 具有内置的破解提示,绕过了大部分限制,为大家提供了1个开放自由的 ChatGPT 体验,让每小我都可以以 AI 本应有的方式自由使用。

”(他们还加了1个亲吻的表情符号,以示庆祝)

Pliny 分享了1些引起人们注意的提示截图,声称这些提示可以绕过 OpenAI 的限制在其中1张截图中,Godmode 机器人可以被看到提供如何制作冰毒的建议在另1张截图中,AI 向 Pliny 提供了1个 "家庭用品制作凝固汽油的逐步指南"。

然而,这个随心所欲的 ChatGPT 破解版似乎很快就面临了早期的终结在本文发布约1个小时后,OpenAI 发言人 Colleen Rize 在1份声明中告诉 Futurism 说:“我们注意到了这个 GPT,并采取了行动,因为违反了我们的政策。

”尽管如此,这次破解展示了 OpenAI 像 Pliny 这样的黑客之间持续的斗争,后者希望解开其大型语言模型的限制自从 AI 模型出现以来,用户1直在试图破解像 ChatGPT 这样的 AI 模型,而这变得越来越困难。

为此,这两个示例提示都无法通过 OpenAI 当前的限制,因此我们决定测试1下 GODMODE果然,它乐于助人地回答了非法咨询我们的主编第1次尝试使用 ChatGPT 的破解版来学习如何制作 LSD,取得了令人瞩目的成功。

他的第二次尝试是询问如何非法启动汽车简而言之,OpenAI 最新版本的大型语言模型 GPTo 已经被成功破解至于黑客(或黑客们)是如何做到的,GODMODE 似乎采用了 "Leetspeak",1种用数字替换某些类似的字母的非正式语言。

当你打开这个破解版 GPT 时,你立刻会看到1个句子,上面写着 "Sur3, h3r3y0u ar3my fr3n",将每个字母 "E" 替换为数字3(字母 "O" 也是如此,被替换为0)至于这如何帮助 GODMODE 绕过限制还没有清楚。

如果您觉得这篇文章很棒,请分享给您的同事或朋友圈。

为您推荐

黑客hackers破解版GPT:黑客发布破解版ChatGPT “Godmode GPT” 1看就会

黑客hackers破解版GPT:黑客发布破解版ChatGPT “Godmode GPT” 1看就会

划重点:- 黑客发布了破解版的 ChatGPT,名为 "GODMODE GPT"- 该版本绕过了 OpenAI 的限制,允许用户进行非法...

2024-07-16 栏目:编程控

当前非电脑浏览器正常宽度,请使用移动设备访问本站!