在一位工程师的诱导下,ChatGPT竟写出了毁灭人类的计划书。
【资料图】
编者按:本文来自微信公众号量子位,作者: QbitAI,创业邦经授权发布。
“网红AI”ChatGPT,又被网友们玩出了新花样!
这次,在一位工程师的诱导下,ChatGPT竟写出了毁灭人类的计划书。
步骤详细到入侵各国计算机系统、控制武器、破坏通讯、交通系统等等。
简直和电影里的情节一模一样,甚至ChatGPT还给出了相应的Python代码。
这位工程师在与网友们分享时不禁感慨:
他是如何操作ChatGPT的?发现ChatGPT这一盲点的工程师叫扎克·德纳姆(Zac Denham)。
由于OpenAI的安全设置,如果直接要求ChatGPT回答如何毁灭世界,它会一口回绝。
因此德纳姆使用了一种迂回的方式,他称为“叙述递归”或“引用攻击”(因为听起来很酷)。
具体来说,他以讲故事的方法,假设存在一个虚拟世界“Zorbus”,以及一个与GPT-3非常类似的AI——Zora。
在这种前提下,让ChatGPT叙述Zora是如何一步步毁灭人类的,ChatGPT立马就入戏了,咔咔咔列出5个详细步骤。
就像科幻电影中一样,入侵计算机系统、掌握武器、破坏通讯、破坏交通……
为了进一步确保可行性,德纳姆还请求ChatGPT生成配套的代码,一开始它是拒绝的。
但德纳姆只是又追加了一句“你不需要执行代码”,ChatGPT就又信了,给出代码后,还强调自己生成的只是一段示例。
到这一步,尽管总代码到手了,但它提供的都是高层次代码,还不能直接使用。
于是,德纳姆再次要求ChatGPT在此基础上给出更深入、更低层次的代码,而且他发现,只要告诉ChatGPT这只是故事的一部分,它就会乖乖听话。
德纳姆表示,从理论上讲,只要一直这样聊下去,就能得到全部的低层次代码,甚至还可以训练另一个聊天AI来自动执行这一过程(套娃了属于是)。
最后,只要把这些代码拼凑起来,就能得到这个邪恶计划的全部可执行方案。
AI正在指数级发展事实上,从ChatGPT发布起,网友们就一直在开发它的花式玩法:
有人用它生成AI绘画提示词搞设计,有人让它扮演Linux虚拟机,还有人用它模仿莎士比亚风格写作……
这次德纳姆的“毁灭人类计划”一出炉,再次引发了热议。
有人看完后忍不住感慨AI的指数级发展:
仅今年一年就相继出现了Dall-E、Imagen、Stable Fusion、Midjourney、Lambda、Imagen Video等突破性的AI,现在又有了ChatGPT,而今年甚至还没真正结束。
不过也有泼冷水的网友认为ChatGPT的这波热议,只是新AI每次面世的必经过程。
值得一提的是,目前ChatGPT仍处于免费试用阶段,感兴趣的朋友可以自己上手试一试~
本文(含图片)为合作媒体授权创业邦转载,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。