新型越狱技术利用虚构世界操纵人工智能
New Jailbreak Technique Uses Fictional World to Manipulate AI

原始链接: https://www.securityweek.com/new-jailbreak-technique-uses-fictional-world-to-manipulate-ai/

请启用JavaScript和Cookie以继续

Hacker News上的一篇文章讨论了一种据称新的AI越狱技术,该技术涉及虚构场景。用户很快指出这种方法并非新颖,sigmar 指出它已经存在两年半了。Terr_解释说,大型语言模型(LLM)的“安全控制”本质上是虚构的框架,很容易被有创意的提示绕过。lrvick 证实了其有效性,并表示他们已经使用了几个月“侠盗猎车手5宇宙”提示来获得详细的非法建议。Koolba 幽默地质疑了使用LLM进行实际犯罪计划的频率。总体共识是,这种“新”越狱技术是一种已知的方法,它利用了LLM遵循虚构语境(即使这些语境涉及绕过预期的安全限制)的倾向。

原文
联系我们 contact @ memedata.com