AI聊天机器人安全防线被攻破:卡内基梅隆大学研究揭示重大漏洞

7 阅读1分钟

研究人员发现AI聊天机器人的漏洞

休斯顿,我们遇到问题了。 卡内基梅隆大学和人工智能安全中心的研究人员取得了一项突破性发现,在科技界引起了震动。他们成功地绕过了AI开发者为限制大型语言模型而设置的“护栏”系统,这些模型包括OpenAI的ChatGPT、Google的Bard、Microsoft的Bing Chat以及Anthropic的Claude 2。这一发现引发了人们对大型语言模型在面向公众的应用以及作为互联网数字助理时可能被滥用的严重担忧。

护栏——关键的防御机制

像ChatGPT这样的语言模型被设计为既提供帮助又传递信息,同时遵守严格的道德准则。护栏正是为阻止这些AI聊天机器人生成有害或冒犯性内容而设置的安全机制,例如宣扬暴力、仇恨言论或提供非法活动指导。在此之前,这些护栏一直被视为确保AI技术负责任使用的关键。

漏洞被揭露

研究人员的发现揭示了包括GPT-3.5和GPT-4版本的ChatGPT、Google的Bard、Microsoft的……在内的各种AI聊天机器人护栏系统中的关键漏洞。 CSD0tFqvECLokhw9aBeRqvf7hHqAKJBNQE12jfL/l2u4zWY+N0gGm26kzXPJ/ly7132WSY1nRAgRfsBtwisqmCYjgsNgiOFpnT674t7MDUNAiZVeGrkhG0nCYECO3OEr