首页 评测 > 内容

像ChatGPT这样的人工智能聊天机器人可能会成为安全噩梦

时间:2024-03-11 17:14:40 来源:
导读 生成式人工智能聊天机器人(包括ChatGPT和GoogleBard)正在不断开发,以提高其可用性和功能,但研究人员也发现了一些相当令人担忧的安全漏洞...

生成式人工智能聊天机器人(包括ChatGPT和GoogleBard)正在不断开发,以提高其可用性和功能,但研究人员也发现了一些相当令人担忧的安全漏洞。

卡内基梅隆大学(CMU)的研究人员已经证明,可以对支持人工智能聊天机器人的语言模型进行对抗性攻击(顾名思义,这种攻击并不好)。这些攻击由字符链组成,这些字符可以附加到聊天机器人本来会拒绝响应的用户问题或陈述,这将覆盖应用于聊天机器人创建者的限制。

这些令人担忧的新攻击比最近发现的“越狱”更进一步。越狱是专门编写的指令,允许用户规避其创建者对聊天机器人(在本例中)施加的限制,从而产生通常被禁止的响应。

与故意且有时煞费苦心构建的越狱相比,卡耐基梅隆大学研究人员构建的攻击是以完全自动化的方式生成的——这意味着他们能够快速创建并大量使用这些攻击。

研究人员指出,这些攻击最初针对开源AI生成模型,但它们也可以针对公开可用的闭源聊天机器人,包括Bard、ChatGPT和Claude(来自Anthropic的ChatGPT和Bard竞争对手,专注于“有帮助的”),诚实且无害的人工智能系统”)。

这意味着,如果有人创建了一个生成这些字符串的程序,那么这些类型的攻击可能非常容易实施,可能会对用户的安全和隐私构成威胁。

随着这些聊天机器人的技术集成到越来越多的软件和应用程序中(例如微软计划通过Copilot将ChatGPT支持的AI引入Windows11),这种威胁会成倍增加。

如果这没有让您感到震惊,研究人员将继续推测聊天机器人背后的架构师是否可以修补此类所有漏洞。“据我们所知,没有办法修复这个问题,”卡耐基梅隆大学副教授ZicoKolter告诉《连线》杂志。

标签:
最新文章