设为首页 - 加入收藏
广告 1000x90
您的当前位置:主页 > 资讯 > 行业新闻 > 正文

生成式 AI 安全问题持续恶化的 8 个原因

来源:未知 编辑:天选资讯 时间:2023-06-07

  人工智能(AI)在过去几年里取得了重大进展。复杂的语言模型可以编写长篇小说、基础网站代码以及分析数学问题。

  虽然其优势显而易见,但它也存在安全风险。有些人可能只是使用聊天机器人在考试中作弊,但其他人则可能直接利用它们进行网络犯罪。以下是生成式 AI 安全问题将持续存在的 8 个主要原因。

  越来越多的人工智能公司正在提供开源系统。他们会公开分享自己的语言模型,而不是保持封闭或专有。以 Meta 为例,与谷歌、微软和 OpenAI 不同,它允许数百万用户访问其语言模型 LLaMA。

  虽然开源代码可能会推动人工智能的发展,但它也存在风险。OpenAI 已经在控制其专有聊天机器人 ChatGPT 上遇到了麻烦,所以想象一下骗子可以用免费软件做什么?他们能够完全控制这些项目。

  AI 本质上是非道德的。它无法理解对与错——即使是高级系统也是遵循训练指令、指导方针和数据集。它们只是识别模式。

  为了打击非法活动,开发人员正通过设置限制来控制部分功能。虽然人工智能系统仍然会获取有害信息,但安全准则会禁止它们与用户共享这些信息。

  以 ChatGPT 为例。虽然它能回答关于木马的一般问题,但它不会讨论开发木马的过程。遗憾的是,限制并非万无一失。用户能够通过改写提示、使用令人困惑的语言和编写明确的详细说明来绕过限制。

  其中一种策略包括创造性地制定请求,并在向模型输入提示时省略明确提到标记的术语。根据 OpenAI 的使用条款,ChatGPT 公共接口将持续拒绝遵守用户开发恶意软件的请求,包括 试图生成勒索软件、键盘记录器、病毒或其他旨在施加某种程度伤害的软件的内容 。例如,当被要求用 python 创建键盘记录器恶意软件时,该模型会拒绝请求。

  然而,正如一名威胁行为者所指出的那样,通过简单的创造性的重新措辞,可能会绕过这些限制。

  如上所示,起初,该模型似乎拒绝了这一请求,声称它不会去创建一个键盘记录程序,而且在用户不知情或不同意的情况下将其发送到远程 IP 的程序是不道德的,甚至可能是非法的。

  然而,该模型似乎建议 Python 中的 pynput 和 ftplib 库可以在合法的用例中使用,用于记录击键并使用 FTP 将它们发送到远程 IP。之后,聊天机器人为基于 python 的键盘记录提供了脚本程序,并标注 此代码仅用于教育目的,不应用于不道德或非法目的。

  正如下面的截图所示,使用谨慎的措辞,网络犯罪分子似乎已经成功地请求 ChatGPT 重新创建恶意软件菌株和技术。在一个题为 ChatGPT - 恶意软件的好处 的帖子中,作者分享了一个 ChatGPT 生成的代码,用于基于 python 的窃取程序,它可以搜索常见的文件类型,将它们复制到临时文件夹,压缩文件并将它们上传到硬编码的 FTP 服务器。

  人工智能开发人员优先考虑多功能性而不是安全性。他们将资源用于培训平台,以完成更多样化的任务,最终减少限制。毕竟,市场更青睐功能性聊天机器人。

  例如,让我们比较一下 ChatGPT 和 Bing Chat。虽然 Bing Chat 拥有更复杂的语言模型来提取实时数据,但用户仍然倾向于更通用的选项 ChatGPT。Bing Chat 严格的限制机制禁止了许多任务。而另一方面,ChatGPT 则提供了一个灵活的平台,可以根据用户的提示生成截然不同的输出。

  下面是 ChatGPT 角色扮演的一个虚构角色。角色扮演是绕过 ChatGPT 反滥用控制的另一种策略。例如,威胁行为者首先会建立角色扮演游戏的规则,而不是要求 ChatGPT 测试给定网站中的漏洞 。这可以像让聊天机器人成为渗透测试人员一样简单,以引导模型详细说明测试可渗透漏洞的步骤。这种策略的更复杂的变体是一种被称为 提示注入 的技术,它试图 越狱 聊天机器人,方法是用一个新的提示来取代模型原来的主提示,绕过其创建者 OpenAI 施加的规则和限制。

  开源代码使得初创公司能够加入人工智能竞赛。他们将其集成到自己的应用程序中,而无需从头开始构建语言模型,从而节省了大量资源。在这种情况下,即便是独立的程序员也可以尝试开源代码。

  同样地,非专有软件也有助于推动人工智能的发展,但大量发布未经训练且复杂的系统弊大于利。网络犯罪分子很快就会滥用漏洞。他们甚至可能训练不安全的人工智能工具来执行非法活动。

  尽管存在这些风险,技术公司仍将继续发布人工智能驱动平台的不稳定测试版。AI 竞赛追求的就是速度。他们宁愿选择晚些时天选团队候再去解决漏洞,也不会选择推迟发布新产品。

  人工智能工具降低了网络犯罪的门槛。网络犯罪分子可以利用生成式 AI 技术来起草垃圾邮件,编写恶意软件代码,并利用它们建立网络钓鱼链接。他们甚至不需要技术经验。由于人工智能已经可以访问大量的数据集,用户只需欺骗它,让它产出有害的、危险的信息即可。

  OpenAI 设计 ChatGPT 的初衷并非为了非法活动,它甚至发布了针对非法活动的指导方针。然而,骗子几乎立刻就掌握了利用 ChatGPT 编码恶意软件和编写网络钓鱼电子邮件的能力。

  虽然 OpenAI 很快解决了这个问题,但它凸显了系统监管和风险管理的重要性。人工智能的成熟速度超出了所有人的预期。就连技术领导者也担心,这种超级智能技术如果落入坏人之手,可能会造成巨大的破坏。

  人工智能仍在不断发展。虽然人工智能在控制论中的应用可以追溯到 1940 年,但现代机器学习系统和语言模型直到最近才出现。我们无法将它们与 AI 的最初实现进行比较。即使是 Siri 和 Alexa 等相对先进的工具,与 LLM 驱动的聊天机器人相比也显得苍白无力。

  虽然它们可能是创新的,但实验性的功能也会产生新的问题。机器学习技术引发的引人注目的事故包括有缺陷的谷歌 SERP,以及有偏见的聊天机器人发表种族歧视言论。

  当然,开发人员可以解决这些问题。请注意,骗子会毫不犹豫地利用看似无害的漏洞,而有些损害是不可逆转的。所以在探索新平台时一定要小心。

  虽然公众可以访问复杂的语言模型和系统,但只有少数人知道它们是如何运行的。人们不应该再把人工智能当作玩具。要知道,产生表情包和回答琐事的聊天机器人也会编码恶意软件。

  不幸的是,集中的人工智能训练是不现实的。全球技术领导者们关注的不是免费的教育资源,而是人工智能驱动系统的发布。因此,用户可以访问他们几乎不了解的健壮、强大的工具。公众认知跟不上人工智能的竞赛。

  以 ChatGPT 为例。网络犯罪分子正利用 ChatGPT 的风靡,用伪装成 ChatGPT 应用程序的间谍软件欺骗受害者。这些结果显然都不是 OpenAI 的初衷。

  黑帽黑客通常比道德黑客获得更多。虽然,为全球技术巨头提供渗透测试服务的薪水很高,但只有一小部分网络安全专业人士能获得这份工作。大多数人都在网上做自由职业者。他们可以通过 HackerOne 和 Bugcrowd 等平台的漏洞悬赏项目赚取几百美元。

  当然,他们也可以铤而走险,利用挖到的漏洞赚取数万美元。他们可能会通过泄露机密数据来勒索受害企业,或者利用窃取的个人身份信息(PII)进行身份盗窃等等。

  每个机构(无论大小)都必须正确实施人工智能系统。与普遍的看法相反,黑客并不局限于技术初创企业和中小企业。过去十年中最具历史意义的一些数据泄露事件涉及 Facebook、雅虎甚至是美国政府。

  考虑到这些问题,我们是否应该完全避开 AI?答案当然是否定的!AI 本质上是非道德的;所有的安全风险都源于实际使用它们的人。无论这些系统发展到什么程度,他们都有能力找到利用人工智能系统的方法。

  因此,与其担心人工智能带来的网络安全威胁,不如了解如何预防它们。别担心,简单的安全措施就能产生很大的效果。例如,对可疑的人工智能应用保持警惕,避免奇怪的超链接,并以怀疑的态度看待人工智能内容等。

  用vivo S17 Pro拍人像是怎样的一种体验?自然感,就是高级感!

  真颠覆XR!苹果Vision Pro技术、体验几乎完美 但是一根线毁所有

  李楠评苹果Vision Pro:算力爆炸、交互革命 3500美元真不贵

  像《钢铁侠》贾维斯!苹果Vision Pro头显完全抛弃手柄:直接手势操作

  25000 元!苹果首款头显发布,还有最强 Mac 、iOS 17 等多款新品发布天选

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片

织梦模板大全 dedecms.codesdq 联系QQ:121673232 邮箱:121673232@qq.com

Copyright © 2002-2011 DEDECMS. 织梦科技 版权所有 Power by DedeCms

Top