阻止国家相关威胁行为者对人工智能的恶意使用
GT
GT
发布于 2024-02-17 / 54 阅读 / 0 评论 / 0 点赞

阻止国家相关威胁行为者对人工智能的恶意使用


跳至
就在我们欢庆与Sora带来的震撼时,OpenAI发布了《阻止国家相关威胁行为者对人工智能的恶意使用》的博文,以下内容为机翻转载,感兴趣的看看原文:《Disrupting malicious uses of AI by state-affiliated threat actors》 https://t.topgpt.us/a8ik0

阻止国家相关威胁行为者对人工智能的恶意使用

我们终止了与国家相关威胁行为者相关的账户。我们的研究结果表明,我们的模型仅为恶意网络安全任务提供有限的增量功能。

2024 年 2 月 14 日

作者:OpenAI

公告安全与对准

我们构建的人工智能工具可以改善生活并帮助解决复杂的挑战,但我们知道恶意行为者有时会试图滥用我们的工具来伤害他人,包括促进网络行动。在这些恶意行为者中,国家附属团体——可能拥有先进技术、大量财政资源和熟练人员——可能对数字生态系统和人类福祉构成独特的风险。 

我们与 Microsoft Threat Intelligence 合作,阻止了五个试图利用 AI 服务支持恶意网络活动的国家附属行为者。我们还概述了检测和干扰此类行为者的方法,以促进其活动的信息共享和透明度。

破坏威胁行为者

基于与 Microsoft 的合作和信息共享,我们阻止了五个与国家有关的恶意行为者:两个与中国有关的威胁行为者,称为 Charcoal Typhoon 和 Salmon Typhoon;与伊朗有关联的威胁组织 Crimson Sandstorm;朝鲜演员 Emerald Sleet;还有俄罗斯演员森林暴雪。已识别的与这些参与者相关的 OpenAI 帐户已被终止。

这些参与者通常寻求使用 OpenAI 服务来查询开源信息、翻译、查找编码错误以及运行基本编码任务。 

具体来说: 

  • Charcoal Typhoon 使用我们的服务来研究各种公司和网络安全工具、调试代码和生成脚本,并创建可能用于网络钓鱼活动的内容。

  • Salmon Typhoon 使用我们的服务来翻译技术论文、检索有关多个情报机构和区域威胁参与者的公开信息、协助编码以及研究可以在系统上隐藏流程的常见方式。

  • Crimson Sandstorm 使用我们的服务来编写与应用程序和 Web 开发相关的脚本支持、生成可能用于鱼叉式网络钓鱼活动的内容,以及研究恶意软件逃避检测的常见方式。

  • Emerald Sleet 使用我们的服务来识别专注于亚太地区防御问题的专家和组织,了解公开的漏洞,帮助完成基本脚本任务,并起草可用于网络钓鱼活动的内容。

  • Forest Blizzard 使用我们的服务主要用于卫星通信协议和雷达成像技术的开源研究,以及脚本任务的支持。

有关威胁行为者的性质及其活动的更多技术细节可以在今天发布的Microsoft 博客文章中找到。 

这些参与者的活动与我们之前与外部网络安全专家合作进行的红队评估一致 ,评估结果发现,GPT-4 只为恶意网络安全任务提供有限的增量功能,超出了公开可用的、非人工智能驱动的能力所能实现的能力工具

多管齐下确保人工智能安全

尽管我们当前的恶意网络安全任务模型的能力有限,但我们认为领先于重大且不断变化的威胁非常重要。为了应对威胁,我们正在采取多管齐下的方法来打击恶意的国家附属行为者对我们平台的使用: 

  • 监视和破坏恶意的国家附属行为者。我们投资技术和团队来识别和破坏复杂的威胁行为者的活动。我们的情报和调查、安全、保障和诚信团队以多种方式调查恶意行为者,包括使用我们的模型寻找线索、分析对手如何与我们的平台互动,并评估他们更广泛的意图。一旦检测到,OpenAI 就会采取适当的行动来破坏他们的活动,例如禁用他们的帐户、终止服务或限制对资源的访问。 

  • 与AI生态系统合作。OpenAI 与行业合作伙伴和其他利益相关者合作,定期交换有关恶意国家附属行为者检测到的人工智能使用的信息。此次合作体现了我们对促进人工智能技术安全、可靠和透明的开发和使用的自愿承诺,旨在通过信息共享促进集体应对全生态系统风险。 

  • 迭代安全缓解措施。从现实世界的使用(和误用)中学习是随着时间的推移创建和发布越来越安全的人工智能系统的关键组成部分。我们从这些行为者的滥用行为中吸取教训,并用它们来指导我们的迭代安全方法。了解最老练的恶意行为者如何试图利用我们的系统进行伤害,可以为我们提供一个信号,让我们了解未来可能会变得更加普遍的做法,并使我们能够不断发展我们的防护措施。 

  • 公开透明。长期以来,我们一直致力于强调人工智能的潜在滥用[链接1链接2 ],并与行业和公众分享我们在安全方面的知识[链接1、 链接2] 。作为我们持续努力推进负责任地使用人工智能的一部分,OpenAI 将继续向公众和利益相关者通报我们系统中检测到的国家附属恶意行为者使用人工智能的性质和程度,以及在必要时针对他们采取的措施。我们相信,共享和透明度可以提高所有利益相关者的认识和准备,从而针对不断变化的对手提供更强大的集体防御。 

绝大多数人使用我们的系统来帮助改善他们的日常生活,从学生的虚拟导师到可以为视障人士转录世界的应用程序。与许多其他生态系统的情况一样,有一些恶意行为者需要持续关注,以便其他人可以继续享受好处。尽管我们努力最大程度地减少此类行为者的潜在滥用行为,但我们无法阻止每一个实例。但通过继续创新、调查、协作和共享,我们使恶意行为者更难在整个数字生态系统中不被发现,并改善其他人的体验。


评论