GlobalSign 博客

生成式AI安全:你应该知道的8个风险

人工智能就在我们周围。每天,数以千计的新AI程序,如ChatGPT、Generative AI等涌现出来。我们经常听到这样的话,如果我们不使用人工智能,我们就会落后。但不要让使用人工智能的冲动让你忘记了在线安全风险。

我们正在将AI应用到我们的web浏览器、电子邮件和文件系统中。我们让它像一个数字助手一样为我们工作,甚至与它共享我们自己的和我们的业务数据。所有这些都会导致新的网络安全问题,增加老式黑客攻击的机会。

生成式AI已经给许多领域带来了巨大的变化,比如艺术和内容创作。但是随着越来越多的人使用这项技术,我们需要考虑保护数据的隐私和安全。在这篇博客文章中,我们将研究生成式人工智能如何影响数据安全,以及我们如何减轻任何可能的风险。

生成式AI的兴起以及它是如何工作的?

生成式AI是一种通过生成式建模进行操作的机器学习程序。该技术训练模型以生成与训练数据共享相同模式和特征的新数据。以下是生成式AI的工作原理:

  • 数据收集:生成式人工智能需要大量的数据进行训练。这可以是任何东西——图片、文本、音乐等,取决于人工智能被训练生成什么。
  • 训练:一旦收集到数据,通常使用一种称为生成对抗网络(GAN)的特定类型的神经网络来训练模型。GAN由两部分组成:生成器和鉴别器。生成器创建新的数据实例,而鉴别器评估它们的真实性;也就是说,它决定每个数据实例是否属于原始数据集。
  • 学习:然后将生成器和鉴别器相互设置。生成器试图创建尽可能好的模拟数据,鉴别器试图更好地找出哪些数据是真实的,哪些是假的。随着时间的推移,生成器越来越擅长使数据看起来像训练数据,直到鉴别器无法区分两者之间的差异。
  • 生成新数据:一旦训练完毕,生成器可以创建与训练数据相似但不完全相同的新数据实例。这对于各种应用程序都很有用,例如创建新图像,编写文本,创作音乐等。

请记住,虽然GANs是一种流行的方法,但在生成式AI中也使用了其他技术,如变分自编码器(VAE)和自回归模型。虽然生成式人工智能取得了一些惊人的进展,但它也带来了保持数据隐私和机密的问题。

8个生成式AI的安全风险

以下是你应该意识到的生成式AI的8个风险。

1.    数据溢出

人们可以通过开放文本框将任何类型的数据输入到生成式AI服务中,包括敏感、私人或专有信息。以GitHub Copilot这样的代码生成服务为例。发送到此服务的代码不仅可能包含公司的机密知识产权,还可能包含敏感数据,如具有访问客户信息的特殊权限的API密钥。

2.    IP泄露

另一个严重的问题是使用生成式AI时的IP泄露和机密性,基于web或app的AI工具的易用性可能会产生另一种形式的阴影。鉴于这些在线生成式AI应用程序在互联网上发送和处理数据,使用VPN可以提供额外的安全层,屏蔽你的IP地址并对传输中的数据进行加密。

3.    数据训练

生成式AI模型需要大量的数据来学习,其中一些数据可能是敏感的。如果不小心管理,这些数据可能会在训练期间无意中泄露,导致潜在的隐私问题。

4.    数据储存

生成式人工智能模型会随着更多的数据而变得更好,并且在模型学习和改进时,这些数据需要保存在某处。这意味着敏感的业务数据保存在第三方存储空间中,如果没有适当地使用加密和访问控制等保护,这些数据可能会被滥用或泄露。组织应该实施一个彻底的、安全的数据策略来防止泄露。

5.    依从性

敏感数据被发送到第三方AI提供商,如OpenAI。如果这些数据包括个人身份信息(PII),它可能会造成与通用数据保护条例(GDPR)或加州隐私权利法案(CPRA)等法律的合规性问题。

6.    合成数据

生成式人工智能可以创建看起来很像真实数据的合成数据,这可能会导致人们担心能否找出数据来自谁。合成数据可能具有小的模式或细节,可能导致人或敏感特征被识别。

7.    意外泄漏

生成模型,特别是基于文本或图像的模型,可能会无意中包含来自训练数据的不应该显示的信息。这可能是个人信息或机密业务数据。

8.    人工智能滥用和恶意攻击

生成式人工智能可能被恶意行为者滥用,以创建deepfakes或生成误导性信息,促进假新闻和虚假信息的传播。此外,如果人工智能系统没有充分的安全保护,它们可能成为网络攻击的目标,产生额外的数据安全担忧。

结论

生成式AI为许多领域的新想法和进展提供了很多可能性,但我们必须注意它可能带来的安全问题。这可能是由于未经审查的提示、不小心泄露敏感数据、存储数据的问题、全球法律的困难以及信息泄露。

尽管有许多与生成式人工智能有关的担忧,但公司不应忽视这项技术。相反,他们应该制定一个全公司范围的计划,专注于建立对人工智能的信任,管理风险和保护人工智能系统。

这样,组织可以利用生成式AI提供的优势,同时最大限度地减少任何潜在问题。随着我们走向一个充满人工智能的未来,确保我们安全地使用生成式AI不仅是一件好事,而且是绝对必要的。


注:这篇博客文章是由一名客座撰稿人撰写的,目的是为我们的读者提供更广泛的内容。在这篇客座作者文章中所表达的观点仅代表作者本人的观点,并不一定代表GlobalSign的观点。

近期博客