确保生成性人工智能的安全数据、合规性和

保障生成式 AI 的安全性:数据、安全合规与隐私考虑

关键要点

在本篇文章中,我们将探讨如何保障生成式人工智能(AI)的安全性,尤其是关注于数据治理、合规性与隐私风险。随着生成式 AI的快速普及,我们需要认真考虑用户数据的存储、处理和共享方式,因此,建立相应的治理策略尤为重要。本文将提供有关在部署与建设生成式 AI工作负载时所面临的监管、隐私与合规挑战的指导。

生成式人工智能(AI)正在吸引全球各组织与个人的关注,许多人已经开始利用这一技术提升工作效率、改善客户体验等。

使用生成式 AI 服务时,您需要了解输入应用程序的信息是如何被存储、处理、共享以及被模型提供者使用的。提供生成式 AI解决方案的组织有责任为其用户和消费者构建适当的保护措施,以帮助验证其应用程序的隐私性、合规性和安全性。

本篇文章延续了我们关于如何保障生成式 AI 安全性的系列,提供关于监管、隐私与合规挑战的指导。我们建议您从阅读此系列的第一篇文章开始:,该文介绍了生成式 AI 安全范围矩阵工具,旨在帮助您识别生成式 AI 的应用案例,并为接下来的系列打下基础。

不同范围的生成式 AI 应用

我们可以将范围矩阵中的应用案例广泛分为两类:预构建的生成式 AI 应用(范围 1 和 2)以及自建的生成式 AI 应用(范围 3-5)。虽然所有五个范围都适用某些一致的法律、治理与合规要求,但每个范围也有其独特的要求和考虑。下面我们将覆盖每个范围的一些关键考虑因素和最佳实践。

范围 1:消费者应用

消费者应用通常面向家庭或非专业用户,通常通过网页浏览器或移动应用访问。围绕生成式 AI的初步热潮中的许多应用都属于此范围,并且可以是免费或收费的,使用标准的最终用户许可协议(EULA)。虽然这些应用可能并非专为企业使用而构建,但由于广泛的流行度,您的员工可能会个人使用这些应用并希望在工作任务中利用其能力。

许多大型组织认为这些应用存在风险,因为他们无法控制输入的数据发生了什么或谁能够访问这些数据。为此,他们禁止使用范围 1的应用。尽管我们鼓励认真评估风险,但全面禁用可能会适得其反。禁用范围 1 的应用可能会导致类似影子 IT的意外后果,例如员工使用个人设备绕过禁止,减少对他们使用的软件应用的可见性。相反,组织应考虑哪些应用是可被有效使用的,同时确保其在组织可控制的范围内使用,并且仅限可用于的数据。

为了帮助您的员工理解生成式 AI 相关的风险及可接受的使用方式,您应该创建一个生成式 AI治理策略,具体的使用指南,并确保用户在适当的时间了解到这些政策。例如,您可以在通过浏览器访问生成式 AI 服务时,提供一个链接到公司的公共生成式 AI使用政策的入口,并设置一个必须由他们每次在您组织管理的设备上访问范围 1 服务时接受的按钮。这将帮助确保您的员工已经接受这些政策并了解相关风险。

在帮助处理与范围 1 应用相关的一些关键风险时,优先考虑以下几点: | 考虑因素 | 说明 | | -------- | ----- | | 确定员工当前使用的生成式 AI 服务 | 识别员工正在使用和希望使用的生成式 AI 服务。 | | 理解服务提供者的服务条款和隐私政策 | 包括谁有权访问数据,数据可用于何种用途等。 | | 了解模型提供者用于训练模型的源数据 | 评估输出的准确性和相关性。 | | 寻求法律建议 | 确定生成式 AI 应用的输出的所有权及潜在责任。 | | 持续监测政策的变化 | 没有提前通知时,EULA 和隐私政策可能会发生变化。 |

对于范围 1 应用,最佳做法是将输入提示和生成内容视为公开信息,避免使用个人可识别信息(PII)、高度敏感、保密、专属或公司知识产权数据。

范围 2:企业应用

范围 2 应用与范围 1 应用的主要区别在于,范围 2应用提供了谈判合同条款和建立正式的商业对商业(B2B)关系的机会。这些应用面向专业使用的组织,具有明确的服务水平协议(SLA)和许可条款,通常在企业协议或标准商业合同条款下支付。通常情况下,企业协议会限制允许使用的数据类型。

范围 1 中的大多数考虑因素同样适用于范围 2。不过,在范围 2 中,您是故意使用专有数据并鼓励在组织内广泛使用该服务。在评估风险时,请考虑以下额外点: | 考虑因素 | 说明 | | -------- | ----- | | 确定可接受的数据分类 | 允许与每个范围 2 应用一起使用的数据分类,并在培训政策中反映。 | | 理解服务的数据流 | 询问提供者他们如何处理和存储您的数据。 | | 数据居住地的要求 | 了解使用该应用的数据将存储在哪里,并确保符合法律或监管义务。 | | 保护 API 密钥 | 确保有强有力的机制保护 API 密钥,监控其使用情况。 |

范围 3:预训练模型

相对预构建应用(范围 1 和 2),范围 3 应用涉及通过使用可用的预训练基础模型构建您自己的生成式 AI 应用,这些模型可通过如 和 的服务访问。您可以将这些解决方案用于您的员工或外部客户。许多范围 1 和 2 的指导同样适用;然而,还需考虑以下额外问题: | 考虑因素 | 说明 | | -------- | ----- | | 提供反馈机制 | 确保提供能够使您与模型供应商反馈不符预期的机制。 | | 遗赠政策 | 确保提供商具有因潜在版权内容生成的法律挑战的赔偿政策。 | | 数据的保护 | 理解您的数据是否包含在提示或响应中,如何保护,以及是否可以选择不用于其他目的。 |

生成式 AI 的监管与立法

生成式 AI 目前迅速演变的监管环境可能会影响您以及您在开发新服务时使用 AI 作为工作负载的一部分。AWS 致力于负责任地开发 AI,采取以人为本的方法,将教育、科学和客户作为优先事项,以在整个 AI 生命周期中整合负责任的 AI。有关更多详细信息,请参见我们的 资源。

我们建议您密切关注监管环境,并根据需要准备调整项目范围。最重要的是,您应了解相关法律的变动,并与您的法律顾问保持沟通,确保遵守相关规定。作为建设自身生成式 AI 应用的组织,您应该意识到新立法的草案(如 EU AI Act),并审查其对您的潜在影响。

在 AWS,我们致力于简化帮助您实现生成式 AI 的业务价值,借助生成式 AI 重新构想客户体验、提升生产力并加速增长。如果您希望深入了解生成式 AI安全的其他领域,请查看我们在该系列中的其他文章:

如果您对本文有反馈,请在下面的评论区留言。如果您有任何问题,请在 中发起一个新线程,或 。

Leave a Reply

Required fields are marked *