澳大利亚发布自愿性人工智能安全标准

作者: 2024-12-05 16:40 来源:
放大 缩小

95日,澳大利亚工业、科学和资源部(DISR)公布了自愿性人工智能(AI)安全标准[1],旨在帮助澳各类机构安全负责任地开发和部署AI,帮助机构从AI中受益,减轻和管理AI可能对机构、人员和团体构成的风险。该标准适用于整个AI供应链中的所有机构,主要内容如下。

1、建立、实施和发布问责流程,包括治理、内部能力和合规战略,创建机构使用AI的基础

机构要任命领导者,由其问责AI系统的管理和成果,以及该机构内安全、负责任地使用AI;创建、记录AI部署和使用的整体目标和政策,它们应符合该机构的战略目标和价值观;在实际工作中开展战略性AI培训。

2、建立和实施风险管理流程,识别和降低风险

考虑AI系统的特性,创建并推广机构层面的风险管理方法。致力于严谨的风险和影响管理流程,以评估AI系统对机构风险的承受力。

3、保护AI系统并实施数据治理措施,管理数据质量及来源

AI系统的数据治理、隐私和网络安全管理等采用适合的多种方法。致力于评价与数据质量和来源、信息安全、信息管理等有关系的每个AI子系统,包括第三方提供的子系统。

4、测试AI模型和系统,评估模型性能并监测部署的系统

在部署AI模型和系统前彻底测试它们是否达到验收标准,记录结果并决定是否采用;及时并定期监测、评估和汇报AI系统的性能,确保每个系统与其风险水平相适应;详述、解释和记录机构需要满足的验收标准,以考虑充分控制潜在危害。

5、人工控制或干预AI系统,实现有意义的人工监督

选择有适当能力且授权的人员负责每个AI系统和产品;在实施前为每个AI系统创建并记录其能力和监督与干预要求。

6、告知最终用户有关AI决策、与AI的交互及AI生成等信息

要为受AI系统的决策或行为影响的利益相关者创建各种流程,以便他们理解可能影响其AI系统在何时使用;让利益相关者有机会质疑AI系统的决策和输出。

7、为AI系统影响的用户、机构、人员和社会等提供各种流程,帮助质疑AI如何使用、决策、互动或产生结果

机构要为潜在的受影响的利益相关者创建交流程序,让其理解使用AI的目的和方法等。

8、对AI供应链中的下游机构就数据、模型和系统保持透明性,帮助有效应对风险

机构要提供AI系统的构成、如何建立等内容,并让下游机构了解和管理AI系统使用的风险。

9、保存维护记录,以展示其已实施和正在遵守基本标准的情况

将来可要求这些记录提供给监管机构,以评估高风险环境中的AI系统的使用情况。要列出所用和部署的最新式AI系统,了解和记录所用和部署的AI系统的关键信息。

10、让利益相关者参与进来,评估其各种需求和使用情形

重点关注AI使用对安全、多样、包容和公平等方面的影响。机构要确认哪些关键利益相关者会受本机构所用AI的影响,并记录利益相关者的需求等。

9条标准与拟议的高风险环境中部署AI的强制性政策一致,第10条强调与利益相关者持续接触,以评估其需求的重要性。(刘栋)



[1] Voluntary AI Safety Standard. https://www.industry.gov.au/publications/voluntary-ai-safety-standard


附件: