人工智能安全治理框架 1.01.4 开放合作、共治共享。在全球范围推动人工智能安全治理国际合作, 共享最佳实践,提倡建立开放性平台,通过跨学科、跨领域、跨地区、跨国界 的对话和合作,推动形成具有广泛共识的全球人工智能治理体系。 2. 人工智能安全治理框架构成 基于风险管理理念,本框架针对不同类型的人工智能安全风险,从技术、 管理两方面提出防范应对措施。同时,目前人工智能研发应用仍在快速发展, 安全风险的表现形式 政府部门、行业协会、社会组织等多方参与的人工智能安全风险综合治理制度 规范。 5.1 实施人工智能应用分类分级管理。根据功能、性能、应用场景等, 对人工智能系统分类分级,建立风险等级测试评估体系。加强人工智能最终用 途管理,对特定人群及场景下使用人工智能技术提出相关要求,防止人工智能 系统被滥用。对算力、推理能力达到一定阈值或应用在特定行业领域的人工智 能系统进行登记备案,要求其具备在设计、研发、测试、部署、使用、维护等 5.3 完善人工智能数据安全和个人信息保护规范。针对人工智能技术 及应用特点,明确人工智能训练、标注、使用、输出等各环节的数据安全和个 人信息保护要求。 5.4 构建负责任的人工智能研发应用体系。研究提出“以人为本、智能 向善”在人工智能研发应用中的具体操作指南和最佳实践,持续推进人工智能 设计、研发、应用的价值观、伦理观对齐。探索适应人工智能时代的版权保护 和开发利用制度,持续推进0 码力 | 20 页 | 3.79 MB | 1 月前3
共 1 条
- 1













