人工智能安全治理框架 1.0领域 应用场景,梳理人工智能技术本身,及其在应用过程中面临的各种安全风险 隐患。 2.2 技术应对措施方面。针对模型算法、训练数据、算力设施、产品服务、 应用场景,提出通过安全软件开发、数据质量提升、安全建设运维、测评监测 加固等技术手段提升人工智能产品及应用的安全性、公平性、可靠性、鲁棒性- 3 - 人工智能安全治理框架 的措施。 2.3 综合治理措施方面。明确技术研发机构、服务提供者、用户、政府 辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如 有异常难以快速修正和溯源追责。 (b)偏见、歧视风险。算法设计及训练过程中,个人偏见被有意、无意引入, 或者因训练数据集质量问题,导致算法设计目的、输出结果存在偏见或歧视, 甚至输出存在民族、宗教、国别、地域等歧视性内容。 (c)鲁棒性弱风险。由于深度神经网络存在非线性、大规模等特点,人 工智能易受复杂多变运行环境 构建负责任的人工智能研发应用体系。研究提出“以人为本、智能 向善”在人工智能研发应用中的具体操作指南和最佳实践,持续推进人工智能 设计、研发、应用的价值观、伦理观对齐。探索适应人工智能时代的版权保护 和开发利用制度,持续推进高质量基础语料库和数据集建设,为人工智能安全 发展提供优质营养供给。制定人工智能伦理审查准则、规范和指南,完善伦理 审查制度。 5.5 强化人工智能供应链安全保障。推动共享人工智能知识成果,开 源0 码力 | 20 页 | 3.79 MB | 1 月前3
共 1 条
- 1













