人工智能安全治理框架 1.0等未经标识,导致用户难以识别交互对象及生成内容来源是否为人工智能系统, 难以鉴别生成内容的真实性,影响用户判断,导致误解。同时,人工智能生成 图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认 证机制,导致认证鉴权失效。 (c)不当使用引发信息泄露风险。政府、企业等机构工作人员在业务工 作中不规范、不当使用人工智能服务,向大模型输入内部业务数据、工业信息, 导致工作秘密、商业秘密、敏感业务数据泄露。 人工智能安全治理框架 智能医疗、类脑智能、脑机接口等领域安全人才队伍。 5.9 建立健全人工智能安全宣传教育、行业自律、社会监督机制。 面向政府、企业、社会公用事业单位加强人工智能安全规范应用的教育培训。 加强人工智能安全风险及防范应对知识的宣传,全面提高全社会人工智能安全 意识。指导支持网络安全、人工智能领域行业协会加强行业自律,制定提出高 于监管要求、具有引领示范作用的人工智能安全自律公约,引导督促人工智能 发、训练数据选用等 关键环节,切实践行“以人为本、智能向善”理念宗旨,遵循科技伦理规范,采 取开展内部研讨、组织专家评议、科技伦理审查、听取公众意见、与潜在目标 用户沟通交流、加强员工安全教育培训等措施。- 13 - 人工智能安全治理框架 (b)研发者应重视数据安全和个人信息保护,尊重知识产权和版权,确 保数据来源清晰、途径合规。建立完善的数据安全管理制度,确保数据安全性 和质量,以0 码力 | 20 页 | 3.79 MB | 1 月前3
共 1 条
- 1













