人工智能安全治理框架 1.0不完备、标注人员能力不够、标注错误等问题,不仅会影响模型算法准确度、 可靠性、有效性,还可能导致训练偏差、偏见歧视放大、泛化能力不足或输出 错误。 (d)数据泄露风险。人工智能研发应用过程中,因数据处理不当、非授 权访问、恶意攻击、诱导交互等问题,可能导致数据和个人信息泄露。 3.1.3 系统安全风险 (a)缺陷、后门被攻击利用风险。人工智能算法模型设计、训练和验证 的标准接口、特性库和工 (b)混淆事实、误导用户、绕过鉴权的风险。人工智能系统及输出内容 等未经标识,导致用户难以识别交互对象及生成内容来源是否为人工智能系统, 难以鉴别生成内容的真实性,影响用户判断,导致误解。同时,人工智能生成 图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认 证机制,导致认证鉴权失效。 (c)不当使用引发信息泄露风险。政府、企业等机构工作人员在业务工 作中不规范、不当使用人工智能服务,向大模型输入内部业务数据、工业信息, 定时间段公众主流意识,进而向用户推送程式化、定制化信息及服务,“信息茧房” 效应进一步加剧。 (b)用于开展认知战的风险。人工智能可被利用于制作传播虚假新闻、- 7 - 人工智能安全治理框架 图像、音频、视频等,宣扬恐怖主义、极端主义、有组织犯罪等内容,干涉他 国内政、社会制度及社会秩序,危害他国主权;通过社交机器人在网络空间抢 占话语权和议程设置权,左右公众价值观和思维认知。 3.2.4 伦理域安全风险0 码力 | 20 页 | 3.79 MB | 1 月前3
Rust 程序设计语言 简体中文版 1.85.0165 9. 错误处理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 9.1. 用 panic! 处理不可恢复的错误 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 9.2. 用 Result 处理可恢复的错误 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 12.3. 重构以改进模块化与错误处理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .0 码力 | 562 页 | 3.23 MB | 25 天前3
共 2 条
- 1













