 Rust 程序设计语言 简体中文版 1.85.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 14.1. 采用发布配置自定义构建 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rust 中文社区翻译。 本书的当前版本假设你使用 Rust 1.85.0(2025-02-17 发布)或更高版本并在所有项目的 Cargo.toml 文件中通过 edition = "2024"将其配置为使用 Rust 2024 edition 惯用法。请查 看第一章的 “安装” 部分了解如何安装和升级 Rust。 本书的英文原版 HTML 格式可以在 https://doc.rust-lang 文本编辑器和集成开发环境(Integrated Development Environments, IDE) 本书不会假设你使用何种工具来编写 Rust 代码。几乎任何文本编辑器都可以搞定!然而,很 多文本编辑器和集成开发环境(IDE)内置了 Rust 支持。你总是可以在 Rust 官网的工具页面 找到很多相对流行的编辑器和 IDE 列表。 离线使用本书 在一些示例中,我们将会使用标准库之外的 Rust0 码力 | 562 页 | 3.23 MB | 25 天前3 Rust 程序设计语言 简体中文版 1.85.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 14.1. 采用发布配置自定义构建 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rust 中文社区翻译。 本书的当前版本假设你使用 Rust 1.85.0(2025-02-17 发布)或更高版本并在所有项目的 Cargo.toml 文件中通过 edition = "2024"将其配置为使用 Rust 2024 edition 惯用法。请查 看第一章的 “安装” 部分了解如何安装和升级 Rust。 本书的英文原版 HTML 格式可以在 https://doc.rust-lang 文本编辑器和集成开发环境(Integrated Development Environments, IDE) 本书不会假设你使用何种工具来编写 Rust 代码。几乎任何文本编辑器都可以搞定!然而,很 多文本编辑器和集成开发环境(IDE)内置了 Rust 支持。你总是可以在 Rust 官网的工具页面 找到很多相对流行的编辑器和 IDE 列表。 离线使用本书 在一些示例中,我们将会使用标准库之外的 Rust0 码力 | 562 页 | 3.23 MB | 25 天前3
 人工智能安全治理框架 1.0的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、- 5 - 人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国家利用技术垄断和出口管制等单边强制措施制造发展壁垒,恶意阻断 保数据来源清晰、途径合规。建立完善的数据安全管理制度,确保数据安全性 和质量,以及合规使用,防范数据泄露、流失、扩散等风险,人工智能产品终 止下线时妥善处理用户数据。 (c)研发者应确保模型算法训练环境的安全性,包括网络安全配置和数 据加密措施等。 (d)研发者应评估模型算法潜在偏见,加强训练数据内容和质量的抽查 检测,设计有效、可靠的对齐算法,确保价值观风险、伦理风险等可控。 (e)研发者应结合目标市场适用法律要求和风险管理要求,评估人工智 可控性等,定期进行系统审计,加强风险防范意识与风险应对处置能力。 (c)重点领域使用者在使用人工智能产品前,应全面了解其数据处理和 隐私保护措施。 (d) 重点领域使用者应使用高安全级别的密码策略,启用多因素认证机 制,增强账户安全性。 (e)重点领域使用者应增强网络安全、供应链安全等方面的能力,降低 人工智能系统被攻击、重要数据被窃取或泄露的风险,保障业务不中断。 (f) 重点领域使用者应合0 码力 | 20 页 | 3.79 MB | 1 月前3 人工智能安全治理框架 1.0的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、- 5 - 人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国家利用技术垄断和出口管制等单边强制措施制造发展壁垒,恶意阻断 保数据来源清晰、途径合规。建立完善的数据安全管理制度,确保数据安全性 和质量,以及合规使用,防范数据泄露、流失、扩散等风险,人工智能产品终 止下线时妥善处理用户数据。 (c)研发者应确保模型算法训练环境的安全性,包括网络安全配置和数 据加密措施等。 (d)研发者应评估模型算法潜在偏见,加强训练数据内容和质量的抽查 检测,设计有效、可靠的对齐算法,确保价值观风险、伦理风险等可控。 (e)研发者应结合目标市场适用法律要求和风险管理要求,评估人工智 可控性等,定期进行系统审计,加强风险防范意识与风险应对处置能力。 (c)重点领域使用者在使用人工智能产品前,应全面了解其数据处理和 隐私保护措施。 (d) 重点领域使用者应使用高安全级别的密码策略,启用多因素认证机 制,增强账户安全性。 (e)重点领域使用者应增强网络安全、供应链安全等方面的能力,降低 人工智能系统被攻击、重要数据被窃取或泄露的风险,保障业务不中断。 (f) 重点领域使用者应合0 码力 | 20 页 | 3.79 MB | 1 月前3
共 2 条
- 1













