Rust 程序设计语言 简体中文版 1.85.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 13.2. 使用迭代器处理元素序列 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 中,这些错误只能通过广泛的测 试和经验丰富的开发者的仔细审核代码来捕捉。在 Rust 中,编译器充当了守门员的角色,拒 绝编译包含这些难以察觉的错误的代码,包括并发错误。通过与编译器合作,团队可以将时间 集中在程序逻辑上,而不是追踪 bug。 Rust 也为系统编程世界带来了现代化的开发工具: • Cargo 是内置的依赖管理器和构建工具,它能轻松增加、编译和管理依赖,并使依赖在 Rust 生态系统中保持一致。 target/debug 下生成可执行文件。这些优化可以让 Rust 代码运行的更快,不 过启用这些优化也需要消耗更长的编译时间。这也就是为什么会有两种不同的配置:一种是为 了开发,你需要快速且频繁地重新构建;另一种是为用户构建最终程序,它们不会经常重新构 建,并且希望程序运行得越快越好。如果你在基准测试代码的运行时间,请确保运行 cargo build --release 并使用 target/release 下的可执行文件进行测试。0 码力 | 562 页 | 3.23 MB | 25 天前3
人工智能安全治理框架 1.0使用、滥用甚至恶意利用带来的安全风险。 3.1 人工智能内生安全风险 3.1.1 模型算法安全风险 (a)可解释性差的风险。以深度学习为代表的人工智能算法内部运行逻 辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如 有异常难以快速修正和溯源追责。 (b)偏见、歧视风险。算法设计及训练过程中,个人偏见被有意、无意引入, 或者因训练数据集质量问题,导致算法设计目的、输出结果存在偏见或歧视, 动挖掘与利用漏洞等方式,对广泛潜在目标发起网络攻击。 3.2.3 认知域安全风险 (a)加剧 “信息茧房” 效应风险。人工智能将广泛应用于定制化的信息 服务,收集用户信息,分析用户类型、需求、意图、喜好、行为习惯,甚至特 定时间段公众主流意识,进而向用户推送程式化、定制化信息及服务,“信息茧房” 效应进一步加剧。 (b)用于开展认知战的风险。人工智能可被利用于制作传播虚假新闻、- 7 - 人工智能安全治理框架 图像 需从 训练数据、算力设施、模型算法、产品服务、应用场景各方面采取技术措施予 以防范。 4.1 针对人工智能内生安全风险 4.1.1 模型算法安全风险应对 (a)不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、- 8 - 人工智能安全治理框架 推理逻辑、技术接口、输出结果提供明确说明,正确反映人工智能系统产生结 果的过程。 (b)在设计、研发、部署、维护过程中建立并实施安全开发规范,尽可0 码力 | 20 页 | 3.79 MB | 1 月前3
共 2 条
- 1













