 Rust 程序设计语言 简体中文版 1.85.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 8.2. 使用字符串储存 UTF-8 编码的文本 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . world!。首次运行 cargo build 时,也会使 Cargo 在项目根目录创建一个新文件:Cargo.lock。这个文件记录项目依赖的实际版本。这个 项目并没有依赖,所以其内容比较少。你永远也不需要手动编辑该文件;Cargo 会为你管理 它。 我们刚刚使用 cargo build 构建了项目,并使用 ./target/debug/hello_cargo 运行了程序,也 可以使用 cargo run 我们现在想将某个值绑定在变量上。等号的右边是 guess 所绑定的值,它是 String::new 的结果,这个函数会返回一个 String 的新实例。String 是一个标准库提供的字 符串类型,它是 UTF-8 编码的可增长文本块。 ::new 那一行的 :: 语法表明 new 是 String 类型的一个 关联函数(associated function)。关 联函数是针对某个类型实现的函数,在这个例子中是0 码力 | 562 页 | 3.23 MB | 26 天前3 Rust 程序设计语言 简体中文版 1.85.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 8.2. 使用字符串储存 UTF-8 编码的文本 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . world!。首次运行 cargo build 时,也会使 Cargo 在项目根目录创建一个新文件:Cargo.lock。这个文件记录项目依赖的实际版本。这个 项目并没有依赖,所以其内容比较少。你永远也不需要手动编辑该文件;Cargo 会为你管理 它。 我们刚刚使用 cargo build 构建了项目,并使用 ./target/debug/hello_cargo 运行了程序,也 可以使用 cargo run 我们现在想将某个值绑定在变量上。等号的右边是 guess 所绑定的值,它是 String::new 的结果,这个函数会返回一个 String 的新实例。String 是一个标准库提供的字 符串类型,它是 UTF-8 编码的可增长文本块。 ::new 那一行的 :: 语法表明 new 是 String 类型的一个 关联函数(associated function)。关 联函数是针对某个类型实现的函数,在这个例子中是0 码力 | 562 页 | 3.23 MB | 26 天前3
 人工智能安全治理框架 1.0生态,增强供应链来源多样性,保障人工智能供应链安全性稳定性。 5.6 推进人工智能可解释性研究。从机器学习理论、训练方法、人机 交互等方面组织研究人工智能决策透明度、可信度、纠错机制等问题,不断提 高人工智能可解释性和可预测性,避免人工智能系统意外决策产生恶意行为。 5.7 人工智能安全风险威胁信息共享和应急处置机制。持续跟踪分析 人工智能技术、软硬件产品、服务等方面存在的安全漏洞、缺陷、风险威胁、 安全事件等动向,协调 (a)对于政府部门、关键信息基础设施以及直接影响公共安全和公民生- 15 - 人工智能安全治理框架 命健康安全的领域等重点领域使用者,应审慎评估目标应用场景采用人工智能 技术后带来的长期和潜在影响,开展风险评估与定级,避免技术滥用。 (b)重点领域使用者应根据人工智能系统的适用场景、安全性、可靠性、 可控性等,定期进行系统审计,加强风险防范意识与风险应对处置能力。 (c)重点领域使用者在使用人工智能产品前,应全面了解其数据处理和 ,在处理敏感数据时使用 加密技术等保护措施。 (h)重点领域使用者应对人工智能行为和影响进行有效监督,确保人工 智能产品和服务的运行基于人的授权、处于人的控制之下。 (i) 重点领域使用者应避免完全依赖人工智能的决策,监控及记录未采 纳人工智能决策的情况,并对决策不一致进行分析,在遭遇事故时具备及时切 换到人工或传统系统等的能力。 6.4 社会公众安全应用指引 (a)社会公众应提高0 码力 | 20 页 | 3.79 MB | 1 月前3 人工智能安全治理框架 1.0生态,增强供应链来源多样性,保障人工智能供应链安全性稳定性。 5.6 推进人工智能可解释性研究。从机器学习理论、训练方法、人机 交互等方面组织研究人工智能决策透明度、可信度、纠错机制等问题,不断提 高人工智能可解释性和可预测性,避免人工智能系统意外决策产生恶意行为。 5.7 人工智能安全风险威胁信息共享和应急处置机制。持续跟踪分析 人工智能技术、软硬件产品、服务等方面存在的安全漏洞、缺陷、风险威胁、 安全事件等动向,协调 (a)对于政府部门、关键信息基础设施以及直接影响公共安全和公民生- 15 - 人工智能安全治理框架 命健康安全的领域等重点领域使用者,应审慎评估目标应用场景采用人工智能 技术后带来的长期和潜在影响,开展风险评估与定级,避免技术滥用。 (b)重点领域使用者应根据人工智能系统的适用场景、安全性、可靠性、 可控性等,定期进行系统审计,加强风险防范意识与风险应对处置能力。 (c)重点领域使用者在使用人工智能产品前,应全面了解其数据处理和 ,在处理敏感数据时使用 加密技术等保护措施。 (h)重点领域使用者应对人工智能行为和影响进行有效监督,确保人工 智能产品和服务的运行基于人的授权、处于人的控制之下。 (i) 重点领域使用者应避免完全依赖人工智能的决策,监控及记录未采 纳人工智能决策的情况,并对决策不一致进行分析,在遭遇事故时具备及时切 换到人工或传统系统等的能力。 6.4 社会公众安全应用指引 (a)社会公众应提高0 码力 | 20 页 | 3.79 MB | 1 月前3
共 2 条
- 1













