Rust 程序设计语言 简体中文版 1.85.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 14. 更多关于 Cargo 和 Crates.io 的内容 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 17.5. 深入理解 async 相关的 traits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 你可以通过编写网页应用来学习 Rust,接着 将同样的技能应用到你的 Raspberry Pi(树莓派)上。 本书全面介绍了 Rust 为用户赋予的能力。其内容平易近人,致力于帮助你提升 Rust 的知识, 并且提升你作为程序员整体的理解与自信。欢迎你加入 Rust 社区,让我们准备深入学习 Rust 吧! —— Nicholas Matsakis 和 Aaron Turon 6/562Rust0 码力 | 562 页 | 3.23 MB | 25 天前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502 从擅长理解的认知型AI,发展到擅长文字生成的生成式AI 从语言生成式AI,发展到可理解和生成声音、图片、视频的多模态AI 从生成式AI,发展到推理型AI 专家系统 感知AI 认知AI 生成式AI 多模态AI 推理式AI 9政企、创业者必读 人工智能发展历程(二) 从单纯对话的大模型AI,发展到具有行动和执行能力的智能体AI 从数字空间中的AI,走向能理解和操控物理空间的AI 格下降240倍 国内:大模型「亏本」卖,可以「白嫖」大模型API能力 19政企、创业者必读 DeepSeek出现之前的十大预判 之七 多模态越来越重要 由文本生成迈向图像、视频、3D内容与世界模拟 多模态模态在能力变强的同时,规模正在变小 20政企、创业者必读 21 DeepSeek出现之前的十大预判 之八 智能体推动大模型快速落地 能够调用各种工具,具有行动能力 Alpha Go采用监督学习, 使用人类棋谱训练 • Alpha Zero采用强化学习, 自己跟自己对弈 ChatGPT时刻 • OpenAI ChatGPT大模型, 通过预训练方式,实现涌 现,理解人类语言和知识 • 诞生预训练Scaling Law Deepseek-R1时刻 • o1采用强化学习,但训练复 杂推理能力,技术未公开 • DeepSeek-R1 探索出RL方 法,且公开技术0 码力 | 76 页 | 5.02 MB | 5 月前3
人工智能安全治理框架 1.0有异常难以快速修正和溯源追责。 (b)偏见、歧视风险。算法设计及训练过程中,个人偏见被有意、无意引入, 或者因训练数据集质量问题,导致算法设计目的、输出结果存在偏见或歧视, 甚至输出存在民族、宗教、国别、地域等歧视性内容。 (c)鲁棒性弱风险。由于深度神经网络存在非线性、大规模等特点,人 工智能易受复杂多变运行环境或恶意干扰、诱导的影响,可能带来性能下降、 决策错误等诸多问题。- 4 - 人工智能安全治理框架 实则不符常理的内容,造成知识偏见与误导。 (f)对抗攻击风险。攻击者通过创建精心设计的对抗样本数据,隐蔽地 误导、影响,以至操纵人工智能模型,使其产生错误的输出,甚至造成运行瘫痪。 3.1.2 数据安全风险 (a)违规收集使用数据风险。人工智能训练数据的获取,以及提供服务 与用户交互过程中,存在未经同意收集、不当使用数据和个人信息的安全风险。 (b)训练数据含不当内容、被 “投毒” 风险。训练数据中含有虚假、偏见、 风险。训练数据中含有虚假、偏见、 侵犯知识产权等违法有害信息,或者来源缺乏多样性,导致输出违法的、不良 的、偏激的等有害信息内容。训练数据还面临攻击者篡改、注入错误、误导数 据的“投毒”风险,“污染”模型的概率分布,进而造成准确性、可信度下降。 (c)训练数据标注不规范风险。训练数据标注过程中,存在因标注规则 不完备、标注人员能力不够、标注错误等问题,不仅会影响模型算法准确度、 可靠性0 码力 | 20 页 | 3.79 MB | 1 月前3
共 3 条
- 1













