 人工智能安全治理框架 1.0(b)训练数据含不当内容、被 “投毒” 风险。训练数据中含有虚假、偏见、 侵犯知识产权等违法有害信息,或者来源缺乏多样性,导致输出违法的、不良 的、偏激的等有害信息内容。训练数据还面临攻击者篡改、注入错误、误导数 据的“投毒”风险,“污染”模型的概率分布,进而造成准确性、可信度下降。 (c)训练数据标注不规范风险。训练数据标注过程中,存在因标注规则 不完备、标注人员能力不够、标注错误等问题,不仅会影响模型算法准确度、 的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、- 5 - 人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国 敏感数据时使用 加密技术等保护措施。 (h)重点领域使用者应对人工智能行为和影响进行有效监督,确保人工 智能产品和服务的运行基于人的授权、处于人的控制之下。 (i) 重点领域使用者应避免完全依赖人工智能的决策,监控及记录未采 纳人工智能决策的情况,并对决策不一致进行分析,在遭遇事故时具备及时切 换到人工或传统系统等的能力。 6.4 社会公众安全应用指引 (a)社会公众应提高对人工智能产品安全风险的认识,选择信誉良好的0 码力 | 20 页 | 3.79 MB | 1 月前3 人工智能安全治理框架 1.0(b)训练数据含不当内容、被 “投毒” 风险。训练数据中含有虚假、偏见、 侵犯知识产权等违法有害信息,或者来源缺乏多样性,导致输出违法的、不良 的、偏激的等有害信息内容。训练数据还面临攻击者篡改、注入错误、误导数 据的“投毒”风险,“污染”模型的概率分布,进而造成准确性、可信度下降。 (c)训练数据标注不规范风险。训练数据标注过程中,存在因标注规则 不完备、标注人员能力不够、标注错误等问题,不仅会影响模型算法准确度、 的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、- 5 - 人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国 敏感数据时使用 加密技术等保护措施。 (h)重点领域使用者应对人工智能行为和影响进行有效监督,确保人工 智能产品和服务的运行基于人的授权、处于人的控制之下。 (i) 重点领域使用者应避免完全依赖人工智能的决策,监控及记录未采 纳人工智能决策的情况,并对决策不一致进行分析,在遭遇事故时具备及时切 换到人工或传统系统等的能力。 6.4 社会公众安全应用指引 (a)社会公众应提高对人工智能产品安全风险的认识,选择信誉良好的0 码力 | 20 页 | 3.79 MB | 1 月前3
 DeepSeek从入门到精通(20250204)发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断 并非全面更强,仅在其训练目标领域显著优于通用模型 通用场景更灵活,但专项任务需依赖提示语补偿能力 • 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译 等任务。 快思慢想:效能兼顾 全局视野 概率预测(快速反应模型,如ChatGPT 响应速度快,算力成本低 慢速思考,算力成本高 运算原理 基于概率预测,通过大量数据训练来快速预测可能 的答案 基于链式思维(Chain-of-Thought),逐步推理 问题的每个步骤来得到答案 决策能力 依赖预设算法和规则进行决策 能够自主分析情况,实时做出决策 创造力 限于模式识别和优化,缺乏真正的创新能力 能够生成新的创意和解决方案,具备创新能力 人机互动能力 按照预设脚本响应,较难理解人类情感和意图 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 能限制其能力)。 • 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 关键原则 3 2 1 模型选择 • 优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用 模型)。 提示语设计0 码力 | 104 页 | 5.37 MB | 8 月前3 DeepSeek从入门到精通(20250204)发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断 并非全面更强,仅在其训练目标领域显著优于通用模型 通用场景更灵活,但专项任务需依赖提示语补偿能力 • 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译 等任务。 快思慢想:效能兼顾 全局视野 概率预测(快速反应模型,如ChatGPT 响应速度快,算力成本低 慢速思考,算力成本高 运算原理 基于概率预测,通过大量数据训练来快速预测可能 的答案 基于链式思维(Chain-of-Thought),逐步推理 问题的每个步骤来得到答案 决策能力 依赖预设算法和规则进行决策 能够自主分析情况,实时做出决策 创造力 限于模式识别和优化,缺乏真正的创新能力 能够生成新的创意和解决方案,具备创新能力 人机互动能力 按照预设脚本响应,较难理解人类情感和意图 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 能限制其能力)。 • 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 关键原则 3 2 1 模型选择 • 优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用 模型)。 提示语设计0 码力 | 104 页 | 5.37 MB | 8 月前3
 清华大学 DeepSeek 从入门到精通发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断 并非全面更强,仅在其训练目标领域显著优于通用模型 通用场景更灵活,但专项任务需依赖提示语补偿能力 • 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译 等任务。 快思慢想:效能兼顾 全局视野 概率预测(快速反应模型,如ChatGPT 响应速度快,算力成本低 慢速思考,算力成本高 运算原理 基于概率预测,通过大量数据训练来快速预测可能 的答案 基于链式思维(Chain-of-Thought),逐步推理 问题的每个步骤来得到答案 决策能力 依赖预设算法和规则进行决策 能够自主分析情况,实时做出决策 创造力 限于模式识别和优化,缺乏真正的创新能力 能够生成新的创意和解决方案,具备创新能力 人机互动能力 按照预设脚本响应,较难理解人类情感和意图 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 能限制其能力)。 • 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 关键原则 3 2 1 模型选择 • 优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用 模型)。 提示语设计0 码力 | 103 页 | 5.40 MB | 8 月前3 清华大学 DeepSeek 从入门到精通发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断 并非全面更强,仅在其训练目标领域显著优于通用模型 通用场景更灵活,但专项任务需依赖提示语补偿能力 • 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译 等任务。 快思慢想:效能兼顾 全局视野 概率预测(快速反应模型,如ChatGPT 响应速度快,算力成本低 慢速思考,算力成本高 运算原理 基于概率预测,通过大量数据训练来快速预测可能 的答案 基于链式思维(Chain-of-Thought),逐步推理 问题的每个步骤来得到答案 决策能力 依赖预设算法和规则进行决策 能够自主分析情况,实时做出决策 创造力 限于模式识别和优化,缺乏真正的创新能力 能够生成新的创意和解决方案,具备创新能力 人机互动能力 按照预设脚本响应,较难理解人类情感和意图 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 能限制其能力)。 • 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 关键原则 3 2 1 模型选择 • 优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用 模型)。 提示语设计0 码力 | 103 页 | 5.40 MB | 8 月前3
 【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502大模型不是泡沫,而是新一轮工业革命的驱动引擎 蒸汽革命 电气革命 信息革命 以大模型为代表的 人工智能革命 人工智能是新质生产力的关键支撑技术,人工智能+百业千行将带动新一轮工业革命,为高质量发展注入强大动能 大模型的进一步突破将引领人类社会进入智能化时代,对我们的生活方式、生产方式带来巨大变革 重塑经济图景 解决复杂问题 7政企、创业者必读 8 AI不仅是技术革新,更是思维方式和社会结构的变革0 码力 | 76 页 | 5.02 MB | 5 月前3 【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502大模型不是泡沫,而是新一轮工业革命的驱动引擎 蒸汽革命 电气革命 信息革命 以大模型为代表的 人工智能革命 人工智能是新质生产力的关键支撑技术,人工智能+百业千行将带动新一轮工业革命,为高质量发展注入强大动能 大模型的进一步突破将引领人类社会进入智能化时代,对我们的生活方式、生产方式带来巨大变革 重塑经济图景 解决复杂问题 7政企、创业者必读 8 AI不仅是技术革新,更是思维方式和社会结构的变革0 码力 | 76 页 | 5.02 MB | 5 月前3
 DeepSeek图解10页PDF就是自然语言处理领域实现扩展规律的最好的网络结构。 2.2 Transformer 基础架构 LLM 依赖于 2017 年 Google 提出的 Transformer 模型,该架构相比传统的 RNN(递归神经网络)和 LSTM(长短时记忆网络)具有更高的训练效率和 更强的长距离依赖建模能力。Transformer 由多个关键组件组成:1. 自注意 力机制(Self-Attention) Encoding):在没有循环结构的情况下,帮助模型理解单词的顺 序信息。 Transformer 结构的优势 1. 高效的并行计算:摒弃循环结构,使计算速度大幅提升。 2. 更好的上下文理解:注意力机制可捕捉长文本中的远程依赖关系。 3. 良好的可扩展性:可适配更大规模模型训练,增强 AI 泛化能力。 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 知识,严禁拿此资料引流、出书、等形式的商业活动 3.4 总结 DeepSeek-R1 中间推理模型生成:通过推理导向的强化学习(Reasoning-Oriented RL), 直接生成高质量的推理数据(CoT 示例),减少人工标注依赖。通用强化学 习优化:基于帮助性和安全性奖励模型,优化推理与非推理任务表现,构建 通用性强的模型。最终,DeepSeek-R1 将 R1-Zero 的推理能力与通用强化 学习的适应能力相结合,0 码力 | 11 页 | 2.64 MB | 8 月前3 DeepSeek图解10页PDF就是自然语言处理领域实现扩展规律的最好的网络结构。 2.2 Transformer 基础架构 LLM 依赖于 2017 年 Google 提出的 Transformer 模型,该架构相比传统的 RNN(递归神经网络)和 LSTM(长短时记忆网络)具有更高的训练效率和 更强的长距离依赖建模能力。Transformer 由多个关键组件组成:1. 自注意 力机制(Self-Attention) Encoding):在没有循环结构的情况下,帮助模型理解单词的顺 序信息。 Transformer 结构的优势 1. 高效的并行计算:摒弃循环结构,使计算速度大幅提升。 2. 更好的上下文理解:注意力机制可捕捉长文本中的远程依赖关系。 3. 良好的可扩展性:可适配更大规模模型训练,增强 AI 泛化能力。 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 知识,严禁拿此资料引流、出书、等形式的商业活动 3.4 总结 DeepSeek-R1 中间推理模型生成:通过推理导向的强化学习(Reasoning-Oriented RL), 直接生成高质量的推理数据(CoT 示例),减少人工标注依赖。通用强化学 习优化:基于帮助性和安全性奖励模型,优化推理与非推理任务表现,构建 通用性强的模型。最终,DeepSeek-R1 将 R1-Zero 的推理能力与通用强化 学习的适应能力相结合,0 码力 | 11 页 | 2.64 MB | 8 月前3
 清华大学 普通人如何抓住DeepSeek红利结构、内部系统以及行业情况。然而,公司的产品手册复杂,部门间的职责不清晰,内部系统操作繁琐,行业信 息量庞大,这些都让小李感到不知所措。他担心自己无法在短时间内快速上手,影响工作效率和表现。 以往的解决方式: • 依赖同事的口头介绍,容易遗漏重要信 息。 • 手动查阅厚重的产品手册和内部文档, 耗时较长。 • 参加多部门的培训,但信息量大,难以 消化。 • 通过网络搜索行业信息,但信息分散, 难以整合。 信息的准确性和全面性更高,减少了因信息不全而导致 的误解和错误。通过DeepSeek的数据分析功能,新员 工可以更深入地理解行业动态和公司运营,做出更明智 的决策。 成本更低: 减少了对培训资源的依赖,新员工可以通过DeepSeek 自主学习,降低培训成本。通过提高工作效率,减少了 人力资源的浪费,降低了整体运营成本。 场景3:日常客户沟通与问题反馈处理 常见问题: 与甲方客户的沟通效率低,信息不对称,导致响应不及时或错误 无需逐步指导, 模型自动生成结构化 推理过程(若强行拆解步骤, 反而可 能限制其能力) 。 • 需显式引导推理步骤(如通过CoT提 示) , 否则可能跳过关键逻辑 。 • 依赖提示语补偿能力短板(如要求分 步思考 、提供示例) 。 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务 、需快速执行0 码力 | 65 页 | 4.47 MB | 8 月前3 清华大学 普通人如何抓住DeepSeek红利结构、内部系统以及行业情况。然而,公司的产品手册复杂,部门间的职责不清晰,内部系统操作繁琐,行业信 息量庞大,这些都让小李感到不知所措。他担心自己无法在短时间内快速上手,影响工作效率和表现。 以往的解决方式: • 依赖同事的口头介绍,容易遗漏重要信 息。 • 手动查阅厚重的产品手册和内部文档, 耗时较长。 • 参加多部门的培训,但信息量大,难以 消化。 • 通过网络搜索行业信息,但信息分散, 难以整合。 信息的准确性和全面性更高,减少了因信息不全而导致 的误解和错误。通过DeepSeek的数据分析功能,新员 工可以更深入地理解行业动态和公司运营,做出更明智 的决策。 成本更低: 减少了对培训资源的依赖,新员工可以通过DeepSeek 自主学习,降低培训成本。通过提高工作效率,减少了 人力资源的浪费,降低了整体运营成本。 场景3:日常客户沟通与问题反馈处理 常见问题: 与甲方客户的沟通效率低,信息不对称,导致响应不及时或错误 无需逐步指导, 模型自动生成结构化 推理过程(若强行拆解步骤, 反而可 能限制其能力) 。 • 需显式引导推理步骤(如通过CoT提 示) , 否则可能跳过关键逻辑 。 • 依赖提示语补偿能力短板(如要求分 步思考 、提供示例) 。 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务 、需快速执行0 码力 | 65 页 | 4.47 MB | 8 月前3
 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单正 DeepSeek R1 的核心突破在于其通过强化学习驱动的推理能力。该 模型在训练过程中,通过强化学习技术,显著提升模型的推理能力, 使其在数学、编程和自然语言推理等任务上表现出色。 传统依赖: 大规模监督微调(SFT) 创新思路: 强化学习(RL)驱动  推理效率 • 长思维链支持:DeepSeek R1 支持长链推理,能够生成数万字的 思维链,显著提高复杂任务的推理准确性,其长链推理能力在数学、 多模块协同,逐步执行复杂任务 单输入文本生成输出,处理单一任务 研究能力 处理复杂学术、法律、市场研究,支持多轮分析 生成创意内容,提供建议,适度推理分析 输入输出格式 支持图像、PDF等多种格式输入输出 主要依赖文本输入输出 模块协作 多个模块协同工作(探索者、整合者、推理者等) 单一模型,无模块化协作 DeepResearch 探索者 整合者 思考者 表达者 技术协同:多步推理,快速输出 DeepResearch能迅速梳理海量文献,0 码力 | 85 页 | 8.31 MB | 8 月前3 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单正 DeepSeek R1 的核心突破在于其通过强化学习驱动的推理能力。该 模型在训练过程中,通过强化学习技术,显著提升模型的推理能力, 使其在数学、编程和自然语言推理等任务上表现出色。 传统依赖: 大规模监督微调(SFT) 创新思路: 强化学习(RL)驱动  推理效率 • 长思维链支持:DeepSeek R1 支持长链推理,能够生成数万字的 思维链,显著提高复杂任务的推理准确性,其长链推理能力在数学、 多模块协同,逐步执行复杂任务 单输入文本生成输出,处理单一任务 研究能力 处理复杂学术、法律、市场研究,支持多轮分析 生成创意内容,提供建议,适度推理分析 输入输出格式 支持图像、PDF等多种格式输入输出 主要依赖文本输入输出 模块协作 多个模块协同工作(探索者、整合者、推理者等) 单一模型,无模块化协作 DeepResearch 探索者 整合者 思考者 表达者 技术协同:多步推理,快速输出 DeepResearch能迅速梳理海量文献,0 码力 | 85 页 | 8.31 MB | 8 月前3
 TVM工具组caffe 前端有利于提高竞争力。 开源社区 存量的开源 caffe 网络模型众多,TVM 直接支持 caffe 让大家更方便尝试 caffe 资源。绝赞招聘中 当前进度 无 caffe 依赖 from_caffe 直接导入 caffe 模型文件,不需要预先安装 caffe 。 net 已测试网络:alexnet / densenet121 / inception v1 / inception0 码力 | 6 页 | 326.80 KB | 5 月前3 TVM工具组caffe 前端有利于提高竞争力。 开源社区 存量的开源 caffe 网络模型众多,TVM 直接支持 caffe 让大家更方便尝试 caffe 资源。绝赞招聘中 当前进度 无 caffe 依赖 from_caffe 直接导入 caffe 模型文件,不需要预先安装 caffe 。 net 已测试网络:alexnet / densenet121 / inception v1 / inception0 码力 | 6 页 | 326.80 KB | 5 月前3
 Deepseek R1 本地部署完全手册Studio(192GB统⼀内存) 10+ token/秒 ⾼性能服务器 4×RTX 4090(96GB显存+384GB内存) 7-8 token/秒(混合推理) 3. 部署步骤(Linux示例) 1. 安装依赖⼯具: # 安装llama.cpp(⽤于合并分⽚⽂件) /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew0 码力 | 7 页 | 932.77 KB | 8 月前3 Deepseek R1 本地部署完全手册Studio(192GB统⼀内存) 10+ token/秒 ⾼性能服务器 4×RTX 4090(96GB显存+384GB内存) 7-8 token/秒(混合推理) 3. 部署步骤(Linux示例) 1. 安装依赖⼯具: # 安装llama.cpp(⽤于合并分⽚⽂件) /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew0 码力 | 7 页 | 932.77 KB | 8 月前3
 开源中国 2023 大模型(LLM)技术报告txtai 等。 25 / 32 LLM 的工具、平台和资源 另一个视角来看,在大模型繁荣发展的背后,少不了工 具和平台的发力,如 LLMOps 平台、大模型聚合平台 以及相关的开发工具,此外还有它们所依赖的最重要的 资源——算力。 在这些工具、平台和资源的有力支撑下,大模型才得以 一步一个台阶,引领全球开发者步入一个技术新时代。 算力 大模型聚合平台 LLMOps 开发 工具 26 / 320 码力 | 32 页 | 13.09 MB | 1 年前3 开源中国 2023 大模型(LLM)技术报告txtai 等。 25 / 32 LLM 的工具、平台和资源 另一个视角来看,在大模型繁荣发展的背后,少不了工 具和平台的发力,如 LLMOps 平台、大模型聚合平台 以及相关的开发工具,此外还有它们所依赖的最重要的 资源——算力。 在这些工具、平台和资源的有力支撑下,大模型才得以 一步一个台阶,引领全球开发者步入一个技术新时代。 算力 大模型聚合平台 LLMOps 开发 工具 26 / 320 码力 | 32 页 | 13.09 MB | 1 年前3
共 10 条
- 1













