【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502DeepSeek-R1 探索出RL方 法,且公开技术 • 诞生推理型Scaling Law DeepSeek颠覆式创新——技术创新 29政企、创业者必读 技术上实现对美国的赶超 掌握通向AI下一阶段的方法论 DeepSeek颠覆式创新——技术创新 美国人仍在遵循预训练Scaling law范式,走堆显卡路线,如 “星际之门”计划 中国DeepSeek-R1的创新突破,诞生推理型Scaling DeepSeek+场景+智能体+知识库 66政企、创业者必读 67 企业应用AI的经验总结政企、创业者必读 建立AI信仰、培养AI素养 才能真正拥抱AI时代 68政企、创业者必读 个人AI能力的五个阶段 只会与大模型进行聊天(纳米AI) 能打造个人专业知识库,具备知识收集和整理能力(纳米AI知识库) 能使用常见的AI工具,能使用别人打造的智能体(纳米AI工具) 能搭建简单的智能体,能打造自己的工具和数字助手(纳米AI智能体) 70政企、创业者必读 企业应用智能体的九层能力 阶段1-4——初级能力 阶段2 企业私有化部署DeepSeek 阶段3 企业构建专业知识库,DS变成专业大模型 阶段4 利用纳米AI搜索免费Agnet平台,企业可搭建数字员工等AI工具 阶段1 使用DeepSeek公有云服务 71政企、创业者必读 阶段5 引入专用知识库管理,本地部署,成为知识和情报中枢 阶段6 引入带有强大工作流能力的Agent框架,把复杂的流程自动化0 码力 | 76 页 | 5.02 MB | 5 月前3
DeepSeek从入门到精通(20250204)整。 4. 请求同行或专家对内容进行审阅并提供反馈。 5. 根据反馈意见,逐步优化和完善文章的各个部分。 1. 请对当前内容进行评估,列出主要优缺点,并提出具体的改进建议。 2. 请根据前一阶段的反馈,逐步修改和完善内容,列出修改的具体步骤。 3. 请根据内容生成过程中出现的新问题,动态调整后续提示语,并解释调整原 因。 4. 请收集多方反馈,综合考虑并调整内容生成方向,列出不同来源的反馈及其 数',指导在执行过程中如何分配计算资源。” 7. 适应提示:“在执行每个子任务后,评估其输出质量和对总体目标的 贡献,必要时调整后续任务的优先级或内容。” 思维拓展的认知理论基础 生成阶段(Generate)和探索阶段(Explore),可 以将这一理论应用到AI内容生成的过程中,设计相 应的提示语策略。 发散思维的提示语链设计 (基于“IDEA”框架) • Imagine(想象):鼓励超越常规的思考 使用“深化”提示拓展初始想法 4. 设计“反转”提示寻找替代方案 思维拓展的提示语链设计建立在创造性认知理论的基础上。根据Geneplore模型(Generate-Explore Model), 创造性思维包括两个主要阶段: 思维拓展的提示语链设计 聚合思维的提示语链设计 基于“FOCUS”框架 • Filter(筛选):评估和选择最佳想法 • Optimize(优化):改进选定的想法 • Combine(组合):整合多个想法0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通整。 4. 请求同行或专家对内容进行审阅并提供反馈。 5. 根据反馈意见,逐步优化和完善文章的各个部分。 1. 请对当前内容进行评估,列出主要优缺点,并提出具体的改进建议。 2. 请根据前一阶段的反馈,逐步修改和完善内容,列出修改的具体步骤。 3. 请根据内容生成过程中出现的新问题,动态调整后续提示语,并解释调整原 因。 4. 请收集多方反馈,综合考虑并调整内容生成方向,列出不同来源的反馈及其 数',指导在执行过程中如何分配计算资源。” 7. 适应提示:“在执行每个子任务后,评估其输出质量和对总体目标的 贡献,必要时调整后续任务的优先级或内容。” 思维拓展的认知理论基础 生成阶段(Generate)和探索阶段(Explore),可 以将这一理论应用到AI内容生成的过程中,设计相 应的提示语策略。 发散思维的提示语链设计 (基于“IDEA”框架) • Imagine(想象):鼓励超越常规的思考 使用“深化”提示拓展初始想法 4. 设计“反转”提示寻找替代方案 思维拓展的提示语链设计建立在创造性认知理论的基础上。根据Geneplore模型(Generate-Explore Model), 创造性思维包括两个主要阶段: 思维拓展的提示语链设计 聚合思维的提示语链设计 基于“FOCUS”框架 • Filter(筛选):评估和选择最佳想法 • Optimize(优化):改进选定的想法 • Combine(组合):整合多个想法0 码力 | 103 页 | 5.40 MB | 8 月前3
DeepSeek图解10页PDF主要亮点在于出色的数学和逻辑推理能力,区别于一般的通 用 AI 模型。其训练方式结合了强化学习(RL)与监督微调(SFT),创造 了一种高效训练,高推理能力 AI 模型的方法。 整个训练过程分为核心两阶段,第一步训练基于 DeepSeek-V3 论文中的基 础模型(而非最终版本),并经历了 SFT 和基于纯强化学习调优 + 通用性 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 DeepSeek-R1-Zero R1-Zero 能生成高质量的推理数据,包括大量长链式思维(Chain-of-Thought, CoT)示例,用于支持后续的 SFT 阶段,如图7所示。更加详细介绍参考3.2节。 3.1.2 核心创新 2:通用强化学习 第一阶段 R1-Zero 虽然展现出惊人的推理能力提升,但是也出现了回复时 语言混合,非推理任务回复效果差的问题,为了解决这些问题,DeepSeek 提出通用强化学习训练框架。 活动 通用任务上的表现。更加详细介绍参考3.3节。 3.2 含 R1-Zero 的中间推理模型训练过程 中间模型占据主要训练精力的阶段,实际上完全通过推理导向的强化学习 直接训练而成,完全跳过了监督微调(SFT),如下图8所示,只在强化学习 的冷启动阶段使用了 SFT。 图 8: Interim reasoning model 训练方法 大规模推理导向的强化学习训练,必不可少的就是推理数据,手动标注就0 码力 | 11 页 | 2.64 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利GI)的中国科技公司,主攻大模型研发与应用。 • DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。性能对齐OpenAI-o1正 式版。 • DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大 提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAl-o1正式版。 (Pass@1) 场景1:1小时内写完一个1万字的项目书 是否可用DeepSeek(深度求索)辅助处理? 可以,但需分阶段“榨干AI效率”,核心策略:框架复制+模块填充+数据嫁接。 分步解决方案: 第一阶段:5分钟——用AI暴力生成框架(目标:3000字) 场景1:1小时内写完一个1万字的项目书 第二阶段:20分钟——用AI批量填充模块(目标:6000字) 针对每个小节单独提问,例如: “写一段‘2.1 用表格展示。” p 模板复制:对同类章节(如3.1/3.2/3.3)使用相同指令模板,仅替换关键词。 p 强制格式:要求AI输出带编号小标题、分点、表格的内容,直接粘贴后即显“专业感”。 第三阶段:20分钟——用AI补全软性内容(目标:1000字) 填充“虚但必需”的部分: p 政策背书: “生成5条2023年国家层面支持智能物流园区的政策原文(带发文号),并解读对本案的指导意义。”0 码力 | 65 页 | 4.47 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单在多模态任务中表现出色,能够 处理复杂场景下的逻辑、公式识别及自然图像等问题,显示出其在 多模态任务中的广泛应用潜力。 训练方法:数据冷启,阶段递进 DeepSeek R1 采用了冷启动数据和多阶段训练的策略,以进一步提升模型的推理能力和可读性。 冷启动数据 多阶段训练 • 定义与作用:冷启动数据是指在模型训练初期,引入的一小部 分高质量、结构化的数据。其作用是为模型提供一个良好的起 点, 使模型在后续的强化学习阶段能够更稳定地学习和优化。它解 决了纯强化学习训练中可能出现的可读性差和语言混杂等问题。 第一阶段:推理 导向的强化学习 基 于 冷 启 动 数 据 微 调 后 的 基 础 模 型 , 进 行 大 规 模 强 化 学 习 。 此 阶 段 引 入 语 言 一 致 性 奖 励 , 优 化 模 型 在 数 学 、 编 程 等 结 构 化 任 务 中 的表现。 第二阶段:拒绝 成 新 的 合 成 数 据 , 并 与 写 作 、 事 实 问 答 等 领 域的监督数据混合。 然 后 对 基 础 模 型 进 行 两 轮 微 调 , 进 一 步提升模型的性能。 第三阶段:全场 景强化学习 结 合 规 则 奖 励 ( 针 对 推 理 任 务 ) 和 神 经 奖 励 模 型 ( 针 对 通 用 任 务 ) , 对 模 型 进 行 最 终 的 强 化 学 习0 码力 | 85 页 | 8.31 MB | 8 月前3
普通人学AI指南技术可以生成如下类型的内容: • 图像:如照片、原创艺术作品 • 音频:如视频游戏中的配音、音乐 • 文本:如代码、广告文案、小说 • 3D 模型:如角色、场景 目前,AIGC 技术处于早期阶段,最常见的产品形态是基于文本的,通过用 户输入来控制内容的生成。用户输入文本描述所需的内容,然后模型输出与描 述相符的内容。下图 1描述了 AI 大模型,AIGC 和 AGI 关系。 Figure 闭源:由一个小团队开发的闭源 AI,专注于生成创意和艺术图像。 2.3 AI 视频工具 Figure 5: AI 视频工具 2.3.1 Sora (OpenAI 公司) 内测:由 OpenAI 开发,目前处于内部测试阶段的项目。 8 2.3.2 Runway 闭源:一个闭源的创意工具,支持通过 AI 进行视频编辑和生成。 2.3.3 Pika 闭源的图像编辑工具,专注于简化图像处理流程。 2.3.4 腾讯智影0 码力 | 42 页 | 8.39 MB | 8 月前3
TVM工具组负责将预训练好的 caffe 或者 tensorflow 的模型,转换到 LLVM IR,最后生成可以在无剑 SoC 平台上 执行的二进制。绝赞招聘中 为何添加 caffe 前端? 客户需求 评估阶段:客户用于评估芯片的网络,caffe 模型占很大比重。 竞品已支持 caffe 前端 当前各大芯片厂商的部署工具大多数都支持,支持 caffe 前端有利于提高竞争力。 开源社区 存量的开源 caffe0 码力 | 6 页 | 326.80 KB | 5 月前3
国家人工智能产业综合标准化体系建设指南(2024版)8 等基础设施的技术要求和评估方法,包括基础设施参考架构、计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系统软件标准。规范人工智能系统层的软硬件技术要求, 包括软硬件编译器架构和优化方法、人工智能算子库、芯片软件 运行时库及调试工具、人工智能软硬件平台计算性能等标准。 7. 开发框架标准。规范人工智能开发框架相关的技术要求, 包括开发框架的功能要求,与应用系统之间的接口协议、神经网0 码力 | 13 页 | 701.84 KB | 1 年前3
开源中国 2023 大模型(LLM)技术报告的工具和平台:MaaS 平台 Gitee AI 是开源中国旗下的 MaaS 平台,提供模型、数据集,以及应用托管能力,同时接入了丰富的国产算力平台,为开发者 提供了更高效、实惠的微调方案,降低使用门槛,目前已进入内测阶段。 28 / 32 LLM 的工具和平台:开发工具 比较有代表性的 LLM 开发工具有: :帮助用户极致优化 给大模型的提示词(prompt),使得对大语 言模型提问时,可以获得更理想的输出。0 码力 | 32 页 | 13.09 MB | 1 年前3
共 10 条
- 1













