DeepSeek从入门到精通(20250204)性能表现 响应速度快,算力成本低 慢速思考,算力成本高 运算原理 基于概率预测,通过大量数据训练来快速预测可能 的答案 基于链式思维(Chain-of-Thought),逐步推理 问题的每个步骤来得到答案 决策能力 依赖预设算法和规则进行决策 能够自主分析情况,实时做出决策 创造力 限于模式识别和优化,缺乏真正的创新能力 能够生成新的创意和解决方案,具备创新能力 人机互动能力 按照预设脚本响应,较难理解人类情感和意图 提示语策略差异 1 2 推理模型 通用模型 • 提示语更简洁,只需明确任务目标和 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 能限制其能力)。 • 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 关键原则 3 2 1 模型选择 • 优先根据任 • 不要对通用模型“过度信任”(如直接询问复杂推理问题,需分步验证结果)。 从“下达指令”到“表达需求” 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务、需快速执行 “用Python编写快速排序函 数,输出需包含注释。” ✅ 结果精准高效 ❌ 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通性能表现 响应速度快,算力成本低 慢速思考,算力成本高 运算原理 基于概率预测,通过大量数据训练来快速预测可能 的答案 基于链式思维(Chain-of-Thought),逐步推理 问题的每个步骤来得到答案 决策能力 依赖预设算法和规则进行决策 能够自主分析情况,实时做出决策 创造力 限于模式识别和优化,缺乏真正的创新能力 能够生成新的创意和解决方案,具备创新能力 人机互动能力 按照预设脚本响应,较难理解人类情感和意图 提示语策略差异 1 2 推理模型 通用模型 • 提示语更简洁,只需明确任务目标和 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 能限制其能力)。 • 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 关键原则 3 2 1 模型选择 • 优先根据任 • 不要对通用模型“过度信任”(如直接询问复杂推理问题,需分步验证结果)。 从“下达指令”到“表达需求” 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务、需快速执行 “用Python编写快速排序函 数,输出需包含注释。” ✅ 结果精准高效 ❌ 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径0 码力 | 103 页 | 5.40 MB | 8 月前3
普通人学AI指南. . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.1.1 步骤 1:安装 Ollama . . . . . . . . . . . . . . . . . . . . . 13 3.1.2 步骤 2:安装 Llama . . . . . . . . . . . . . . . . . . . . . 14 3.1.3 使用 零代码搭建本地 AI 前端 19 4.1 LobeChat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 4.2 步骤一安装 docker . . . . . . . . . . . . . . . . . . . . . . . . . . 20 4.2.1 了解 docker 基本用法 . . . . . . . . . . . . . . . 21 4.2.3 安装 docker . . . . . . . . . . . . . . . . . . . . . . . . . . 21 4.3 步骤二 docker 部署 lobechat . . . . . . . . . . . . . . . . . . . . . 22 4.4 愉快使用 . . . . . . . . . . . .0 码力 | 42 页 | 8.39 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利通过网络搜索行业信息,但信息分散, 难以整合。 场景2:新员工快速熟悉公司情况和行业情况 快速了解行业情况和市场趋势 DeepSeek可以整合行业报告、市场分析、竞争对手信 息等数据,帮助新员工快速掌握行业动态。 操作步骤 上传行业报告、市场分析文档、竞争对手资料等到 DeepSeek。 使用搜索功能查询“电子元器件行业现状”、“未来发 展趋势”等关键词,生成简洁的分析报告。 优势 通过DeepSeek的数据分析功能,快速生成行业概览, 持职场 专业度。 如何使用DeepSeek攻克学习中的困难 “学习太难?DeepSeek带你‘开挂’逆袭! 场景1:课堂上突然跟不上了,怎么办 场景:数学课上,老师正在讲解“隐函数求导”,步骤写到第三行时突然跳过了中间推导,直接给出结果:“所 以这里的dy/dx=(-2x-y)/(x+3y²)”。你盯着白板上的公式一脸懵——前两步的链式法则展开去哪了?为什么分 母突然多了3y²? 周 在笔记软件中快速标注困惑点(如:“疑问:第二 步到第三步如何展开?”) Ø 输入精准问题: “隐函数求导例题:从方程x² + xy + y³ = 0推导 dy/dx,请展示完整的链式法则展开步骤,特别是分母 3y²的来源。” Ø 秒速获取步骤解析: 立即对照补全笔记,跟上老师进度。 2. 课间5分钟(深度追问) p 适用场景:老师已下课,但10分钟后还有后续课程 p 操作技巧: Ø 追问细节: “为什0 码力 | 65 页 | 4.47 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单你需要完成以下两个任务: 1.阅读网页【网址】源代码【对应网页源代码】。提取所 有包含“春运2025丨X月X日,全社会跨区域人员流动量完 成X万人次”的网址进行去重、筛选,合并成网址列表 2.撰写python脚本,基于步骤1输出的网址列表提取所有网 址内容“截至目前 2025 年春运(2025年1月14日到2月8日) 相关数据(如日期、全社会跨区域人员流动量、铁路客运 量、公路人员流动量、水路客运量、民航客运量等)”完 和整合,转化为逻辑连贯的新文章,为学者和知识工作 者提供了极大的便利。 多智能体协作对话:Co-STORM模式引入了协作对话 机制,并采用轮次管理策略,实现流畅的协作式AI学术 研究。 用户体验对比:使用步骤 PubScholar平台官网:https://pubscholar.cn/ 输入关键词:进入官网后,在搜索框键入关键词进行文献检索。 选取文章:勾选想要分析的20篇文献。 综述 DeepSeek R1引发全球关注 推理能力:核心突破,专项升级 推理能力 • 强化学习驱动:DeepSeek R1-Zero 是首个完全基于强化学习(RL) 训练的推理模型,无需任何监督微调(SFT)步骤,打破传统模型依 赖大量标注数据的惯例。DeepSeek-R1 采用强化学习作为核心训练 方法,显著提升了模型的推理能力和语言表达的可读性。 • 推理能力专项提升:在除了利用强化学习模型结合跨领域训练提升模0 码力 | 85 页 | 8.31 MB | 8 月前3
DeepSeek图解10页PDF. . . . . . . . 2 1.1 为什么要在本地部署 DeepSeek . . . . . . . . . . . . . . . . . 2 1.2 DeepSeek 本地部署三个步骤 . . . . . . . . . . . . . . . . . . . 2 1.3 DeepSeek 本地运行使用演示 . . . . . . . . . . . . . . . . . . R1,开源免费,性能强劲 • 本教程搭建方法 零成本,不需花一分钱。 • 为了照顾到大部分读者,推荐的搭建方法已将电脑配置要求降 到最低,普通电脑也能飞速运行。 1.2 DeepSeek 本地部署三个步骤 一共只需要三步,就能做到 DeepSeek 在本地运行并与它对话。 第一步,使用的是 ollama 管理各种不同大模型,ollama 比较直接、干净, 一键下载后安装就行,安装过程基本都是下一步。 deepseek-r1:1.5b,很快就能进入对话界面,如 下图4所示: 图 4: Ollama 软件启动 deepseek-r1 界面 1.3 DeepSeek 本地运行使用演示 基于上面步骤搭建完成后,接下来提问 DeepSeek 一个问题:请帮我分析 Python 编程如何从零开始学习?,下面是它的回答,首先会有一个 think 标签,这里面嵌入的是它的思考过程,不是正式的回复:0 码力 | 11 页 | 2.64 MB | 8 月前3
开源中国 2023 大模型(LLM)技术报告必要的工具和库,使开发者能够更容易地处理大量的数 据、管理巨大的网络参数量,并有效地利用硬件资源。 微调(Fine Tuning)是在大模型框架基础上进行的一个 关键步骤。在模型经过初步的大规模预训练后,微调是 用较小、特定领域的数据集对模型进行后续训练,以使 其更好地适应特定的任务或应用场景。这一步骤使得通 用的大型模型能够在特定任务上表现出更高的精度和更 好的效果。 大模型框架提供了 LLM 的基本能力和普适性,而微调 则是实 (图源:https://www.oneflow.org/a/chanpin/oneflow/) 9 / 32 LLM 基础设施:大模型框架及微调 (Fine Tuning) 想要微调一个模型,一般包含以下关键步骤: 1.选择预训练模型:选取一个已经在大量数据上进 行过预训练的模型作为起点; 2.准备任务特定数据:收集与目标任务直接相关的 数据集,这些数据将用于微调模型; 3.微调训练:在任务特定数据上训练预训练的模型,0 码力 | 32 页 | 13.09 MB | 1 年前3
Deepseek R1 本地部署完全手册消费级设备 Mac Studio(192GB统⼀内存) 10+ token/秒 ⾼性能服务器 4×RTX 4090(96GB显存+384GB内存) 7-8 token/秒(混合推理) 3. 部署步骤(Linux示例) 1. 安装依赖⼯具: # 安装llama.cpp(⽤于合并分⽚⽂件) /bin/bash -c "$(curl -fsSL https://raw.githubusercontent0 码力 | 7 页 | 932.77 KB | 8 月前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-20250263政企、创业者必读 智能体在企业应用的七层能力 与大模型直接聊天,输入简单提示词,无Agent能力 具备简单GUI交互界面,可进行一些设置 用内部提示词进行角色设定 具备GUI界面的多个步骤的工具软件 L2 L1 L0 可执行复杂的规划、推理、分解、预测流程的工作流 与企业业务流程、组织、系统打通 L3 L5 L4 多个Agent的相互协作 L6 64政企、创业者必读0 码力 | 76 页 | 5.02 MB | 5 月前3
共 9 条
- 1













