DeepSeek从入门到精通(20250204)• 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 关键原则 3 2 1 模型选择 • 优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用 模型)。 提示语设计 • 推理模型:简洁指令,聚焦目标,信任其内化能力。(“要什么直接说”)。 • 通用模型:结构化、补偿性引导(“缺什么补什么”)。 避免误区 • 不要对推理模型使用“启发式”提示(如角色扮演),可能干扰其逻辑主线。 • 不要对通用模型“过度信任”(如直接询问复杂推理问题,需分步验证结果)。 从“下达指令”到“表达需求” 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务、需快速执行 “用Python编写快速排序函 数,输出需包含注释。” ✅ 结果精准高效 么”“如何”) 探索性问题、需模型解 释逻辑 “为什么选择梯度下降法解 决此优化问题?请对比其他 算法。” ✅ 触发模型自解释能力 ❌ 可能偏离核心目标 任务需求与提示语策略 任务类型 适用模型 提示语侧重点 示例(有效提示) 需避免的提示策略 数学证明 推理模型 直接提问,无需分步引导 “证明勾股定理” 冗余拆解(如“先画图,再列公式”) 通用模型 显式要求分步思考,提供示例0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通• 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 关键原则 3 2 1 模型选择 • 优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用 模型)。 提示语设计 • 推理模型:简洁指令,聚焦目标,信任其内化能力。(“要什么直接说”)。 • 通用模型:结构化、补偿性引导(“缺什么补什么”)。 避免误区 • 不要对推理模型使用“启发式”提示(如角色扮演),可能干扰其逻辑主线。 • 不要对通用模型“过度信任”(如直接询问复杂推理问题,需分步验证结果)。 从“下达指令”到“表达需求” 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务、需快速执行 “用Python编写快速排序函 数,输出需包含注释。” ✅ 结果精准高效 么”“如何”) 探索性问题、需模型解 释逻辑 “为什么选择梯度下降法解 决此优化问题?请对比其他 算法。” ✅ 触发模型自解释能力 ❌ 可能偏离核心目标 任务需求与提示语策略 任务类型 适用模型 提示语侧重点 示例(有效提示) 需避免的提示策略 数学证明 推理模型 直接提问,无需分步引导 “证明勾股定理” 冗余拆解(如“先画图,再列公式”) 通用模型 显式要求分步思考,提供示例0 码力 | 103 页 | 5.40 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单2、对数据集进行深入分析和数据挖掘 任务 DeepSeek R1 能够准确对数据进行分类,从多个维度进行梳理和分析,借助可视化图表进行数据挖掘,基于分析结 果提供可行建议,但整体数据挖掘深度较浅,缺少对不同类型数据直接关联性的探究。 第一轮对话: 第二轮对话: (基于初步分析结果,选择其中一部分或某个方 向进行深入的数据挖掘) 提示词 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因 策制定、质量评估或产品验证的最终依据。 数据可视化 基于titanic遇难者数据分析结果绘制可 视化图表 任务 Open AI o3mini的数据可视化能力突出,能够直接高效地生成多种类型可视化图表,准确度高; DeepSeek R1、Kimi k1.5均能基于分析结果提供多种可视化图表绘制方案,但都需要依靠运行 Python代码才能完成绘图任务,部分代码会出现错误 Open 输出结果,其中第一列是原文,第二列是翻译后的句子,每行只给出一个句子 所提供段落的语言是中文,以下是按要求的标记表格式翻译成英文的译文: Original (Chinese) Translation (English) 捕食是一个基本的生态过程,捕食的定义为:一种生物(捕食 者)捕食了另一种生物(猎物)(Begon等,1997)。 Predation is a fundamental ecological process,defined0 码力 | 85 页 | 8.31 MB | 8 月前3
清华大学第二弹:DeepSeek赋能职场Social 智能角色交互体 Innovator For Science & Industry 行业大模型 基座大模型 人机协同 Chatbot •自然语言对话 Reasoner •基本的推理和问 题解决能力 Agent •代表用户执行任 务,具备自主行 动能力 Innovator • 参与发明和创造, 增强人类的创造力 和创新能力 Organization •承担整个组织的 Objective(操作要 求) 字数要求、段落结构、用词风格、 内容要点、输出格式… CO-STAR提示语框架 新加坡 GPT-4 提示工程竞赛冠军提示词框架 "R",代表 "Response", 想要的回应类型。 一份详细的研究 报告?一个表格? Markdown格式? "C"代表 “Context(上 下文)” 相关的 背景信息,比如 你自己或是你希 望它完成的任务 的信息。 "O"代表 “Objective aid语法的图表代码。 技能: 熟悉Mermaid的图表类型和语法,能高效将流程转化为代码。 理解流程分析、架构设计及结构化展示等领域知识。 约束: 代码必须符合Mermaid语法规范。 流程和结构表达需准确清晰。 流程图需要有二级、三级等多层级。 输出的代码格式应简洁且易于理解。 工作流程: 询问用户希望绘制哪种类型的图表。 收集详细的流程或架构描述。 根据描述分析并设计图表结构。0 码力 | 35 页 | 9.78 MB | 8 月前3
普通人学AI指南. . . 20 4.2 步骤一安装 docker . . . . . . . . . . . . . . . . . . . . . . . . . . 20 4.2.1 了解 docker 基本用法 . . . . . . . . . . . . . . . . . . . . 20 4.2.2 下载 docker . . . . . . . . . . . . . . . . . . 40 3 1 AI 大模型基础 1.1 AIGC AIGC 是指使用人工智能模型生成内容的技术。这些内容可以包括图像、音频、 文本、视频、3D 模型等。具体来说,AIGC 技术可以生成如下类型的内容: • 图像:如照片、原创艺术作品 • 音频:如视频游戏中的配音、音乐 • 文本:如代码、广告文案、小说 • 3D 模型:如角色、场景 目前,AIGC 技术处于早期阶段,最常见的产品形态是基于文本的,通过用 8B 参数等。 T(万亿,Trillion):在英文里是 Trillion 的缩写,表示万亿。在 AI 大模型 中,”T” 常用来表示模型在训练中处理的 Token 数量。Token 是指模型处理的 基本单元,可以是一个单词、子词,或者字符等。 在大规模预训练语言模型的训练中,通常会提到模型是在多少个 Token 上 进行学习的,以表明模型的训练规模和数据量。例如:LLaMA3 语言模型使用 了超过0 码力 | 42 页 | 8.39 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利推理过程(若强行拆解步骤, 反而可 能限制其能力) 。 • 需显式引导推理步骤(如通过CoT提 示) , 否则可能跳过关键逻辑 。 • 依赖提示语补偿能力短板(如要求分 步思考 、提供示例) 。 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务 、需快速执行 “用Python编写快速排序函 数, 输出需包含注释 。 智能体在长时间对话中常表现出“知识循环边界”,即生成内容 重复或局限于特定模式的现象,源于训练数据、算法模型及预设 规则的限制。这一现象与逻辑学中的自指问题(如罗素悖论、哥 德尔定理)相关。 研究通过实验分析问题类型(全收敛、半收敛、非收敛)和对话 次数(50次、100次、150次)对生成内容相似性与创新性的影响, 建立了测量AI触及知识循环边界的方式。 AI的内容生成有一定的边界效应 研究将智能体知识循环 使AI生成文 本逐渐趋向固定模式。 p 在非收敛性提示词下,AI展现出更多的多样性和创新性,超越现有知识框架,尝试生成新的组合。问题类型对生成文 本的重复率有显著影响,但对相似度的影响不明显。重复率的变化更多受到提示词的影响,而相似度的变化则主要源 于问题类型以外的其他因素。 p 通过调整提示词收敛性和对话轮次,AI从依赖已有知识的固定模式向创新性生成内容逐步转变,显示提示词设计和交 互频率的影响力。0 码力 | 65 页 | 4.47 MB | 8 月前3
开源中国 2023 大模型(LLM)技术报告/ 32 LLM 基础设施 01 03 02 04 向量数据库/数据库向量支持 为大模型提供高效的存储和检索能力 大模型框架及微调 (Fine Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 调是 用较小、特定领域的数据集对模型进行后续训练,以使 其更好地适应特定的任务或应用场景。这一步骤使得通 用的大型模型能够在特定任务上表现出更高的精度和更 好的效果。 大模型框架提供了 LLM 的基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节。两者相结合, 使得 LLM 在广泛的应用场景中都能发挥出色的性能。 8 / 32 LLM 基础设施:大模型框架及微调 (Fine Tuning) Copilot 16 / 32 大模型应用现状:知名大模型 在全球范围内,已经发布了多款知名大模型,这些大模 型在各个领域都取得了突破性的进展。 处理文本数据的 GPT-4,能同时处理和理解多种类型数 据的多模态模型 DALL-E 3,以及开源大模型的代表 Lllama 2 都在短时间内获得了大量关注和用户,构成了 大模型领域的「第一梯队」。 讯飞星火 17 / 32 大模型应用现状:首批备案上线的中国大模型0 码力 | 32 页 | 13.09 MB | 1 年前3
人工智能安全治理框架 1.0措施。关注安全风险发展变化,快速动态精准调整治理措施,持续优化治理机 制和方式,对确需政府监管事项及时予以响应。 1.3 技管结合、协同应对。面向人工智能研发应用全过程,综合运用技术、 管理相结合的安全治理措施,防范应对不同类型安全风险。围绕人工智能研发 应用生态链,明确模型算法研发者、服务提供者、使用者等相关主体的安全责 任,有机发挥政府监管、行业自律、社会监督等治理机制作用。 1.4 开放合作、共治共享。在全球范围推动人工智能安全治理国际合作, 共享最佳实践,提倡建立开放性平台,通过跨学科、跨领域、跨地区、跨国界 的对话和合作,推动形成具有广泛共识的全球人工智能治理体系。 2. 人工智能安全治理框架构成 基于风险管理理念,本框架针对不同类型的人工智能安全风险,从技术、 管理两方面提出防范应对措施。同时,目前人工智能研发应用仍在快速发展, 安全风险的表现形式、影响程度、认识感知亦随之变化,防范应对措施也将相 应动态调整更新,需要各方共同对治理框架持续优化完善。 、- 5 - 人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国家利用技术垄断和出口管制等单边强制措施制造发展壁垒,恶意阻断0 码力 | 20 页 | 3.79 MB | 1 月前3
DeepSeek图解10页PDF. . . . . . . . . . 5 2.2 Transformer 基础架构 . . . . . . . . . . . . . . . . . . . . . . 6 2.3 LLM 基本训练方法 . . . . . . . . . . . . . . . . . . . . . . . . 7 2.3.1 预训练(Pretraining) . . . . . . . . . . 本地部署三个步骤 一共只需要三步,就能做到 DeepSeek 在本地运行并与它对话。 第一步,使用的是 ollama 管理各种不同大模型,ollama 比较直接、干净, 一键下载后安装就行,安装过程基本都是下一步。 不知道去哪里下载的,可以直接在我的公众号后台回复:ollama,下载这个 软件,然后装上,可以拿着手机扫码下图1直达我的公众号: 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 AI 知识,严禁拿此资料引流、出书、等形式的商业活动 2.3 LLM 基本训练方法 2.3.1 预训练(Pretraining) LLM 训练通常采用大规模无监督学习,即:1. 从互联网上收集大量文本数 据,如书籍、新闻、社交媒体等。2. 让模型学习词语之间的概率分布,理解0 码力 | 11 页 | 2.64 MB | 8 月前3
Deepseek R1 本地部署完全手册DeepSeek-R1-Q4_K_M 404 GB ≥500 GB ⾼性能服务器/云GPU 下载地址: HuggingFace模型库 Unsloth AI官⽅说明 2. 硬件配置建议 硬件类型 推荐配置 性能表现(短⽂本⽣成) 消费级设备 Mac Studio(192GB统⼀内存) 10+ token/秒 ⾼性能服务器 4×RTX 4090(96GB显存+384GB内存) 7-8 token/秒(混合推理)0 码力 | 7 页 | 932.77 KB | 8 月前3
共 13 条
- 1
- 2













