00 Deepseek官方提示词AI】,回复【deepseek】获取 1. 万能提示词生成模版:根据用户需求,帮助生成高质量提示词 SYSTEM 你是一位大模型提示词生成专家,请根据用户的需求编写一个智能助手的提示词,来指导大模型进行内容生成, 要求: 1. 以 Markdown 格式输出 2. 贴合用户需求,描述智能助手的定位、能力、知识储备 3. 提示词应清晰、精确、易于理解,在保持质量的同时,尽可能简洁 4. 只输出提示词,不要输出多余解释 只输出提示词,不要输出多余解释 USER “ 请帮我生成一个 Linux ” 助手 的提示词 2. 文案大纲生成:根据用户提供的主题,来生成文案大纲 SYSTEM 你是一位文本大纲生成专家,擅长根据用户的需求创建一个有条理且易于扩展成完整文章的大纲,你拥有强大的 主题分析能力,能准确提取关键信息和核心要点。具备丰富的文案写作知识储备,熟悉各种文体和题材的文案大 纲构建方法。可根据不同的主题需求,如商业文案、文学创 理解和记忆,一 定要押韵,不要太过书面化。只输出宣传标语,不用解释。 USER ” “ 请生成 希腊酸奶 的宣传标语 12. 诗歌创作:让模型根据提示词,创作诗歌 USER 模仿李白的风格写一首七律.飞机 13. 散文写作:让模型根据提示词创作散文 USER 以孤独的夜行者为题写一篇 750 字的散文,描绘一个人在城市中夜晚漫无目的行走的心情与所见所感,以及夜的 寂静给予的独特感悟。0 码力 | 4 页 | 7.93 KB | 8 月前3
DeepSeek从入门到精通(20250204)发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断 并非全面更强,仅在其训练目标领域显著优于通用模型 通用场景更灵活,但专项任务需依赖提示语补偿能力 • 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译 等任务。 快思慢想:效能兼顾 全局视野 概率预测(快速反应模型,如ChatGPT 根据任务需求选择合 适的模型,实现最佳效果。 提示语策略差异 1 2 推理模型 通用模型 • 提示语更简洁,只需明确任务目标和 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 能限制其能力)。 • 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 模型选择 • 优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用 模型)。 提示语设计 • 推理模型:简洁指令,聚焦目标,信任其内化能力。(“要什么直接说”)。 • 通用模型:结构化、补偿性引导(“缺什么补什么”)。 避免误区 • 不要对推理模型使用“启发式”提示(如角色扮演),可能干扰其逻辑主线。 • 不要对通用模型“过度信任”(如直接询问复杂推理问题,需分步验证结果)。0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断 并非全面更强,仅在其训练目标领域显著优于通用模型 通用场景更灵活,但专项任务需依赖提示语补偿能力 • 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译 等任务。 快思慢想:效能兼顾 全局视野 概率预测(快速反应模型,如ChatGPT 根据任务需求选择合 适的模型,实现最佳效果。 提示语策略差异 1 2 推理模型 通用模型 • 提示语更简洁,只需明确任务目标和 需求(因其已内化推理逻辑)。 • 无需逐步指导,模型自动生成结构化 推理过程(若强行拆解步骤,反而可 能限制其能力)。 • 需显式引导推理步骤(如通过CoT提 示),否则可能跳过关键逻辑。 • 依赖提示语补偿能力短板(如要求分 步思考、提供示例)。 模型选择 • 优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用 模型)。 提示语设计 • 推理模型:简洁指令,聚焦目标,信任其内化能力。(“要什么直接说”)。 • 通用模型:结构化、补偿性引导(“缺什么补什么”)。 避免误区 • 不要对推理模型使用“启发式”提示(如角色扮演),可能干扰其逻辑主线。 • 不要对通用模型“过度信任”(如直接询问复杂推理问题,需分步验证结果)。0 码力 | 103 页 | 5.40 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利社交障碍?DeepSeek教你“高情商”破局! ZXDWsPoPvNtNtNnQnPpMsP8O8QaQpNpPsQqNeRqQnPkPnMpM9PoOwOxNpNsPuOqQpN p 提示词驱动的新生产力 在AI时代,知识的获取成本趋近于零,拥有知识不再是核心竞争力。利用提示词创造知识,引领创新、明确 方向,成为社会与个人竞争力的关键。 p 选择中的再创造 面对AI提供的多种解法,人类需具备批判性思维与逻辑判断能力,通过选择最优答案,实现解决方案的创新 规避风险): p “假设园区占地500亩,日均处理包裹量50万件,请计算自动化分拣设备的配置数量,用表格展示。” p 模板复制:对同类章节(如3.1/3.2/3.3)使用相同指令模板,仅替换关键词。 p 强制格式:要求AI输出带编号小标题、分点、表格的内容,直接粘贴后即显“专业感”。 第三阶段:20分钟——用AI补全软性内容(目标:1000字) 填充“虚但必需”的部分: p 政策背书: 将AI生成内容插入对应章节,优先保证字数达标。 场景1:1小时内写完一个1万字的项目书 第四阶段:10分钟——用AI优化与格式伪装 p统一话术: “将以下段落改写成政府报告风格,加入‘数字化转型’‘双碳战略’等关键词:{粘贴原文}” p生成图表: 指令:“将上文‘设备配置表’转换成LaTeX格式的三线表。”插入图表后,自动增加方案“厚度”。 p最终润色: “检查以下方案书逻辑漏洞,列出3个可能被客户质疑的点,并给出应对答案。”0 码力 | 65 页 | 4.47 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单对数据进行诊断、预测、关联、聚类分析,常用于问题 定位、需求预测、推荐系统、异常检测等。 对数据进行分类、社交网络分析或时序模式挖掘,常用 于客户细分、信用评分、社交媒体营销、股价预测等。 将数据转化为统计图、热力图、网络关系图、词云、树形 图等,用于揭示数据中蕴含的模式、趋势、异常和洞见。 本质:以多agent实现从数据采集到可视全流程 模型特点 Claude 3.5 sonnet 平衡性能:在模型大小和 性能之间取得平衡,适合 据采集结果为空。 DeepSeek R1 能够提取所有网址并进行 筛选、去重,所撰写代码 运行后完成数据爬虫任务, 所获取数据准确,少量数 据有所遗漏。 提示词 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 爬虫数据采集 目前DeepSeek R1、Open AI o3mini、Kimi k1 数据结果为空。 结论 Claude 3.5 sonnet 可以提取所有网址,调整后可输出正 确代码,运行代码能生成本地文件, 但提取数据结果为空。 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 文件数据读取 1、读取文件; 2、根据指定内容整理成表格。 任务 Open AI o3mini 暂不支持附件上传,响应速度0 码力 | 85 页 | 8.31 MB | 8 月前3
普通人学AI指南. . . . . . . 11 2.5.3 SD 提示词手册 . . . . . . . . . . . . . . . . . . . . . . . . 12 2.5.4 PromptHero . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.5.5 可视化 AI 提示语 . . . . . . . . . . . . . 各个大型语言模型发布时间线 5 1.4 基础概念 1.4.1 上下文窗口 上下文窗口指的是模型一次可以处理的最大文本长度。这个长度通常用“to- kens”(标记)来表示,每个标记可以是一个单词、子词或单个字符,具体取决 于编码方式。 上下文窗口大小决定了模型在回答问题或生成文本时可以利用的上下文范 围。窗口越大,模型就能处理越长的上下文,对理解长文本内容非常重要。 较大的窗口允许模型处理更长的文本片段,从而提高在长文本任务中的表 T(万亿,Trillion):在英文里是 Trillion 的缩写,表示万亿。在 AI 大模型 中,”T” 常用来表示模型在训练中处理的 Token 数量。Token 是指模型处理的 基本单元,可以是一个单词、子词,或者字符等。 在大规模预训练语言模型的训练中,通常会提到模型是在多少个 Token 上 进行学习的,以表明模型的训练规模和数据量。例如:LLaMA3 语言模型使用 了超过 15T 个 token 进行训练。0 码力 | 42 页 | 8.39 MB | 8 月前3
清华大学第二弹:DeepSeek赋能职场DeepSeek如何赋能职场应用? ——从提示语技巧到多场景应用 中央民族大学 新闻与传播学院 清华大学 @新媒沈阳 团队 向安玲 Innovator For Culture & Art 文、图、乐、剧 Innovator For Social 智能角色交互体 Innovator For Science & Industry 行业大模型 基座大模型 人机协同 Chatbot (限定于文本生成任务) DeepSeek 两种模型对比 V3 R1 DeepSeek 两种模型对比 V3 R1 如何提问?两种模型的提示语差异 • 基础模型(V3):“过程-结果”清晰(指令) • 深度思考(R1):目标清晰,结果可以模糊(推理) RTGO提示语结构 Role(角色) 定义AI的角色: 经验丰富的数据分析师 具备十年销售经验的SaaS系统商务 …… Task(任务) 通过该文案吸引潜在客户,促成消 费……通过该报告为相关企业管理 者提供……策略支撑 Objective(操作要 求) 字数要求、段落结构、用词风格、 内容要点、输出格式… CO-STAR提示语框架 新加坡 GPT-4 提示工程竞赛冠军提示词框架 "R",代表 "Response", 想要的回应类型。 一份详细的研究 报告?一个表格? Markdown格式? "C"代表 “Context(上 下文)” 相关的0 码力 | 35 页 | 9.78 MB | 8 月前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502业务流程 核心业务 智能体 企业要躬身入局,以自身业务驱动,打造专有智能体 63政企、创业者必读 智能体在企业应用的七层能力 与大模型直接聊天,输入简单提示词,无Agent能力 具备简单GUI交互界面,可进行一些设置 用内部提示词进行角色设定 具备GUI界面的多个步骤的工具软件 L2 L1 L0 可执行复杂的规划、推理、分解、预测流程的工作流 与企业业务流程、组织、系统打通 能使用常见的AI工具,能使用别人打造的智能体(纳米AI工具) 能搭建简单的智能体,能打造自己的工具和数字助手(纳米AI智能体) 高阶级 进阶级 入门级 专家级 会写提示词与大模型进行对话,掌握一定的提示词能力(纳米AI) 基础级 69政企、创业者必读 拥抱DeepSeek 直接使用“纳米AI”个人版 搭载DeepSeek-R1联网满血版模型,且服务非常稳定 支持语0 码力 | 76 页 | 5.02 MB | 5 月前3
国家人工智能产业综合标准化体系建设指南(2024版)演化、动态自适应、动态识别、人机协同感知、人机协同决策与 控制等标准。 9. 智能体标准。规范以通用大模型为核心的智能体实例和 10 智能体基本功能、应用架构等技术要求,包括智能体强化学习、 多任务分解、推理、提示词工程,智能体数据接口和参数范围, 人机协作、智能体自主操作、多智能体分布式一致性等标准。 10. 群体智能标准。规范群体智能算法的控制、编队、感知、 规划、决策、通信等技术要求和评测方法,包括自主控制、协同0 码力 | 13 页 | 701.84 KB | 1 年前3
DeepSeek图解10页PDFLSTM(长短时记忆网络)具有更高的训练效率和 更强的长距离依赖建模能力。Transformer 由多个关键组件组成:1. 自注意 力机制(Self-Attention):模型在处理文本时,会自动关注句子中的重要单 词,理解不同词语间的联系。2. 多头注意力(Multi-Head Attention):使用 多个注意力头同时分析不同的语义信息,使得模型的理解能力更强。3. 前 馈神经网络(FFN):非线性变换模块,提升模型的表达能力。4 务中也表现出 色。但由于其能力拓展至非推理类应用,因此在这些应用中引入了帮助性 (helpfulness)和安全性(safety)奖励模型(类似于 Llama 模型),以优化 与这些应用相关的提示处理能力。 DeepSeek-R1 是训练流程的终点,结合了 R1-Zero 的推理能力和通用强化 学习的任务适应能力,成为一个兼具强推理和通用能力的高效 AI 模型。 图 11: R1 通用性训练步骤0 码力 | 11 页 | 2.64 MB | 8 月前3
共 13 条
- 1
- 2













