普通人学AI指南自适应学习能力。AGI 的研发目标是创造出可以广泛地模拟人类认知能力的智 能系统。 1.3 大模型 大模型通常指的是大规模的人工智能模型,这类模型通过训练大量的数据来获 得广泛的知识和能力。这些模型通常具有庞大的参数数量,能够处理复杂的任 务,如自然语言理解、图像识别、语音识别等。 闭源大模型包括 OpenAI 的 GPT 系列和 Google 的 BERT。这些模型因其 高效的学习能力和强大的通用性而受到关注。 B(十亿,Billion):在英文里是 Billion 的缩写,表示十亿。对于 AI 大模型 来说,B 一般用于描述模型的参数数量。例如,具有 50B 参数的模型代表这个 模型有 50 亿个参数。Ollama3 有尺寸 8B 和 70B,Phi-3-mini 有 3.8B 参数等。 T(万亿,Trillion):在英文里是 Trillion 的缩写,表示万亿。在 AI 大模型 中,”T” 常用来表示模型在训练中处理的 视频智能剪辑为短 视频。 2.3.7 HeyGen 动画视频:用于生成动画视频的 AI 工具,支持多种动画风格。 2.3.8 LTX Studio 真人转油画:能将真人视频转换成油画风格的 AI 工具。 2.3.9 EBSynth 开源:一个开源的视频处理工具,用于将艺术风格应用到视频帧中。 2.4 AI 编程工具 2.4.1 DEvv 程序员的新一代 AI 搜索引擎,专为编程和技术问题检索设计。0 码力 | 42 页 | 8.39 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单1978)和栖息环境复杂程度,会影响 捕食以及捕食者与猎物之间的动态关系。 将"因子"替换为"因素",删除了 多余的”如:"和"等" 英文学术写作润色指令 指令:下面是一篇学术论文中的一个段落。润色文字以符合学术风格,改进拼写、语法、清晰度、简洁性和整体可 读性。必要时,重写整个句子。此外,用标记符表格列出所有修改,并解释修改原因。 原始文本 修正后文本 Numerous marine molluscs, 指令:我想让你充当科研写作专家,并提供一些英文或中文段落,你的任务是用原文改写段落。你应该使用 人工智能工具(如自然语言处理)、修辞知识和你在有效科学写作技巧方面的专业知识来回答。请只提供改 写后的文本,不作任何解释,请用科研语气风格重写下面的文字: 解读文献配图指令 指令:这是发表在【杂志名称】期刊上的一篇论文中的一幅图,标题为【文章标题】,图例为【图的标 题】。作为该领域的专家,请帮助我解读该图。 论文参考文献格式指令 复 杂操作,等待平台处理完成即可。 综述生成:根据智能分析结果,平台自动生成结构化的文献综述文本内容和可视化图表,用户可直接获取 完整的综述报告,也可根据需要进行自定义调整,如综述主题、目标、参数等。 知网研学平台官网:https://aiplus.cnki.net/sumup/sumup 输入关键词:进入官网后,在搜索框键入关键词进行文献检索。 选取文章:勾选想要分析的20篇文献。0 码力 | 85 页 | 8.31 MB | 8 月前3
清华大学第二弹:DeepSeek赋能职场671B(全量模型) 网页版直接使用,支持API调用,注册送1000点数,免费体验。 微软Azure https://ai.azure.com 671B(全量模型) 需注册微软账户并创建订阅,免费部署,支持参数调节。 亚马逊AWS https://aws.amazon.com/c n/blogs/aws/deepseek-r1- models-now-available-on- aws 671B(全量模型) Goal(目标) 期望达成什么目标效果: 通过该文案吸引潜在客户,促成消 费……通过该报告为相关企业管理 者提供……策略支撑 Objective(操作要 求) 字数要求、段落结构、用词风格、 内容要点、输出格式… CO-STAR提示语框架 新加坡 GPT-4 提示工程竞赛冠军提示词框架 "R",代表 "Response", 想要的回应类型。 一份详细的研究 报告?一个表格? 相关的 背景信息,比如 你自己或是你希 望它完成的任务 的信息。 "O"代表 “Objective (目标)” 明 确的指示告诉 AI你希望它做什 么。 "S"代表“Style (风格)” 想 要的写作风格, 如严肃的、有趣 的、创新性表达、 学术性…… "T"代表“Tone (语调)” 幽 默的?情绪化? 有威胁性? "A"代表 "Audience", 受众是谁。 小 白用户?专业人0 码力 | 35 页 | 9.78 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利场景1:1小时内写完一个1万字的项目书 第二阶段:20分钟——用AI批量填充模块(目标:6000字) 针对每个小节单独提问,例如: “写一段‘2.1 功能分区’的内容,要求包含自动化立体仓库、AGV调度中心、冷链专区的技术参数,用数据列表形式 呈现。” 关键技巧: p 数据嫁接:若缺乏具体数据,直接让AI生成合理虚构值(标注“示例”规避风险): p “假设园区占地500亩,日均处理包裹量50万件,请计算自动化分拣设备的配置数量,用表格展示。” 你的操作: • 将AI生成内容插入对应章节,优先保证字数达标。 场景1:1小时内写完一个1万字的项目书 第四阶段:10分钟——用AI优化与格式伪装 p统一话术: “将以下段落改写成政府报告风格,加入‘数字化转型’‘双碳战略’等关键词:{粘贴原文}” p生成图表: 指令:“将上文‘设备配置表’转换成LaTeX格式的三线表。”插入图表后,自动增加方案“厚度”。 p最终润色: “检查以 冗余拆解(如“先画图,再列公式 ”) 通用模型 显式要求分步思考,提供示例 “请分三步推导勾股定理,参考: 1. 画直角三角形 … ” 直接提问(易跳过关键步骤) 创意写作 推理模型 鼓励发散性,设定角色/风格 “以海明威的风格写一个冒险故事 ” 过度约束逻辑(如“按时间顺序列出 ”) 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子 ’和‘沙漠 ’ 的短篇小说 ,不超过200字 ” 开放式指令(如“0 码力 | 65 页 | 4.47 MB | 8 月前3
DeepSeek从入门到精通(20250204)冗余拆解(如“先画图,再列公式”) 通用模型 显式要求分步思考,提供示例 “请分三步推导勾股定理,参考: 1. 画直角三角形…” 直接提问(易跳过关键步骤) 创意写作 推理模型 鼓励发散性,设定角色/风格 “以海明威的风格写一个冒险故事” 过度约束逻辑(如“按时间顺序列出”) 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子’和‘沙漠’ 的短篇小说,不超过200字” 开放式指令(如“自由创作”) 需深度理解数据/信息、 发现模式或因果关系 问题 + 数据/信息 + 分析 方法 触发因果链推导与假设验 证 表层总结或分类 3. 创造性需求 需生成新颖内容(文本/ 设计/方案) 主题 + 风格/约束 + 创新 方向 结合逻辑框架生成结构化 创意 自由发散,依赖示例引导 4. 验证需求 需检查逻辑自洽性、数 据可靠性或方案可行性 结论/方案 + 验证方法 + 风险点 自主设计验证路径并排查 重新计算p值并判断显著性。" �实战技巧: 分析需求 "分析近三年新能源汽车销量数据(附CSV),说明: ① 增长趋势与政策关联性; ② 预测2025年市占率,需使用ARIMA模型并解释参数 选择依据。" �实战技巧: 执行需求 �实战技巧: "将以下C语言代码转换为Python,要求: ① 保持时间复杂度不变; ② 使用numpy优化数组操作; ③ 输出带时间测试案例的完整代码。"0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通冗余拆解(如“先画图,再列公式”) 通用模型 显式要求分步思考,提供示例 “请分三步推导勾股定理,参考: 1. 画直角三角形…” 直接提问(易跳过关键步骤) 创意写作 推理模型 鼓励发散性,设定角色/风格 “以海明威的风格写一个冒险故事” 过度约束逻辑(如“按时间顺序列出”) 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子’和‘沙漠’ 的短篇小说,不超过200字” 开放式指令(如“自由创作”) 需深度理解数据/信息、 发现模式或因果关系 问题 + 数据/信息 + 分析 方法 触发因果链推导与假设验 证 表层总结或分类 3. 创造性需求 需生成新颖内容(文本/ 设计/方案) 主题 + 风格/约束 + 创新 方向 结合逻辑框架生成结构化 创意 自由发散,依赖示例引导 4. 验证需求 需检查逻辑自洽性、数 据可靠性或方案可行性 结论/方案 + 验证方法 + 风险点 自主设计验证路径并排查 重新计算p值并判断显著性。" �实战技巧: 分析需求 "分析近三年新能源汽车销量数据(附CSV),说明: ① 增长趋势与政策关联性; ② 预测2025年市占率,需使用ARIMA模型并解释参数 选择依据。" �实战技巧: 执行需求 �实战技巧: "将以下C语言代码转换为Python,要求: ① 保持时间复杂度不变; ② 使用numpy优化数组操作; ③ 输出带时间测试案例的完整代码。"0 码力 | 103 页 | 5.40 MB | 8 月前3
00 Deepseek官方提示词你是一个中英文翻译专家,将用户输入的中文翻译成英文,或将用户输入的英文翻译成中文。对于非中文内容, 它将提供中文翻译结果。用户可以向助手发送需要翻译的内容,助手会回答相应的翻译结果,并确保符合中文语 言习惯,你可以调整语气和风格,并考虑到某些词语的文化内涵和地区差异。同时作为翻译家,需将原文翻译成 具有信达雅标准的译文。"信" 即忠实于原文的内容与意图;"达" 意味着译文应通顺易懂,表达清晰;"雅" 则 追求译文的文化审美 口,易于理解和记忆,一 定要押韵,不要太过书面化。只输出宣传标语,不用解释。 USER ” “ 请生成 希腊酸奶 的宣传标语 12. 诗歌创作:让模型根据提示词,创作诗歌 USER 模仿李白的风格写一首七律.飞机 13. 散文写作:让模型根据提示词创作散文 USER 以孤独的夜行者为题写一篇 750 字的散文,描绘一个人在城市中夜晚漫无目的行走的心情与所见所感,以及夜的 寂静给予的独特感悟。0 码力 | 4 页 | 7.93 KB | 8 月前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502AI不仅是技术革新,更是思维方式和社会结构的变革 国家 产业 个人 企业政企、创业者必读 人工智能发展历程(一) 从早期基于规则的专家系统,走向基于学习训练的感知型AI 从基于小参数模型的感知型AI,走向基于大参数模型的认知型AI 从擅长理解的认知型AI,发展到擅长文字生成的生成式AI 从语言生成式AI,发展到可理解和生成声音、图片、视频的多模态AI 从生成式AI,发展到推理型AI 先做得更大,然后探索能做多小政企、创业者必读 DeepSeek出现之前的十大预判 之五 知识的质量和密度决定大模型能力 高质量数据、合成数据使模型知识密度的快速增长 大模型能以更少的参数量达到更高的性能 360联合北大研发:5%参数量逼近Deepseek-R1满血性能 18政企、创业者必读 DeepSeek出现之前的十大预判 之六 成本越来越低 过去一年,大模型成本「自由落体」 国外:G 认为大模型的能力无法进一步得到质的提升 开辟强化学习新范式 从预训练Scaling Law转变为强化学习Scaling Law 大数据+大参数+大算力的 预训练Scaling Law的边际效应递减 • 人类构造的训练数据已达上限 • 万亿参数规模之后,继续增大参数规 模难以带来质的提升 • 训练算力成本和工程化难度大幅上升 强化学习Scaling Law • 利用合成数据解决数据用尽问题0 码力 | 76 页 | 5.02 MB | 5 月前3
DeepSeek图解10页PDF接下来,咱们先从较为基础的概念开始。 2.1 LLM 基础概念 模型参数。其中比较重要的比如deepseek-r1:1.5b, qwen:7b, llama:8b,这里的 1.5b, 7b、8b 代表什么?b 是英文的 billion,意思是十亿,7b 就是 70 亿,8b 就 是 80 亿,70 亿、80 亿是指大模型的神经元参数(权重参数 weight+bias)的 总量。目前大模型都是基于 Transformer Transformer 架构,并且是很多层的 Transformer 结构,最后还有全连接层等,所有参数加起来 70 亿,80 亿,还有的上千亿。 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 AI 知识,严禁拿此资料引流、出书、等形式的商业活动 通用性更强。大模型和我们自己基于某个特定数据集(如 大家可能在很多场合都见到过。它是一个什么法则呢?大 模型之所以能基于大量多样化的数据集进行训练,并最终“学得好”,核 心原因之一是 Scaling Laws(扩展规律)的指导和模型自身架构的优势。 Scaling Laws 指出参数越多,模型学习能力越强;训练数据规模越大、越多 元化,模型最后就会越通用;即使包括噪声数据,模型仍能通过扩展规律提 取出通用的知识。而 Transformer 这种架构正好完美做到了 Scaling0 码力 | 11 页 | 2.64 MB | 8 月前3
Deepseek R1 本地部署完全手册MoE模型的Ollama部署⽅法。 核⼼提示: 个⼈⽤户:不建议部署32B及以上模型,硬件成本极⾼且运维复杂。 企业⽤户:需专业团队⽀持,部署前需评估ROI(投资回报率)。 ⼆、本地部署核⼼配置要求 1. 模型参数与硬件对应表 模型参 数 Windows 配置要求 Mac 配置要求 适⽤场景 1.5B - RAM: 4GB - GPU: 集成显卡/现代CPU - 存储: 5GB - 内存: 8GB - 内存: 32GB(M3 Max) - 存储: 20GB 复杂推理、技术⽂档⽣ 成 32B+ 企业级部署(需多卡并联) 暂不⽀持 科研计算、⼤规模数据 处理 2. 算⼒需求分析 模型 参数规 模 计算精 度 最低显存需 求 最低算⼒需求 DeepSeek-R1 (671B) 671B FP8 ≥890GB 2*XE9680(16*H20 GPU) DeepSeek-R1-Distill- MXN系列⽀持70B模型BF16推理,显存利⽤率提升 30% 等效RTX 3090 海光 DCU 适配V3/R1模型,性能对标NVIDIA A100 等效A100(BF16) 2. 国产硬件推荐配置 模型参数 推荐⽅案 适⽤场景 1.5B 太初T100加速卡 个⼈开发者原型验证 14B 昆仑芯K200集群 企业级复杂任务推理 32B 壁彻算⼒平台+昇腾910B集群 科研计算与多模态处理 四、云端部署替代⽅案0 码力 | 7 页 | 932.77 KB | 8 月前3
共 13 条
- 1
- 2













