DeepSeek从入门到精通(20250204)“先解释电车难题的定义,再对比 两种伦理观的差异” 一次性提问复杂逻辑 如何向AI表达需求 需求类型 特点 需求表达公式 推理模型适配策略 通用模型适配策略 1. 决策需求 需权衡选项、评估风险、 选择最优解 目标 + 选项 + 评估标准 要求逻辑推演和量化分析 直接建议,依赖模型经验归纳 2. 分析需求 需深度理解数据/信息、 发现模式或因果关系 问题 + 数据/信息 + 分析 方法 触发因果链推导与假设验 设计能激发AI创新思维的提示语 利用类比、反向思考等技巧拓展AI输出的可能性 巧妙结合不同领域概念,产生跨界创新 结果优化能力 分析AI输出,识别改进空间 通过迭代调整提示语,优化输出质量 设计评估标准,量化提示语效果 跨域整合能力 将专业领域知识转化为有效的提示语 利用提示语桥接不同学科和AI能力 创造跨领域的创新解决方案 系统思维 设计多步骤、多维度的提示语体系 构建提示语模板库,提高效率和一致性 深入分析任务背景和隐含需求 考虑文化、伦理和法律因素 预测可能的误解和边界情况 抽象化能力 识别通用模式,提高提示语可复用性 设计灵活、可扩展的提示语模板 创建适应不同场景的元提示语 批判性思考 客观评估AI输出,识别潜在偏见和错误 设计反事实提示语,测试AI理解深度 构建验证机制,确保AI输出的可靠性 创新思维 探索非常规的提示语方法 结合最新AI研究成果,拓展应用边界 设计实验性提示语,推动AI能力的进化0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通“先解释电车难题的定义,再对比 两种伦理观的差异” 一次性提问复杂逻辑 如何向AI表达需求 需求类型 特点 需求表达公式 推理模型适配策略 通用模型适配策略 1. 决策需求 需权衡选项、评估风险、 选择最优解 目标 + 选项 + 评估标准 要求逻辑推演和量化分析 直接建议,依赖模型经验归纳 2. 分析需求 需深度理解数据/信息、 发现模式或因果关系 问题 + 数据/信息 + 分析 方法 触发因果链推导与假设验 设计能激发AI创新思维的提示语 利用类比、反向思考等技巧拓展AI输出的可能性 巧妙结合不同领域概念,产生跨界创新 结果优化能力 分析AI输出,识别改进空间 通过迭代调整提示语,优化输出质量 设计评估标准,量化提示语效果 跨域整合能力 将专业领域知识转化为有效的提示语 利用提示语桥接不同学科和AI能力 创造跨领域的创新解决方案 系统思维 设计多步骤、多维度的提示语体系 构建提示语模板库,提高效率和一致性 深入分析任务背景和隐含需求 考虑文化、伦理和法律因素 预测可能的误解和边界情况 抽象化能力 识别通用模式,提高提示语可复用性 设计灵活、可扩展的提示语模板 创建适应不同场景的元提示语 批判性思考 客观评估AI输出,识别潜在偏见和错误 设计反事实提示语,测试AI理解深度 构建验证机制,确保AI输出的可靠性 创新思维 探索非常规的提示语方法 结合最新AI研究成果,拓展应用边界 设计实验性提示语,推动AI能力的进化0 码力 | 103 页 | 5.40 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利格式转换 关系抽取 语言理解 文案写作 代码注释 故事创作 通用问答 专业领域问答 因果推理 知识推理 问答系统 逻辑推理 自然语言处理 文本生成与创作 建议生成 风险评估 辅助决策 概念关联 知识整合 交互能力 情感分析 文本分类 图像理解 跨模态转换 专业建议 任务分解 情感回应 上下文理解 对话能力 多轮对话 数学运算 逻辑分析 第三阶段:20分钟——用AI补全软性内容(目标:1000字) 填充“虚但必需”的部分: p 政策背书: “生成5条2023年国家层面支持智能物流园区的政策原文(带发文号),并解读对本案的指导意义。” p 风险评估: “列出智能物流园区常见的3大技术风险(如AGV系统宕机),每项配100字应对方案。” p 效益测算: “用公式推算:园区建成后3年内降本增效收益,假设人工成本减少30%,分拣错误率下降25%。” “我完全理解项目的重要性,但家人目前手术风险高,必须陪护到周四。我已培训小刘处理核心问题,并随时在 线支持(附排班表)。回来后我申请周末加班补进度。 场景4:项目中急需请假 如何开口 最终行动建议: • 快速评估优先级:家庭紧急事件(如生命健康)永远高于工作,无需愧疚。 • 用AI生成沟通模板:确保信息清晰、理性、有解决方案。 • 当面沟通+书面留痕:先口头说明(体现尊重),再邮件/消息发送书面请假(附交接文0 码力 | 65 页 | 4.47 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单筛选、去重,所撰写代码 运行后完成数据爬虫任务, 所获取数据准确,少量数 据有所遗漏。 提示词 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 爬虫数据采集 目前DeepSeek R1、Open AI o3mini、Kimi k1.5支持联网查询网址,Claude 3.5 sonnet暂不支持; 四个 sonnet 可以提取所有网址,调整后可输出正 确代码,运行代码能生成本地文件, 但提取数据结果为空。 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 文件数据读取 1、读取文件; 2、根据指定内容整理成表格。 任务 Open AI o3mini 暂不支持附件上传,响应速度 快,能够快速读取粘贴数据, 输出结果格式工整、简洁。 、环比的百分 比。4.当天的民航客运量、比2024年同期多或者少的百分比、环比的百分比。 提示词 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 文件数据读取 Claude 3.5 sonnet 很好地完成了数据读取及提取 任务,没有漏数据指标,数据 逻辑性很好 Kimi k1.5 能够快速读取文件数据,并0 码力 | 85 页 | 8.31 MB | 8 月前3
国家人工智能产业综合标准化体系建设指南(2024版)基础共性标准主要包括人工智能术语、参考架构、测试评估、 管理、可持续等标准。 1. 术语标准。规范人工智能相关技术、应用的概念定义, 为其它标准的制定和人工智能研究提供参考,包括人工智能相关 术语定义、范畴、实例等标准。 2. 参考架构标准。规范人工智能相关技术、应用及系统的 逻辑关系和相互作用,包括人工智能参考架构、人工智能系统生 命周期及利益相关方等标准。 3. 测试评估标准。规范人工智能技术发展的成熟度、人工 测试评估标准。规范人工智能技术发展的成熟度、人工 智能体系架构之间的适配度、行业发展水平、企业智能化能力等 方面的测试及评估的指标要求,包括与人工智能相关的服务能力 成熟度评估,人工智能通用性测试指南、评估原则和等级要求, 企业智能化能力框架及测评要求等标准。 4. 管理标准。规范人工智能技术、产品、系统、服务等全 生命周期涉及的人员、组织管理要求和评价,包括面向人工智能 组织的管理要求,人工智能管理体系、分类方法、评级流程等标 的测试方法和运行维护要求等标准。 5. 算力中心标准。规范面向人工智能的大规模计算集群、 新型数据中心、智算中心、基础网络通信、算力网络、数据存储 8 等基础设施的技术要求和评估方法,包括基础设施参考架构、计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系统软件标准。规范人工智能系统层的软硬件技术要求, 包括软硬件编译器架构和优化方法、人工智能算子库、芯片软件 运行时库0 码力 | 13 页 | 701.84 KB | 1 年前3
人工智能安全治理框架 1.0、 政府部门、行业协会、社会组织等多方参与的人工智能安全风险综合治理制度 规范。 5.1 实施人工智能应用分类分级管理。根据功能、性能、应用场景等, 对人工智能系统分类分级,建立风险等级测试评估体系。加强人工智能最终用 途管理,对特定人群及场景下使用人工智能技术提出相关要求,防止人工智能 系统被滥用。对算力、推理能力达到一定阈值或应用在特定行业领域的人工智 能系统进行登记备案,要求其 据加密措施等。 (d)研发者应评估模型算法潜在偏见,加强训练数据内容和质量的抽查 检测,设计有效、可靠的对齐算法,确保价值观风险、伦理风险等可控。 (e)研发者应结合目标市场适用法律要求和风险管理要求,评估人工智 能产品和服务能力成熟度。 (f)研发者应做好人工智能产品及所用数据集的版本管理,商用版本应 可以回退到以前的商用版本。 (g)研发者应定期开展安全评估测试,测试前明确测试目标、范围和安 全维度,构建多样化的测试数据集,涵盖各种应用场景。 (h)研发者应制定明确的测试规则和方法,包括人工测试、自动测试、 混合测试等,利用沙箱仿真等技术对模型进行充分测试和验证。 (i) 研发者应评估人工智能模型算法对外界干扰的容忍程度,以适用范 围、注意事项或使用禁忌的形式告知服务提供者和使用者。 (j) 研发者应生成详细的测试报告,分析安全问题并提出改进方案。 6.2 人工智能服务提供者安全指引0 码力 | 20 页 | 3.79 MB | 1 月前3
TVM工具组caffe 或者 tensorflow 的模型,转换到 LLVM IR,最后生成可以在无剑 SoC 平台上 执行的二进制。绝赞招聘中 为何添加 caffe 前端? 客户需求 评估阶段:客户用于评估芯片的网络,caffe 模型占很大比重。 竞品已支持 caffe 前端 当前各大芯片厂商的部署工具大多数都支持,支持 caffe 前端有利于提高竞争力。 开源社区 存量的开源 caffe0 码力 | 6 页 | 326.80 KB | 5 月前3
Deepseek R1 本地部署完全手册适配、量化⽅案、云端替代⽅ 案及完整671B MoE模型的Ollama部署⽅法。 核⼼提示: 个⼈⽤户:不建议部署32B及以上模型,硬件成本极⾼且运维复杂。 企业⽤户:需专业团队⽀持,部署前需评估ROI(投资回报率)。 ⼆、本地部署核⼼配置要求 1. 模型参数与硬件对应表 模型参 数 Windows 配置要求 Mac 配置要求 适⽤场景 1.5B - RAM: 4GB - GPU: 七、附录:技术⽀持与资源 华为昇腾:昇腾云服务 沐曦GPU:免费API体验 李锡涵博客:完整部署教程 结语 Deepseek R1 的本地化部署需极⾼的硬件投⼊与技术⻔槛,个⼈⽤户务必谨慎,企业⽤户应充 分评估需求与成本。通过国产化适配与云端服务,可显著降低⻛险并提升效率。技术⽆⽌境, 理性规划⽅能降本增效! ⼿册更新与反馈:如有补充或修正,请联系⽂档作者,接⼊细节请阅读详细⽂档硅基流动社 区。 全球企业个⼈渠道附表0 码力 | 7 页 | 932.77 KB | 8 月前3
开源中国 2023 大模型(LLM)技术报告行过预训练的模型作为起点; 2.准备任务特定数据:收集与目标任务直接相关的 数据集,这些数据将用于微调模型; 3.微调训练:在任务特定数据上训练预训练的模型, 调整模型参数以适应特定任务; 4.评估:在验证集上评估模型性能,确保模型对新 数据有良好的泛化能力; 5.部署:将性能经验证的模型部署到实际应用中去。 微调的过程也是分类模型训练的过程 (图源:https://medium.com/mle0 码力 | 32 页 | 13.09 MB | 1 年前3
普通人学AI指南确定大型语言模型(大小超过 10B)的发展历程。如果没有相应的论文,我们 将模型的日期设定为其公开发布或宣布的最早时间。我们用黄色标记那些公开 可用的模型检查点。由于空间限制,我们只包括那些公开报道评估结果的大型 语言模型。 Figure 2: 各个大型语言模型发布时间线 5 1.4 基础概念 1.4.1 上下文窗口 上下文窗口指的是模型一次可以处理的最大文本长度。这个长度通常用“to-0 码力 | 42 页 | 8.39 MB | 8 月前3
共 11 条
- 1
- 2













