 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单图像处理,扩展应用场景。  可解释性:注重模型输出 的可解释性和透明性。 DeepSeek R1  高效推理:专注于低延迟和 高吞吐量,适合实时应用。  轻量化设计:模型结构优化, 资源占用少,适合边缘设备 和移动端。  多任务支持:支持多种任务, 如文本生成、分类和问答。 Kimi k1.5  垂直领域优化:针对特定领域 (如医疗、法律)进行优化, 提供高精度结果。 长文本处理:擅长处理长文本 和复杂文档,适合专业场景。  定制化能力:支持用户自定义 训练和微调,适应特定需求。 Open AI o3 mini  小型化设计:轻量级模型, 适合资源有限的环境。  快速响应:优化推理速度, 适合实时交互场景。  通用性强:适用于多种自 然语言处理任务,如对话 生成和文本理解。 爬虫数据采集 1、阅读网页源代码,提取特定网页内容; 中小企业AI定制化服务:为中小企业提 供定制化的AI解决方案,如智能客服、营销 和办公工具,提升企业竞争力。 • 开源AI教育平台:借助DeepSeek R1 的低成本特性,创建开源AI教育平台,提供 免费课程和实验资源,促进AI教育普及。 • 智能编程教育助手:为编程学生提供实 时编程指导,自动生成代码示例,帮助解决 编程难题。 • 自动化代码审查工具:自动审查代码, 发现潜在问题并提供优化建议,提升开发效0 码力 | 85 页 | 8.31 MB | 8 月前3 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单图像处理,扩展应用场景。  可解释性:注重模型输出 的可解释性和透明性。 DeepSeek R1  高效推理:专注于低延迟和 高吞吐量,适合实时应用。  轻量化设计:模型结构优化, 资源占用少,适合边缘设备 和移动端。  多任务支持:支持多种任务, 如文本生成、分类和问答。 Kimi k1.5  垂直领域优化:针对特定领域 (如医疗、法律)进行优化, 提供高精度结果。 长文本处理:擅长处理长文本 和复杂文档,适合专业场景。  定制化能力:支持用户自定义 训练和微调,适应特定需求。 Open AI o3 mini  小型化设计:轻量级模型, 适合资源有限的环境。  快速响应:优化推理速度, 适合实时交互场景。  通用性强:适用于多种自 然语言处理任务,如对话 生成和文本理解。 爬虫数据采集 1、阅读网页源代码,提取特定网页内容; 中小企业AI定制化服务:为中小企业提 供定制化的AI解决方案,如智能客服、营销 和办公工具,提升企业竞争力。 • 开源AI教育平台:借助DeepSeek R1 的低成本特性,创建开源AI教育平台,提供 免费课程和实验资源,促进AI教育普及。 • 智能编程教育助手:为编程学生提供实 时编程指导,自动生成代码示例,帮助解决 编程难题。 • 自动化代码审查工具:自动审查代码, 发现潜在问题并提供优化建议,提升开发效0 码力 | 85 页 | 8.31 MB | 8 月前3
 Deepseek R1 本地部署完全手册A100 等效A100(BF16) 2. 国产硬件推荐配置 模型参数 推荐⽅案 适⽤场景 1.5B 太初T100加速卡 个⼈开发者原型验证 14B 昆仑芯K200集群 企业级复杂任务推理 32B 壁彻算⼒平台+昇腾910B集群 科研计算与多模态处理 四、云端部署替代⽅案 1. 国内云服务商推荐 平台 核⼼优势 适⽤场景 硅基流动 官⽅推荐API,低延迟,⽀持多模态模型 企业级⾼并发推理 中⼩规模模型快速上线 PPIO派欧云 价格仅为OpenAI 1/20,注册赠5000万tokens 低成本尝鲜与测试 2. 国际接⼊渠道(需魔法或外企上⽹环境  ) 英伟达NIM:企业级GPU集群部署(链接) Groq:超低延迟推理(链接) 五、完整671B MoE模型部署(Ollama+Unsloth) 1. 量化⽅案与模型选择 量化版本 ⽂件体 积 最低内存+显存需 求 适⽤场景 GPU利⽤率低:升级⾼带宽内存(如DDR5 5600+)。 扩展交换空间: 六、注意事项与⻛险提示 1. 成本警示: 70B模型:需3张以上80G显存显卡(如RTX A6000),单卡⽤户不可⾏。 671B模型:需8xH100集群,仅限超算中⼼部署。 2. 替代⽅案: 个⼈⽤户推荐使⽤云端API(如硅基流动),免运维且合规。 3. 国产硬件兼容性:需使⽤定制版框架(如昇腾CANN、沐曦MXMLLM)。 llama-gguf-split0 码力 | 7 页 | 932.77 KB | 8 月前3 Deepseek R1 本地部署完全手册A100 等效A100(BF16) 2. 国产硬件推荐配置 模型参数 推荐⽅案 适⽤场景 1.5B 太初T100加速卡 个⼈开发者原型验证 14B 昆仑芯K200集群 企业级复杂任务推理 32B 壁彻算⼒平台+昇腾910B集群 科研计算与多模态处理 四、云端部署替代⽅案 1. 国内云服务商推荐 平台 核⼼优势 适⽤场景 硅基流动 官⽅推荐API,低延迟,⽀持多模态模型 企业级⾼并发推理 中⼩规模模型快速上线 PPIO派欧云 价格仅为OpenAI 1/20,注册赠5000万tokens 低成本尝鲜与测试 2. 国际接⼊渠道(需魔法或外企上⽹环境  ) 英伟达NIM:企业级GPU集群部署(链接) Groq:超低延迟推理(链接) 五、完整671B MoE模型部署(Ollama+Unsloth) 1. 量化⽅案与模型选择 量化版本 ⽂件体 积 最低内存+显存需 求 适⽤场景 GPU利⽤率低:升级⾼带宽内存(如DDR5 5600+)。 扩展交换空间: 六、注意事项与⻛险提示 1. 成本警示: 70B模型:需3张以上80G显存显卡(如RTX A6000),单卡⽤户不可⾏。 671B模型:需8xH100集群,仅限超算中⼼部署。 2. 替代⽅案: 个⼈⽤户推荐使⽤云端API(如硅基流动),免运维且合规。 3. 国产硬件兼容性:需使⽤定制版框架(如昇腾CANN、沐曦MXMLLM)。 llama-gguf-split0 码力 | 7 页 | 932.77 KB | 8 月前3
 国家人工智能产业综合标准化体系建设指南(2024版)方法,包括人工智能计算设备虚拟化方法,人工智能加速模组接 口协议和测试方法,及使能软件的访问协议、功能、性能、能效 的测试方法和运行维护要求等标准。 5. 算力中心标准。规范面向人工智能的大规模计算集群、 新型数据中心、智算中心、基础网络通信、算力网络、数据存储 8 等基础设施的技术要求和评估方法,包括基础设施参考架构、计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系 文本处理、语义处理等方面的技术要求和评测方法,包括语法分 析、语义理解、语义表达、机器翻译、自动摘要、自动问答、语 言大模型等标准。 5. 智能语音标准。规范前端处理、语音处理、语音接口、 数据资源等技术要求和评测方法,包括深度合成的鉴伪方法、全 双工交互、语音大模型等标准。 6. 计算机视觉标准。规范图像获取、图像/视频处理、图像 内容分析、三维计算机视觉、计算摄影学、跨媒体融合等技术要0 码力 | 13 页 | 701.84 KB | 1 年前3 国家人工智能产业综合标准化体系建设指南(2024版)方法,包括人工智能计算设备虚拟化方法,人工智能加速模组接 口协议和测试方法,及使能软件的访问协议、功能、性能、能效 的测试方法和运行维护要求等标准。 5. 算力中心标准。规范面向人工智能的大规模计算集群、 新型数据中心、智算中心、基础网络通信、算力网络、数据存储 8 等基础设施的技术要求和评估方法,包括基础设施参考架构、计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系 文本处理、语义处理等方面的技术要求和评测方法,包括语法分 析、语义理解、语义表达、机器翻译、自动摘要、自动问答、语 言大模型等标准。 5. 智能语音标准。规范前端处理、语音处理、语音接口、 数据资源等技术要求和评测方法,包括深度合成的鉴伪方法、全 双工交互、语音大模型等标准。 6. 计算机视觉标准。规范图像获取、图像/视频处理、图像 内容分析、三维计算机视觉、计算摄影学、跨媒体融合等技术要0 码力 | 13 页 | 701.84 KB | 1 年前3
 DeepSeek从入门到精通(20250204)通过多步引导,实现更深入的内容 探讨 控制每个步骤的输出深度,避免冗余 创意激发 多角度提示激发AI的创造性思维 在创意和连贯之间找到平衡 质量控制 多次迭代提高内容质量 需要更多的实践和计算资源 灵活调整 可根据中奖结果随时调整后续提示 实时调整需要较高的判断和决策能力 提示语链的优势与挑战 提示语链的设计原则 01 目标明确性 02 逻辑连贯性 03 渐进复杂性 04 灵活适应性 Connection(连接):建立子任务之间的逻辑关联 • Temporal Arrangement(时序安排):考虑任务的时 间维度 • Resource Allocation(资源分配):为每个子任务分配 适当的注意力资源 • Adaptation(适应):根据AI反馈动态调整任务结构 为了更有效地进行任务分解,可以采用SPECTRA模型(Systematic Partitioning for 影响,以及如何共同推进总体目标的实现。” 5. 时序提示:“为每个子任务制定一个粗略的时间表,考虑它们的依赖 关系和完成所需的相对时间。” 6. 资源分配提示:“评估每个子任务的复杂度,分配1—10的'注意力分 数',指导在执行过程中如何分配计算资源。” 7. 适应提示:“在执行每个子任务后,评估其输出质量和对总体目标的 贡献,必要时调整后续任务的优先级或内容。” 思维拓展的认知理论基础0 码力 | 104 页 | 5.37 MB | 8 月前3 DeepSeek从入门到精通(20250204)通过多步引导,实现更深入的内容 探讨 控制每个步骤的输出深度,避免冗余 创意激发 多角度提示激发AI的创造性思维 在创意和连贯之间找到平衡 质量控制 多次迭代提高内容质量 需要更多的实践和计算资源 灵活调整 可根据中奖结果随时调整后续提示 实时调整需要较高的判断和决策能力 提示语链的优势与挑战 提示语链的设计原则 01 目标明确性 02 逻辑连贯性 03 渐进复杂性 04 灵活适应性 Connection(连接):建立子任务之间的逻辑关联 • Temporal Arrangement(时序安排):考虑任务的时 间维度 • Resource Allocation(资源分配):为每个子任务分配 适当的注意力资源 • Adaptation(适应):根据AI反馈动态调整任务结构 为了更有效地进行任务分解,可以采用SPECTRA模型(Systematic Partitioning for 影响,以及如何共同推进总体目标的实现。” 5. 时序提示:“为每个子任务制定一个粗略的时间表,考虑它们的依赖 关系和完成所需的相对时间。” 6. 资源分配提示:“评估每个子任务的复杂度,分配1—10的'注意力分 数',指导在执行过程中如何分配计算资源。” 7. 适应提示:“在执行每个子任务后,评估其输出质量和对总体目标的 贡献,必要时调整后续任务的优先级或内容。” 思维拓展的认知理论基础0 码力 | 104 页 | 5.37 MB | 8 月前3
 清华大学 DeepSeek 从入门到精通通过多步引导,实现更深入的内容 探讨 控制每个步骤的输出深度,避免冗余 创意激发 多角度提示激发AI的创造性思维 在创意和连贯之间找到平衡 质量控制 多次迭代提高内容质量 需要更多的实践和计算资源 灵活调整 可根据中奖结果随时调整后续提示 实时调整需要较高的判断和决策能力 提示语链的优势与挑战 提示语链的设计原则 01 目标明确性 02 逻辑连贯性 03 渐进复杂性 04 灵活适应性 Connection(连接):建立子任务之间的逻辑关联 • Temporal Arrangement(时序安排):考虑任务的时 间维度 • Resource Allocation(资源分配):为每个子任务分配 适当的注意力资源 • Adaptation(适应):根据AI反馈动态调整任务结构 为了更有效地进行任务分解,可以采用SPECTRA模型(Systematic Partitioning for 影响,以及如何共同推进总体目标的实现。” 5. 时序提示:“为每个子任务制定一个粗略的时间表,考虑它们的依赖 关系和完成所需的相对时间。” 6. 资源分配提示:“评估每个子任务的复杂度,分配1—10的'注意力分 数',指导在执行过程中如何分配计算资源。” 7. 适应提示:“在执行每个子任务后,评估其输出质量和对总体目标的 贡献,必要时调整后续任务的优先级或内容。” 思维拓展的认知理论基础0 码力 | 103 页 | 5.40 MB | 8 月前3 清华大学 DeepSeek 从入门到精通通过多步引导,实现更深入的内容 探讨 控制每个步骤的输出深度,避免冗余 创意激发 多角度提示激发AI的创造性思维 在创意和连贯之间找到平衡 质量控制 多次迭代提高内容质量 需要更多的实践和计算资源 灵活调整 可根据中奖结果随时调整后续提示 实时调整需要较高的判断和决策能力 提示语链的优势与挑战 提示语链的设计原则 01 目标明确性 02 逻辑连贯性 03 渐进复杂性 04 灵活适应性 Connection(连接):建立子任务之间的逻辑关联 • Temporal Arrangement(时序安排):考虑任务的时 间维度 • Resource Allocation(资源分配):为每个子任务分配 适当的注意力资源 • Adaptation(适应):根据AI反馈动态调整任务结构 为了更有效地进行任务分解,可以采用SPECTRA模型(Systematic Partitioning for 影响,以及如何共同推进总体目标的实现。” 5. 时序提示:“为每个子任务制定一个粗略的时间表,考虑它们的依赖 关系和完成所需的相对时间。” 6. 资源分配提示:“评估每个子任务的复杂度,分配1—10的'注意力分 数',指导在执行过程中如何分配计算资源。” 7. 适应提示:“在执行每个子任务后,评估其输出质量和对总体目标的 贡献,必要时调整后续任务的优先级或内容。” 思维拓展的认知理论基础0 码力 | 103 页 | 5.40 MB | 8 月前3
 开源中国 2023 大模型(LLM)技术报告Tuning) 大模型框架指专门设计用于构建、训练和部署大型机器 学习模型和深度学习模型的软件框架。这些框架提供了 必要的工具和库,使开发者能够更容易地处理大量的数 据、管理巨大的网络参数量,并有效地利用硬件资源。 微调(Fine Tuning)是在大模型框架基础上进行的一个 关键步骤。在模型经过初步的大规模预训练后,微调是 用较小、特定领域的数据集对模型进行后续训练,以使 其更好地适应特定的任务或应用场景。这一步骤使得通 相比前边的大模型框架和微调,一言以蔽之: 、 11 / 32 LLM 基础设施:大模型训练平台与工具 大模型训练平台与工具根据其性质不同,可分为以下几类: 这些平台提供了从模型开发到部署的综合解决方案,包括计算资源、 数据存储、模型训练和部署服务。它们通常提供易于使用的界面,支 持快速迭代和大规模部署。Amazon SageMaker、Google Cloud AI Platform 和 Microsoft 工具,如云原生构建多模态AI应用的工具 Jina,嵌入式数据库 txtai 等。 25 / 32 LLM 的工具、平台和资源 另一个视角来看,在大模型繁荣发展的背后,少不了工 具和平台的发力,如 LLMOps 平台、大模型聚合平台 以及相关的开发工具,此外还有它们所依赖的最重要的 资源——算力。 在这些工具、平台和资源的有力支撑下,大模型才得以 一步一个台阶,引领全球开发者步入一个技术新时代。 算力 大模型聚合平台0 码力 | 32 页 | 13.09 MB | 1 年前3 开源中国 2023 大模型(LLM)技术报告Tuning) 大模型框架指专门设计用于构建、训练和部署大型机器 学习模型和深度学习模型的软件框架。这些框架提供了 必要的工具和库,使开发者能够更容易地处理大量的数 据、管理巨大的网络参数量,并有效地利用硬件资源。 微调(Fine Tuning)是在大模型框架基础上进行的一个 关键步骤。在模型经过初步的大规模预训练后,微调是 用较小、特定领域的数据集对模型进行后续训练,以使 其更好地适应特定的任务或应用场景。这一步骤使得通 相比前边的大模型框架和微调,一言以蔽之: 、 11 / 32 LLM 基础设施:大模型训练平台与工具 大模型训练平台与工具根据其性质不同,可分为以下几类: 这些平台提供了从模型开发到部署的综合解决方案,包括计算资源、 数据存储、模型训练和部署服务。它们通常提供易于使用的界面,支 持快速迭代和大规模部署。Amazon SageMaker、Google Cloud AI Platform 和 Microsoft 工具,如云原生构建多模态AI应用的工具 Jina,嵌入式数据库 txtai 等。 25 / 32 LLM 的工具、平台和资源 另一个视角来看,在大模型繁荣发展的背后,少不了工 具和平台的发力,如 LLMOps 平台、大模型聚合平台 以及相关的开发工具,此外还有它们所依赖的最重要的 资源——算力。 在这些工具、平台和资源的有力支撑下,大模型才得以 一步一个台阶,引领全球开发者步入一个技术新时代。 算力 大模型聚合平台0 码力 | 32 页 | 13.09 MB | 1 年前3
 清华大学 普通人如何抓住DeepSeek红利致 的误解和错误。通过DeepSeek的数据分析功能,新员 工可以更深入地理解行业动态和公司运营,做出更明智 的决策。 成本更低: 减少了对培训资源的依赖,新员工可以通过DeepSeek 自主学习,降低培训成本。通过提高工作效率,减少了 人力资源的浪费,降低了整体运营成本。 场景3:日常客户沟通与问题反馈处理 常见问题: 与甲方客户的沟通效率低,信息不对称,导致响应不及时或错误 场景:在 场景3:突发事件应急管理与跨界协调 情景还原:台风突袭导致孕期34周妻子被困郊区、数据中心备用电源仅能维持4小时、急需转移独居失智老 人、社区抢购导致物资短缺 DeepSeek应急协议: ① 资源热力图: 实时整合气象局数据/道路塌方报告/医院接诊状态 物资预测算法锁定3公里内未饱和便利店 ② 生命线工程: 孕妇救援通道: ✓ 自动生成医疗档案二维码 ✓ 无人机勘察可行路线 ✓ 协调民间救援队GPS定位 2.避免争论:专注于解决问题,而不是证明谁对谁错。 3.寻找共同目标:强调大家都希望家庭和谐,遗产分配公平。 4.提前准备:在沟通前,整理好自己的观点和感受,避免情绪化表达。 5.引入专业资源:如需要,可以寻求律师或家庭顾问的帮助,确保遗产分配的合法性和 公正性。 提示语策略差异 1 推理模型 20 码力 | 65 页 | 4.47 MB | 8 月前3 清华大学 普通人如何抓住DeepSeek红利致 的误解和错误。通过DeepSeek的数据分析功能,新员 工可以更深入地理解行业动态和公司运营,做出更明智 的决策。 成本更低: 减少了对培训资源的依赖,新员工可以通过DeepSeek 自主学习,降低培训成本。通过提高工作效率,减少了 人力资源的浪费,降低了整体运营成本。 场景3:日常客户沟通与问题反馈处理 常见问题: 与甲方客户的沟通效率低,信息不对称,导致响应不及时或错误 场景:在 场景3:突发事件应急管理与跨界协调 情景还原:台风突袭导致孕期34周妻子被困郊区、数据中心备用电源仅能维持4小时、急需转移独居失智老 人、社区抢购导致物资短缺 DeepSeek应急协议: ① 资源热力图: 实时整合气象局数据/道路塌方报告/医院接诊状态 物资预测算法锁定3公里内未饱和便利店 ② 生命线工程: 孕妇救援通道: ✓ 自动生成医疗档案二维码 ✓ 无人机勘察可行路线 ✓ 协调民间救援队GPS定位 2.避免争论:专注于解决问题,而不是证明谁对谁错。 3.寻找共同目标:强调大家都希望家庭和谐,遗产分配公平。 4.提前准备:在沟通前,整理好自己的观点和感受,避免情绪化表达。 5.引入专业资源:如需要,可以寻求律师或家庭顾问的帮助,确保遗产分配的合法性和 公正性。 提示语策略差异 1 推理模型 20 码力 | 65 页 | 4.47 MB | 8 月前3
 人工智能安全治理框架 1.0人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国家利用技术垄断和出口管制等单边强制措施制造发展壁垒,恶意阻断 全球 生产关系的大幅改变,加速重构传统行业模式,颠覆传统的就业观、生育观、 教育观,对传统社会秩序的稳定运行带来挑战。 (c)未来脱离控制的风险。随着人工智能技术的快速发展,不排除人工 智能自主获取外部资源、自我复制,产生自我意识,寻求外部权力,带来谋求 与人类争夺控制权的风险。 4. 技术应对措施 针对上述安全风险,模型算法研发者、服务提供者、系统使用者等需从 训练数据、算力设施、模型算法、产品服务、应用场景各方面采取技术措施予 。- 9 - 人工智能安全治理框架 (c)加强人工智能算力平台和系统服务的安全建设、管理、运维能力, 确保基础设施和服务运行不中断。 (d)对于人工智能系统采用的芯片、软件、工具、算力和数据资源,应 高度关注供应链安全。跟踪软硬件产品的漏洞、缺陷信息并及时采取修补加固 措施,保证系统安全性。 4.2 针对人工智能应用安全风险 4.2.1 网络域风险应对 (a)建立安全防护机制,防止模型运行过程中被干扰、篡改而输出不可0 码力 | 20 页 | 3.79 MB | 1 月前3 人工智能安全治理框架 1.0人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 泛在算力节点,不同类型计算资源,面临算力资源恶意消耗、算力层面风险跨 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国家利用技术垄断和出口管制等单边强制措施制造发展壁垒,恶意阻断 全球 生产关系的大幅改变,加速重构传统行业模式,颠覆传统的就业观、生育观、 教育观,对传统社会秩序的稳定运行带来挑战。 (c)未来脱离控制的风险。随着人工智能技术的快速发展,不排除人工 智能自主获取外部资源、自我复制,产生自我意识,寻求外部权力,带来谋求 与人类争夺控制权的风险。 4. 技术应对措施 针对上述安全风险,模型算法研发者、服务提供者、系统使用者等需从 训练数据、算力设施、模型算法、产品服务、应用场景各方面采取技术措施予 。- 9 - 人工智能安全治理框架 (c)加强人工智能算力平台和系统服务的安全建设、管理、运维能力, 确保基础设施和服务运行不中断。 (d)对于人工智能系统采用的芯片、软件、工具、算力和数据资源,应 高度关注供应链安全。跟踪软硬件产品的漏洞、缺陷信息并及时采取修补加固 措施,保证系统安全性。 4.2 针对人工智能应用安全风险 4.2.1 网络域风险应对 (a)建立安全防护机制,防止模型运行过程中被干扰、篡改而输出不可0 码力 | 20 页 | 3.79 MB | 1 月前3
 【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502钢包吊钩姿态监测 • 钢包温度远程智能监测 • 钢包坐罐过程识别 • 钢包挂罐过程识别 • ·转炉吹氧自动控制 • 炼钢现场生产安全态势感知与预警 • 炼钢过程智能调度 • 能源动态管控 • 碳资源智能分析 • 电弧炉炼钢尾气检测与控制 • 钢包内渣状态识别 • 渣罐残留水识别 • 钢包挂钩挂实确认 • 钢包内渣状态识别 • 渣罐残留水识别 • 钢包挂钩挂实确认 • 中间包长水口区域 板材:冷床钢板优化排布 • 质量缺陷预分析及预警 • 质量评价模型优化 • 冷态钢管缺陷检测 • 厂区智慧物流 • 生产计划智能优化 • 炉次计划优化算法(智能排产) • 综合物流调度 • 碳资源交易与碳金融 • 中鑫联云商平台风险控制 场景选择示例——钢铁大模型 57政企、创业者必读 有了场景之后,只有DeepSeek还不够 大模型就像培养器中的大脑 会理解、能问答、能生成,但是没有记忆能力,不会使用工具,0 码力 | 76 页 | 5.02 MB | 5 月前3 【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502钢包吊钩姿态监测 • 钢包温度远程智能监测 • 钢包坐罐过程识别 • 钢包挂罐过程识别 • ·转炉吹氧自动控制 • 炼钢现场生产安全态势感知与预警 • 炼钢过程智能调度 • 能源动态管控 • 碳资源智能分析 • 电弧炉炼钢尾气检测与控制 • 钢包内渣状态识别 • 渣罐残留水识别 • 钢包挂钩挂实确认 • 钢包内渣状态识别 • 渣罐残留水识别 • 钢包挂钩挂实确认 • 中间包长水口区域 板材:冷床钢板优化排布 • 质量缺陷预分析及预警 • 质量评价模型优化 • 冷态钢管缺陷检测 • 厂区智慧物流 • 生产计划智能优化 • 炉次计划优化算法(智能排产) • 综合物流调度 • 碳资源交易与碳金融 • 中鑫联云商平台风险控制 场景选择示例——钢铁大模型 57政企、创业者必读 有了场景之后,只有DeepSeek还不够 大模型就像培养器中的大脑 会理解、能问答、能生成,但是没有记忆能力,不会使用工具,0 码力 | 76 页 | 5.02 MB | 5 月前3
 TVM工具组前端 当前各大芯片厂商的部署工具大多数都支持,支持 caffe 前端有利于提高竞争力。 开源社区 存量的开源 caffe 网络模型众多,TVM 直接支持 caffe 让大家更方便尝试 caffe 资源。绝赞招聘中 当前进度 无 caffe 依赖 from_caffe 直接导入 caffe 模型文件,不需要预先安装 caffe 。 net 已测试网络:alexnet / densenet1210 码力 | 6 页 | 326.80 KB | 5 月前3 TVM工具组前端 当前各大芯片厂商的部署工具大多数都支持,支持 caffe 前端有利于提高竞争力。 开源社区 存量的开源 caffe 网络模型众多,TVM 直接支持 caffe 让大家更方便尝试 caffe 资源。绝赞招聘中 当前进度 无 caffe 依赖 from_caffe 直接导入 caffe 模型文件,不需要预先安装 caffe 。 net 已测试网络:alexnet / densenet1210 码力 | 6 页 | 326.80 KB | 5 月前3
共 11 条
- 1
- 2













