 【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502AI不仅是技术革新,更是思维方式和社会结构的变革 国家 产业 个人 企业政企、创业者必读 人工智能发展历程(一)  从早期基于规则的专家系统,走向基于学习训练的感知型AI  从基于小参数模型的感知型AI,走向基于大参数模型的认知型AI  从擅长理解的认知型AI,发展到擅长文字生成的生成式AI  从语言生成式AI,发展到可理解和生成声音、图片、视频的多模态AI  从生成式AI,发展到推理型AI 先做得更大,然后探索能做多小政企、创业者必读 DeepSeek出现之前的十大预判 之五 知识的质量和密度决定大模型能力  高质量数据、合成数据使模型知识密度的快速增长  大模型能以更少的参数量达到更高的性能  360联合北大研发:5%参数量逼近Deepseek-R1满血性能 18政企、创业者必读 DeepSeek出现之前的十大预判 之六 成本越来越低  过去一年,大模型成本「自由落体」  国外:G 认为大模型的能力无法进一步得到质的提升 开辟强化学习新范式 从预训练Scaling Law转变为强化学习Scaling Law 大数据+大参数+大算力的 预训练Scaling Law的边际效应递减 • 人类构造的训练数据已达上限 • 万亿参数规模之后,继续增大参数规 模难以带来质的提升 • 训练算力成本和工程化难度大幅上升 强化学习Scaling Law • 利用合成数据解决数据用尽问题0 码力 | 76 页 | 5.02 MB | 5 月前3 【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502AI不仅是技术革新,更是思维方式和社会结构的变革 国家 产业 个人 企业政企、创业者必读 人工智能发展历程(一)  从早期基于规则的专家系统,走向基于学习训练的感知型AI  从基于小参数模型的感知型AI,走向基于大参数模型的认知型AI  从擅长理解的认知型AI,发展到擅长文字生成的生成式AI  从语言生成式AI,发展到可理解和生成声音、图片、视频的多模态AI  从生成式AI,发展到推理型AI 先做得更大,然后探索能做多小政企、创业者必读 DeepSeek出现之前的十大预判 之五 知识的质量和密度决定大模型能力  高质量数据、合成数据使模型知识密度的快速增长  大模型能以更少的参数量达到更高的性能  360联合北大研发:5%参数量逼近Deepseek-R1满血性能 18政企、创业者必读 DeepSeek出现之前的十大预判 之六 成本越来越低  过去一年,大模型成本「自由落体」  国外:G 认为大模型的能力无法进一步得到质的提升 开辟强化学习新范式 从预训练Scaling Law转变为强化学习Scaling Law 大数据+大参数+大算力的 预训练Scaling Law的边际效应递减 • 人类构造的训练数据已达上限 • 万亿参数规模之后,继续增大参数规 模难以带来质的提升 • 训练算力成本和工程化难度大幅上升 强化学习Scaling Law • 利用合成数据解决数据用尽问题0 码力 | 76 页 | 5.02 MB | 5 月前3
 普通人学AI指南自适应学习能力。AGI 的研发目标是创造出可以广泛地模拟人类认知能力的智 能系统。 1.3 大模型 大模型通常指的是大规模的人工智能模型,这类模型通过训练大量的数据来获 得广泛的知识和能力。这些模型通常具有庞大的参数数量,能够处理复杂的任 务,如自然语言理解、图像识别、语音识别等。 闭源大模型包括 OpenAI 的 GPT 系列和 Google 的 BERT。这些模型因其 高效的学习能力和强大的通用性而受到关注。 B(十亿,Billion):在英文里是 Billion 的缩写,表示十亿。对于 AI 大模型 来说,B 一般用于描述模型的参数数量。例如,具有 50B 参数的模型代表这个 模型有 50 亿个参数。Ollama3 有尺寸 8B 和 70B,Phi-3-mini 有 3.8B 参数等。 T(万亿,Trillion):在英文里是 Trillion 的缩写,表示万亿。在 AI 大模型 中,”T” 常用来表示模型在训练中处理的 任务。 3 零代码本地部署 AI 后端 首先介绍一种最精简的本地部署大模型的方法。使用目前最强开源大模型 LlaMA3,2024 年 4 月 19 日,Meta 公司发布,共有 8B,70B 两种参数,分 为基础预训练和指令微调两种模型。 与 Llama2 相比,Llama3 使用了 15T tokens 的训练数据,在推理、数学、 代码生成、指令跟踪等能力获得大幅度提升。 3.1 大模型 Llama30 码力 | 42 页 | 8.39 MB | 8 月前3 普通人学AI指南自适应学习能力。AGI 的研发目标是创造出可以广泛地模拟人类认知能力的智 能系统。 1.3 大模型 大模型通常指的是大规模的人工智能模型,这类模型通过训练大量的数据来获 得广泛的知识和能力。这些模型通常具有庞大的参数数量,能够处理复杂的任 务,如自然语言理解、图像识别、语音识别等。 闭源大模型包括 OpenAI 的 GPT 系列和 Google 的 BERT。这些模型因其 高效的学习能力和强大的通用性而受到关注。 B(十亿,Billion):在英文里是 Billion 的缩写,表示十亿。对于 AI 大模型 来说,B 一般用于描述模型的参数数量。例如,具有 50B 参数的模型代表这个 模型有 50 亿个参数。Ollama3 有尺寸 8B 和 70B,Phi-3-mini 有 3.8B 参数等。 T(万亿,Trillion):在英文里是 Trillion 的缩写,表示万亿。在 AI 大模型 中,”T” 常用来表示模型在训练中处理的 任务。 3 零代码本地部署 AI 后端 首先介绍一种最精简的本地部署大模型的方法。使用目前最强开源大模型 LlaMA3,2024 年 4 月 19 日,Meta 公司发布,共有 8B,70B 两种参数,分 为基础预训练和指令微调两种模型。 与 Llama2 相比,Llama3 使用了 15T tokens 的训练数据,在推理、数学、 代码生成、指令跟踪等能力获得大幅度提升。 3.1 大模型 Llama30 码力 | 42 页 | 8.39 MB | 8 月前3
 DeepSeek图解10页PDF接下来,咱们先从较为基础的概念开始。 2.1 LLM 基础概念 模型参数。其中比较重要的比如deepseek-r1:1.5b, qwen:7b, llama:8b,这里的 1.5b, 7b、8b 代表什么?b 是英文的 billion,意思是十亿,7b 就是 70 亿,8b 就 是 80 亿,70 亿、80 亿是指大模型的神经元参数(权重参数 weight+bias)的 总量。目前大模型都是基于 Transformer Transformer 架构,并且是很多层的 Transformer 结构,最后还有全连接层等,所有参数加起来 70 亿,80 亿,还有的上千亿。 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 AI 知识,严禁拿此资料引流、出书、等形式的商业活动 通用性更强。大模型和我们自己基于某个特定数据集(如 大家可能在很多场合都见到过。它是一个什么法则呢?大 模型之所以能基于大量多样化的数据集进行训练,并最终“学得好”,核 心原因之一是 Scaling Laws(扩展规律)的指导和模型自身架构的优势。 Scaling Laws 指出参数越多,模型学习能力越强;训练数据规模越大、越多 元化,模型最后就会越通用;即使包括噪声数据,模型仍能通过扩展规律提 取出通用的知识。而 Transformer 这种架构正好完美做到了 Scaling0 码力 | 11 页 | 2.64 MB | 8 月前3 DeepSeek图解10页PDF接下来,咱们先从较为基础的概念开始。 2.1 LLM 基础概念 模型参数。其中比较重要的比如deepseek-r1:1.5b, qwen:7b, llama:8b,这里的 1.5b, 7b、8b 代表什么?b 是英文的 billion,意思是十亿,7b 就是 70 亿,8b 就 是 80 亿,70 亿、80 亿是指大模型的神经元参数(权重参数 weight+bias)的 总量。目前大模型都是基于 Transformer Transformer 架构,并且是很多层的 Transformer 结构,最后还有全连接层等,所有参数加起来 70 亿,80 亿,还有的上千亿。 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 AI 知识,严禁拿此资料引流、出书、等形式的商业活动 通用性更强。大模型和我们自己基于某个特定数据集(如 大家可能在很多场合都见到过。它是一个什么法则呢?大 模型之所以能基于大量多样化的数据集进行训练,并最终“学得好”,核 心原因之一是 Scaling Laws(扩展规律)的指导和模型自身架构的优势。 Scaling Laws 指出参数越多,模型学习能力越强;训练数据规模越大、越多 元化,模型最后就会越通用;即使包括噪声数据,模型仍能通过扩展规律提 取出通用的知识。而 Transformer 这种架构正好完美做到了 Scaling0 码力 | 11 页 | 2.64 MB | 8 月前3
 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单复 杂操作,等待平台处理完成即可。  综述生成:根据智能分析结果,平台自动生成结构化的文献综述文本内容和可视化图表,用户可直接获取 完整的综述报告,也可根据需要进行自定义调整,如综述主题、目标、参数等。 知网研学平台官网:https://aiplus.cnki.net/sumup/sumup  输入关键词:进入官网后,在搜索框键入关键词进行文献检索。  选取文章:勾选想要分析的20篇文献。 D e e p S e e k 成 立 2 0 2 3 年 1 1 月 2 日 首个开源代码大模型 DeepSeek Coder发布 2 0 2 3 年 1 1 月 2 9 日 推出670亿参数的通用大模型 D e e p S e e k L L M , 包 括 7 B 和67B的base及chat版本 发 布 新 一 代 推 理 模 型 D e e p S e e k - R 1 FP8混合精度训练 • 推 理 效 率 提 升 : 蒸 馏 后 的 模 型 参 数 量 大 幅 减 少 , 例 如 DeepSeek-R1-Distill-Qwen-7B的参数量仅为7B,相比原始 的DeepSeek-R1(671B参数),计算复杂度显著降低。 • 性能优化:在代码和数学基准测试中,蒸馏技术显著提升了模 型性能。例如,在基准测试中,蒸馏后的DeepSeek-V2.5模 型在Pas0 码力 | 85 页 | 8.31 MB | 8 月前3 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单复 杂操作,等待平台处理完成即可。  综述生成:根据智能分析结果,平台自动生成结构化的文献综述文本内容和可视化图表,用户可直接获取 完整的综述报告,也可根据需要进行自定义调整,如综述主题、目标、参数等。 知网研学平台官网:https://aiplus.cnki.net/sumup/sumup  输入关键词:进入官网后,在搜索框键入关键词进行文献检索。  选取文章:勾选想要分析的20篇文献。 D e e p S e e k 成 立 2 0 2 3 年 1 1 月 2 日 首个开源代码大模型 DeepSeek Coder发布 2 0 2 3 年 1 1 月 2 9 日 推出670亿参数的通用大模型 D e e p S e e k L L M , 包 括 7 B 和67B的base及chat版本 发 布 新 一 代 推 理 模 型 D e e p S e e k - R 1 FP8混合精度训练 • 推 理 效 率 提 升 : 蒸 馏 后 的 模 型 参 数 量 大 幅 减 少 , 例 如 DeepSeek-R1-Distill-Qwen-7B的参数量仅为7B,相比原始 的DeepSeek-R1(671B参数),计算复杂度显著降低。 • 性能优化:在代码和数学基准测试中,蒸馏技术显著提升了模 型性能。例如,在基准测试中,蒸馏后的DeepSeek-V2.5模 型在Pas0 码力 | 85 页 | 8.31 MB | 8 月前3
 Deepseek R1 本地部署完全手册MoE模型的Ollama部署⽅法。 核⼼提示: 个⼈⽤户:不建议部署32B及以上模型,硬件成本极⾼且运维复杂。 企业⽤户:需专业团队⽀持,部署前需评估ROI(投资回报率)。 ⼆、本地部署核⼼配置要求 1. 模型参数与硬件对应表 模型参 数 Windows 配置要求 Mac 配置要求 适⽤场景 1.5B - RAM: 4GB - GPU: 集成显卡/现代CPU - 存储: 5GB - 内存: 8GB - 内存: 32GB(M3 Max) - 存储: 20GB 复杂推理、技术⽂档⽣ 成 32B+ 企业级部署(需多卡并联) 暂不⽀持 科研计算、⼤规模数据 处理 2. 算⼒需求分析 模型 参数规 模 计算精 度 最低显存需 求 最低算⼒需求 DeepSeek-R1 (671B) 671B FP8 ≥890GB 2*XE9680(16*H20 GPU) DeepSeek-R1-Distill- MXN系列⽀持70B模型BF16推理,显存利⽤率提升 30% 等效RTX 3090 海光 DCU 适配V3/R1模型,性能对标NVIDIA A100 等效A100(BF16) 2. 国产硬件推荐配置 模型参数 推荐⽅案 适⽤场景 1.5B 太初T100加速卡 个⼈开发者原型验证 14B 昆仑芯K200集群 企业级复杂任务推理 32B 壁彻算⼒平台+昇腾910B集群 科研计算与多模态处理 四、云端部署替代⽅案0 码力 | 7 页 | 932.77 KB | 8 月前3 Deepseek R1 本地部署完全手册MoE模型的Ollama部署⽅法。 核⼼提示: 个⼈⽤户:不建议部署32B及以上模型,硬件成本极⾼且运维复杂。 企业⽤户:需专业团队⽀持,部署前需评估ROI(投资回报率)。 ⼆、本地部署核⼼配置要求 1. 模型参数与硬件对应表 模型参 数 Windows 配置要求 Mac 配置要求 适⽤场景 1.5B - RAM: 4GB - GPU: 集成显卡/现代CPU - 存储: 5GB - 内存: 8GB - 内存: 32GB(M3 Max) - 存储: 20GB 复杂推理、技术⽂档⽣ 成 32B+ 企业级部署(需多卡并联) 暂不⽀持 科研计算、⼤规模数据 处理 2. 算⼒需求分析 模型 参数规 模 计算精 度 最低显存需 求 最低算⼒需求 DeepSeek-R1 (671B) 671B FP8 ≥890GB 2*XE9680(16*H20 GPU) DeepSeek-R1-Distill- MXN系列⽀持70B模型BF16推理,显存利⽤率提升 30% 等效RTX 3090 海光 DCU 适配V3/R1模型,性能对标NVIDIA A100 等效A100(BF16) 2. 国产硬件推荐配置 模型参数 推荐⽅案 适⽤场景 1.5B 太初T100加速卡 个⼈开发者原型验证 14B 昆仑芯K200集群 企业级复杂任务推理 32B 壁彻算⼒平台+昇腾910B集群 科研计算与多模态处理 四、云端部署替代⽅案0 码力 | 7 页 | 932.77 KB | 8 月前3
 开源中国 2023 大模型(LLM)技术报告(Fine Tuning) 大模型框架指专门设计用于构建、训练和部署大型机器 学习模型和深度学习模型的软件框架。这些框架提供了 必要的工具和库,使开发者能够更容易地处理大量的数 据、管理巨大的网络参数量,并有效地利用硬件资源。 微调(Fine Tuning)是在大模型框架基础上进行的一个 关键步骤。在模型经过初步的大规模预训练后,微调是 用较小、特定领域的数据集对模型进行后续训练,以使 其更好 选择预训练模型:选取一个已经在大量数据上进 行过预训练的模型作为起点; 2.准备任务特定数据:收集与目标任务直接相关的 数据集,这些数据将用于微调模型; 3.微调训练:在任务特定数据上训练预训练的模型, 调整模型参数以适应特定任务; 4.评估:在验证集上评估模型性能,确保模型对新 数据有良好的泛化能力; 5.部署:将性能经验证的模型部署到实际应用中去。 微调的过程也是分类模型训练的过程 (图源:https://medium 的算力指的是执行这些模型所需的计算资源。这包括用于训练和运行模型的硬件(如 GPU 或 TPU)、内存、存储空间以及处理 大量数据的能力。LLM 需要非常强大的算力来处理、理解和生成文本,因为它们涉及到数十亿甚至数万亿个参数的训练和推理。 LLM 的基石是算力,而算力的基石是硬件,硬件的性能直接影响着计算任务的速度、效率和能力。 是全球领先的 GPU 制造商,提供了强大的图形处理单元,专门用于深度学习和AI计算。0 码力 | 32 页 | 13.09 MB | 1 年前3 开源中国 2023 大模型(LLM)技术报告(Fine Tuning) 大模型框架指专门设计用于构建、训练和部署大型机器 学习模型和深度学习模型的软件框架。这些框架提供了 必要的工具和库,使开发者能够更容易地处理大量的数 据、管理巨大的网络参数量,并有效地利用硬件资源。 微调(Fine Tuning)是在大模型框架基础上进行的一个 关键步骤。在模型经过初步的大规模预训练后,微调是 用较小、特定领域的数据集对模型进行后续训练,以使 其更好 选择预训练模型:选取一个已经在大量数据上进 行过预训练的模型作为起点; 2.准备任务特定数据:收集与目标任务直接相关的 数据集,这些数据将用于微调模型; 3.微调训练:在任务特定数据上训练预训练的模型, 调整模型参数以适应特定任务; 4.评估:在验证集上评估模型性能,确保模型对新 数据有良好的泛化能力; 5.部署:将性能经验证的模型部署到实际应用中去。 微调的过程也是分类模型训练的过程 (图源:https://medium 的算力指的是执行这些模型所需的计算资源。这包括用于训练和运行模型的硬件(如 GPU 或 TPU)、内存、存储空间以及处理 大量数据的能力。LLM 需要非常强大的算力来处理、理解和生成文本,因为它们涉及到数十亿甚至数万亿个参数的训练和推理。 LLM 的基石是算力,而算力的基石是硬件,硬件的性能直接影响着计算任务的速度、效率和能力。 是全球领先的 GPU 制造商,提供了强大的图形处理单元,专门用于深度学习和AI计算。0 码力 | 32 页 | 13.09 MB | 1 年前3
 清华大学 普通人如何抓住DeepSeek红利场景1:1小时内写完一个1万字的项目书 第二阶段:20分钟——用AI批量填充模块(目标:6000字) 针对每个小节单独提问,例如: “写一段‘2.1 功能分区’的内容,要求包含自动化立体仓库、AGV调度中心、冷链专区的技术参数,用数据列表形式 呈现。” 关键技巧: p 数据嫁接:若缺乏具体数据,直接让AI生成合理虚构值(标注“示例”规避风险): p “假设园区占地500亩,日均处理包裹量50万件,请计算自动化分拣设备的配置数量,用表格展示。” 计算模型,对比5年内的总成本并推荐最优 解。" "分析近三年新能源汽车销量数据(附CSV), 说 明 : ① 增长趋势与政策关联性; ② 预测2025年市占率,需使用ARIMA模型并解释参数 选择依据。" "设计一款智能家居产品,要求: ① 解决独居老人安全问题; ② 结合传感器网络和Al预警; ③ 提供三种不同技术路线的原型草图说明。" 决策需求 实战技巧:0 码力 | 65 页 | 4.47 MB | 8 月前3 清华大学 普通人如何抓住DeepSeek红利场景1:1小时内写完一个1万字的项目书 第二阶段:20分钟——用AI批量填充模块(目标:6000字) 针对每个小节单独提问,例如: “写一段‘2.1 功能分区’的内容,要求包含自动化立体仓库、AGV调度中心、冷链专区的技术参数,用数据列表形式 呈现。” 关键技巧: p 数据嫁接:若缺乏具体数据,直接让AI生成合理虚构值(标注“示例”规避风险): p “假设园区占地500亩,日均处理包裹量50万件,请计算自动化分拣设备的配置数量,用表格展示。” 计算模型,对比5年内的总成本并推荐最优 解。" "分析近三年新能源汽车销量数据(附CSV), 说 明 : ① 增长趋势与政策关联性; ② 预测2025年市占率,需使用ARIMA模型并解释参数 选择依据。" "设计一款智能家居产品,要求: ① 解决独居老人安全问题; ② 结合传感器网络和Al预警; ③ 提供三种不同技术路线的原型草图说明。" 决策需求 实战技巧:0 码力 | 65 页 | 4.47 MB | 8 月前3
 清华大学第二弹:DeepSeek赋能职场671B(全量模型) 网页版直接使用,支持API调用,注册送1000点数,免费体验。 微软Azure https://ai.azure.com 671B(全量模型) 需注册微软账户并创建订阅,免费部署,支持参数调节。 亚马逊AWS https://aws.amazon.com/c n/blogs/aws/deepseek-r1- models-now-available-on- aws 671B(全量模型)0 码力 | 35 页 | 9.78 MB | 8 月前3 清华大学第二弹:DeepSeek赋能职场671B(全量模型) 网页版直接使用,支持API调用,注册送1000点数,免费体验。 微软Azure https://ai.azure.com 671B(全量模型) 需注册微软账户并创建订阅,免费部署,支持参数调节。 亚马逊AWS https://aws.amazon.com/c n/blogs/aws/deepseek-r1- models-now-available-on- aws 671B(全量模型)0 码力 | 35 页 | 9.78 MB | 8 月前3
 国家人工智能产业综合标准化体系建设指南(2024版)决策与 控制等标准。 9. 智能体标准。规范以通用大模型为核心的智能体实例和 10 智能体基本功能、应用架构等技术要求,包括智能体强化学习、 多任务分解、推理、提示词工程,智能体数据接口和参数范围, 人机协作、智能体自主操作、多智能体分布式一致性等标准。 10. 群体智能标准。规范群体智能算法的控制、编队、感知、 规划、决策、通信等技术要求和评测方法,包括自主控制、协同 控制、任0 码力 | 13 页 | 701.84 KB | 1 年前3 国家人工智能产业综合标准化体系建设指南(2024版)决策与 控制等标准。 9. 智能体标准。规范以通用大模型为核心的智能体实例和 10 智能体基本功能、应用架构等技术要求,包括智能体强化学习、 多任务分解、推理、提示词工程,智能体数据接口和参数范围, 人机协作、智能体自主操作、多智能体分布式一致性等标准。 10. 群体智能标准。规范群体智能算法的控制、编队、感知、 规划、决策、通信等技术要求和评测方法,包括自主控制、协同 控制、任0 码力 | 13 页 | 701.84 KB | 1 年前3
 人工智能安全治理框架 1.0(c)鲁棒性弱风险。由于深度神经网络存在非线性、大规模等特点,人 工智能易受复杂多变运行环境或恶意干扰、诱导的影响,可能带来性能下降、 决策错误等诸多问题。- 4 - 人工智能安全治理框架 (d)被窃取、篡改的风险。参数、结构、功能等算法核心信息,面临被 逆向攻击窃取、修改,甚至嵌入后门的风险,可导致知识产权被侵犯、商业机 密泄露,推理过程不可信、决策输出错误,甚至运行故障。 (e)输出不可靠风险。生成式人工智能可能产生0 码力 | 20 页 | 3.79 MB | 1 月前3 人工智能安全治理框架 1.0(c)鲁棒性弱风险。由于深度神经网络存在非线性、大规模等特点,人 工智能易受复杂多变运行环境或恶意干扰、诱导的影响,可能带来性能下降、 决策错误等诸多问题。- 4 - 人工智能安全治理框架 (d)被窃取、篡改的风险。参数、结构、功能等算法核心信息,面临被 逆向攻击窃取、修改,甚至嵌入后门的风险,可导致知识产权被侵犯、商业机 密泄露,推理过程不可信、决策输出错误,甚至运行故障。 (e)输出不可靠风险。生成式人工智能可能产生0 码力 | 20 页 | 3.79 MB | 1 月前3
共 12 条
- 1
- 2













