 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单compressive force was applied at a constant loading rate of 10 mm-min until the real-time force curve on the monitor screen fast drop indicating failure occurred. ln addition, the left valve of each compressive force was applied at a constant loading rate of 10 mm/min until the real-time force curve on the monitor screen fast drop indicating failure occurred. 改写降重指令 指令:我想让你充当科研写作专家,并提供一些英文或中文 解码加速推理。MTP在特定场景下同 时预测多个令牌,提高信号密度,减 少上下文漂移和逻辑连贯性问题。 多令牌预测(MTP) 采用FP8混合精度训练,通过在训练 过程中使用更适宜的数据精度,减少 了计算量和存储需求。FP8混合精度 训练在保证训练准确性的基础上,显 著降低了计算成本,使得大规模模型 训练更加可行。 FP8混合精度训练 • 推 理 效 率 提 升 : 蒸 馏 后 的 模 型 参 数 量 大0 码力 | 85 页 | 8.31 MB | 8 月前3 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单compressive force was applied at a constant loading rate of 10 mm-min until the real-time force curve on the monitor screen fast drop indicating failure occurred. ln addition, the left valve of each compressive force was applied at a constant loading rate of 10 mm/min until the real-time force curve on the monitor screen fast drop indicating failure occurred. 改写降重指令 指令:我想让你充当科研写作专家,并提供一些英文或中文 解码加速推理。MTP在特定场景下同 时预测多个令牌,提高信号密度,减 少上下文漂移和逻辑连贯性问题。 多令牌预测(MTP) 采用FP8混合精度训练,通过在训练 过程中使用更适宜的数据精度,减少 了计算量和存储需求。FP8混合精度 训练在保证训练准确性的基础上,显 著降低了计算成本,使得大规模模型 训练更加可行。 FP8混合精度训练 • 推 理 效 率 提 升 : 蒸 馏 后 的 模 型 参 数 量 大0 码力 | 85 页 | 8.31 MB | 8 月前3
 Trends Artificial Intelligence
algorithmic efficiency, and the cost of inference is plummeting. Inference represents a new cost curve, and – unlike training costs – it’s arcing down, not up. As inference becomes cheaper and more efficient algorithmic efficiency, and the cost of inference is plummeting. Inference represents a new cost curve, and – unlike training costs – it’s arcing down, not up. As inference becomes cheaper and more efficient entrepreneurs could be created than any other in history. We often talk about bringing down the complexity curve to allow more people to choose this as a career. Each step along the entrepreneurial path is rife0 码力 | 340 页 | 12.14 MB | 4 月前3 Trends Artificial Intelligence
algorithmic efficiency, and the cost of inference is plummeting. Inference represents a new cost curve, and – unlike training costs – it’s arcing down, not up. As inference becomes cheaper and more efficient algorithmic efficiency, and the cost of inference is plummeting. Inference represents a new cost curve, and – unlike training costs – it’s arcing down, not up. As inference becomes cheaper and more efficient entrepreneurs could be created than any other in history. We often talk about bringing down the complexity curve to allow more people to choose this as a career. Each step along the entrepreneurial path is rife0 码力 | 340 页 | 12.14 MB | 4 月前3
 开源中国 2023 大模型(LLM)技术报告为大模型提供高效的存储和检索能力 大模型框架及微调 (Fine Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持 向量数据库是专门用于存储和检索向量数据的数据库,它可以为 数据库,它可以为 LLM 提供高效的存储和检索能力。通过数据向量化,实现了 在向量数据库中进行高效的相似性计算和查询。 根据向量数据库的的实现方式,可以将向量数据库大致分为两类: 原生的向量数据库专门为存储和检索向量而设计, 所管理的数据是基于对象或数据点的向量表示进行 组织和索引。 包括 等均属于原生向量数据库。 除了选择专业的向量数据库,对传统数据库添加 “向量支持”也是主流方案。比如 相比前边的大模型框架和微调,一言以蔽之: 、 11 / 32 LLM 基础设施:大模型训练平台与工具 大模型训练平台与工具根据其性质不同,可分为以下几类: 这些平台提供了从模型开发到部署的综合解决方案,包括计算资源、 数据存储、模型训练和部署服务。它们通常提供易于使用的界面,支 持快速迭代和大规模部署。Amazon SageMaker、Google Cloud AI Platform 和 Microsoft Azure0 码力 | 32 页 | 13.09 MB | 1 年前3 开源中国 2023 大模型(LLM)技术报告为大模型提供高效的存储和检索能力 大模型框架及微调 (Fine Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持 向量数据库是专门用于存储和检索向量数据的数据库,它可以为 数据库,它可以为 LLM 提供高效的存储和检索能力。通过数据向量化,实现了 在向量数据库中进行高效的相似性计算和查询。 根据向量数据库的的实现方式,可以将向量数据库大致分为两类: 原生的向量数据库专门为存储和检索向量而设计, 所管理的数据是基于对象或数据点的向量表示进行 组织和索引。 包括 等均属于原生向量数据库。 除了选择专业的向量数据库,对传统数据库添加 “向量支持”也是主流方案。比如 相比前边的大模型框架和微调,一言以蔽之: 、 11 / 32 LLM 基础设施:大模型训练平台与工具 大模型训练平台与工具根据其性质不同,可分为以下几类: 这些平台提供了从模型开发到部署的综合解决方案,包括计算资源、 数据存储、模型训练和部署服务。它们通常提供易于使用的界面,支 持快速迭代和大规模部署。Amazon SageMaker、Google Cloud AI Platform 和 Microsoft Azure0 码力 | 32 页 | 13.09 MB | 1 年前3
 Deepseek R1 本地部署完全手册RAM: 4GB - GPU: 集成显卡/现代CPU - 存储: 5GB - 内存: 8GB (M1/M2/M3) - 存储: 5GB 简单⽂本⽣成、基础代 码补全 7B - RAM: 8-10GB - GPU: GTX 1680(4-bit量 化) - 存储: 8GB - 内存: 16GB(M2 Pro/M3) - 存储: 8GB 中等复杂度问答、代码 调试 14B - - RAM: 24GB - GPU: RTX 3090(24GB VRAM) - 存储: 20GB - 内存: 32GB(M3 Max) - 存储: 20GB 复杂推理、技术⽂档⽣ 成 32B+ 企业级部署(需多卡并联) 暂不⽀持 科研计算、⼤规模数据 处理 2. 算⼒需求分析 模型 参数规 模 计算精 度 最低显存需 求 最低算⼒需求 DeepSeek-R1 (671B)0 码力 | 7 页 | 932.77 KB | 8 月前3 Deepseek R1 本地部署完全手册RAM: 4GB - GPU: 集成显卡/现代CPU - 存储: 5GB - 内存: 8GB (M1/M2/M3) - 存储: 5GB 简单⽂本⽣成、基础代 码补全 7B - RAM: 8-10GB - GPU: GTX 1680(4-bit量 化) - 存储: 8GB - 内存: 16GB(M2 Pro/M3) - 存储: 8GB 中等复杂度问答、代码 调试 14B - - RAM: 24GB - GPU: RTX 3090(24GB VRAM) - 存储: 20GB - 内存: 32GB(M3 Max) - 存储: 20GB 复杂推理、技术⽂档⽣ 成 32B+ 企业级部署(需多卡并联) 暂不⽀持 科研计算、⼤规模数据 处理 2. 算⼒需求分析 模型 参数规 模 计算精 度 最低显存需 求 最低算⼒需求 DeepSeek-R1 (671B)0 码力 | 7 页 | 932.77 KB | 8 月前3
 国家人工智能产业综合标准化体系建设指南(2024版)口协议和测试方法,及使能软件的访问协议、功能、性能、能效 的测试方法和运行维护要求等标准。 5. 算力中心标准。规范面向人工智能的大规模计算集群、 新型数据中心、智算中心、基础网络通信、算力网络、数据存储 8 等基础设施的技术要求和评估方法,包括基础设施参考架构、计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系统软件标准。规范人工智能系统层的软硬件技术要求, 包括软硬件 模型表达和格式、模型效果评价等,包括自监督学习、无监督学 习、半监督学习、深度学习、强化学习等标准。 2. 知识图谱标准。规范知识图谱的描述、构建、运维、共 享、管理和应用,包括知识表示与建模、知识获取与存储、知识 融合与可视化、知识计算与管理、知识图谱质量评价与互联互通、 9 知识图谱交付与应用、知识图谱系统架构与性能要求等标准。 3. 大模型标准。规范大模型训练、推理、部署等环节的技 术要0 码力 | 13 页 | 701.84 KB | 1 年前3 国家人工智能产业综合标准化体系建设指南(2024版)口协议和测试方法,及使能软件的访问协议、功能、性能、能效 的测试方法和运行维护要求等标准。 5. 算力中心标准。规范面向人工智能的大规模计算集群、 新型数据中心、智算中心、基础网络通信、算力网络、数据存储 8 等基础设施的技术要求和评估方法,包括基础设施参考架构、计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系统软件标准。规范人工智能系统层的软硬件技术要求, 包括软硬件 模型表达和格式、模型效果评价等,包括自监督学习、无监督学 习、半监督学习、深度学习、强化学习等标准。 2. 知识图谱标准。规范知识图谱的描述、构建、运维、共 享、管理和应用,包括知识表示与建模、知识获取与存储、知识 融合与可视化、知识计算与管理、知识图谱质量评价与互联互通、 9 知识图谱交付与应用、知识图谱系统架构与性能要求等标准。 3. 大模型标准。规范大模型训练、推理、部署等环节的技 术要0 码力 | 13 页 | 701.84 KB | 1 年前3
 普通人学AI指南镜像(Image):用于创建容器的只读模板。一个镜像可以包含完整的操作 系统环境。 3. Dockerfile:定义镜像内容的文本文件,包含了构建镜像的所有指令。 4. Docker Hub:公共的 Docker 镜像仓库,用于存储和分发 Docker 镜像。 5. 拉取镜像:docker pull 普通人学AI指南镜像(Image):用于创建容器的只读模板。一个镜像可以包含完整的操作 系统环境。 3. Dockerfile:定义镜像内容的文本文件,包含了构建镜像的所有指令。 4. Docker Hub:公共的 Docker 镜像仓库,用于存储和分发 Docker 镜像。 5. 拉取镜像:docker pull- 6. 构建镜像:在包含 Dockerfile 目录中运行:docker build -t 0 码力 | 42 页 | 8.39 MB | 8 月前3
 人工智能安全治理框架 1.0(b)在设计、研发、部署、维护过程中建立并实施安全开发规范,尽可 能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性。 4.1.2 数据安全风险应对 (a) 在训练数据和用户交互数据的收集、存储、使用、加工、传输、提 供、公开、删除等各环节,应遵循数据收集使用、个人信息处理的安全规则, 严格落实关于用户控制权、知情权、选择权等法律法规明确的合法权益。 (b) 加强知识产权保护,在训练数据选择、结果输出等环节防止侵犯知0 码力 | 20 页 | 3.79 MB | 1 月前3 人工智能安全治理框架 1.0(b)在设计、研发、部署、维护过程中建立并实施安全开发规范,尽可 能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性。 4.1.2 数据安全风险应对 (a) 在训练数据和用户交互数据的收集、存储、使用、加工、传输、提 供、公开、删除等各环节,应遵循数据收集使用、个人信息处理的安全规则, 严格落实关于用户控制权、知情权、选择权等法律法规明确的合法权益。 (b) 加强知识产权保护,在训练数据选择、结果输出等环节防止侵犯知0 码力 | 20 页 | 3.79 MB | 1 月前3
 DeepSeek从入门到精通(20250204)接,以设计一 个创新的知识共享平台。 (1)输入概念: • 社交媒体:即时性、互动性、个性化、病毒传播 • 传统图书馆:知识储备、系统分类、安静学习、专业指导 (2)共同特征: • 信息存储和检索 • 用户群体链接 • 知识分享 (3)融合点: • 实时知识互动 • 知识深度社交网络 • 数字化图书馆员服务 • 个性化学习路径 输入空间定义 明确要融合的两个或多个概念领域0 码力 | 104 页 | 5.37 MB | 8 月前3 DeepSeek从入门到精通(20250204)接,以设计一 个创新的知识共享平台。 (1)输入概念: • 社交媒体:即时性、互动性、个性化、病毒传播 • 传统图书馆:知识储备、系统分类、安静学习、专业指导 (2)共同特征: • 信息存储和检索 • 用户群体链接 • 知识分享 (3)融合点: • 实时知识互动 • 知识深度社交网络 • 数字化图书馆员服务 • 个性化学习路径 输入空间定义 明确要融合的两个或多个概念领域0 码力 | 104 页 | 5.37 MB | 8 月前3
 清华大学 DeepSeek 从入门到精通接,以设计一 个创新的知识共享平台。 (1)输入概念: • 社交媒体:即时性、互动性、个性化、病毒传播 • 传统图书馆:知识储备、系统分类、安静学习、专业指导 (2)共同特征: • 信息存储和检索 • 用户群体链接 • 知识分享 (3)融合点: • 实时知识互动 • 知识深度社交网络 • 数字化图书馆员服务 • 个性化学习路径 输入空间定义 明确要融合的两个或多个概念领域0 码力 | 103 页 | 5.40 MB | 8 月前3 清华大学 DeepSeek 从入门到精通接,以设计一 个创新的知识共享平台。 (1)输入概念: • 社交媒体:即时性、互动性、个性化、病毒传播 • 传统图书馆:知识储备、系统分类、安静学习、专业指导 (2)共同特征: • 信息存储和检索 • 用户群体链接 • 知识分享 (3)融合点: • 实时知识互动 • 知识深度社交网络 • 数字化图书馆员服务 • 个性化学习路径 输入空间定义 明确要融合的两个或多个概念领域0 码力 | 103 页 | 5.40 MB | 8 月前3
共 9 条
- 1













