5_刘欣_Python在量化投资领域的应用0 码力 | 50 页 | 16.81 MB | 1 年前3
CurveFS对接S3方案设计© XXX Page 1 of 11 curvefs对接s3方案设计(过程文档)© XXX Page 2 of 11 时间 修订人 修订内容 2021-05-20 胡遥 初稿 2021-07-20 胡遥 细化write和read流程 整体架构 整体思路 接口和关键数据结构 mds.proto client端数据结构 metaserver.proto space相关数据结构和proto0 码力 | 11 页 | 145.77 KB | 6 月前3
《Saga分布式事务解决⽅案与实践》演讲者/姜宁0 码力 | 39 页 | 2.78 MB | 1 年前3
《Saga分布式事务解决⽅案与实践》演讲者/姜宁0 码力 | 33 页 | 2.38 MB | 1 年前3
C++高性能并行编程与优化 - 课件 - 10 从稀疏数据结构到量化数据类型从稀疏数据结构到量化数据类型 by 彭于斌( @archibate ) 往期录播: https://www.bilibili.com/video/BV1fa411r7zp 课程 PPT 和代码: https://github.com/parallel101/course 本课涵盖:稀疏矩阵、 unordered_map 、空间稀 疏网格、位运算、浮点的二进制格式、内存带宽优 化 面向人群:图形学、 ,反之则是未激活 (inactive) 。 这就是稀疏的好处,按需分配,自动扩容。 分块则是利用了我们存储的数据常常有着空间局域性的特点,减轻哈希表的压 力,同时在每个块内部也可以快乐地 SIMD 矢量化, CPU 自动预取之类的。 第 2 章:位运算 稀疏的好处:坐标可以是负数 这样即使坐标为负数,或者可以是任意大的坐标,都不会产生越界错误。 但是分块存储时负数却导致出错了 为什么 segf collapse(2) 遍历二维区间。 把 func 捕获为 firstprivate ,从而支持用 lambda 捕获的访问者模式。 实现访问者模式 • 额,总之就是每一层都有一个缓存。 第 5 章:量化整型 使用 int :每个占据 4 字节 • 记得我第七课说过,一个简单的循环体往 往会导致内存成为瓶颈( memory- bound )。 • 右边就是一个很好的例子。 使用 int64_t0 码力 | 102 页 | 9.50 MB | 1 年前3
πDataCS赋能工业软件创新与实践⼤模型数据计算系统,以云原⽣技术重构数据存储和计算,⼀份数据,多引擎数据计算,AI数学模型、数据和 计算三者互为增强,全面升级⼤数据系统⾄⼤模型时代 ,赋能⾏业AI场景应用。 具备整体数据平台⽅案,支持多模数据处理(结构化、半结构化 以及非结构化数据),实现数据共享和分析。 软件优化 + 新硬件(FPGA)加速,实现数据全链路的性能飞跃, 让数据存储、SQL查询、向量计算以及机器学习等能⼒全面升级。 其他Data Lake Bare-Metal IaaS资源 执⾏器 执⾏器 执⾏器 协调器 协调器 虚拟数仓1 执⾏器 协调器 虚拟数仓2 执⾏器 … 连接管理 查询优化器 资源隔离 向量化执⾏ 事务管理 执⾏计划 并⾏计算 ⾼可用 数据查询 数据加载 弹性伸缩 自定义函数 集群管控 元数据访问 业务数据读写 元数据映射 元数据: Ø 分布式KV,存储系统表 Ø 基于key的自然排序实现索引 基于key的自然排序实现索引 Ø ⾼性能 Ø 基于watcher机制的⾼效分布式锁管理 Ø 基于MVCC的事务隔离级别 Ø 多集群数仓数据共享 计算节点: Ø 自定义虚拟数仓,资源隔离 Ø 向量化执⾏器(SIMD)和JIT Ø HTAP,弹性扩缩容 Ø eMPP专利,弹性⼤规模并⾏计算 Ø 分布式优化器 Ø 存算分离架构 可视化管控: Ø 监控告警 Ø 自定义和动态服务启停 Ø0 码力 | 36 页 | 4.25 MB | 1 年前3
从推荐模型的基础特点看大规模推荐类深度学习系统的设计 袁镱样本读取 样本解析 基于GPU的多级存储训练:更⾼的性价⽐ � 推荐模型GPU训练的挑战 � 显存(A100最⼤80GB)放不下TB级的模型 � GPU多线程并⾏计算能⼒对稀疏数据不友好 � ⽅案 � 原有:内存能够存储的参数->对应的样本量Group � 新增:显存能够存储的参数->对应的样本量Pass � 新增:GPU并⾏操作友好->CSR格式的显存数据访问 SSD磁盘 10TB CPU型服务 Feature 2.2 Hotkey缓存优化 <10台 内存型服务 并发查询优化 数⼗台 ⽹络型服务 TB级模型实时上线 � 问题:TB模型实时多地传输和加载成本⾼ � ⽅案:⾼低频分别上线 � 更灵活的⽤法:模型多切⽚,按需上线 � Dssm � wdl ... 分布式Serving集群 副本1 副本2 Group 1 Group N 副本1 副本2 推理节点 的特点) 通讯量可以变⼩来提升训练速度么?---参数,梯度压缩 � 问题: � 参数w和梯度g占据主要的通讯量,拉⻓了请求时间 � 常规的数值⽆损的压缩⽅法效果不明显 � 业界主流做法: � 量化 � 稀疏化。累计发 送,需要做本地 梯度修正 float32->float16->int8->int4->2bit 直接压缩->训练算法补偿 [2020] Compressed Communication0 码力 | 22 页 | 6.76 MB | 1 年前3
Deepseek R1 本地部署完全手册更新⽇期:2025年2⽉8⽇ ⼀、简介 Deepseek R1 是⽀持复杂推理、多模态处理、技术⽂档⽣成的⾼性能通⽤⼤语⾔模型。本⼿册 为技术团队提供完整的本地部署指南,涵盖硬件配置、国产芯⽚适配、量化⽅案、云端替代⽅ 案及完整671B MoE模型的Ollama部署⽅法。 核⼼提示: 个⼈⽤户:不建议部署32B及以上模型,硬件成本极⾼且运维复杂。 企业⽤户:需专业团队⽀持,部署前需评估ROI(投资回报率)。 DeepSeek-R1-Distill- 70B 70B BF16 ≥180GB 4*L20 或 2*H20 GPU 三、国产芯⽚与硬件适配⽅案 1. 国内⽣态合作伙伴动态 企业 适配内容 性能对标(vs NVIDIA) 华为昇 腾 昇腾910B原⽣⽀持R1全系列,提供端到端推理优化 ⽅案 等效A100(FP16) 沐曦 GPU MXN系列⽀持70B模型BF16推理,显存利⽤率提升 30% 等效RTX 3090 适配V3/R1模型,性能对标NVIDIA A100 等效A100(BF16) 2. 国产硬件推荐配置 模型参数 推荐⽅案 适⽤场景 1.5B 太初T100加速卡 个⼈开发者原型验证 14B 昆仑芯K200集群 企业级复杂任务推理 32B 壁彻算⼒平台+昇腾910B集群 科研计算与多模态处理 四、云端部署替代⽅案 1. 国内云服务商推荐 平台 核⼼优势 适⽤场景 硅基流动 官⽅推荐API,低延迟,⽀持多模态模型0 码力 | 7 页 | 932.77 KB | 8 月前3
DeepSeek从入门到精通(20250204)✅ 结果精准高效 ❌ 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径 复杂问题、需模型自主 推理 “我需要优化用户登录流程, 请分析当前瓶颈并提出3种方 案。” ✅ 激发模型深层推理 ❌ 需清晰定义需求边界 混合模式 结合需求描述与关键 约束条件 平衡灵活性与可控性 “设计一个杭州三日游计划, 要求包含西湖和灵隐寺,且 预算控制在2000元内。” 一次性提问复杂逻辑 如何向AI表达需求 需求类型 特点 需求表达公式 推理模型适配策略 通用模型适配策略 1. 决策需求 需权衡选项、评估风险、 选择最优解 目标 + 选项 + 评估标准 要求逻辑推演和量化分析 直接建议,依赖模型经验归纳 2. 分析需求 需深度理解数据/信息、 发现模式或因果关系 问题 + 数据/信息 + 分析 方法 触发因果链推导与假设验 证 表层总结或分类 3. 设计能激发AI创新思维的提示语 利用类比、反向思考等技巧拓展AI输出的可能性 巧妙结合不同领域概念,产生跨界创新 结果优化能力 分析AI输出,识别改进空间 通过迭代调整提示语,优化输出质量 设计评估标准,量化提示语效果 跨域整合能力 将专业领域知识转化为有效的提示语 利用提示语桥接不同学科和AI能力 创造跨领域的创新解决方案 系统思维 设计多步骤、多维度的提示语体系 构建提示语模板库,提高效率和一致性0 码力 | 104 页 | 5.37 MB | 8 月前3
openEuler 23.09 技术白皮书通用性差。 • 搜推、大数据场景存在大量无效数据搬移,缺少高效内存池化方案。 Linux 现有的 HMM 框架,编程复杂度高且依赖人工调优,性能和可移植性差,引发 OS 社区反弹,最终导致 HMM 方 案搁浅。异构加速器领域亟需高效的统一内存管理机制。 异构通用内存管理框架 GMEM (Generalized Memory Management),提供了异构内存互联的中心化管理机制,且 GMEM API 开源大模型原生支持(LLaMA 和 ChatGLM) 虽然大模型日渐火爆,但普通用户使用大模型还存在一定的门槛。llama.cpp 和 chatglm-cpp 是基于 C/C++ 实现的模 型推理框架,通过模型量化等手段,支持用户可以在 CPU 机器上完成开源大模型的部署和使用。 用户可通过 llama.cpp/chatglm-cpp 在 CPU 机器上部署大模型,并体验智能问答、AI 对话等功能。 应用场景 等。 用户可通过 llama.cpp 和 chatglm-cpp 选择适合自己的开源大模型进行部署。 其主要特性如下: • 基于 ggml 的 C/C++ 实现。 • 通过 int4/int8 量化、优化的 KV 缓存和并行计算等多种方式加速内存高效 CPU 推理。 使用方法请参考 openEuler 支持部署大模型。 功能描述 内核创新 13 openEuler 23.09 技术白皮书0 码力 | 52 页 | 5.25 MB | 1 年前3
共 339 条
- 1
- 2
- 3
- 4
- 5
- 6
- 34













