RocketMQ v3.2.4 开发指南. 32 11.2.2 客户端的公共配置 ................................................................................................................................. 32 11.2.3 Producer 配置 ..................... 11.2.4 PushConsumer 配置 ............................................................................................................................... 33 11.2.5 PullConsumer 配置 .................... ................................................................................ 35 12.1 Broker 配置参数 ................................................................................................0 码力 | 52 页 | 1.61 MB | 1 年前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单本质:以多agent实现从数据采集到可视全流程 模型特点 Claude 3.5 sonnet 平衡性能:在模型大小和 性能之间取得平衡,适合 中等规模任务。 多模态支持:支持文本和 图像处理,扩展应用场景。 可解释性:注重模型输出 的可解释性和透明性。 DeepSeek R1 高效推理:专注于低延迟和 高吞吐量,适合实时应用。 轻量化设计:模型结构优化, 资源占用少,适合边缘设备 提供高精度结果。 长文本处理:擅长处理长文本 和复杂文档,适合专业场景。 定制化能力:支持用户自定义 训练和微调,适应特定需求。 Open AI o3 mini 小型化设计:轻量级模型, 适合资源有限的环境。 快速响应:优化推理速度, 适合实时交互场景。 通用性强:适用于多种自 然语言处理任务,如对话 生成和文本理解。 爬虫数据采集 1、阅读网页源代码,提取特定网页内容; 5支持联网查询网址,Claude 3.5 sonnet暂不支持; 四个模型均能根据上传的网页代码,对多个网址链接进行筛选、去重,完全提取出符合指令要求的所有网址链接并形成列表; 在复杂爬虫任务上,DeepSeek R1与Open AI o3min生成的代码均能正常执行数据采集任务,o3响应速度更快,R1数据采集结果更加完 整准确;其他2个模型都存在多次调试但代码仍然运行不成功的问题,如代码中罗列URL不全、输出文本中提取数据为空等。0 码力 | 85 页 | 8.31 MB | 8 月前3
清华大学 DeepSeek 从入门到精通DeepSeek是什么? AI + 国产 + 免费 + 开源 + 强大 • DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应 用。 • DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。 Deepseek可以做什么? 直接面向用户或者支持开发者,提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景, 当人人都会用AI时,你如何用得更好更出彩? 推理模型 • 例如:DeepSeek-R1,GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。 推理大模型: 推理大模型是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它 们通常具备额外的技术,比如强化学习、神经符号推理、元学习等,来增强其推理和问题解决能力。 非推理大模型: 适用于大多数任务,非推理大模型一般侧重于语言生成、上下文理解和自然语言处理,而不强 解和自然语言处理,而不强 调深度推理能力。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容,但缺乏像 推理模型那样复杂的推理和决策能力。 维度 推理模型 通用模型 优势领域 数学推导、逻辑分析、代码生成、复杂问题拆解 文本生成、创意写作、多轮对话、开放性问答 劣势领域 发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务0 码力 | 103 页 | 5.40 MB | 8 月前3
消息中间件RocketMQ原理解析 - 斩秋broker1, broker2, borker3 三台 broker 机器都配置了 Topic_A Broker1 的队列为 queue0 , queue1 Broker2 的队列为 queue0, queue2, queue3, Broker3 的队列为 queue0 当然一般情况下的 broker 的配置都是一样的 以上当 broker 启动的时候注册到 namesrv 的 Topic_A 排好序类似于记录 将所有消费端 consumer 排好序,相当于页数 然后获取当前 consumer 所在页面应该分配到的 queue 2) 按照配置来分配队列, 也就是说在 consumer 启动的时候指定了 queue 3) 按照机房来配置队列 Consumer 启动的时候会指定在哪些机房的消息 获取指定机房的 queue 然后在执行如 1)平均算法 根据分配队列的结果更新 任务提交到线程池。 长轮询向 broker 拉取消息是批量拉取的, 默认设置批量的值为 pullBatchSize = 32, 可配置 消费端 consumer 构建一个消费消息任务 ConsumeRequest 消费一批消息的个数是 可配置的 consumeMessageBatchMaxSize = 1, 默认批量个数为一个 ConsumeRequest 任务 run0 码力 | 57 页 | 2.39 MB | 1 年前3
基于 KUBERNETES 的 容器器 + AI 平台⽣生产级镜像仓库解决⽅方案,基于 • ⼀一键⾼高可⽤用部署和维护 • 为多租户和复杂权限集成⽽而增强 『token service』 • 管理理基于规则的镜像仓库 • 其他企业需要的优化功能 企业典型的多租户模型 租户 Tenant User User group Namespace Deployment Registry project CI/CD workspace Pod … openstack/kuryr- kubernetes 运⾏行行和构建应⽤用 跑在 KUBERNETES 上的应⽤用 • k8s 基础资源之外 • 资源分组和整体状态 • 重⽤用 YAML 配置 • 版本化 • 启动依赖 • Helm 很棒,但是 …… 典型企业应⽤用的架构 CAICLOUD/RUDDER • 2 CRDs - Release, Release History TensorFlow 任务运⾏行行状态 • ⽀支持分布式 TensorFlow 任务 KUBEFLOW 之上 • 借⼒力力容器器平台提供⽣生产级的集群资源管理理 • ⼯工作区隔离与共享 • 数据、模型、环境、应⽤用等 • 全⾯面⽀支持 AI ⼯工作流 • 探索开发 • 线上运⾏行行 关注并回复 kubecon18 P7 展台0 码力 | 19 页 | 3.55 MB | 1 年前3
Ubuntu 桌面培训 2010. 475 X.III.II 更改引导时的默认操作系统 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 478 X.III.III 配置启动应用程序 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479 X.IV 本课小结 . . . 了,可是,我装的软件并不多,这是怎么回事? . . . . . . . . . . 488 XI.II.VIII我安装的是 Beta/RC 版,我可以升级到正式版吗? . . . . . . 489 XI.III 系统管理和个性化配置 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 489 XI.III.I Root . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 II.24 配置语言 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .0 码力 | 540 页 | 26.26 MB | 1 年前3
GPU Resource Management On JDOSManagement On JDOS 梁永清 liangyongqing1@jd.com 提供的服务 1. 用于实验的 GPU 容器 2.基于 Kubeflow 的机器学习训练服务 3.模型管理和模型 Serving 服务 Experiment Training Serving 均基于容器,不对业务方直接提供 GPU 物理机 GPU 实验 JDOS 常规的容器服务 ,使用 gpu 的 Serving 服务 提供统一便捷的 Serving 服务,只需用户指定模型,即可提供 grpc 和 rest 服务,同时使用 GPU 复用 +HPA 提高 GPU 利用率 创建 Serving 与训练集成 • 用户只需要简单选择机房和 镜像填写模型名即可完成 Serving 服务创建 自有模型 • 用户只需要填写模型地址即 可 GPU 监控 • 容器监控服务,自适 应 GPU 容器,可根据0 码力 | 11 页 | 13.40 MB | 1 年前3
Apache Pulsar,云原生时代的消息平台 - 翟佳
streamnative.io 基础决定上层 streamnative.io 企业级特性 streamnative.io 统⼀消费模型 • Exclusive • Failover • Shared • Key-Shared streamnative.io 统⼀消费模型 — 订阅 Producer Topic 1 2 3 4 5 6 7 Subscription2 Consumer 1 2 30 码力 | 39 页 | 12.71 MB | 6 月前0.03
MySQL高可用 - 多种方案.................... 4 2.4.3 Mysql 的安装和配置 ........................................................................................ 4 2.4.4 Mysql 的主主同步配置 ......................................... ....... 5 2.4.7 Keepalived 的配置 .......................................................................................... 5 2.4.8 Master 和 backup 的 realserver 的配置 ............................... ................... 10 3.5.2 Mysql 的安装和配置 ...................................................................................... 10 3.5.3 Mysql 的主主同步配置 ..........................................0 码力 | 31 页 | 874.28 KB | 1 年前3
MySQL 8.0.17 调优指南(openEuler 20.09).......................................................................................3 2.1 BIOS 配置................................................................................................... 加,这时认为操作系统上出现性能瓶颈。 数据库 一般指的是数据库配置等方面的问题。例如,由于参数配置不合 理,导致数据库处理速度慢的问题,可认为是数据库层面的的问 题。 MySQL 8.0.17 调优指南(openEuler 20.09) 1 调优概述 2020-10-15 2 2 硬件调优 2.1 BIOS配置 2.1 BIOS 配置 目的 对于不同的硬件设备,通过在BIOS中设置一些高级选项,可以有效提升服务器性能。 09) 3 操作系统调优 2020-10-15 4 ----结束 3.2 网卡中断绑核 目的 手动绑定网卡中断,根据网卡所属CPU将其进行分配,从而优化系统网络性能。 方法 对于不同的硬件配置,用于绑中断的最佳CPU数目会有差异,比如对于华为鲲鹏920 4826处理器 + Huawei TM280 25G网卡(Taishan 2280的板载网卡)来说,最多可以 绑定32个中断队列,建议将0 码力 | 11 页 | 223.31 KB | 1 年前3
共 15 条
- 1
- 2













