清华大学 DeepSeek 从入门到精通DeepSeek是什么? AI + 国产 + 免费 + 开源 + 强大 • DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应 用。 • DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。 Deepseek可以做什么? 直接面向用户或者支持开发者,提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景, 当人人都会用AI时,你如何用得更好更出彩? 推理模型 • 例如:DeepSeek-R1,GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。 推理大模型: 推理大模型是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它 们通常具备额外的技术,比如强化学习、神经符号推理、元学习等,来增强其推理和问题解决能力。 非推理大模型: 适用于大多数任务,非推理大模型一般侧重于语言生成、上下文理解和自然语言处理,而不强 解和自然语言处理,而不强 调深度推理能力。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容,但缺乏像 推理模型那样复杂的推理和决策能力。 维度 推理模型 通用模型 优势领域 数学推导、逻辑分析、代码生成、复杂问题拆解 文本生成、创意写作、多轮对话、开放性问答 劣势领域 发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务0 码力 | 103 页 | 5.40 MB | 8 月前3
RocketMQ v3.2.4 开发指南CORBA Notification 规范中,无此消费方式。 在 JMS 规范中,JMS point-to-point model 不乀类似,但是 RocketMQ 的集群消费功能大等亍 PTP 模型。 因为 RocketMQ 单个 Consumer Group 内的消费者类似亍 PTP,但是一个 Topic/Queue 可以被多个 Consumer Group 消费。 顺序消息 规范中描述的优兇级是挃在一个消息队列中,每条消息都有丌同的优兇级,一般用整数来描述,优兇级高的消 息兇投递,如果消息完全在一个内存队列中,那举在投递前可以挄照优兇级排序,令优兇级高的兇投递。 由亍 RocketMQ 所有消息都是持丽化的,所以如果挄照优兇级来排序,开销会非常大,因此 RocketMQ 没有特 意支持消息优兇级,但是可以通过发通的方式实现类似功能,即单独配置一个优兇级高的队列,和一个普通优兇级 定时消息是挃消息収到 Broker 后,丌能立刻被 Consumer 消费,要到特定的时间点戒者等待特定的时间后才能 被消费。 如果要支持任意的时间精度,在 Broker 局面,必须要做消息排序,如果再涉及到持丽化,那举消息排序要丌 可避免的产生巨大性能开销。 RocketMQ 支持定时消息,但是丌支持任意时间精度,支持特定的 level,例如定时 5s,10s,1m 等。 4.15 消息重试0 码力 | 52 页 | 1.61 MB | 1 年前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单本质:以多agent实现从数据采集到可视全流程 模型特点 Claude 3.5 sonnet 平衡性能:在模型大小和 性能之间取得平衡,适合 中等规模任务。 多模态支持:支持文本和 图像处理,扩展应用场景。 可解释性:注重模型输出 的可解释性和透明性。 DeepSeek R1 高效推理:专注于低延迟和 高吞吐量,适合实时应用。 轻量化设计:模型结构优化, 资源占用少,适合边缘设备 提供高精度结果。 长文本处理:擅长处理长文本 和复杂文档,适合专业场景。 定制化能力:支持用户自定义 训练和微调,适应特定需求。 Open AI o3 mini 小型化设计:轻量级模型, 适合资源有限的环境。 快速响应:优化推理速度, 适合实时交互场景。 通用性强:适用于多种自 然语言处理任务,如对话 生成和文本理解。 爬虫数据采集 1、阅读网页源代码,提取特定网页内容; 5支持联网查询网址,Claude 3.5 sonnet暂不支持; 四个模型均能根据上传的网页代码,对多个网址链接进行筛选、去重,完全提取出符合指令要求的所有网址链接并形成列表; 在复杂爬虫任务上,DeepSeek R1与Open AI o3min生成的代码均能正常执行数据采集任务,o3响应速度更快,R1数据采集结果更加完 整准确;其他2个模型都存在多次调试但代码仍然运行不成功的问题,如代码中罗列URL不全、输出文本中提取数据为空等。0 码力 | 85 页 | 8.31 MB | 8 月前3
Ubuntu 桌面培训 2010强调 Ubuntu 和其他操作系统不同,默认桌面是绝对干净的。用户可以根据喜好自由 地在桌面上添加文件和程序图标。 GNOME 是 Ubuntu 的默认桌面环境。 GNOME (GNU 网络对象模型环境,GNU Network Object Model Environment)是一个国际性的项目,为开发完整的,由自 由软件组成的桌面环境而努力。桌面环境,即图形用户界面,是计算机系统中最外层 的软件。GNOME 网页浏览器,在书签菜单中单击将此页加为书签。 图 III.14 将 此 页 加 为 书 签 2. 弹出书签对话框。选择保存新书签的位置,给它添加标签。 3. 然后单击完成来保存书签。 要给书签排序或创建新文件夹,在书签菜单中选择管理书签打开我的足迹对话框。 图 III.15 管 理 书 签 72 使用 Feed 阅读器 目录 Lucid Lynx 图 III.16 我 的 足 迹 III 在重设完图片的尺寸后,您需要将图片放到文档中的合适位置。要调整和对齐图 片,可以使用框架工具栏中的工具。这个工具栏会在您首次选中一幅图片的时候出 现在标准工具栏的下方。另一种办法是,您可以右键单击图片,然后在快捷菜单中 选择例如排序,对齐或者锁定等选项。 140 使用 OpenOffice.org 文字处理 目录 Lucid Lynx 图 IV.18 放 置 插 入 的 图 片 5. 在选定了合适的图片选项后,您也许会看到类似于下面这张截图的情形。0 码力 | 540 页 | 26.26 MB | 1 年前3
消息中间件RocketMQ原理解析 - 斩秋msgTreeMap 重新消费 commit: 将临时表 msgTreeMapTemp 数据清空,代表消费完成,放回最大偏移 值 (3) 这里是个 TreeMap,对 key 即消息的 offset 进行排序,这个样可以使得消息进 行顺序消费 三: 长轮询 Rocketmq 的消息是由 consumer 端主动到 broker 拉取的 组成一个逻辑上连续的队 列 d) 加载事物模块 e) 加载存储检查点 加载${user.home} \store\checkpoint 这个文件存储了 3 个 long 类型的值来记录存储 模型最终一致的时间点,这个 3 个 long 的值为 physicMsgTimestamp 为 commitLog 最后刷盘的时间 logicMsgTimestamp 为 consumeQueue 最终刷盘的时间0 码力 | 57 页 | 2.39 MB | 1 年前3
谈谈MYSQL那点事不打开 ) 128M 查询缓存区的最大长度,按照当前需求,一 倍一倍增加,本选项比较重要 sort_buffer_size 512K 128M 每个线程的排序缓存大小,一般按照内存可 以设置为 2M 以上,推荐是 16M ,该选项对 排序 order by , group by 起作用 record_buffer 128K 64M 每个进行一个顺序扫描的线程为其扫描的每 张表分配这个大小的一个缓冲区,可以设置0 码力 | 38 页 | 2.04 MB | 1 年前3
GPU Resource Management On JDOSManagement On JDOS 梁永清 liangyongqing1@jd.com 提供的服务 1. 用于实验的 GPU 容器 2.基于 Kubeflow 的机器学习训练服务 3.模型管理和模型 Serving 服务 Experiment Training Serving 均基于容器,不对业务方直接提供 GPU 物理机 GPU 实验 JDOS 常规的容器服务 ,使用 gpu 的 Serving 服务 提供统一便捷的 Serving 服务,只需用户指定模型,即可提供 grpc 和 rest 服务,同时使用 GPU 复用 +HPA 提高 GPU 利用率 创建 Serving 与训练集成 • 用户只需要简单选择机房和 镜像填写模型名即可完成 Serving 服务创建 自有模型 • 用户只需要填写模型地址即 可 GPU 监控 • 容器监控服务,自适 应 GPU 容器,可根据0 码力 | 11 页 | 13.40 MB | 1 年前3
基于 KUBERNETES 的 容器器 + AI 平台⽣生产级镜像仓库解决⽅方案,基于 • ⼀一键⾼高可⽤用部署和维护 • 为多租户和复杂权限集成⽽而增强 『token service』 • 管理理基于规则的镜像仓库 • 其他企业需要的优化功能 企业典型的多租户模型 租户 Tenant User User group Namespace Deployment Registry project CI/CD workspace Pod … TensorFlow 任务运⾏行行状态 • ⽀支持分布式 TensorFlow 任务 KUBEFLOW 之上 • 借⼒力力容器器平台提供⽣生产级的集群资源管理理 • ⼯工作区隔离与共享 • 数据、模型、环境、应⽤用等 • 全⾯面⽀支持 AI ⼯工作流 • 探索开发 • 线上运⾏行行 关注并回复 kubecon18 P7 展台0 码力 | 19 页 | 3.55 MB | 1 年前3
Apache Pulsar,云原生时代的消息平台 - 翟佳
streamnative.io 基础决定上层 streamnative.io 企业级特性 streamnative.io 统⼀消费模型 • Exclusive • Failover • Shared • Key-Shared streamnative.io 统⼀消费模型 — 订阅 Producer Topic 1 2 3 4 5 6 7 Subscription2 Consumer 1 2 30 码力 | 39 页 | 12.71 MB | 6 月前0.03
共 9 条
- 1













