 微博在线机器学习和深度学习实践-黄波模型训练 Task 模型训练 Task Metrics输出 3 在线机器学习-工作流 互动行为日志 数据处理 点击行为日志 阅读行为日志 曝光行为日志 数据过滤 样本拼接 定时轮询 Kafka Hdfs 样本输出 3 在线机器学习-实时样本生成 • 多流拼接 • 曝光,互动,点击,真实阅读等多种数据流接入并多流拼接 • 如何解决日志延时问题 • 延迟等待机制,先到先走 兼容,自动模型参数转换 • 稳定性优化 • 模型快照:基于ps-scheduler的周期模型版本探测与保存,模型稀疏化分片存储 • 冷备容灾:基于checkpoint机制(Local模式&Remote模式),实现参数服务的高可用,支持基于模型的异构集群迁移,支持集 群扩缩容 • 性能优化 • 通信优化:数据请求(PULL&PUSH)聚合,同模型多矩阵并发,锁粒度优化,性能提升5-10倍 • 模型评估 • 模型上线部署前指标评估 • 周期使用验证样本进行点击率预估 • 待部署模型与线上模型进行指标对比,评估是否满足上线条件 • 一键部署 • 基于K8S的deployment模式,一键端口分配与模型服务部署 • 基于ZK的服务发现,一键进行流量灰度与发布 • 性能优化 • 通信优化:特征请求与模型计算单元化,在线样本格式压缩 • 计算优化:基于SSE/AVX 指令优化0 码力 | 36 页 | 16.69 MB | 1 年前3 微博在线机器学习和深度学习实践-黄波模型训练 Task 模型训练 Task Metrics输出 3 在线机器学习-工作流 互动行为日志 数据处理 点击行为日志 阅读行为日志 曝光行为日志 数据过滤 样本拼接 定时轮询 Kafka Hdfs 样本输出 3 在线机器学习-实时样本生成 • 多流拼接 • 曝光,互动,点击,真实阅读等多种数据流接入并多流拼接 • 如何解决日志延时问题 • 延迟等待机制,先到先走 兼容,自动模型参数转换 • 稳定性优化 • 模型快照:基于ps-scheduler的周期模型版本探测与保存,模型稀疏化分片存储 • 冷备容灾:基于checkpoint机制(Local模式&Remote模式),实现参数服务的高可用,支持基于模型的异构集群迁移,支持集 群扩缩容 • 性能优化 • 通信优化:数据请求(PULL&PUSH)聚合,同模型多矩阵并发,锁粒度优化,性能提升5-10倍 • 模型评估 • 模型上线部署前指标评估 • 周期使用验证样本进行点击率预估 • 待部署模型与线上模型进行指标对比,评估是否满足上线条件 • 一键部署 • 基于K8S的deployment模式,一键端口分配与模型服务部署 • 基于ZK的服务发现,一键进行流量灰度与发布 • 性能优化 • 通信优化:特征请求与模型计算单元化,在线样本格式压缩 • 计算优化:基于SSE/AVX 指令优化0 码力 | 36 页 | 16.69 MB | 1 年前3
 Chatbots 中对话式交互系统的分析与应用[探索]聊天机器人 吴金龙@爱因互动 2017年04月17日 吴金龙 • 2005~2010:北大数学院 • 推荐系统 • 2010~2011:阿里云 • PC/手机输入法 • 2011~2017:世纪佳缘 • 用户推荐、网警等数据系统 • 技术部负责人 • 一个AI负责人 • 2017~现在:爱因互动 • 技术合伙人、算法负责人 • ChatbotsChina发起人 • 三个火枪手:三个Bot框架 • IR-Bot、Task-Bot、Chitchat-Bot • 爱因互动所做的事 • 总结 Chatbots简史 1950 • 提出 “图灵 测试” 1966 •ELIZA:MIT 发展的精神 治疗师 chatbot 1995 •A.L.I.C.E.: 基于模式匹 配的NLP chatbot 2011, 2012 •Siri •Watson •Google 通向强人工智能之路? 爱因互动 EIN+: 深度定制对话服务 爱因互动 EIN+ • 为企业提供人工智能对话解决方案 • Conversation as a Service Bot应用场景 • 清晰的知识结构和边界 • 非标准化服务,信息不对称 • 能够通过数据积累提升服务质量 • 能够建立知识和技术壁垒 • 对话作为粘合剂 • 用户画像,推荐系统,营销转化 爱因互动:API in, API0 码力 | 39 页 | 2.24 MB | 1 年前3 Chatbots 中对话式交互系统的分析与应用[探索]聊天机器人 吴金龙@爱因互动 2017年04月17日 吴金龙 • 2005~2010:北大数学院 • 推荐系统 • 2010~2011:阿里云 • PC/手机输入法 • 2011~2017:世纪佳缘 • 用户推荐、网警等数据系统 • 技术部负责人 • 一个AI负责人 • 2017~现在:爱因互动 • 技术合伙人、算法负责人 • ChatbotsChina发起人 • 三个火枪手:三个Bot框架 • IR-Bot、Task-Bot、Chitchat-Bot • 爱因互动所做的事 • 总结 Chatbots简史 1950 • 提出 “图灵 测试” 1966 •ELIZA:MIT 发展的精神 治疗师 chatbot 1995 •A.L.I.C.E.: 基于模式匹 配的NLP chatbot 2011, 2012 •Siri •Watson •Google 通向强人工智能之路? 爱因互动 EIN+: 深度定制对话服务 爱因互动 EIN+ • 为企业提供人工智能对话解决方案 • Conversation as a Service Bot应用场景 • 清晰的知识结构和边界 • 非标准化服务,信息不对称 • 能够通过数据积累提升服务质量 • 能够建立知识和技术壁垒 • 对话作为粘合剂 • 用户画像,推荐系统,营销转化 爱因互动:API in, API0 码力 | 39 页 | 2.24 MB | 1 年前3
 动手学深度学习 v2.0eNet、AlexNet、ResNet的代码片段),这 些代码示例分散在各种博客帖子和GitHub库中。但是,这些示例通常关注如何实现给定的方法,但忽略了为 什么做出某些算法决策的讨论。虽然一些互动资源已经零星地出现以解决特定主题。例如,在网站Distill1上 发布的引人入胜的博客帖子或个人博客,但它们仅覆盖深度学习中的选定主题,并且通常缺乏相关代码。另 一方面,虽然已经出现了几本教科书,其中最著名的是 供足够的技术深度,为真正成为一名应用机 器学习科学家提供起步;(3)包括可运行的代码,向读者展示如何解决实践中的问题;(4)允许我们和社区 的快速更新;(5)由一个论坛2作为补充,用于技术细节的互动讨论和回答问题。 这些目标经常是相互冲突的。公式、定理和引用最好用LaTeX来管理和布局。代码最好用Python描述。网页 原生是HTML和JavaScript的。此外,我们希望内容既可以作为可执行代码访问、作为纸质书访问,作为可下 DeSantis、Adam Selipsky和Andrew Jassy对撰写本书的慷慨支持。如果没有可用的时间、资源、与同事的讨论和不断的鼓励,这本书就不会出版。 小结 • 深度学习已经彻底改变了模式识别,引入了一系列技术,包括计算机视觉、自然语言处理、自动语音识 别。 • 要成功地应用深度学习,必须知道如何抛出一个问题、建模的数学方法、将模型与数据拟合的算法,以 及实现所有这些的工程技术。0 码力 | 797 页 | 29.45 MB | 1 年前3 动手学深度学习 v2.0eNet、AlexNet、ResNet的代码片段),这 些代码示例分散在各种博客帖子和GitHub库中。但是,这些示例通常关注如何实现给定的方法,但忽略了为 什么做出某些算法决策的讨论。虽然一些互动资源已经零星地出现以解决特定主题。例如,在网站Distill1上 发布的引人入胜的博客帖子或个人博客,但它们仅覆盖深度学习中的选定主题,并且通常缺乏相关代码。另 一方面,虽然已经出现了几本教科书,其中最著名的是 供足够的技术深度,为真正成为一名应用机 器学习科学家提供起步;(3)包括可运行的代码,向读者展示如何解决实践中的问题;(4)允许我们和社区 的快速更新;(5)由一个论坛2作为补充,用于技术细节的互动讨论和回答问题。 这些目标经常是相互冲突的。公式、定理和引用最好用LaTeX来管理和布局。代码最好用Python描述。网页 原生是HTML和JavaScript的。此外,我们希望内容既可以作为可执行代码访问、作为纸质书访问,作为可下 DeSantis、Adam Selipsky和Andrew Jassy对撰写本书的慷慨支持。如果没有可用的时间、资源、与同事的讨论和不断的鼓励,这本书就不会出版。 小结 • 深度学习已经彻底改变了模式识别,引入了一系列技术,包括计算机视觉、自然语言处理、自动语音识 别。 • 要成功地应用深度学习,必须知道如何抛出一个问题、建模的数学方法、将模型与数据拟合的算法,以 及实现所有这些的工程技术。0 码力 | 797 页 | 29.45 MB | 1 年前3
 QCon北京2018-《深度学习在微博信息流排序的应用》-刘博微博—社交媒体领跑者 • DAU:1.72亿,MAU:3.92亿 • 关注流基于关系链接用户与内容 微博Feed流特点介绍—排序原因 Ø 产品特点 • 传播性强 Ø 存在问题 • 信息过载 • 互动性好 • 信噪比低 Ø 排序目标 • 提高用户的信息消费效率 • 提升用户黏性 技术挑战 Ø 规模大 • 用户和Feed内容数量大 Ø 指标量化 • 用户体验 • 内容更新快,实时性要求高 大量离散特征、高维稀疏 • 特征关联性挖掘 CTR一般流程 业务目标与模型选择 Ø 模型优化目标 • 互动(转发/评论/赞) 点击(图片/视频/文章/链接等) 阅读时长 Ø 模型选择 • 线性模型LR+特征工程 • 多目标预估 • 排序基于pointwise的 learning to rank 互动模型 点击模型 阅读模型 Score = ?)*+,-./+ ∗ ???? + ?/6)/7 数据对比分析 算法架构 互动行为 点击行为 阅读行为 能力标签 兴趣标签 亲密度 自然属性 账号属性 用户特征 关键词 类型属性 topic 内容标签 内容质量 内容特征 组合特征 标签匹配度 用户互动率 协同特征 实时互动率 app互动率 微博内容 关注数据 用户信息 视觉标签 打码日志 社交关系 用户特征 发博流 互动流 曝光流 模型服务 模型训练0 码力 | 21 页 | 2.14 MB | 1 年前3 QCon北京2018-《深度学习在微博信息流排序的应用》-刘博微博—社交媒体领跑者 • DAU:1.72亿,MAU:3.92亿 • 关注流基于关系链接用户与内容 微博Feed流特点介绍—排序原因 Ø 产品特点 • 传播性强 Ø 存在问题 • 信息过载 • 互动性好 • 信噪比低 Ø 排序目标 • 提高用户的信息消费效率 • 提升用户黏性 技术挑战 Ø 规模大 • 用户和Feed内容数量大 Ø 指标量化 • 用户体验 • 内容更新快,实时性要求高 大量离散特征、高维稀疏 • 特征关联性挖掘 CTR一般流程 业务目标与模型选择 Ø 模型优化目标 • 互动(转发/评论/赞) 点击(图片/视频/文章/链接等) 阅读时长 Ø 模型选择 • 线性模型LR+特征工程 • 多目标预估 • 排序基于pointwise的 learning to rank 互动模型 点击模型 阅读模型 Score = ?)*+,-./+ ∗ ???? + ?/6)/7 数据对比分析 算法架构 互动行为 点击行为 阅读行为 能力标签 兴趣标签 亲密度 自然属性 账号属性 用户特征 关键词 类型属性 topic 内容标签 内容质量 内容特征 组合特征 标签匹配度 用户互动率 协同特征 实时互动率 app互动率 微博内容 关注数据 用户信息 视觉标签 打码日志 社交关系 用户特征 发博流 互动流 曝光流 模型服务 模型训练0 码力 | 21 页 | 2.14 MB | 1 年前3
 机器学习课程-温州大学-12机器学习-关联规则Growth )算法思想 FP-growth(频繁模式增长)算法是韩家炜老师在2000年提出的关联分析算法,它采 取如下分治策略:将提供频繁项集的数据库压缩到一棵频繁模式树(FP-Tree), 但仍保留项集关联信息。 该算法是对Apriori方法的改进。生成一个频繁模式而不需要生成候选模式。 FP-growth算法以树的形式表示数据库,称为频繁模式树或FP-tree。 此树结构将保持项集之间 此树结构将保持项集之间的关联。数据库使用一个频繁项进行分段。这个片段被称 为“模式片段”。分析了这些碎片模式的项集。因此,该方法相对减少了频繁项集 的搜索。 27 3.FP-Growth算法 FP-growth算法思想 FP-growth算法是基于Apriori原理的,通过将数据集存储在FP(Frequent Pattern)树上发现频繁项集,但不能发现数据之间的关联规则。 FP-growth算法只需 29 3.FP-Growth算法 FP-Tree ( Frequent Pattern Tree ) FP树(FP-Tree)是由数据库的初始项集组成的树状结构。 FP树的目的是挖掘最 频繁的模式。FP树的每个节点表示项集的一个项。 根节点表示null,而较低的节点表示项集。在形成树的同时,保持节点与较 低节点(即项集与其他项集)的关联。 30 3.FP-Growth算法 算法步骤0 码力 | 49 页 | 1.41 MB | 1 年前3 机器学习课程-温州大学-12机器学习-关联规则Growth )算法思想 FP-growth(频繁模式增长)算法是韩家炜老师在2000年提出的关联分析算法,它采 取如下分治策略:将提供频繁项集的数据库压缩到一棵频繁模式树(FP-Tree), 但仍保留项集关联信息。 该算法是对Apriori方法的改进。生成一个频繁模式而不需要生成候选模式。 FP-growth算法以树的形式表示数据库,称为频繁模式树或FP-tree。 此树结构将保持项集之间 此树结构将保持项集之间的关联。数据库使用一个频繁项进行分段。这个片段被称 为“模式片段”。分析了这些碎片模式的项集。因此,该方法相对减少了频繁项集 的搜索。 27 3.FP-Growth算法 FP-growth算法思想 FP-growth算法是基于Apriori原理的,通过将数据集存储在FP(Frequent Pattern)树上发现频繁项集,但不能发现数据之间的关联规则。 FP-growth算法只需 29 3.FP-Growth算法 FP-Tree ( Frequent Pattern Tree ) FP树(FP-Tree)是由数据库的初始项集组成的树状结构。 FP树的目的是挖掘最 频繁的模式。FP树的每个节点表示项集的一个项。 根节点表示null,而较低的节点表示项集。在形成树的同时,保持节点与较 低节点(即项集与其他项集)的关联。 30 3.FP-Growth算法 算法步骤0 码力 | 49 页 | 1.41 MB | 1 年前3
 Keras: 基于 Python 的深度学习库Input(shape=(100,), dtype='int32') encoded_video_question = question_encoder(video_question_input) # 这就是我们的视频问答模式: merged = keras.layers.concatenate([encoded_video, encoded_video_question]) output = Dense(1000, model_from_json(json_string, custom_objects={'AttentionLayer': AttentionLayer}) 3.3.7 为什么训练误差比测试误差高很多? Keras 模型有两种模式:训练和测试。正则化机制,如 Dropout 和 L1/L2 权重正则化,在测 试时是关闭的。 此外,训练误差是每批训练数据的平均误差。由于你的模型是随着时间而变化的,一个 epoch 中的第 input, K.learning_phase()], [model.layers[3].output]) 快速开始 32 # 测试模式 = 0 时的输出 layer_output = get_3rd_layer_output([x, 0])[0] # 测试模式 = 1 时的输出 layer_output = get_3rd_layer_output([x, 1])[0] 3.3.9 如何用0 码力 | 257 页 | 1.19 MB | 1 年前3 Keras: 基于 Python 的深度学习库Input(shape=(100,), dtype='int32') encoded_video_question = question_encoder(video_question_input) # 这就是我们的视频问答模式: merged = keras.layers.concatenate([encoded_video, encoded_video_question]) output = Dense(1000, model_from_json(json_string, custom_objects={'AttentionLayer': AttentionLayer}) 3.3.7 为什么训练误差比测试误差高很多? Keras 模型有两种模式:训练和测试。正则化机制,如 Dropout 和 L1/L2 权重正则化,在测 试时是关闭的。 此外,训练误差是每批训练数据的平均误差。由于你的模型是随着时间而变化的,一个 epoch 中的第 input, K.learning_phase()], [model.layers[3].output]) 快速开始 32 # 测试模式 = 0 时的输出 layer_output = get_3rd_layer_output([x, 0])[0] # 测试模式 = 1 时的输出 layer_output = get_3rd_layer_output([x, 1])[0] 3.3.9 如何用0 码力 | 257 页 | 1.19 MB | 1 年前3
 【PyTorch深度学习-龙龙老师】-测试版202112接口设计频繁变动,功能设计重复冗余, 符号式编程开发和调试非常困难等问题,TensorFlow 1.x 版本一度被业界诟病。2019 年,Google 推出 TensorFlow 2 正式版本,将以动态图优先模式运行,从而能够避免 TensorFlow 1.x 版本的诸多缺陷。 ❑ PyTorch 是 Facebook 基于原 Torch 框架推出的采用 Python 作为主要开发语言的深度学 习框架。PyTorch 0的方式叫做命令式编 预览版202112 1.5 深度学习框架 15 程,也称为动态图模式。PyTorch 是采用动态图模式的深度学习框架,开发效率高,调试 方便,所见即所得。一般认为,动态图模式开发效率高,但是运行效率可能不如静态图模 式,更适合算法设计和开发;静态图模式运行效率高,更适合算法部署。然而并不全是如 此,在很多任务上,PyTorch 的速度都优于 TensorFlow,而且 [30, 30, 30], [31, 31, 31]],…) 可以看到,在普适性原则的指导下,Broadcasting 机制变得直观、好理解,它的设计是非常 符合人的思维模式。 来考虑一个不满足普适性原则的例子,如下图 4.9 所示。 ? ℎ ? 2 长度为2,不具备普适性 图 4.9 Broadcasting 失败案例 在?维度上,张量已经有0 码力 | 439 页 | 29.91 MB | 1 年前3 【PyTorch深度学习-龙龙老师】-测试版202112接口设计频繁变动,功能设计重复冗余, 符号式编程开发和调试非常困难等问题,TensorFlow 1.x 版本一度被业界诟病。2019 年,Google 推出 TensorFlow 2 正式版本,将以动态图优先模式运行,从而能够避免 TensorFlow 1.x 版本的诸多缺陷。 ❑ PyTorch 是 Facebook 基于原 Torch 框架推出的采用 Python 作为主要开发语言的深度学 习框架。PyTorch 0的方式叫做命令式编 预览版202112 1.5 深度学习框架 15 程,也称为动态图模式。PyTorch 是采用动态图模式的深度学习框架,开发效率高,调试 方便,所见即所得。一般认为,动态图模式开发效率高,但是运行效率可能不如静态图模 式,更适合算法设计和开发;静态图模式运行效率高,更适合算法部署。然而并不全是如 此,在很多任务上,PyTorch 的速度都优于 TensorFlow,而且 [30, 30, 30], [31, 31, 31]],…) 可以看到,在普适性原则的指导下,Broadcasting 机制变得直观、好理解,它的设计是非常 符合人的思维模式。 来考虑一个不满足普适性原则的例子,如下图 4.9 所示。 ? ℎ ? 2 长度为2,不具备普适性 图 4.9 Broadcasting 失败案例 在?维度上,张量已经有0 码力 | 439 页 | 29.91 MB | 1 年前3
 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入主流思路是分离文本属性及文本内容 迁移 隐式方法即使用某类无监督学习学习或强化学 习模式将文本属性及内容自动分离,常见的有 生成对抗方式,即通过GAN实现目标属性和 文本量性完全由不同的编码控制的状态。 对话式文本生成适用于智能客服等任务型和闲聊型机器人等 非任务型人机交互场景,可分类为管道模式及端对端模式。 结构性的文本生成,首先通过注意力机制、多层感知器等系 统进行语句内容预选,对数值、时间等类型数据进行推理。 统进行语句内容预选,对数值、时间等类型数据进行推理。 增强数据间的结构信息。其次通过Transformer等模式结合 上下文进行推导,生成最终文本。 ◼ Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 双向编码生成Transformer), GPT仅采用上文 预测单词(BERT采用了基于上下文双向的预测手段)。 注:ChatGPT的表现更贴近人类意图,部分因为一开始GPT是基于上文的预测,这更贴近人类的话语模式,因为人类言语无法基于将来的话来做分析。 图:GPT-1模型相比于Transformer模型有了显著简化 Transformer架构 GPT-1架构 GPT用于对不同任务进行微调的输入转换的示意图0 码力 | 44 页 | 2.36 MB | 1 年前3 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入主流思路是分离文本属性及文本内容 迁移 隐式方法即使用某类无监督学习学习或强化学 习模式将文本属性及内容自动分离,常见的有 生成对抗方式,即通过GAN实现目标属性和 文本量性完全由不同的编码控制的状态。 对话式文本生成适用于智能客服等任务型和闲聊型机器人等 非任务型人机交互场景,可分类为管道模式及端对端模式。 结构性的文本生成,首先通过注意力机制、多层感知器等系 统进行语句内容预选,对数值、时间等类型数据进行推理。 统进行语句内容预选,对数值、时间等类型数据进行推理。 增强数据间的结构信息。其次通过Transformer等模式结合 上下文进行推导,生成最终文本。 ◼ Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 双向编码生成Transformer), GPT仅采用上文 预测单词(BERT采用了基于上下文双向的预测手段)。 注:ChatGPT的表现更贴近人类意图,部分因为一开始GPT是基于上文的预测,这更贴近人类的话语模式,因为人类言语无法基于将来的话来做分析。 图:GPT-1模型相比于Transformer模型有了显著简化 Transformer架构 GPT-1架构 GPT用于对不同任务进行微调的输入转换的示意图0 码力 | 44 页 | 2.36 MB | 1 年前3
 AI大模型千问 qwen 中文文档进行下载,只需将上述代码的第一行更改为以下内容: from modelscope import AutoModelForCausalLM, AutoTokenizer 借助 TextStreamer ,chat 的流式模式变得非常简单。下面我们将展示一个如何使用它的示例: ... # Reuse the code before `model.generate()` in the last code snippet from 1.3 使用 Transformers 实现 Chat Qwen1.5 最重要同时也最简单的用途是通过 transformers 库实现 Chat 功能。在本文档中,我们将展示如何在 流式模式或非流式模式下与 Qwen1.5-7B-Chat 进行对话。 1.3.1 基本用法 你只需借助 transformers 库编写几行代码,就能与 Qwen1.5-Chat 进行对话。实质上,我们通过 from_pretrained 示,我们将直接使 用 You are a helpful assistant. 作为系统提示。 1.3.2 流式输出 借助 TextStreamer ,您可以将与 Qwen 的对话切换到流式传输模式。下面是一个关于如何使用它的示例: # Repeat the code above before model.generate() # Starting here, we add streamer0 码力 | 56 页 | 835.78 KB | 1 年前3 AI大模型千问 qwen 中文文档进行下载,只需将上述代码的第一行更改为以下内容: from modelscope import AutoModelForCausalLM, AutoTokenizer 借助 TextStreamer ,chat 的流式模式变得非常简单。下面我们将展示一个如何使用它的示例: ... # Reuse the code before `model.generate()` in the last code snippet from 1.3 使用 Transformers 实现 Chat Qwen1.5 最重要同时也最简单的用途是通过 transformers 库实现 Chat 功能。在本文档中,我们将展示如何在 流式模式或非流式模式下与 Qwen1.5-7B-Chat 进行对话。 1.3.1 基本用法 你只需借助 transformers 库编写几行代码,就能与 Qwen1.5-Chat 进行对话。实质上,我们通过 from_pretrained 示,我们将直接使 用 You are a helpful assistant. 作为系统提示。 1.3.2 流式输出 借助 TextStreamer ,您可以将与 Qwen 的对话切换到流式传输模式。下面是一个关于如何使用它的示例: # Repeat the code above before model.generate() # Starting here, we add streamer0 码力 | 56 页 | 835.78 KB | 1 年前3
 经典算法与人工智能在外卖物流调度中的应用外卖订单智能调度系统发展历程 6 人工派单模式 • 调度员根据订单地址和骑士 位置来进行订单分配 • 人力调度派单峰值为每人 800单/天 调度 系统 3.0 云端分组派单模式 A 组 B 组 • 系统综合考虑各因素进行 订单分组,然后再指派给 合适的骑士 订单云端分组 整体最优分配 调度 系统 4.0 深度学习智能模式 • 出餐时间估算更准,缩短 骑士到店等待时间,节省 骑士到店等待时间,节省 运力,提升用户等餐体验 出餐时间预估 深度学习智能 调度 系统 2.0 系统派单模式 • 系统综合考虑配送距离、 骑士运力、期望送达时间 等因素来自动派单 配送距离 期望送达时间 骑士运力 订单相似度 调度 系统 1.0 外卖订单智能调度要解决的核心问题 7 调度系统算法 1 2 3 4 5 路线规划 • 动态规划最优配送路线,且合理 并单,以最低的配送成本最大化0 码力 | 28 页 | 6.86 MB | 1 年前3 经典算法与人工智能在外卖物流调度中的应用外卖订单智能调度系统发展历程 6 人工派单模式 • 调度员根据订单地址和骑士 位置来进行订单分配 • 人力调度派单峰值为每人 800单/天 调度 系统 3.0 云端分组派单模式 A 组 B 组 • 系统综合考虑各因素进行 订单分组,然后再指派给 合适的骑士 订单云端分组 整体最优分配 调度 系统 4.0 深度学习智能模式 • 出餐时间估算更准,缩短 骑士到店等待时间,节省 骑士到店等待时间,节省 运力,提升用户等餐体验 出餐时间预估 深度学习智能 调度 系统 2.0 系统派单模式 • 系统综合考虑配送距离、 骑士运力、期望送达时间 等因素来自动派单 配送距离 期望送达时间 骑士运力 订单相似度 调度 系统 1.0 外卖订单智能调度要解决的核心问题 7 调度系统算法 1 2 3 4 5 路线规划 • 动态规划最优配送路线,且合理 并单,以最低的配送成本最大化0 码力 | 28 页 | 6.86 MB | 1 年前3
共 21 条
- 1
- 2
- 3













