Qcon北京2018-《以Null的处理、回调地狱的应对为例,看C#背后的问题解决思路》-Mads+Torgersen0 码力 | 32 页 | 2.66 MB | 1 年前3
Moonshot AI 介绍出现这种情况的话,能源的问题也解决了,因为推理是可以分布式的。⽽且它不违背定律,本质还是 个能源守恒。只不过我把计算范式改变了,让能源能够以分布式的⽅式解决。 超级应⽤:模型的微调可能最终不存在 海外独⻆兽:Google和抖⾳背后的搜索和推荐有很强的⻜轮效应,算法能根据⽤⼾的⾏为实时反 馈,⽤⼾体验也能不断提升。LLM现在⽆法实时反馈⽤⼾⾏为,AI-Native产品的⻜轮效应会是什 么? 杨植麟:我深⼊思考过这个问 获得⾼度个性化 的互动体验。今天对许多产品来说,这个个性化程度⼏乎为零。以前我们只能做个性化的推荐,但现 在,⽤⼾可以与产品进⾏互动。这种互动是⾼度拟⼈化和个性化的。怎么实现这⼀点? 我觉得这背后实际上是个技术问题。传统AI时代,要实现个性化,需要持续更新模型,⽤⼩模型解决 单点问题。⼤模型时代,实现个性化的⼀种⽅式是微调,但我认为微调可能不是本质的⽅法,⻓期来 看可能不会存在模型的 AGI会是⼀场千亿美元豪赌,你思考过 它最终对⼈类社会的影响吗? 杨植麟:相对确定的⼀点是实打实的⽣产⼒提升。现在⽤⼀个软件,其实对应1000个程序员的智能, 是固定的,以后我们⽤的应⽤背后可能对应100万个⼈的智能,⽽且每天都在迭代。 看可能性的话,今天的⼀切都会变化。这么多语⾔被训练到⼀起,对⽂化、价值观都有影响。⼈的时 间分配可能也会产⽣很多变化,真正为了钱⼯作的⼈可能会变少,更多时间可能花在精神世界⾥⾯,0 码力 | 74 页 | 1.64 MB | 1 年前3
2023 中国开源开发者报告后续官方确认故障原因与某个底层服务组件有关。在历时约 5 个小时 后,阿里云宣布受影响云产品均已恢复。 特邀评论员——冯若航,Pigsty 作者/磐吉云数创始人 根据海恩法则,一次严重故障的背后有几十次轻微事故,几百起未遂先兆,以及 上千条事故隐患。 去年十二月阿里云香港机房的大故障已经暴露出来许多问题,然而一年后又给了 用户一个更大的惊喜(吓!)。这样的事故对于阿里云的品牌形象绝对是致命打 用程序、未明确禁止或列为高风险的应用程序” 三个风险类别,并根据相 应的风险等级制度来监管 AI 应用程序、产品和服务。 三位艺术家对 Stability AI(Stable Diffusion 背后的开发商)提起了诉讼, 指控 Stability AI 直接、间接侵犯版权、违反 DMCA 和不正当竞争等。 他们认为 Stability AI 在「未经原艺术家同意」的情况下,从网络上收集 了数十亿张图片用于进行 2 季度登陆 Steam 平 台。但在 5 月,团队表示收到了来自任天堂的警告,宣布无限期推迟上架 到 Steam 版本的计划。 7 月,Dolphin 确认彻底放弃上架 Steam 平台。 事情背后的具体经过为:当得知 Dolphin 要上架 Steam 后,Valve 法务 部门联系了任天堂询问相关信息;得到的回应是,按 DMCA 规定 Valve 需 要阻止该模拟器登陆 Steam。 因此0 码力 | 87 页 | 31.99 MB | 1 年前3
23-云原生观察性、自动化交付和 IaC 等之道-高磊全生命周期API管理-1 服务是从内研发视角来看的,但是对于外部消费者只想找到并集成API而已,并不想了解API背后的运维细节或者需要协调运维能力!API成了一 种可以交易的商品,可以购买增强自己APP的能力,比如在自己APP里显示天气预报数据,从外部去管理应用平台,形成了一种新PaaS组织方式。 • 逻辑API:已有API的组 碎片化,比如,硬件环境、网 络环境、运维规范等的碎片化。 尤其是运维方面的差异化,必 然导致私有Paas的出现! • 虽然服务网格、虚拟化等正在 努力解决交付困难的问题,但 是依然对除RT外的环境依赖碎 片化无能为力。 • 背后的原因在于特定环境依赖或者运维规范问题渗透到了PaaS本身, 或者大家常说的定制化场景,如果不进行解耦就会有长期存在的矛盾。 • 为了应付定制化,客户需要等待平台研发的排期,因为平台研发需要定制 比如要使用AWS的块存储 后续如果某个应用需要存储,可以直接引用。 而不需要关心底层到底是如何管理存储的。 OAM让应用本身从研发 的视角来声明“我是谁”、 “我要使用什么样的云 服务”,至于背后的实 现交个各个开源项目和 厂商去实现,譬如: kubevela。 OAM实现原理分析 • OAM是更高级的抽象, 执行面打包都是通用 格式,比如HELM,很 好的兼容了现有的基 础设施,无论怎样的0 码力 | 24 页 | 5.96 MB | 6 月前3
美团点评2018技术年货每条监控都会根据过去的业务曲线计算出一条基线(见下图),用来跟当前数据做对比,超出设定的阈值 后就会触发告警。 监控曲线图 大众点评账号业务高可用进阶之路 - 美团技术团队 每次收到告警,我们都要去找出背后的原因,如果是流量涨了,是有活动了还是被刷了?如果流量跌了, 是日志延时了还是服务出问题了?另外值得重视的是告警的频次,如果告警太多就会稀释大家的警惕性。 我们曾经踩过一次坑,因为告警太多就把告 美团即时物流的分布式系统架构设计 - 美团技术团队 履约过程中的辅助决策,包括智能语音、路径推荐、到店提醒等。 在一系列服务背后,是美团强大的技术体系的支持,并由此沉淀出的配送业务架构体系,基于架构构建的 平台、算法、系统和服务。庞大的物流系统背后离不开分布式系统架构的支撑,而且这个架构更要保证高 可用和高并发。 分布式架构,是相对于集中式架构而言的一种架构体系。分布式架构适用CAP理论(Consistency 的个性化、智能化信息展示的需求。而信息展示个性化的典型应用主要包括搜索列表、推荐列表、广告展 示等等。 很多人不知道的是,看似简单的个性化信息展示背后,涉及大量的数据、算法以及工程架构技术,这些足 以让大部分互联网公司望而却步。究其根本原因,个性化信息展示背后的技术是排序学习问题(Learning to Rank)。市面上大部分关于排序学习的文章,要么偏算法、要么偏工程。虽然算法方面有一些系统性0 码力 | 229 页 | 61.61 MB | 1 年前3
阿里云容器服务大促备战容器集群 集群 伦敦 Serverless集群 自动安全扫描 镜像签名 全球自动分发 智能构建 上海 边缘集群 ECS ECI 应用定义 ACR 镜像服务 镜像快照两个数字背后的故事 19分23秒 36%观测与预测全链路监控+高性能如何应对 … 流量增长 3倍嗯,还有用户体验 https://marketersmedia.com/global-user-experience-market- opportunities-to-2025-industry-analysis-key-players-regional- outlook-and-forecast-study/492024云边端一体化协同双十一直播的背后 50% 5倍在线与离线 异构计算能力 ECS, EBM, GPU, FPGA, ECI 高性能网络 VPC, ENI, RDMA, SLB, DNS Public Cloud Edge0 码力 | 17 页 | 17.74 MB | 6 月前3
Apache RocketMQ 介绍。 其他消息中间件 RabbitMQ是AMQP规范的参考实现,AMQP是一个线路层协议,面面俱到,很系统,也稍显复杂。 前RabbitMQ已经成为OpenStack Iaas平台首选的消息服务,其背后的支持力度不言而喻。 ActiveMQ最初主要的开发者在LogicBlaze,现在主要开发红帽,是JMS规范的参考实现,也是Apach 旗下的老牌消息服务引擎。JMS虽说是一个API级别的协议,但其内部还是定义了一些实现约束,不 包括 HornetMQ演变而来的Artemis,基于Scala号称下一代AMQ的Apollo等。 而Kafka最初被设计用来做日志处理,是一个不折不扣的大数据通道,追求高吞吐,存在丢消息的可 。其背后的研发团队也围绕着Kafka进行了商业包装,目前在一些中小型公司被广泛使用。 下表是一目了然的快速参考,可快速发现RocketMQ及其最受欢迎的替代产品之间的差异。 Messaging Product0 码力 | 5 页 | 375.48 KB | 1 年前3
Service Mesh的思考及在华为云的实践不绑定基础设施 • 服务可视化 • 高性能,轻量 • 尽最大可能插件化各功能模块 • 透明的产品体验:整合容器平台,微服务引擎,API 网关,指标监控,日志审计等云上服务,封装为微服 务平台,让用户感知不到背后的复杂 Website: http://servicecomb.incubator.apache.org/ Gitter: https://gitter.im/ServiceCombUsers/Lobby 微服务健康 • mesher版本 • 路由信息 • Prometheus格式Metric数据 6/30/2018 透明的平台体验 • 部署容器应用时只需勾选以启用Mesher 6/30/2018 背后发生了什么? • 为应用容器设置环境变量http_proxy • 为mesher设置CSE地址(注册中心, 配置中心) • 为mesher对接APM 日志收集 • 为mesher对接APM metrics收集0 码力 | 29 页 | 1.55 MB | 1 年前3
Apache RocketMQ – Trillion Messaging in PracticePresent, and Future. InfoQ 2. Apache RocketMQ背后的设计思路与最佳实践. 云栖社区 3. 专访RocketMQ联合创始人:项目思路、技术细节和未来规划. InfoQ 4. 万亿级数据洪峰下的分布式消息引擎. 电子书节选章节 5. 捐赠Apache背后那些鲜为人知的故事. 中间件博客节选 © 2 0 1 7 A l i b a b a M0 码力 | 48 页 | 2.55 MB | 1 年前3
22-云原生的缘起、云原生底座、PaaS 以及 Service Mesh 等之道-高磊境中应用 云原生对业务的支撑实例(数据来源于阿里云) 4982亿,2020年天猫双11再创消费新纪录。58.3万笔/秒,双11交易峰值再创新高,阿里云又一次扛住全球最大规模流量洪峰。这一切背后支撑的 “技术引擎”又是如何为近十亿全球购物者的狂欢提供着“无感知护航”? 近日,在阿里巴巴双11技术沟通会上,阿里云研究员、阿里云云原生应用平台负责人丁宇表示,今年双11实现了核心系统全面云原生化的重大技术 同环境(不同类型容 器或者虚拟机)打通 了网络基础设施, 在此基础上定制化 了不同的数据面代 理,并进一步通过 K8S的资源抽象能力 可以纳管多云形态 的资源层,形成了 一个基于云原生理 念的大一统服务网 格架构。 背后的逻辑是:降低软件交付的难度,让企业轻松上云和保持业务连续性,在技术上向统一化的PAAS的迈进。 但是,目前无论是多运行时还是ASM想做的事情依然在这个道路上困难重重,想向完全自动化低成本交付的方向去0 码力 | 42 页 | 11.17 MB | 6 月前3
共 241 条
- 1
- 2
- 3
- 4
- 5
- 6
- 25













