Keras: 基于 Python 的深度学习库. 35 3.3.18 如何在 Keras 中使用 HDF5 输入? . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.19 Keras 配置文件保存在哪里? . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3.20 如何在 Keras 开发过程中获取可复现的结果? . 2 从一个后端切换到另一个后端 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 14.3 keras.json 详细配置 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 14.4 使用抽象 Keras 后端编写新代码 Keras 遵循减少认知困难的最佳实践:它提供一致且简单的 API,将常见用例所需的用户 操作数量降至最低,并且在用户错误时提供清晰和可操作的反馈。 • 模块化。模型被理解为由独立的、完全可配置的模块构成的序列或图。这些模块可以以尽 可能少的限制组装在一起。特别是神经网络层、损失函数、优化器、初始化方法、激活函 数、正则化方法,它们都是可以结合起来构建新模型的模块。 • 易扩展性。新0 码力 | 257 页 | 1.19 MB | 1 年前3
AI大模型千问 qwen 中文文档SkyPilot 运行 Qwen1.5-72B-Chat 1. 您可以使用 serve-72b.yaml 中的可用的 GPU 来在单个实例上部署 Qwen1.5-72B-Chat 的基于 vLLM 的适 配 OpenAI API 的服务 sky launch -c qwen serve-72b.yaml 2. 向该 endpoint 发送续写请求: IP=$(sky status --ip qwen) SkyPilot Serve 扩展服务规模 1. 使用 SkyPilot Serve 扩展 Qwen 的服务规模非常容易,只需运行: sky serve up -n qwen ./serve-72b.yaml 这将启动服务,使用多个副本部署在最经济的可用位置和加速器上。SkyServe 将自动管理这些副本,监控其 健康状况,根据负载进行自动伸缩,并在必要时重启它们。 将返回一个 endpoint,所有发送至该 Qwen1.5 可以通过 FastChat 来使用 GUI 调用 Qwen1.5 的服务: 1. 开启一个 Chat Web UI sky launch -c qwen-gui ./gui.yaml --env ENDPOINT=$(sky serve status --endpoint qwen) 2. 随后,我们可以通过返回的 gradio 链接来访问 GUI : | INFO | stdout0 码力 | 56 页 | 835.78 KB | 1 年前3
PyTorch OpenVINO 开发实战系列教程第一篇����������������������������������������������������������������������������� 5 1.4.1 PyCharm 的安装与配置 �������������������������������������������������������������������������������������������������� 其中第一行表示导入 pytorch 的包支持,第二行表示版本查询, 第三行是执行结果(GPU 版本)。 现在很多开发者喜欢使用 Ubuntu 开发系统,在 Ubuntu 系统 下如下正确安装与配置 Pytorch,第一步同样是安装 python 语言依赖包 Python3.6,主要是执行一系列的安装命令行,具 体步骤如下: 1. 导入第三方软件仓库 sudo add-apt-repository pytorch 安装校验 测试。这样我们就完成了 Pytorch 的环境搭建,这里有个很特 别的地方需要注意,就是 Pytorch 的 GPU 版本需要 CUDA 驱 动支持与 CUDA 库的安装配置支持。关于这块的安装强烈建 议参照英伟达官方网站的安装指导与开发者手册。 1.3 Pytorch 基础术语与概念 很多人开始学习深度学习框架面临的第一个问题就是专业术语 理解跟基本的编程概念与传统面向对象编程不一样,这个是初0 码力 | 13 页 | 5.99 MB | 1 年前3
TensorFlow on Yarn:深度学习遇上大数据作业进程的资源隔离� Yarn能解决什么问题:� TensorFlow on Yarn设计 • 同时支持单机和分布式TensorFlow程序� • 支持GPU资源管理和调度� • 不再需要⼿动配置CluserSpec信息,仅需要设置work 和ps的数量� • 训练数据和训练模型基于HDFS统⼀存储� • 作业训练结束自动回收work、ps和Tensorboard进程� • 训练效果和性能没有损失� Yarn系统架构图:� TensorFlow on Yarn技术细节揭秘 Yarn支持CPU调度 vs GPU调度:� CPU GPU 每个NodeManager配置可用CPU核心 数量 每个NodeManager配置可用GPU卡数 量 ResourceManager统计计数并按数量 分配 ResourceManager统计计数并按数量 分配 作业必须占用CPU资源 作业可以不需要GPU资源 org/jira/browse/YARN-5517� TensorFlow on Yarn技术细节揭秘 Yarn支持GPU调度NodeManager端实现:� NodeManager yarn-site.xml中添加配置:� � �� yarn.nodemanager.resource.gpu-cores ((2 0 码力 | 32 页 | 4.06 MB | 1 年前3
微博在线机器学习和深度学习实践-黄波+WeiPS 样本生成和特征处理 1.配置化 2.多标签样本 3.支持高维HASH 训练预处理 1.标签选择 2.标签UDF 3.样本过滤 4.特征过滤 模型训练 1.支持回归和分类 2.支持LR、FM、 DeepFM等模型 3.支持SGD 、 FTRL 、 Adagrad等优化算法 模型评估 1.独立模型评估 2.配置化 3.UI展示 3 在线机器学习-实时模型训练 VGG Yolo inception resnet GRU LSTM Wide&Deep DeepFM Deep Cross Network Spark 超参数 资源 算法 BERT 配置 Tensorflow 4 深度学习-深度学习模型训练 • 通信优化 • PS:BSP/SSP/ASP多种通信模式支持 • MPI&RingAllreduce:Horovod,使用 MPI0 码力 | 36 页 | 16.69 MB | 1 年前3
谭国富:深度学习在图像审核的应用节点心跳异常告警 • 运维工具化,快速屏蔽/启动异常机器 • 灵活的资源分配 • 支持以 GPU 或节点为粒度进行资源分配 • 用户配置任务所需最小资源 • 自动扩缩容,最大化资源使用率 • 支持不同计算框架 • 调度与任务松耦合,用户可以灵活定义任务 • 支持配置 docker 镜像,完全自定义运行环 境 • 良好的用户体验 • 完善的客户端工具 • 任务进度微信提醒 SACC2017 腾讯优图-腾讯云天御 内容审核解决方案 SACC2017 针对直播 – 视频鉴黄解决方案 • 在部署了DeepEye视频直播鉴黄解决方案后,系 统对直播房间的视频流按指定的时间间隔(用户 可配置)进行截图,通过鉴黄引擎给该图片进行 鉴别,并将可疑图片和对应的房间信息回调给开 发者,开发者可以根据返回的结果信息优先给审 核人员进行审核,进行封停等进一步处理。经过 审核没有问题的内容再呈现倒观看者的屏幕。0 码力 | 32 页 | 5.17 MB | 1 年前3
阿里云上深度学习建模实践-程孟力智能推荐解决方案 > PAI-REC 推荐引擎 PAI-REC 推荐引擎 多路召回 曝光/状态过滤 粗排/精排 策略[类目打散、流量控制、…] 实时采集后端日志 PAI-REC 配置中心 AB实验 实验工具 拉取配置 监控报警 Prometheus Grafana 读取metric 消息队列(datahub/kafka) PAI-REC平台 自动化降级 负载均衡 灰度发布0 码力 | 40 页 | 8.51 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112命令行,输入“nvcc - V”,即可打印当前 CUDA 的版本信息,如图 1.29 所示,如果命令无法识别,则说明安装 失败。同时也可以从系统环境变量 Path 中找到 CUDA 10.1 的路径配置,如图 1.28 所示。 图 1.27 CUDA 安装界面-3 图 1.28 CUDA 安装结果测试-1 图 1.29 CUDA 安装结果测试-2 1.6.3 PyTorch pillow pandas - i https://pypi.tuna.tsinghua.edu.cn/simple 国内使用 pip 命令安装时,可能会出现下载速度缓慢甚至连接断开的情况,需要配置 国内的 pip 源,只需要在 pip install 命令后面带上“-i 源地址”参数即可。上述命令即使用 了清华大学的 pip 源。 1.6.4 常用编辑器安装 使用 Python Text、PyCharm 和 VS Code 等综合 IDE 开发中大型 项目。本书推荐使用 PyCharm 编写和调试,使用 VS Code 交互式开发,这两者都可以免费 使用,用户自行下载安装,并配置好 Python 解释器即可。限于篇幅,这里不再赘述。 预览版202112 第 1 章 人工智能绪论 22 1.7 源代码下载 本书配套的源代码和课件等学习资料可以通过0 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.0到问 题的答案。 Discussions7 6 https://discuss.d2l.ai/ 7 https://discuss.d2l.ai/t/2086 8 目录 安装 我们需要配置一个环境来运行 Python、Jupyter Notebook、相关库以及运行本书所需的代码,以快速入门并 获得动手学习经验。 安装 Miniconda 最简单的方法就是安装依赖Python 3 set_yscale(yscale) axes.set_xlim(xlim) axes.set_ylim(ylim) if legend: axes.legend(legend) axes.grid() 通过这三个用于图形配置的函数,定义一个plot函数来简洁地绘制多条曲线,因为我们需要在整个书中可视 化许多曲线。 #@save def plot(X, Y=None, xlabel=None, ylabel=None Linear(512, 10)) 每个模块有4个卷积层(不包括恒等映射的1 × 1卷积层)。加上第一个7 × 7卷积层和最后一个全连接层,共 有18层。因此,这种模型通常被称为ResNet‐18。通过配置不同的通道数和模块里的残差块数可以得到不同 的ResNet模型,例如更深的含152层的ResNet‐152。虽然ResNet的主体架构跟GoogLeNet类似,但ResNet架 构更简单,修改也0 码力 | 797 页 | 29.45 MB | 1 年前3
keras tutorialmodel_from_json new_model = model_from_json(json_string) to_yaml(): Returns the model as a yaml string. >>> yaml_string = model.to_yaml() >>> yaml_string 'backend: tensorflow\nclass_name: Sequential\nconfig:\n model_from_yaml(): Accepts yaml representation of the model and create a new model. Keras 58 from keras.models import model_from_yaml new_model = model_from_yaml(yaml_string)0 码力 | 98 页 | 1.57 MB | 1 年前3
共 17 条
- 1
- 2













