PyTorch Release NotescuBLAS 12.1.3.1 ‣ NVIDIA cuDNN 8.9.3 ‣ NVIDIA NCCL 2.18.3 ‣ NVIDIA RAPIDS™ 23.06 ‣ Apex ‣ rdma-core 39.0 ‣ NVIDIA HPC-X 2.15 ‣ OpenMPI 4.1.4+ ‣ GDRCopy 2.3 ‣ TensorBoard 2.9.0 ‣ Nsight Compute highly optimized modules for popular Transformer architectures and an automatic mixed precision-like API that can be used seamlessly with your PyTorch code. ‣ A preview of Torch-TensorRT (1.4.0dev0) is now For more information about AMP, see the Training With Mixed Precision Guide. Tensor Core Examples The tensor core examples provided in GitHub and NGC focus on achieving the best performance and convergence0 码力 | 365 页 | 2.94 MB | 1 年前3
keras tutorial............................................................................................ 18 Core Modules ......................................................................................... ..................................................... 55 Keras v Functional API .................................................................................................. intelligence(AI), audio & video recognition and image recognition. Artificial neural network is the core of deep learning methodologies. Deep learning is supported by various libraries such as Theano, TensorFlow0 码力 | 98 页 | 1.57 MB | 1 年前3
AI大模型千问 qwen 中文文档下,我们将展示如何使用 vLLM 构建一个与 OpenAI API 兼容的 API 服务。 首先,确保你已经安装 vLLM>=0.3.0 : pip install vllm 运行以下代码以构建 vllm 服务。此处我们以 Qwen1.5-7B-Chat 为例: python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat OpenAI's API key and API base to use vLLM's API server. openai_api_key = "EMPTY" openai_api_base = "http://localhost:8000/v1" client = OpenAI( (续下页) 1.2. 快速开始 5 Qwen (接上页) api_key=openai_api_key, b base_url=openai_api_base, ) chat_response = client.chat.completions.create( model="Qwen/Qwen1.5-7B-Chat", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content":0 码力 | 56 页 | 835.78 KB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 1 - Introductionestablish our motivation behind seeking efficiency in deep learning models. We will also introduce core areas of efficiency techniques (compression techniques, learning techniques, automation, efficient production. BERT is used in Google Search to improve relevance of results, and GPT-3 is available as an API for interested users to consume. Having demonstrated the rapid growth of deep learning models, let tradeoff. To that end, we can think of work on efficient deep learning to be categorized in roughly four core areas, with infrastructure and hardware forming the foundation (see Figure 1-7). 7 Lossy compression0 码力 | 21 页 | 3.17 MB | 1 年前3
亚马逊AWSAI Services Overview对话引擎 Rekognition 图像分析 深度学习框架 MXNet, TensorFlow, Theano, Caffe, Torch 为客户模型定制的 深度学习框架 人工智能 的托管的 API服务 Amazon AI: 新的深度学习服务 Polly Lex Rekognition 深度学习框架 MXNet, TensorFlow, Theano, Caffe, Torch 控制力 • 简单 • 混合了声明式(declarative)和命令式()代码的特点 为什么选择 MXNet ? MXNet: 可扩展的深度学习框架 MXNet 框架的特点 命令式 NDArray API 声明式 Symbolic Executor MXNet: 博采众家之长 3D Image Construction https://github.com/piiswrong/deep3d frame/sec with 640x480 resolution 处处可部署 Beyond BlindTool by Joseph Paul Cohen, demo on Nexus 4 Fit the core library with all dependencies into a single C++ source file Easy to compile on0 码力 | 56 页 | 4.97 MB | 1 年前3
动手学深度学习 v2.03 提交主要更改 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 764 16.6 d2l API 文档 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 767 16.6 些情况下,我们通常会提供两个版本的示例:一个是我们从零开始实现一切,仅依赖张量操作和自动微分; 另一个是更实际的示例,我们使用深度学习框架的高级API编写简洁的代码。一旦我们教了您一些组件是如 何工作的,我们就可以在随后的教程中使用高级API了。 内容和结构 全书大致可分为三个部分,在 图1 中用不同的颜色呈现: 目录 3 图1: 全书结构 • 第一部分包括基础知识和预备知识。1节 MF (Intel 80186) 1990 10 K (光学字符识别) 10 MB 10 MF (Intel 80486) 2000 10 M (网页) 100 MB 1 GF (Intel Core) 2010 10 G (广告) 1 GB 1 TF (Nvidia C2050) 2020 1 T (社交网络) 100 GB 1 PF (Nvidia DGX‐2) 很明显,随机存取存储0 码力 | 797 页 | 29.45 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版2021122017 年开始, Keras 的大部分组件被整合到 TensorFlow 框架中。2019 年,在 TensorFlow 2 版本中,Keras 被正式确定为 TensorFlow 的高层唯一接口 API,取代了 TensorFlow 1 版本中自带的 tf.layers 等高层接口。也就是说,现在只能使用 Keras 的接口来完成 TensorFlow 层方式的 模型搭建与训练。在 TensorFlow TensorFlow 中,Keras 被实现在 tf.keras 子模块中。 Keras 与 tf.keras 有什么区别与联系呢?其实 Keras 可以理解为一套搭建与训练神经网 络的高层 API 协议,Keras 本身已经实现了此协议,安装标准的 Keras 库就可以方便地调用 TensorFlow、CNTK 等后端完成加速计算;在 TensorFlow 中,也实现了一套 Keras 协议, 即 tf 息,不需要提前 创建模型即可直接从文件中恢复出网络 network 对象。 8.3.3 SavedModel 方式 TensorFlow 之所以能够被业界青睐,除了优秀的神经网络层 API 支持之外,还得益于 它强大的生态系统,包括移动端和网页端等的支持。当需要将模型部署到其他平台时,采 用 TensorFlow 提出的 SavedModel 方式更具有平台无关性。 通过 tf0 码力 | 439 页 | 29.91 MB | 1 年前3
Keras: 基于 Python 的深度学习库LSTM 模型 . . . . . . . . . . . . 15 3.2 函数式 API 指引 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2.1 开始使用 Keras 函数式 API . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.2 Sequential 顺序模型 API . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4.2.1 Sequential 顺序模型 API . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.3 函数式 API . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.3.1 Model 类 API . . . . . . . . . . . . . . . . . . . . . . .0 码力 | 257 页 | 1.19 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 3 - Learning Techniquescreate_model(): # Initialize the core model core_args = dict(input_shape=(IMG_SIZE, IMG_SIZE, 3), include_top=False) core = apps.resnet50.ResNet50(**core_args) core.trainable = False # Create the full full model with input, preprocessing, core and softmax layers. model = tf.keras.Sequential([ layers.Input([IMG_SIZE, IMG_SIZE, 3], dtype = tf.uint8), layers.Lambda(lambda x: tf.cast(x, tf.float32)) float32)), layers.Lambda(lambda x: apps.resnet.preprocess_input(x)), core, layers.Flatten(), layers.Dropout(DROPOUT_RATE), layers.Dense(NUM_CLASSES, activation='softmax') ]) adam = optimizers.Adam(learn0 码力 | 56 页 | 18.93 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 7 - Automationdropout_rate=DROPOUT_RATE): # Initalize the core model core_args = dict(input_shape=(IMG_SIZE, IMG_SIZE, 3), include_top=False) core = apps.resnet50.ResNet50(**core_args) core.trainable = False # Setup the top Lambda(lambda x: tf.cast(x, tf.float32)), layers.Lambda(lambda x: apps.resnet.preprocess_input(x)), core, layers.Flatten(), layers.Dropout(dropout_rate), layers.Dense(NUM_CLASSES, activation='softmax')0 码力 | 33 页 | 2.48 MB | 1 年前3
共 33 条
- 1
- 2
- 3
- 4













