《Efficient Deep Learning Book》[EDL] Chapter 3 - Learning Techniquesto address the holes. Figure 3-6: Image Transformations. The source image (center) is taken from Google Open Images Dataset V6. It is authored by Mike Baird and is licensed under CC BY 2.0. The image is effects of transformations visually. The above list is not exhaustive, rather we have used it as a guide to help make better transformation choices. A few other commonly used techniques are contrast augmentation sections preserves the candidate’s profile. Below is an example of a paragraph picked from the Telegram Style page on wikipedia. The first paragraph is the original version. The shuffled version follows it. Barring0 码力 | 56 页 | 18.93 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 2 - Compression Techniquesprojects are available in the repository in the form of Jupyter notebooks. You can run the notebooks in Google’s Colab environment which provides free access to CPU, GPU, and TPU resources. You can also run this Naturally, it is possible to use other languages (like Java for Android or C++ for iOS and other platforms) for inference. The authoritative guide for TFLite inference is available on the tensorflow website As mentioned earlier, the tflite evaluation is a boiler-plate code. You can refer to the TFLite guide for more details. We start the model conversion by creating a converter object using the from_keras_model()0 码力 | 33 页 | 1.96 MB | 1 年前3
PyTorch Release NotesInstall Docker. ‣ For NVIDIA DGX™ users, see Preparing to use NVIDIA Containers Getting Started Guide. ‣ For non-DGX users, see NVIDIA ® GPU Cloud ™ (NGC) container registry installation documentation that you have access and can log in to the NGC container registry. Refer to NGC Getting Started Guide for more information. The deep learning frameworks, the NGC Docker containers, and the deep learning examples can be found here. For more information about AMP, see the Training With Mixed Precision Guide. Tensor Core Examples The tensor core examples provided in GitHub and NGC focus on achieving the0 码力 | 365 页 | 2.94 MB | 1 年前3
Keras: 基于 Python 的深度学习库默认情况下,Keras 将使用 TensorFlow 作为其张量操作库。请跟随这些指引来配置其他 Keras 后端。 1.6 技术支持 你可以提出问题并参与开发讨论: • Keras Google group。 • Keras Slack channel。使用 这个链接 向该频道请求邀请函。 你也可以在 Github issues 中张贴漏洞报告和新功能请求(仅限于此)。注意请先阅读规范 Android runtime,例如:Not Hotdog app。 • 在浏览器上,通过 GPU 加速的 JavaScript 运行时,例如:Keras.js 和 WebDNN。 • 在 Google Cloud 上,通过 TensorFlow-Serving。 • 在 Python 网页应用后端(比如 Flask app)中。 • 在 JVM,通过 SkyMind 提供的 DL4J 模型导入。 亚马逊也正在为 Keras 开发 MXNet 后端。 如此一来,你的 Keras 模型可以在 CPU 之外的不同硬件平台上训练: • NVIDIA GPU。 • Google TPU,通过 TensorFlow 后端和 Google Cloud。 • OpenGL 支持的 GPU, 比如 AMD, 通过 PlaidML Keras 后端。 2.5 Keras 拥有强大的多 GPU 和分布式训练支持0 码力 | 257 页 | 1.19 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 6 - Advanced Learning Techniques - Technical Review2/4 7 GPU pricing source: https://cloud.google.com/compute/gpus-pricing. Numbers reported from October 2022. 6 Cloud TPU pricing source: https://cloud.google.com/tpu/pricing. Numbers reported from October well as time-consuming. However, as initial pointers you can refer to this guide for pre-training BERT in Keras, and this guide for some optimizations to make it efficient. Also consider going through the training using Google’s TPUs this time.TPUs make it faster and cheaper to train large models, and are also available for free in Kaggle and Google Colab (apart from the paid service on Google Cloud). We will0 码力 | 31 页 | 4.03 MB | 1 年前3
动手学深度学习 v2.0https://github.com/pytorch/pytorch 33 https://github.com/apache/incubator‐mxnet 34 https://github.com/google/jax 1.6. 深度学习的成功案例 35 是人工智能正在影响我们生活的最明显的迹象。 • 数字助理的一个关键要素是准确识别语音的能力。逐渐地,在某些应用中,此类系统的准确性已经提高 到与人类同等水平的程度 ImageNet数据集发布,并发起ImageNet挑战赛:要求研究人员从100万个样本中训练模型,以区分1000个不同 类别的对象。ImageNet数据集由斯坦福教授李飞飞小组的研究人员开发,利用谷歌图像搜索(Google Image Search)对每一类图像进行预筛选,并利用亚马逊众包(Amazon Mechanical Turk)来标注每张图片的相关 类别。这种规模是前所未有的。这项被称为ImageNe AlexNet和LeNet的架构非常相似,如 图7.1.2所示。注意,本书在这里提供的是一个稍微精简版本的AlexNet, 去除了当年需要两个小型GPU同时运算的设计特点。 89 https://code.google.com/archive/p/cuda‐convnet/ 250 7. 现代卷积神经网络 图7.1.2: 从LeNet(左)到AlexNet(右) AlexNet和LeNet的设计理念非常相似,但也存在显著差异。0 码力 | 797 页 | 29.45 MB | 1 年前3
QCon北京2018-《未来都市--智慧城市与基于深度学习的机器视觉》-陈宇恒DeepMind AlphaGo 围棋AI击 败李世石 Google 6.6亿美元收购深度学 习公司 DeepMind Facebook 建立人工智能实验室 并聘用 Yann LeCun 深度学习鼻祖 Hinton 赢得 ImageNet图像识别竞赛 赢得ImageNet 5项主要比赛中 的3项世界冠军 软银孙正义收购Google旗下的 机器人公司Boston Dynamics 和Schaft 术初创公司Cruise Automation 首次中国公司在ImageNet竞赛 夺冠,视频分析技术登顶 人脸识别大幅提高精度,商汤科 技首次突破人类肉眼识别准确率 ,领先于Facebook Google5000万美元招入 Hinton,发布基于深度学习的 搜索引擎 Microsoft 深度学习驱动的语音 识别大幅提升精度 软银孙正义设立1000亿美元人 工智能基金,320亿美元收购芯 Device plugin 1.9 volume-awared scheduling Go语言在高性能系统中的实践经验 • 为什么用Go - 比起C++,更易于实践各种并发模式 - 比起Java,更加简洁,更易于与C/C++交互 - 比起脚本语言,类型和内存安全,保证重构效率与产品质量 - 完善的配套工具,如go test, gofmt, go lint, race-detector0 码力 | 23 页 | 9.26 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112算法并不像神经网络 这样对数据量和计算能力有严苛的要求,通常在 CPU 上串行训练即可得到满意结果。但是 深度学习非常依赖并行加速计算设备,目前的大部分神经网络均使用 NVIDIA GPU 和 Google TPU 等并行加速芯片训练模型参数。如围棋程序 AlphaGo Zero 在 64 块 GPU 上从 零开始训练了 40 天才得以超越所有的 AlphaGo 历史版本;自动网络结构搜索算法使用了 1.4.2 自然语言处理 机器翻译(Machine Translation) 过去的机器翻译算法大多是基于统计机器翻译模型,这 也是 2016 年前 Google 翻译系统采用的技术。2016 年 11 月,Google 基于 Seq2Seq 模型上 线了神经机器翻译系统(GNMT),首次实现了从源语言到目标语言的直译技术,在多项任 务上获得了 50~90%的效果提升。常用的机器翻译模型有 杂地形行走、多智能体协作等任务上表现良好(图 1.19)。 自动驾驶(Autonomous Driving) 被认为是强化学习短期内能技术落地的一个应用方 向,很多公司投入大量资源在自动驾驶上,如百度、Uber、Google 等,其中百度的无人巴 士“阿波龙”已经在北京、雄安、武汉等地展开试运营;在长沙,市民已经可以免费乘坐 Apollo Robotaxi 无人出租车。图 1.20 为百度的自动驾驶汽车。0 码力 | 439 页 | 29.91 MB | 1 年前3
《TensorFlow 快速入门与实战》7-实战TensorFlow人脸识别to Human-Level Performance in Face Verification. 2014,computer vision and pattern recognition. Google FaceNet ��8������ ������� ��cWF��������G���2�1����������� ������� ����� Nx�paf��so���g��e�i�8g��e�t8���I�x�i�c� – �AI���� OpenCV ���������Open Source Computer Vision Library, OpenCV���BSD����� ���C ++�Python�Java�����Windows�Linux�Mac OS�iOS�Android� OpenCV�������������������� ������C / C ++����� OpenCL ����������������0 码力 | 81 页 | 12.64 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 5 - Advanced Compression Techniquesfine-tune the network. The outcome of this algorithm is a network where weights have been pruned. This style of pruning is called iterative pruning because we prune the model iteratively for rounds. The fine-tuning ConvNets. arXiv, 1911.09723. Retrieved from https://arxiv.org/abs/1911.09723v1 3 https://github.com/google/XNNPACK Project: Lightweight model for pet filters application Recall that our regular CNN model help train and evaluate keyword spotting systems used in common home automation devices like the Google Home, Amazon Alexa, etc. For each possible input in the dataset, it can be classified into one of0 码力 | 34 页 | 3.18 MB | 1 年前3
共 41 条
- 1
- 2
- 3
- 4
- 5













