积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(64)机器学习(64)

语言

全部中文(简体)(37)英语(27)

格式

全部PDF文档 PDF(64)
 
本次搜索耗时 0.071 秒,为您找到相关结果约 64 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 Keras: 基于 Python 的深度学习库

    plot_model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 20.9 multi_gpu_model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 21 贡献 242 数据。 Keras 有一个内置的实用函数 keras.utils.multi_gpu_model,它可以生成任何模型的数据并 行版本,在多达 8 个 GPU 上实现准线性加速。 有关更多信息,请参阅 multi_gpu_model 的文档。这里是一个简单的例子: from keras.utils import multi_gpu_model # 将 `model` 复制到 8 个 GPU GPU 上。 # 假定你的机器有 8 个可用的 GPU。 parallel_model = multi_gpu_model(model, gpus=8) parallel_model.compile(loss='categorical_crossentropy', optimizer='rmsprop') # 这个 `fit` 调用将分布在 8 个 GPU 上。 # 由于 batch size
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 动手学深度学习 v2.0

    学习模型参数的最佳值。该数据集由一些为训练而收集的样本组成,称为训练数据集(training dataset,或 称为训练集(training set))。然而,在训练数据上表现良好的模型,并不一定在“新数据集”上有同样的性 能,这里的“新数据集”通常称为测试数据集(test dataset,或称为测试集(test set))。 综上所述,可用数据集通常可以分成两部分:训练数据集用于拟合模型参数,测试数据集用于评估拟合的模 型 将其视为二项分类问题可能没有多大意义。取而代之,我们可能想让模型描绘输入图像的内容,一只猫、一 只公鸡、一只狗,还有一头驴。 图1.3.3: 一只猫、一只公鸡、一只狗、一头驴 学习预测不相互排斥的类别的问题称为多标签分类(multi‐label classification)。举个例子,人们在技术博客 上贴的标签,比如“机器学习”“技术”“小工具”“编程语言”“Linux”“云计算”“AWS”。一篇典型的文章可 能会用5 process)。当状态不 依赖于之前的操作时,我们称该问题为上下文赌博机(contextual bandit problem)。当没有状态,只有一组 最初未知回报的可用动作时,这个问题就是经典的多臂赌博机(multi‐armed bandit problem)。 1.3. 各种机器学习问题 31 1.4 起源 为了解决各种各样的机器学习问题,深度学习提供了强大的工具。虽然许多深度学习方法都是最近才有重大
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    预览版202112 第 3 章 分类问题 2 集共 70000 张图片。其中 60000 张图片作为训练集?train(Training Set),用来训练模型,剩 下 10000 张图片作为测试集?test(Test Set),用来预测或者测试,训练集和测试集共同组成 了整个 MNIST 数据集。 考虑到手写数字图片包含的信息比较简单,每张图片均被缩放到28 × 28的大小,同时 stddev2)分布的张量。例如,创建均值为 1,标准差为 0.5 的正态分布: In [34]: a = torch.empty(2,3) # 创建 2 行 3 列的未初始化张量 a.normal_(mean=1,std=0.5) # 采用均值为 1,标注差为 0.5 的正态分布初始化 Out[34]: tensor([[1.6049, 1.1765, 0.6371], [1.2312, PyTorch 进阶 28 torchvision 库提供了常用的经典数据集的自动下载、管理、加载与转换功能,配合 PyTorch 的 DataLoader 类,可以方便实现多线程(Multi-threading)、数据变换 (Transformation)、随机打散(Shuffle)和批训练(Training on Batch)等常用数据处理逻辑。 对于常用的经典图片数据集,例如:
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 3 - Learning Techniques

    achieves a higher accuracy with the same number of labeled training examples. Data Augmentation is a set of techniques which leverage the original training data to generate more training examples without workflows. We start with data augmentation in the next section. Data Augmentation Data Augmentation is a set of dataset manipulation techniques to improve sample and label efficiencies of deep learning models cast(image, tf.uint8) return image, label train_ds = train_ds.map(dsitem_to_tuple).map(resize_image).cache() val_ds = val_ds.map(dsitem_to_tuple).map(resize_image).cache() print(train_ds.as_numpy_iterator()
    0 码力 | 56 页 | 18.93 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 7 - Automation

    A Search Space for n parameters is a n-dimensional region such that a point in such a region is a set of well-defined values for each of those parameters. The parameters can take discrete or continuous hyperparameters to differentiate them from model parameters. The performance of deep learning relies on a set of good hyperparameters. Some of the commonly tuned hyperparameters are the learning rate and the momentum model. HPO performs trials with different sets of hyperparameters using the model as a blackbox. The set which performs the best is chosen for full training. In the next section, we'll discuss various approaches
    0 码力 | 33 页 | 2.48 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 2 - Compression Techniques

    Keeping all that in mind, it is easy to see that floating-point xmin should map to 0, and xmax should map to 2b-1. How do we map the rest of the floating point values in between xmin and xmax to integer continuous values are also clamped to be in the range [xmin, xmax]. Solution: Note that we have to map all the values from [xmin, xmax] to 2b possible values (let’s call them bins). Figure 2-5 shows a visual is referred to as scale). Hence, [xmin, xmin + s) will map to the bin 0, [xmin + s, xmin + 2s) will map to bin 1, [xmin + 2s, xmin + 3s) will map to bin 2, and so on. Thus, to find which bin the given
    0 码力 | 33 页 | 1.96 MB | 1 年前
    3
  • pdf文档 Experiment 1: Linear Regression

    parameter which we need to optimize and x is the (n + 1)- dimensional feature vector 1. Given a training set {x(i)}i=1,··· ,m, our goal is to find the optimal value of θ such that the objective function J(θ) In Matlab/Octave, you can load the training set using the commands x = load ( ’ ex1x . dat ’ ) ; y = load ( ’ ex1y . dat ’ ) ; This will be our training set for a supervised learning problem with n = 1, so x ∈ R2 ). If you’re using Mat- lab/Octave, run the following commands to plot your training set (and label the axes): figure % open a new f i g u r e window plot (x , y , ’ o ’ ) ; ylabel ( ’
    0 码力 | 7 页 | 428.11 KB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-05深度学习-深度学习实践

    本章目录 3 训练集(Training Set):帮助我们训练模型,简单的说就是通过 训练集的数据让我们确定拟合曲线的参数。 验证集(Validation Set):也叫做开发集( Dev Set ),用来做 模型选择(model selection),即做模型的最终优化及确定的, 用来辅助我们的模型的构建,即训练超参数,可选; 测试集(Test Set): 为了测试已经训练好的模型的精确度。 随机旋转 transforms.ToTensor(), # 转换为Tensor类型 transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) # 标准化 ]) # 加载图像数据 img = Image.open('image.jpg').convert('RGB') # 对图像进行数据增强
    0 码力 | 19 页 | 1.09 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 6 - Advanced Learning Techniques - Technical Review

    model in this fine-tuning stage is not being used for learning rudimentary features, but rather how to map the high-level representations it learned in the pretraining stage to solving our new task. Thus, the model will work on. train_ds = batched_train.map( lambda x: (preprocessor(x['description']), tf.expand_dims(x['label'], axis=-1))) test_ds = batched_test.map( lambda x: (preprocessor(x['description']) get_weights() weights = [np.random.permutation(w.flat).reshape(w.shape) for w in weights] model.set_weights(weights) Next up, we will define our model that uses the pre-trained BERT as an encoder. Notice
    0 码力 | 31 页 | 4.03 MB | 1 年前
    3
  • pdf文档 深度学习与PyTorch入门实战 - 07. 创建Tensor

    2]) ▪ Torch.IntTensr(d1, d2, d3) uninitialized set default type rand/rand_like, randint ▪ [0, 1] ▪ [min, max) ▪ *_like randn ▪ N(0, 1) ▪ N(u, std) full arange/range linspace/logspace Ones/zeros/eye
    0 码力 | 16 页 | 1.43 MB | 1 年前
    3
共 64 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
前往
页
相关搜索词
Keras基于Python深度学习动手v2PyTorch深度学习EfficientDeepLearningBookEDLChapterTechniquesAutomationCompressionExperimentLinearRegression机器课程温州大学05实践AdvancedTechnicalReview入门实战07创建Tensor
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩