积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(22)机器学习(22)

语言

全部英语(13)中文(简体)(9)

格式

全部PDF文档 PDF(22)
 
本次搜索耗时 0.082 秒,为您找到相关结果约 22 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 英语
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 keras tutorial

    Keras. Prerequisites You must satisfy the following requirements:  Any kind of OS (Windows, Linux or Mac)  Python version 3.5 or higher. Python Keras is python based neural network library is always recommended to use a virtual environment while developing Python applications. Linux/Mac OS Linux or mac OS users, go to your project root directory and type the below command to create virtual Activate the environment This step will configure python and pip executables in your shell path. Linux/Mac OS Now we have created a virtual environment named “kerasvenv”. Move to the folder and type
    0 码力 | 98 页 | 1.57 MB | 1 年前
    3
  • pdf文档 动手学深度学习 v2.0

    Miniconda3-py39_4.12.0-MacOSX-x86_64.sh -b 如果我们使用Linux,假设Python版本是3.9(我们的测试版本),将下载名称包含字符串“Linux”的bash脚 本,并执行以下操作: # 文件名可能会更改 sh Miniconda3-py39_4.12.0-Linux-x86_64.sh -b 接下来,初始化终端Shell,以便我们可以直接运行conda。 一只猫、一只公鸡、一只狗、一头驴 学习预测不相互排斥的类别的问题称为多标签分类(multi‐label classification)。举个例子,人们在技术博客 上贴的标签,比如“机器学习”“技术”“小工具”“编程语言”“Linux”“云计算”“AWS”。一篇典型的文章可 能会用5~10个标签,因为这些概念是相互关联的。关于“云计算”的帖子可能会提到“AWS”,而关于“机 器学习”的帖子也可能涉及“编程语言”。 此外, 算能力却很弱。其次,数据集相对较小。事实上,费舍尔1932年的鸢尾花卉数据集是测试算法有效性的流行 工具,而MNIST数据集的60000个手写数字的数据集被认为是巨大的。考虑到数据和计算的稀缺性,核方法 (kernel method)、决策树(decision tree)和图模型(graph models)等强大的统计工具(在经验上)证明 是更为优越的。与神经网络不同的是,这些算法不需要数周的训练,而且有很强的理论依据,可以提供可预
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    PyTorch 中可以通过 Linear 类直接实现,特别地,当激活函数?为空时,全连接层也称为线性层。比如,通过 Linear 类创建输入 4 个节点,输出 3 个节点的网络层,并通过全连接层的 kernel 成员名查 看其权值矩阵?: In [45]: # 定义全连接层的输出节点为 3, 输入节点为 4 fc = nn.Linear(4, 3) fc.weight # 查看权值矩阵 # 创建 32x32 的彩色图片输入,个数为 4 x = torch.randn(4, 3, 32, 32) # 创建卷积神经网络 layer = nn.Conv2d(3, 16, kernel_size=3) out = layer(x) # 前向计算 out.shape # 输出大小 Out[48]: torch.Size([4, 16, 30, 30]) 其中卷积核张量 trainable_variables: print(p.name, p.shape) # 参数名和形状 Out[3]: dense_2/kernel:0 (4, 3) dense_2/bias:0 (3,) dense_3/kernel:0 (3, 3) dense_3/bias:0 (3,) Sequential 容器是最常用的类之一,对于快速搭建多层神经网络非常有用,应尽量多使
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 PyTorch Release Notes

    NVIDIA CUDA 11.4.2 with cuBLAS 11.6.5.2 1.10.0a0+0aef44c TensorRT 8.0.3.4 for x64 Linux TensorRT 8.0.2.2 for Arm SBSA Linux 21.09 NVIDIA CUDA 11.4.2 TensorRT 8.0.3 21.08 NVIDIA CUDA 11.4.1 1.10.0a0+3fd9dcf NVIDIA CUDA 11.4.2 with cuBLAS 11.6.5.2 1.10.0a0+0aef44c TensorRT 8.0.3.4 for x64 Linux TensorRT 8.0.2.2 for Arm SBSA Linux 21.09 NVIDIA CUDA 11.4.2 TensorRT 8.0.3 21.08 NVIDIA CUDA 11.4.1 1.10.0a0+3fd9dcf NVIDIA CUDA 11.4.2 with cuBLAS 11.6.5.2 1.10.0a0+0aef44c TensorRT 8.0.3.4 for x64 Linux TensorRT 8.0.2.2 for Arm SBSA Linux 21.09 NVIDIA CUDA 11.4.2 TensorRT 8.0.3 21.08 NVIDIA CUDA 11.4.1 1.10.0a0+3fd9dcf
    0 码力 | 365 页 | 2.94 MB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None) activation(dot(input, kernel) + bias) 其 中 activation 是按逐个元素计算的激活函数,kernel 是由网络层创建的权值矩阵,以及 bias 是 其创建的偏置向量 (只在 use_bias 为 True 时才有用)。 • 注意: 如果该层的输入的秩大于 2,那么它首先被展平然后再计算与 kernel 的点乘。 例 # 作为 Sequential • use_bias: 布尔值,该层是否使用偏置向量。 • kernel_initializer: kernel 权值矩阵的初始化器 (详见 initializers)。 • bias_initializer: 偏置向量的初始化器 (see initializers). • kernel_regularizer: 运用到 kernel 权值矩阵的正则化函数 (详见 regularizer)。
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 Lecture Notes on Support Vector Machine

    redefine ω by w = � s∈S αsy(s)x(s) where S denotes the set of the indices of the support vectors 4 Kernel based SVM By far, one of our assumption is that the training data can be separated linearly. Nevertheless in the data, as demonstrated in Fig. 4. The basic idea of kernel method is to make linear model work in nonlinear settings by introducing kernel functions. In particular, by mapping the data into a higher-dimensional example again. Consider a 2-dimensional input space (i.e., the original feature space), we define a kernel function K that takes x = (x1, x2) and z = (z1, z2) as inputs K(x, z) = (xT z)2 = (x1z1 + x2z2)2
    0 码力 | 18 页 | 509.37 KB | 1 年前
    3
  • pdf文档 Lecture 6: Support Vector Machine

    where S denotes the indices of the support vectors Feng Li (SDU) SVM December 28, 2021 39 / 82 Kernel Methods Motivation: Linear models (e.g., linear regression, linear SVM etc.) cannot reflect the 2021 46 / 82 Kernels as High Dimensional Feature Mapping Let’s assume we are given a function K (kernel) that takes as inputs x and z K(x, z) = (xTz)2 = (x1z1 + x2z2)2 = x2 1z2 1 + x2 2z2 2 + 2x1x2z1z2 implicitly defines a mapping φ to a higher dim. space φ(x) = {x2 1, √ 2x1x2, x2 2} Simply defining the kernel in a certain way gives a higher dim. mapping φ The mapping does not have to be explicitly computed
    0 码力 | 82 页 | 773.97 KB | 1 年前
    3
  • pdf文档 Lecture 7: K-Means

    December 28, 2021 1 / 46 Outline 1 Clustering 2 K-Means Method 3 K-Means Optimization Problem 4 Kernel K-Means 5 Hierarchical Clustering Feng Li (SDU) K-Means December 28, 2021 2 / 46 Clustering Usually badly if the clusters have non-convex shapes Kernel K-means or Spectral clustering can handle non-convex Feng Li (SDU) K-Means December 28, 2021 26 / 46 Kernel K-Means Basic idea: Replace the Euclidean k(µk, µk) − 2k(xi, µk) where k(·, ·) denotes the kernel function and φ is its (implicit) feature map Feng Li (SDU) K-Means December 28, 2021 27 / 46 Kernel K-Means Note: φ does not have to be computed/stored
    0 码力 | 46 页 | 9.78 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 4 - Efficient Architectures

    Android device. The transformers which leverage the low rank methods and kernel approximations are grouped under Low Rank/Kernel group. Figure 4-19: Taxonomy of efficient transformers, depicting the various over this input using n kernels of dimensions (dk, dk, m) where dk is the spatial dimension of each kernel. The regular convolution operation with a single stride produces an output with dimensions (h, w operation requires h x w x n x dk x dk x m operations. Figure 4-20: Depiction of input, output and kernel shapes for a regular convolution with single stride. 29 Howard, Andrew G., et al. "Mobilenets: Efficient
    0 码力 | 53 页 | 3.92 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 3 - Learning Techniques

    padding='same', activation='relu', kernel_regularizer=reg)( x) x = layers.BatchNormalization()(x) x = layers.Conv1D( 32, (9), padding='same', activation='relu', kernel_regularizer=reg)( x) x = layers padding='same', activation='relu', kernel_regularizer=reg)(x) x = layers.BatchNormalization()(x) x = layers.Conv1D( r(64 * w), (9), padding='same', activation='relu', kernel_regularizer=reg)(x) x = layers padding='same', activation='relu', kernel_regularizer=reg)(x) x = layers.BatchNormalization()(x) x = layers.Conv1D( r(128 * w), (9), padding='same', activation='relu', kernel_regularizer=reg)(x) x = layers
    0 码力 | 56 页 | 18.93 MB | 1 年前
    3
共 22 条
  • 1
  • 2
  • 3
前往
页
相关搜索词
kerastutorial动手深度学习v2PyTorch深度学习ReleaseNotesKeras基于PythonLectureonSupportVectorMachineMeansEfficientDeepLearningBookEDLChapterArchitecturesTechniques
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩