积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(25)机器学习(25)

语言

全部英语(13)中文(简体)(12)

格式

全部PDF文档 PDF(25)
 
本次搜索耗时 0.071 秒,为您找到相关结果约 25 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 英语
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 keras tutorial

    reloaded at any time. Keras 41 config = layer_1.get_config() from_config Load the layer from the configuration object of the layer. config = layer_1.get_config() reload_layer Serialize the model Keras provides methods to serialize the model into object as well as json and load it again later. They are as follows:  get_config(): Returns the model as an object. config 10,000 test images. Below code can be used to load the dataset: from keras.datasets import mnist (x_train, y_train), (x_test, y_test) = mnist.load_data() where  Line 1 imports minst from the
    0 码力 | 98 页 | 1.57 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 3 - Learning Techniques

    samples are provided to bridge the theory and practice gap. We have prepared a few helper functions: load_image(), show_image(), transform() and transform_and_show(), which will be used to transform the images preprocessing.image import ImageDataGenerator from urllib.request import urlopen IMG_SIZE = 224 def load_image(url): with urlopen(url) as request: img_array = np.asarray(bytearray(request.read()), dtype=np transform_opts) def transform_and_show(image_path, **transform_opts): # Load the image data # The data is formatted as (H, W, C) image = load_image(image_path) # Transformed Image transformed_image = transform(image
    0 码力 | 56 页 | 18.93 MB | 1 年前
    3
  • pdf文档 AI大模型千问 qwen 中文文档

    的实例: from transformers import AutoModelForCausalLM, AutoTokenizer device = "cuda" # the device to load the model onto # Now you do not need to add "trust_remote_code=True" model = AutoModelForCausalLM 进行对话的示例: from transformers import AutoModelForCausalLM, AutoTokenizer device = "cuda" # the device to load the model onto # Now you do not need to add "trust_remote_code=True" model = AutoModelForCausalLM 5-7B-Chat-AWQ : from transformers import AutoModelForCausalLM, AutoTokenizer device = "cuda" # the device to load the model onto model = AutoModelForCausalLM.from_pretrained( "Qwen/Qwen1.5-7B-Chat-AWQ", # the quantized
    0 码力 | 56 页 | 835.78 KB | 1 年前
    3
  • pdf文档 Machine Learning Pytorch Tutorial

    & Dataloader ● Tensors ● torch.nn: Models, Loss Functions ● torch.optim: Optimization ● Save/load models Prerequisites ● We assume you are already familiar with… 1. Python3 ■ if-else, loop, function can be found here. Training & Testing Neural Networks - in Pytorch Validation Testing Training Load Data Step 1. torch.utils.data.Dataset & torch.utils.data.DataLoader Dataset & Dataloader Training: Network Loss Function Optimization Algorithm Training Validation Testing Step 2. torch.nn.Module Load Data torch.nn – Network Layers ● Linear Layer (Fully-connected Layer) nn.Linear(in_features, out_features)
    0 码力 | 48 页 | 584.86 KB | 1 年前
    3
  • pdf文档 全连接神经网络实战. pytorch 版

    息,我们可以用下面的代码来保存和恢复模型: # 保 存 模 型 torch . save ( model . state_dict () , path ) # 恢 复 模 型 model . load_state_dict ( torch . load ( path ) ) 其中,path 是保存模型的路径。有时候我们希望能同时保存模型的一些其他信息,比如 epoch 和优化器的类型,这时我们可以生成一个状态字典: . save ( state , path ) # 恢 复 模 型 checkpoint = torch . load ( path ) model . load_state_dict ( checkpoint [ ’ model ’ ] ) optimizer . load_state_dict ( checkpoint [ ’ optimizer ’ ] ) epoch = checkpoint (9) +’ . pth ’ checkpoint = torch . load ( path ) model2 = NeuralNetwork () . to ( device ) model2 . load_state_dict ( checkpoint [ ’ model ’ ] ) optimizer . load_state_dict ( checkpoint [ ’ optimizer
    0 码力 | 29 页 | 1.40 MB | 1 年前
    3
  • pdf文档 动手学深度学习 v2.0

    我们将features和labels作为API的参数传递,并通过数据迭代 器指定batch_size。此外,布尔值is_train表示是否希望数据迭代器对象在每个迭代周期内打乱数据。 def load_array(data_arrays, batch_size, is_train=True): #@save """构造一个PyTorch数据迭代器""" dataset = data.Ten ays) return data.DataLoader(dataset, batch_size, shuffle=is_train) batch_size = 10 data_iter = load_array((features, labels), batch_size) 使用data_iter的方式与我们在 3.2节中使用data_iter函数的方式相同。为了验证是否正常工作,让我们读 3.5. 图像分类数据集 113 3.5.3 整合所有组件 现在我们定义load_data_fashion_mnist函数,用于获取和读取Fashion‐MNIST数据集。这个函数返回训练集 和验证集的数据迭代器。此外,这个函数还接受一个可选参数resize,用来将图像大小调整为另一种形状。 def load_data_fashion_mnist(batch_size, resize=None):
    0 码力 | 797 页 | 29.45 MB | 1 年前
    3
  • pdf文档 PyTorch Tutorial

    computation graph) • Various other functions • loss (MSE,CE etc..) • optimizers Prepare Input Data •Load data •Iterate over examples Train Model •Train weights Evaluate Model •Visualise Tensor state_dict • Save: • torch.save(model.state_dict(), PATH) • Load: • model = TheModelClass(*args, **kwargs) • model.load_state_dict(torch.load(PATH)) • model.eval() • CONVENTION IS TO SAVE MODELS USING • Load: • model = TheModelClass(*args, **kwargs) optimizer = TheOptimizerClass(*args, **kwargs) checkpoint = torch.load(PATH) model.load_state_dict(checkpoint['model_state_dict']) optimizer.load_sta
    0 码力 | 38 页 | 4.09 MB | 1 年前
    3
  • pdf文档 Keras: 基于 Python 的深度学习库

    优化器状态,允许准确地从你上次结束的地方继续训练。 你可以使用 keras.models.load_model(filepath) 重新实例化模型。load_model 还将负 责使用保存的训练配置项来编译模型(除非模型从未编译过)。 例子: from keras.models import load_model model.save('my_model.h5') # 创建 HDF5 文件 文件 'my_model.h5' del model # 删除现有模型 # 返回一个编译好的模型 # 与之前那个相同 model = load_model('my_model.h5') 3.3.6.2 只保存/加载模型的结构 如果您只需要保存模型的结构,而非其权重或训练配置项,则可以执行以下操作: # 保存为 JSON json_string = model.to_json() # 保存为 30 假设你有用于实例化模型的代码,则可以将保存的权重加载到具有相同结构的模型中: model.load_weights('my_model_weights.h5') 如果你需要将权重加载到不同的结构(有一些共同层)的模型中,例如微调或迁移学习,则 可以按层的名字来加载权重: model.load_weights('my_model_weights.h5', by_name=True) 例如:
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    embedding_len = 100 # 词向量长度 # 加载 IMDB 数据集 (x_train, y_train), (x_test, y_test) = keras.datasets.imdb.load_data(num_words=total_words) # 将句子填充或截断到相同长度,设置为末尾填充和末尾截断方式 x_train = keras.preprocessing.sequence tensorflow.keras import datasets # 导入经典数据集加载模块 # 加载 MNIST 数据集 (x, y), (x_test, y_test) = datasets.mnist.load_data() print('x:', x.shape, 'y:', y.shape, 'x test:', x_test.shape, 'y test:', y_test) Out [66]: 返回数组的形状 x: (60000, 28, 28) y: (60000,) x test: (10000, 28, 28) y test: [7 2 1 ... 4 5 6] 通过 load_data()函数会返回相应格式的数据,对于图片数据集 MNIST、CIFAR10 等,会返 回 2 个 tuple,第一个 tuple 保存了用于训练的数据 x 和 y 训练集对象;第 2 个 tuple
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 2 - Compression Techniques

    Before we start, the code is available as a Jupyter notebook here. Now let’s take a look at the load_data() function in the following code snippet. It uses the TF’s handily available MNIST dataset. We expand_dims(x, 3) return x def load_data(ds=tf.keras.datasets.mnist): """Returns the processed dataset.""" (train_images, train_labels), (test_images, test_labels) = ds.load_data() # Process the images (test_x, test_y) = load_data() # You can train on the Fashion MNIST dataset, which has the exact same format # as MNIST, and is slightly harder. # (train_x, train_y), (test_x, test_y) = load_data(ds=tf.keras
    0 码力 | 33 页 | 1.96 MB | 1 年前
    3
共 25 条
  • 1
  • 2
  • 3
前往
页
相关搜索词
kerastutorialEfficientDeepLearningBookEDLChapterTechniquesAI模型千问qwen中文文档MachinePytorchTutorial连接神经网络神经网神经网络实战pytorch动手深度学习v2PyTorchKeras基于Python深度学习Compression
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩