微博在线机器学习和深度学习实践-黄波博主召回和微博 召回 物料精排 向量索引 DSSM/FM/FF M生成博主与物 料向量,采用 向量进行召回 特征向量化:Item2vec 向量索引:FM/FFM/ DSSM 模型召回:DIN/DIEN/TDM 模型召回 融入用户近期互动行 为的深度模型召回 单目标:LR->W&D->FM->DeepFM 多目标:点击FM+互动FM 排序损失:DeepFM+Pair-Wise Rank0 码力 | 36 页 | 16.69 MB | 1 年前3
动手学深度学习 v2.0接下来,初始化终端Shell,以便我们可以直接运行conda。 ~/miniconda3/bin/conda init 现在关闭并重新打开当前的shell。并使用下面的命令创建一个新的环境: 8 https://conda.io/en/latest/miniconda.html 9 conda create --name d2l python=3.9 -y 现在激活 d2l 环境: conda activate d2l 然而模型怎么判断得出这种“是”或“不是”的硬分类预测呢?我们可以试着用概率语言来理解模型。给定 一个样本特征,模型为每个可能的类分配一个概率。比如,之前的猫狗分类例子中,分类器可能会输出图像 12 https://en.wikipedia.org/wiki/Netflix_Prize 1.3. 各种机器学习问题 23 是猫的概率为0.9。0.9这个数字表达什么意思呢?可以这样理解:分类器90%确定图像描绘的是一只猫。预测 稽至极了。层次结构相关性可能取决于模型的使用者计划如何使用模型。例如,响尾蛇和乌梢蛇血缘上可能 很接近,但如果把响尾蛇误认为是乌梢蛇可能会是致命的。因为响尾蛇是有毒的,而乌梢蛇是无毒的。 13 https://en.wikipedia.org/wiki/Carl_Linnaeus 24 1. 引言 标记问题 有些分类问题很适合于二项分类或多项分类。例如,我们可以训练一个普通的二项分类器来区分猫和狗。运0 码力 | 797 页 | 29.45 MB | 1 年前3
Qcon北京2018-《文本智能处理的深度学习技术》-陈运文务,是国内首家将自动语义分析技术应用于企业数据化运营的人工智能公司 专注于文本挖掘的国际领军人工智能企业 l 获得全球三十大最佳AI企业等荣誉,拥有国家级高新技术企业、CMMI3资质认 证、ISO9001质量管理体系认证、双软认证等最全面的企业服务资质。 权威认证的人工智能服务,可充分保障客户业务实践与业务安全 l 覆盖金融、制造、法律、电商、传媒等行业,提升企业文档自动化处理能力 为0 码力 | 46 页 | 25.61 MB | 1 年前3
QCon北京2018-《从键盘输入到神经网络--深度学习在彭博的应用》-李碧野accordance with the terms of the CC-SA 4.0 license https://creativecommons.org/licenses/by-sa/4.0/deed.en AAPL FB 700 GOOG TXT BIDU ? ? ? ? © 2018 Bloomberg Finance L.P. All rights reserved. Challenges accordance with the terms of the CC-SA 4.0 license https://creativecommons.org/licenses/by-sa/4.0/deed.en Data Volume © 2018 Bloomberg Finance L.P. All rights reserved. Back in 2016 – Table Extraction accordance with the terms of the CC-SA 4.0 license https://creativecommons.org/licenses/by-sa/4.0/deed.en © 2018 Bloomberg Finance L.P. All rights reserved. Computer Vision Tasks Modified from https://commons0 码力 | 64 页 | 13.45 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 3 - Learning Techniqueswith these vectors. Let’s load it first. %%capture !python -m spacy download en_core_web_md import en_core_web_md nlp = en_core_web_md.load() Use the language model to transform the sentences to sequences forward model. Figure 3-12: An example of back-translation. EN=>DE model in this case is facebook/wmt19-en-de and DE=>EN model is facebook/wmt19-de-en. Table 3-4 shows the performance comparison of regular0 码力 | 56 页 | 18.93 MB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 6 - Advanced Learning Techniques - Technical Reviewlanguage generation and hence has been 8 BERT model on Tensorflow-Hub: https://tfhub.dev/tensorflow/bert_en_uncased_L-12_H-768_A-12/4 7 GPU pricing source: https://cloud.google.com/compute/gpus-pricing. Numbers website for more preprocessors preprocessor = hub.KerasLayer( 'https://tfhub.dev/tensorflow/bert_en_uncased_preprocess/3') # Create the final datasets that the BERT model will work on. train_ds = batched_train 'bert-small': "https://tfhub.dev/tensorflow/small_bert/bert_en_uncased_L-2_H-128_A-2/2", 'bert-base': 'https://tfhub.dev/tensorflow/bert_en_uncased_L-12_H-768_A-12/4', } In this codelab we would like0 码力 | 31 页 | 4.03 MB | 1 年前3
华为云深度学习在文本分类中的实践-李明磊在目标语料上微调 语言模型 在目标语料上训练 分类器 … … BERT E[ C E1 T1 E2 T2 En Tn … … 模型: 数据: 目标: 预测mask词和下一句 … … BERT E[ C E1 T1 E2 T2 En Tn … … 分类器 模型: 数据: 手机不错,高大上 正面 手机太差劲了,又贵又卡 负面 续航给力,价格实在0 码力 | 23 页 | 1.80 MB | 1 年前3
AI大模型千问 qwen 中文文档supports conversations in multiple languages, including English and Chinese. You can use the bge-base-en-v1.5 model to retrieve from English documents, and you can download the bge-base-zh-v1.5 model to retrieve ) # Set embedding model Settings.embed_model = HuggingFaceEmbedding( model_name = "BAAI/bge-base-en-v1.5" ) # Set the size of the text chunk for retrieval Settings.transformations = [SentenceSplit [SentenceSplitter(chunk_size=1024)] 1.15.3 现在,我们可以设置语言模型和向量模型。Qwen1.5-Chat 支持包括英语和中文 在内的多种语言对话。您可以使用 “bge-base-en-v1.5“模型来检索英文文档,下 载 “bge-base-zh-v1.5“模型以检索中文文档。根据您的计算资源,您还可以选择 “bge-large“或 “bge-small“作为向量模型,或调整上下文窗口大小或文本块大小。0 码力 | 56 页 | 835.78 KB | 1 年前3
Lecture 6: Support Vector Machinequadratic programming (QP) problem! Interior point method (https://en.wikipedia.org/wiki/Interior-point_method) Active set method (https://en.wikipedia.org/wiki/Active_set_method) Gradient projection method0 码力 | 82 页 | 773.97 KB | 1 年前3
《Efficient Deep Learning Book》[EDL] Chapter 4 - Efficient Architecturesa hyper-plane to separate the points in more than two dimensions. 3 Linear Separability - https://en.wikipedia.org/wiki/Linear_separability Figure 4-3: Extending figure 4-2, we draw a decision boundary Lookup: Look up the embeddings for the inputs in the embedding table. 4 Support Vector Machine - https://en.wikipedia.org/wiki/Support-vector_machine 3. Train the model: Train the model for the task at hand50 码力 | 53 页 | 3.92 MB | 1 年前3
共 22 条
- 1
- 2
- 3













