Hardening Guide - Rancher v2.3.3+or R an c h e r 2. 3. 3+ w i t h K u b e r n e t e s 1. 16 . . . 2 O v e r v i e w . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 P r ofi l e D e fi n i t i on s . . . . . . . . . . r n e t e s c l u s t e r h os t c on fi gu r at i on . . . . . . . 3 1. 1. 1 - C on fi gu r e d e f au l t s y s c t l s e t t i n gs on al l h os t s . . . . . . . . 3 1. 4. 11 E n s u r e t h at t t h e e t c d d at a d i r e c t or y p e r m i s s i on s ar e s e t t o 700 or m or e r e s t r i c t i v e . . . . . . . . . . . . . . . . . . . . 4 1. 4. 12 - E n s u r e t h at t h e e t c d d at0 码力 | 44 页 | 279.78 KB | 1 年前3
Exactly-once fault-tolerance in Apache Flink - CS 591 K1: Data Stream Processing and Analytics Spring 2020J34WetX1aOXxSJ4Kok I6q3oxWMLxhbaUDbSbt2swm7G6GE/gIvHlS8+pe8+W/ctjlo64OBx3szMwLU8G1cd1vZ2V1bX1js7RV3t7Z3duvHBw+6CRTDH2WiES1Q6pRcIm+4UZgO1VI41BgKxzdTv3WEyrNE3lvxikGMR1IHnFGjZWaca9SdWvuDGSZeAWp QoFGr/LV7 J34WetX1aOXxSJ4Kok I6q3oxWMLxhbaUDbSbt2swm7G6GE/gIvHlS8+pe8+W/ctjlo64OBx3szMwLU8G1cd1vZ2V1bX1js7RV3t7Z3duvHBw+6CRTDH2WiES1Q6pRcIm+4UZgO1VI41BgKxzdTv3WEyrNE3lvxikGMR1IHnFGjZWaca9SdWvuDGSZeAWp QoFGr/LV7 J34WetX1aOXxSJ4Kok I6q3oxWMLxhbaUDbSbt2swm7G6GE/gIvHlS8+pe8+W/ctjlo64OBx3szMwLU8G1cd1vZ2V1bX1js7RV3t7Z3duvHBw+6CRTDH2WiES1Q6pRcIm+4UZgO1VI41BgKxzdTv3WEyrNE3lvxikGMR1IHnFGjZWaca9SdWvuDGSZeAWp QoFGr/LV70 码力 | 81 页 | 13.18 MB | 1 年前3
Lecture 5: Gaussian Discriminant Analysis, Naive BayesSeptember 27, 2023 35 / 122 Warm Up (Contd.) Suppose we have n features X = [X1, X2, · · · , Xn]T The features are independent with each other P(X = x | Y = y) = P(X1 = x1, · · · , Xn = xn | Y = y) (2π)n/2|Σ|1/2 exp � −1 2(x − µ)TΣ−1(x − µ) � Mean vector µ ∈ Rn Covariance matrix Σ ∈ Rn×n Mahalanobis distance: r 2 = (x − µ)TΣ−1(x − µ) Σ is symmetric and positive semidefinite Σ = ΦΛΦT Φ is an orthonormal X given Y = 0 pX|Y =0(x) = 1 (2π)n/2|Σ|1/2 exp � −1 2(x − µ0)TΣ−1(x − µ0) � Or pX|Y (x | 0) = 1 (2π)n/2|Σ|1/2 exp � −1 2(x − µ0)TΣ−1(x − µ0) � Feng Li (SDU) GDA, NB and EM September 27, 2023 430 码力 | 122 页 | 1.35 MB | 1 年前3
Lecture Notes on Gaussian Discriminant Analysis, Naiveexample. Our aim is to identify if there is a cat in a given image. We assume X = [X1, X2, · · · , Xn]T is a random variable representing the feature vector of the given image, and Y ∈ {0, 1} is a random variable representing if there is a cat in the given image. Now, given an image x = [x1, x2, · · · , xn]T , out goal is to calculate P(Y = y | X = x) = P(X = x | Y = y)P(Y = y) P(X = x) (2) where y ∈ {0 probability density function (PDF) is defined as pX|Y (x | 0) = 1 (2π)n/2|Σ|1/2 exp � −1 2(x − µ0)T Σ−1(x − µ0) � (6) • A3: X | Y = 1 ∼ N(µ1, Σ): The conditional probability of continuous random variable0 码力 | 19 页 | 238.80 KB | 1 年前3
Flink如何实时分析Iceberg数据湖的CDC数据+arquet、Avro、Orcn。 t点 A3a/21 Kudu 维护 CDC 数据p 、支持L时更新数据,时效性佳。 2、CK加速,适合OLAP分析。 方案评估 优点 、cedKudup群,a较小众。维护 O本q。 2、H HDFS / S3 / OSS 等D裂。数据c e,且KAO本不如S3 / OSS。 3、Kudud批量P描不如3ar4u1t。 4、不支持增量SF。 h点 直接D入CDC到Hi2+分析 、流程能E作 2、Hi2+存量数据不受增量数据H响。 方案评估 优点 、数据不是CR写入; 2、每次数据D致都要 MERGE 存量数据 。T+ 方GT新3R效性差。 3、不M持CR1ps+rt。 缺点 SCaDk + )=AFa IL()(数据 MER,E .NTO GE=DE US.N, chan>=E ON GE=DE.GE=D.< = chan>=E THEN .NSERT (GE=D.<, a<=E.GE=D.<, chan>=E.a< t S1a2k+D+/4a,架构简e。 2、无在k服务。l护和运nS本低。 2、D存存储,Ca速O快。 3、方便上S3 OSS,超高性价比。 方案s估 优点 1、增量和全量表割p,时效性不足。 2、r计和l护额外hChang+ 0 码力 | 36 页 | 781.69 KB | 1 年前3
Lecture Notes on Support Vector Machineis defined by ωT x + b = 0 (1) where ω ∈ Rn is the outward pointing normal vector, and b is the bias term. The n-dimensional space is separated into two half-spaces H+ = {x ∈ Rn | ωT x + b ≥ 0} and H− ∈ Rn | ωT x + b < 0} by the hyperplane, such that we can classify a given point x0 ∈ Rn according to sign(ωT x + b). Specifically, given a point x0 ∈ Rn, its label y is defined as y0 = sign(ωT x0 + b) b), i.e. y0 = � 1, ωT x0 + b ≥ 0 −1, otherwise (2) Given any x0 ∈ Rn, we can calculate the signed distance from x to the hyperplane as d0 = ωT x0 + b ∥ω∥ = � ω ∥ω∥ �T x0 + b ∥ω∥ (3) The sign of0 码力 | 18 页 | 509.37 KB | 1 年前3
Oracle VM VirtualBox UserManual_fr_FR.pdfFenêtres transparentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.6 Propriétés invité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 4.7 Contrôle de . 119 7.1.10 Personnalisation du VRDP . . . . . . . . . . . . . . . . . . . . . . . . . 119 7.2 Téléportation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 8 VBoxManage Paramètres de la machine distante . . . . . . . . . . . . . . . . . . . . . 139 8.8.5 Paramètres de téléportation . . . . . . . . . . . . . . . . . . . . . . . . 140 8.9 VBoxManage clonevm . . . . . .0 码力 | 386 页 | 5.61 MB | 1 年前3
机器学习课程-温州大学-11机器学习-降维征,去掉冗余特征对机器学习的计算结果不会有影响。 10 1.降维概述 数据可视化 t-distributed Stochastic Neighbor Embedding(t-SNE) t-SNE(TSNE)将数据点之间的相似度转换为概率。原始空间中的相似度由 高斯联合概率表示,嵌入空间的相似度由“学生t分布”表示。 虽然Isomap,LLE和variants等数据降维和可视化方法,更适合展开单个连 展开单个连 续的低维的manifold。但如果要准确的可视化样本间的相似度关系,如对于 下图所示的S曲线(不同颜色的图像表示不同类别的数据),t-SNE表现更好 。因为t-SNE主要是关注数据的局部结构。 11 1.降维概述 降维的优缺点 降维的优点: • 通过减少特征的维数,数据集存储所需的空间也相应减少,减少了特征维数所需的计算 训练时间; • 数据集特征的降维有助于快速可视化数据; 的矩阵,通过SVD是对矩阵进行分解, 那么我们定义矩阵 ? 的 SVD 为: ? = ???T ? ?T ? ? ? × ? ? × ? ? × ? ? × ? ? ? 奇异值 · · 16 2.SVD(奇异值分解) 符号定义 ? = ???T = ?1?1?1 T + ⋯ + ??????T 其中?是一个? × ?的矩阵,每个特征向量??叫做? 的左奇异向量。 ?是一个?0 码力 | 51 页 | 3.14 MB | 1 年前3
动手学深度学习 v2.0帮助、讨论这本书,并通过与作者和社区接触来找到问 题的答案。 Discussions7 6 https://discuss.d2l.ai/ 7 https://discuss.d2l.ai/t/2086 8 目录 安装 我们需要配置一个环境来运行 Python、Jupyter Notebook、相关库以及运行本书所需的代码,以快速入门并 获得动手学习经验。 安装 Miniconda 行conda activate d2l以激活 运行时环境。要退出环境,请运行conda deactivate。 Discussions10 10 https://discuss.d2l.ai/t/2083 目录 11 12 目录 符号 本书中使用的符号概述如下。 数字 • x:标量 • x:向量 • X:矩阵 • X:张量 • I:单位矩阵 • xi, [x]i:向量x第i个元素 的相关性 • H(X): 随机变量X的熵 • DKL(P∥Q): P和Q的KL‐散度 复杂度 • O:大O标记 Discussions11 11 https://discuss.d2l.ai/t/2089 目录 15 16 目录 1 引言 时至今日,人们常用的计算机程序几乎都是软件开发人员从零编写的。比如,现在开发人员要编写一个程序 来管理网上商城。经过思考,开发人员可能提出如下0 码力 | 797 页 | 29.45 MB | 1 年前3
全连接神经网络实战. pytorch 版之间的相乘,@ 和 .matmul 函数表示矩阵相乘;∗ 和 .mul 表示矩阵元素之 间相乘: 6 Chapter 1. 准备章节 7 y = data_tensor @ data_tensor .T print (y) y = data_tensor ∗ data_tensor print (y) 输出分别是: [ [ 5 , 11] , [11 , 2 5 ] ] [ [ 5 , 功能,也就是说它可以依次将 batch_size 数量的样本导出。 注意,前面已经导入过的 python 包我们就不再重复导入了。 from torch . u t i l s . data import Dataset from torch . u t i l s . data import DataLoader 前面说过,Dataset 可以存储自定义数据,我们可以继承 Dataset 类,在子类中实现一些固定 download=True , #如 果 根 目 录 没 有 就 下 载 transform=ToTensor () ) #把 数 据 显 示 一 下 labels_map = { 0: ”T−Shirt ” , 1: ” Trouser ” , 2: ” Pullover ” , 3: ” Dress ” , 4: ”Coat” , 5: ” Sandal ” , 6: ” Shirt0 码力 | 29 页 | 1.40 MB | 1 年前3
共 454 条
- 1
- 2
- 3
- 4
- 5
- 6
- 46













