 OpenShift Container Platform 4.8 Service MeshKiali 图形的布局会根据应用程序构架和要显示的数据(图形节点数目及其交互)的不 同而有所变化。因为创建一个统一布局的难度较大,所以 Kiali 提供了几种不同布局的选择。要选 择不同的布局,可从 Graph Settings 菜单中选择一个不同的 Layout Schema。 首次从 Kiali 控制台访问相关服务(如分布式追踪平台和 Grafana)时,必须使用 OpenShift Container 控制台中,'istio-ingressgateway' 和 'jaeger-query' 服务的服务详情页面中没 有显示 Traces。Jaeger 中存在 trace。 OSSM-287 在 Kiali 控制台中没有显示 Graph 服务中的 trace。 OSSM-285 试图访问 Kiali 控制台时会收到以下错误消息:"Error trying to get OAuth Metadata"。 临时解决方案:重启 Kiali 为 Service Mesh 默认启用 ingress 。 Zipkin 端口名称已改为 jaeger-collector-zipkin(从 http) 当选择 production 或 streaming 部署选项时,Jaeger 会默认使用 Elasticsearch 作为存储。 Istio 的社区版本提供了一个通用的 “tracing” 路由。Red Hat OpenShift Service0 码力 | 344 页 | 3.04 MB | 1 年前3 OpenShift Container Platform 4.8 Service MeshKiali 图形的布局会根据应用程序构架和要显示的数据(图形节点数目及其交互)的不 同而有所变化。因为创建一个统一布局的难度较大,所以 Kiali 提供了几种不同布局的选择。要选 择不同的布局,可从 Graph Settings 菜单中选择一个不同的 Layout Schema。 首次从 Kiali 控制台访问相关服务(如分布式追踪平台和 Grafana)时,必须使用 OpenShift Container 控制台中,'istio-ingressgateway' 和 'jaeger-query' 服务的服务详情页面中没 有显示 Traces。Jaeger 中存在 trace。 OSSM-287 在 Kiali 控制台中没有显示 Graph 服务中的 trace。 OSSM-285 试图访问 Kiali 控制台时会收到以下错误消息:"Error trying to get OAuth Metadata"。 临时解决方案:重启 Kiali 为 Service Mesh 默认启用 ingress 。 Zipkin 端口名称已改为 jaeger-collector-zipkin(从 http) 当选择 production 或 streaming 部署选项时,Jaeger 会默认使用 Elasticsearch 作为存储。 Istio 的社区版本提供了一个通用的 “tracing” 路由。Red Hat OpenShift Service0 码力 | 344 页 | 3.04 MB | 1 年前3
 OpenShift Container Platform 4.6 分布式追踪内存存储不是持久性的,这意味着如果分布式追踪平台实例关闭、重启或被 替换,您的 trace 数据将会丢失。此外,内存存储无法扩展,因为每个 Pod 都有自己的内存。对于持久性存储,您必须使用 production 或 streaming 策略,这些策略使用 Elasticsearch 作为默认存储。 production - production 策略主要用于生产环境,在生产环境中,对 trace 数据进行长期存 储非常重 注入。Query 和 Collector 服务被配置为使用一个 受支持的存储类型 - 当前为 Elasticsearch。可以根据性能和恢复能力的需要提供每个组件的 多个实例。 streaming - streaming 策略旨在提供在 Collector 和 Elasticsearch 后端存储之间有效发挥 作用的流传输功能,以此增强 production 策略。这样做的好处是在高负载情况下降低后端存 储压力,并允许其他 trace 后处理功能直接从流传输平台 (AMQ Streams/ Kafka) 中利用实 时 span 数据。 注意 注意 streaming 策略需要额外的 AMQ Streams 订阅。 注意 注意 目前 IBM Z 不支持 streaming 部署策略。 注意 注意 有两种方法可用来安装和使用 Red Hat OpenShift distributed tracing,作为服务网格的一0 码力 | 59 页 | 572.03 KB | 1 年前3 OpenShift Container Platform 4.6 分布式追踪内存存储不是持久性的,这意味着如果分布式追踪平台实例关闭、重启或被 替换,您的 trace 数据将会丢失。此外,内存存储无法扩展,因为每个 Pod 都有自己的内存。对于持久性存储,您必须使用 production 或 streaming 策略,这些策略使用 Elasticsearch 作为默认存储。 production - production 策略主要用于生产环境,在生产环境中,对 trace 数据进行长期存 储非常重 注入。Query 和 Collector 服务被配置为使用一个 受支持的存储类型 - 当前为 Elasticsearch。可以根据性能和恢复能力的需要提供每个组件的 多个实例。 streaming - streaming 策略旨在提供在 Collector 和 Elasticsearch 后端存储之间有效发挥 作用的流传输功能,以此增强 production 策略。这样做的好处是在高负载情况下降低后端存 储压力,并允许其他 trace 后处理功能直接从流传输平台 (AMQ Streams/ Kafka) 中利用实 时 span 数据。 注意 注意 streaming 策略需要额外的 AMQ Streams 订阅。 注意 注意 目前 IBM Z 不支持 streaming 部署策略。 注意 注意 有两种方法可用来安装和使用 Red Hat OpenShift distributed tracing,作为服务网格的一0 码力 | 59 页 | 572.03 KB | 1 年前3
 OpenShift Container Platform 4.14 分布式追踪台(Jaeger)实例关闭、重启或被替 换,您的 trace 数据将会丢失。此外,内存存储无法扩展,因为每个 Pod 都有自己的内 存。对于持久性存储,您必须使用 production 或 streaming 策略,这些策略使用 Elasticsearch 作为默认存储。 production production 策略主要用于生产环境,在生产环境中,对 trace 数据进行长期存储非常重要,同时需要 。 streaming streaming 策略旨在通过提供在 Collector 和 Elasticsearch 后端存储之间有效处的流传输功能来增强 production 策略。这样做的好处是在高负载情况下降低后端存储压力,并允许其他 trace 后处理功能 直接从流传输平台 (AMQ Streams/ Kafka) 中利用实时 span 数据。 注意 注意 streaming 策略需要额外的 策略需要额外的 AMQ Streams 订阅。 目前 IBM Z® 不支持 streaming 部署策略。 3.2.2. 从 Web 控制台部署分布式追踪平台默认策略 自定义资源定义(CRD)定义部署 Red Hat OpenShift distributed tracing 平台实例时使用的配置。默认 CR 名为 jaeger-all-in-one-inmemory,它配置为使用最少资源,以确保您可以在默认的0 码力 | 100 页 | 928.24 KB | 1 年前3 OpenShift Container Platform 4.14 分布式追踪台(Jaeger)实例关闭、重启或被替 换,您的 trace 数据将会丢失。此外,内存存储无法扩展,因为每个 Pod 都有自己的内 存。对于持久性存储,您必须使用 production 或 streaming 策略,这些策略使用 Elasticsearch 作为默认存储。 production production 策略主要用于生产环境,在生产环境中,对 trace 数据进行长期存储非常重要,同时需要 。 streaming streaming 策略旨在通过提供在 Collector 和 Elasticsearch 后端存储之间有效处的流传输功能来增强 production 策略。这样做的好处是在高负载情况下降低后端存储压力,并允许其他 trace 后处理功能 直接从流传输平台 (AMQ Streams/ Kafka) 中利用实时 span 数据。 注意 注意 streaming 策略需要额外的 策略需要额外的 AMQ Streams 订阅。 目前 IBM Z® 不支持 streaming 部署策略。 3.2.2. 从 Web 控制台部署分布式追踪平台默认策略 自定义资源定义(CRD)定义部署 Red Hat OpenShift distributed tracing 平台实例时使用的配置。默认 CR 名为 jaeger-all-in-one-inmemory,它配置为使用最少资源,以确保您可以在默认的0 码力 | 100 页 | 928.24 KB | 1 年前3
 OpenShift Container Platform 4.7 更新集群cincinnati-graph-data.tar.gz https://github.com/openshift/cincinnati-graph- data/archive/master.tar.gz CMD exec /bin/bash -c "tar xvzf cincinnati-graph-data.tar.gz -C /var/lib/cincinnati/graph-data/ - com/openshift/graph-data:latest: 3. 将上一步中创建的 graph-data 容器镜像推送到 OpenShift Update Service 可以访问的存储库, 如 registry.example.com/openshift/graph-data:latest: 注意 注意 要将图形数据镜像推送到受限网络中的本地 registry,请将上一步中创建的 graph- data $ podman build -f ./Dockerfile -t registry.example.com/openshift/graph-data:latest $ podman push registry.example.com/openshift/graph-data:latest x509: certificate relies on legacy Common Name field0 码力 | 62 页 | 716.72 KB | 1 年前3 OpenShift Container Platform 4.7 更新集群cincinnati-graph-data.tar.gz https://github.com/openshift/cincinnati-graph- data/archive/master.tar.gz CMD exec /bin/bash -c "tar xvzf cincinnati-graph-data.tar.gz -C /var/lib/cincinnati/graph-data/ - com/openshift/graph-data:latest: 3. 将上一步中创建的 graph-data 容器镜像推送到 OpenShift Update Service 可以访问的存储库, 如 registry.example.com/openshift/graph-data:latest: 注意 注意 要将图形数据镜像推送到受限网络中的本地 registry,请将上一步中创建的 graph- data $ podman build -f ./Dockerfile -t registry.example.com/openshift/graph-data:latest $ podman push registry.example.com/openshift/graph-data:latest x509: certificate relies on legacy Common Name field0 码力 | 62 页 | 716.72 KB | 1 年前3
 OpenShift Container Platform 4.14 更新集群务器的 URL 设置为 upstream,以便在更新期间使用本地服务器。upstream 的默认值是 https://api.openshift.com/api/upgrades_info/v1/graph。 流程 流程 更改集群版本中的 upstream 参数值: OpenShift Container Platform 4.14 更新集群务器的 URL 设置为 upstream,以便在更新期间使用本地服务器。upstream 的默认值是 https://api.openshift.com/api/upgrades_info/v1/graph。 流程 流程 更改集群版本中的 upstream 参数值:- 变量指定更新服务器的 URL。 输出示例 出示例 3.2. 使用 WEB 控制台更新集群 - 变量指定更新服务器的 URL。 默认 upstream 是 https://api.openshift.com/api/upgrades_info/v1/graph。 3. 点击 Save。 其他 其他资 资源 源 了解更新频道和发行版本 3.2.3. 使用 Web 控制台暂停 MachineHealthCheck 资源 在更新过程中,集群中的节点可能会临时不可用。对于 将频道设置为从中检索 OpenShift Container Platform 镜像。 添加 graph: true 以构建并推送 graph-data 镜像推送到镜像 registry。创建 OpenShift Update Service (OSUS) 需要 graph-data 镜像。graph: true 字段还会生成 UpdateService 自定义资源清单。oc 命令行界面 (CLI) 0 码力 | 149 页 | 1.94 MB | 1 年前3
 OpenShift Container Platform 4.10 CLI 工具--password=mypass # Log out oc logout # Start streaming the logs of the most recent build of the openldap build config oc logs -f bc/openldap # Start streaming the logs of the latest deployment of the snapshot of ruby-container logs from pod backend oc logs backend -c ruby-container # Start streaming of ruby-container logs from pod backend oc logs -f pod/backend -c ruby-container # List all0 码力 | 120 页 | 1.04 MB | 1 年前3 OpenShift Container Platform 4.10 CLI 工具--password=mypass # Log out oc logout # Start streaming the logs of the most recent build of the openldap build config oc logs -f bc/openldap # Start streaming the logs of the latest deployment of the snapshot of ruby-container logs from pod backend oc logs backend -c ruby-container # Start streaming of ruby-container logs from pod backend oc logs -f pod/backend -c ruby-container # List all0 码力 | 120 页 | 1.04 MB | 1 年前3
 OpenShift Container Platform 4.13 CLI 工具--password=mypass # Log out oc logout # Start streaming the logs of the most recent build of the openldap build config oc logs -f bc/openldap # Start streaming the logs of the latest deployment of the snapshot of ruby-container logs from pod backend oc logs backend -c ruby-container # Start streaming of ruby-container logs from pod backend oc logs -f pod/backend -c ruby-container 第 第 2 章 章 OPENSHIFT0 码力 | 128 页 | 1.11 MB | 1 年前3 OpenShift Container Platform 4.13 CLI 工具--password=mypass # Log out oc logout # Start streaming the logs of the most recent build of the openldap build config oc logs -f bc/openldap # Start streaming the logs of the latest deployment of the snapshot of ruby-container logs from pod backend oc logs backend -c ruby-container # Start streaming of ruby-container logs from pod backend oc logs -f pod/backend -c ruby-container 第 第 2 章 章 OPENSHIFT0 码力 | 128 页 | 1.11 MB | 1 年前3
 OpenShift Container Platform 4.8 CLI 工具用法示例 # Log out oc logout # Start streaming the logs of the most recent build of the openldap build config oc logs -f bc/openldap # Start streaming the logs of the latest deployment of the snapshot of ruby-container logs from pod backend oc logs backend -c ruby-container # Start streaming of ruby-container logs from pod backend oc logs -f pod/backend -c ruby-container # List all0 码力 | 152 页 | 1.24 MB | 1 年前3 OpenShift Container Platform 4.8 CLI 工具用法示例 # Log out oc logout # Start streaming the logs of the most recent build of the openldap build config oc logs -f bc/openldap # Start streaming the logs of the latest deployment of the snapshot of ruby-container logs from pod backend oc logs backend -c ruby-container # Start streaming of ruby-container logs from pod backend oc logs -f pod/backend -c ruby-container # List all0 码力 | 152 页 | 1.24 MB | 1 年前3
 OpenShift Container Platform 4.8
Web 控制台Kiali 图形的布局会根据应用程序构架和要显示的数据(图形节点数目及其交互)的不 同而有所变化。因为创建一个统一布局的难度较大,所以 Kiali 提供了几种不同布局的选择。要选 择不同的布局,可从 Graph Settings 菜单中选择一个不同的 Layout Schema。 1.4.1. Red Hat OpenShift Service Mesh 已知问题 Red Hat OpenShift 控制台中查看内嵌的追踪页面。 KIALI-3118 当对 ServiceMeshMemberRoll 进行修改后(例如,添加或删除了项目),Kiali pod 会 重新启动,并在 Kiali pod 重新启动的过程中在 Graph 页中显示错误信息。 KIALI-2206 当您第一次访问 Kiali 控制台时,浏览器中没有 Kiali 的缓存数据,Kiali 服务详情页面 的 Metrics 标签页中的 “View in Platform 控制台时使用的用户名和密码登录到 Kiali 控制台。 4.4.2. 了解 Graph 页面 Graph 页面以图片的形式显示了由通过它们的请求所连接的微服务。在这个页面上,您可以看到应用程 序、负载和服务是如何相互交互的。 流程 流程 1. 在 Kiali 控制台中点击左侧导航中的 Graph 。 2. 从 Namespace 菜单中选 bookinfo。图片显示了 Bookinfo0 码力 | 87 页 | 1.58 MB | 1 年前3 OpenShift Container Platform 4.8
Web 控制台Kiali 图形的布局会根据应用程序构架和要显示的数据(图形节点数目及其交互)的不 同而有所变化。因为创建一个统一布局的难度较大,所以 Kiali 提供了几种不同布局的选择。要选 择不同的布局,可从 Graph Settings 菜单中选择一个不同的 Layout Schema。 1.4.1. Red Hat OpenShift Service Mesh 已知问题 Red Hat OpenShift 控制台中查看内嵌的追踪页面。 KIALI-3118 当对 ServiceMeshMemberRoll 进行修改后(例如,添加或删除了项目),Kiali pod 会 重新启动,并在 Kiali pod 重新启动的过程中在 Graph 页中显示错误信息。 KIALI-2206 当您第一次访问 Kiali 控制台时,浏览器中没有 Kiali 的缓存数据,Kiali 服务详情页面 的 Metrics 标签页中的 “View in Platform 控制台时使用的用户名和密码登录到 Kiali 控制台。 4.4.2. 了解 Graph 页面 Graph 页面以图片的形式显示了由通过它们的请求所连接的微服务。在这个页面上,您可以看到应用程 序、负载和服务是如何相互交互的。 流程 流程 1. 在 Kiali 控制台中点击左侧导航中的 Graph 。 2. 从 Namespace 菜单中选 bookinfo。图片显示了 Bookinfo0 码力 | 87 页 | 1.58 MB | 1 年前3
 OpenShift Container Platform 4.6 发行注记Cloud Credential Operator(CCO)的支持已从 OpenShift Container Platform 4.6 中删除。此更改的原因是 Microsoft 的 Azure AD Graph API 将于 2022 年 6 月 30 日停用 ,并被向后移植到 z-stream 更新中所有支 持的 OpenShift Container Platform 版本。 对于在以前安装的使用 Administrator 角色。 虽然 Azure AD Graph API 仍然可用,但升级版 OpenShift Container Platform 的 CCO 会尝试清理之前 mint 的应用注册服务主体。在 Azure AD Graph API 之前升级集群可能会避免需要手动清理资源。 如果在 Azure AD Graph API 停用后,集群被升级到一个不再支持 mint 模式的 OpenShift unable to clean up App Registration / Service Principal: OpenShift Container Platform 4.6 发行注记Cloud Credential Operator(CCO)的支持已从 OpenShift Container Platform 4.6 中删除。此更改的原因是 Microsoft 的 Azure AD Graph API 将于 2022 年 6 月 30 日停用 ,并被向后移植到 z-stream 更新中所有支 持的 OpenShift Container Platform 版本。 对于在以前安装的使用 Administrator 角色。 虽然 Azure AD Graph API 仍然可用,但升级版 OpenShift Container Platform 的 CCO 会尝试清理之前 mint 的应用注册服务主体。在 Azure AD Graph API 之前升级集群可能会避免需要手动清理资源。 如果在 Azure AD Graph API 停用后,集群被升级到一个不再支持 mint 模式的 OpenShift unable to clean up App Registration / Service Principal:- 类似的消息。在 Azure AD Graph API 停用后,清理需要使用 Azure CLI 工具或 Azure Web 控制台手动删除剩余的应用程序注册服务主体。 要手动清理资源,您必须找到并删除受影响的资源。 1. 使用 Azure 0 码力 | 91 页 | 1.15 MB | 1 年前3
共 23 条
- 1
- 2
- 3













