阿里云ACK环境下采集Flexvolume数据卷的Metric信息

简介: Flexvolume数据卷采集Metric说明 Flexvolume插件采集Metric数据依赖于Kubernetes的支持,有以下注意事项: Kubernetes从1.13版本开始支持Flexvolume数据卷的监控数据采集;实现详情;阿里云ACK不支持Kubernetes 1.

Flexvolume数据卷采集Metric说明

Flexvolume插件采集Metric数据依赖于Kubernetes的支持,有以下注意事项:

Kubernetes从1.13版本开始支持Flexvolume数据卷的监控数据采集;实现详情;阿里云ACK不支持Kubernetes 1.13版本,所以需要您的Kubernetes集群版本大于等于1.14;

Flexvolume要求版本大于等于v1.14.6.15-8d3b7e7-aliyun;

阿里云Flexvolume目前支持云盘卷的Metric采集;

Metric采集只支持PV、PVC数据卷,通过InlineVolume配置的数据卷不支持采集;

数据卷Metric采集默认没有打开,需要按照下面方法进行配置:

查看云盘卷Metric

在集群、Flexvolume版本满足上述要求的情况下,通过下面命令启动云盘数据卷采集功能:

# kubectl set env ds/flexvolume ENABLE_METRICS_DISK=true -nkube-system

在上述配置前挂载的云盘卷Metric采集不到,需要重新挂载(重启Pod);

部署Pod挂载云盘数据卷,假设对应的PVC名为:pvc-disk;在节点上查看挂载情况:

# mount | grep disk
/dev/vdb on /var/lib/kubelet/plugins/kubernetes.io/flexvolume/alicloud/disk/mounts/d-wz97va7lc72bqxunllta type ext4 (rw,relatime,data=ordered)
/dev/vdb on /var/lib/kubelet/pods/7c00167c-f612-11e9-9073-00163e087786/volumes/alicloud~disk/d-wz97va7lc72bqxunllta type ext4 (rw,relatime,data=ordered)

在云盘挂载节点上,通过下面命令可以获取Metric数据统计:

# curl -s localhost:10255/metrics | grep pvc-disk

kubelet_volume_stats_available_bytes{namespace="default",persistentvolumeclaim="pvc-disk"} 2.0940644352e+10
kubelet_volume_stats_capacity_bytes{namespace="default",persistentvolumeclaim="pvc-disk"} 2.1003583488e+10
kubelet_volume_stats_inodes{namespace="default",persistentvolumeclaim="pvc-disk"} 1.31072e+06
kubelet_volume_stats_inodes_free{namespace="default",persistentvolumeclaim="pvc-disk"} 1.310709e+06
kubelet_volume_stats_inodes_used{namespace="default",persistentvolumeclaim="pvc-disk"} 11
kubelet_volume_stats_used_bytes{namespace="default",persistentvolumeclaim="pvc-disk"} 4.616192e+07
相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
1月前
|
Kubernetes Perl 容器
K8s查看集群 状态事件描述以及Pod日志信息
K8s查看集群 状态事件描述以及Pod日志信息
49 3
|
2月前
|
存储 Kubernetes Docker
容器服务ACK常见问题之阿里云控制台进不去了如何解决
容器服务ACK(阿里云容器服务 Kubernetes 版)是阿里云提供的一种托管式Kubernetes服务,帮助用户轻松使用Kubernetes进行应用部署、管理和扩展。本汇总收集了容器服务ACK使用中的常见问题及答案,包括集群管理、应用部署、服务访问、网络配置、存储使用、安全保障等方面,旨在帮助用户快速解决使用过程中遇到的难题,提升容器管理和运维效率。
|
2月前
|
关系型数据库 MySQL 数据挖掘
阿里云 SelectDB 携手 DTS ,一键实现 TP 数据实时入仓
DTS 作为阿里云核心的数据交互引擎,以其高效的实时数据流处理能力和广泛的数据源兼容性,为用户构建了一个安全可靠、可扩展、高可用的数据架构桥梁。阿里云数据库 SelectDB 通过与 DTS 联合,为用户提供了简单、实时、极速且低成本的事务数据分析方案。用户可以通过 DTS 数据传输服务,一键将自建 MySQL / RDS MySQL / PolarDB for MySQL 数据库,迁移或同步至阿里云数据库 SelectDB 的实例中,帮助企业在短时间内完成数据迁移或同步,并即时获得深度洞察。
阿里云 SelectDB 携手 DTS ,一键实现 TP 数据实时入仓
|
18天前
|
关系型数据库 Apache 流计算
手把手教你实现 OceanBase 数据到阿里云数据库 SelectDB 内核版 Apache Doris 的便捷迁移|实用指南
本文介绍了如何将数据从 OceanBase 迁移到阿里云数据库 SelectDB 内核版 Apache Doris。提供 3 种数据同步方法 1. 使用 DataX,下载 DataX 并编写配置文件,通过 OceanBaseReader 和 DorisWriter 进行数据迁移。 2. 利用 Apache Doris 的 Catalog功 能,将 OceanBase 表映射到 Doris 并插入数据。 3. 通过Flink CDC,设置 OceanBase 环境,配置 Flink 连接器,实现实时数据同步。
手把手教你实现 OceanBase 数据到阿里云数据库 SelectDB 内核版 Apache Doris 的便捷迁移|实用指南
|
2月前
|
SQL 人工智能 数据挖掘
阿里云DMS,身边的智能化数据分析助手
生成式AI颠覆了人机交互的传统范式,赋予每个人利用AI进行低门槛数据分析的能力。Data Fabric与生成式AI的强强联合,不仅能够实现敏捷数据交付,还有效降低了数据分析门槛,让人人都能数据分析成为可能!阿里云DMS作为阿里云统一的用数平台,在2021年初就开始探索使用Data Fabric理念构建逻辑数仓来加速企业数据价值的交付,2023年推出基于大模型构建的Data Copilot,降低用数门槛,近期我们将Notebook(分析窗口)、逻辑数仓(Data Fabric)、Data Copilot(生成式AI)进行有机组合,端到端的解决用数难题,给用户带来全新的分析体验。
110204 118
阿里云DMS,身边的智能化数据分析助手
|
11天前
|
分布式计算 大数据 BI
MaxCompute产品使用合集之MaxCompute项目的数据是否可以被接入到阿里云的Quick BI中
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
2月前
|
机器学习/深度学习 存储 分布式计算
机器学习PAI常见问题之DLC的数据写入到另外一个阿里云主账号的OSS中如何解决
PAI(平台为智能,Platform for Artificial Intelligence)是阿里云提供的一个全面的人工智能开发平台,旨在为开发者提供机器学习、深度学习等人工智能技术的模型训练、优化和部署服务。以下是PAI平台使用中的一些常见问题及其答案汇总,帮助用户解决在使用过程中遇到的问题。
|
10天前
|
分布式计算 DataWorks Java
DataWorks产品使用合集之阿里云DataWorks专有云环境下,上传MaxCompute的UDF(用户自定义函数)的JAR包的步骤如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
21 0
|
11天前
|
运维 数据管理 数据库
数据管理DMS产品使用合集之在阿里云DMS中,想对数据精度进行校验,有什么方法
阿里云数据管理DMS提供了全面的数据管理、数据库运维、数据安全、数据迁移与同步等功能,助力企业高效、安全地进行数据库管理和运维工作。以下是DMS产品使用合集的详细介绍。
|
11天前
|
NoSQL 数据管理 MongoDB
数据管理DMS产品使用合集之如何通过阿里云的数据管理服务(DMS)导出MongoDB数据
阿里云数据管理DMS提供了全面的数据管理、数据库运维、数据安全、数据迁移与同步等功能,助力企业高效、安全地进行数据库管理和运维工作。以下是DMS产品使用合集的详细介绍。