1. 云栖社区>
  2. 全部标签>
  3. #metadata#
metadata

#metadata#

已有0人关注此标签

内容分类:
博客 | 问答 | 视频 | 资料 |

阿里云Kubernetes CSI实践—NAS动态存储卷使用

1. 前言 NAS存储盘能将nfs(网络文件系统)挂载到你的Pod中,阿里云Kubernetes CSI支持静态存储卷挂载和动态存储卷挂载2种方式, 在静态存储卷挂载的方式中,通常需要手动编辑和创建一个pv/pvc进行挂载,当需要的pv/pvc数量很大的时候,手动创建就显得非常繁琐了,这时动态存储卷挂载的功能可以满足您的需求。

nginx Image Create metadata 存储 github kubernetes NAS ACK

使用阿里云CSI Plugin在多可用区集群中实现应用高可用部署

多可用区集群 部署集群的时候使用多可用区方案来保证集群的高可用已得到大家的共识,这样集群在某个可用区出现异常时仍然可以保持集群对外提供正常服务,阿里云ACK服务提供了多可用区集群部署方案,可参考使用文档。

高可用 web 配置 集群 node 云盘 metadata plugin 存储 数据卷 多可用区 kuberentes

Knative Eventing 之 Parallel 介绍

从 Knative Eventing 0.8 开始,支持根据不同的过滤条件对事件进行选择处理。通过 Parallel 提供了这样的能力。本文就给大家介绍一下这个特性。

cluster metadata service serverless Knative

Nginx Ingress Controller 入门实践

在 Kubernetes 集群中,Ingress是授权入站连接到达集群服务的规则集合,提供七层负载均衡能力。可以给 Ingress 配置提供外部可访问的 URL、负载均衡、SSL、基于名称的虚拟主机等。

nginx 配置 tomcat 集群 微服务 容器 负载均衡 Server test metadata service k8s 路由 ingress ingress-controller

rancher使用阿里云容器服务NAS存储

在docker容器编排管理工具中,有许多出色的工具,如阿里云容器服务Kubernetes,rancher等等。2019年云栖大会期间,Rancher和阿里云在容器领域合作再度升级,Rancher v2.3及之后产品将集成阿里云开放云原生应用中心(Cloud Native App Hub),企业可以在此基础上实现容器应用一键部署。

阿里云容器服务 云栖大会 集群 容器 Image 控制台 插件 metadata 云架构 存储 kubernetes NAS rancher

Knative 实战:基于阿里云 Kafka 实现消息推送

在 Knative 中已经提供了对 Kafka 事件源的支持,那么如何在阿里云上基于 Kafka 实现消息推送,本文给大家解锁这一新的姿势。

大数据 消息服务 消息队列 Image 控制台 Consumer 离线分析 demo metadata Group serverless Knative

基于 Typescript 和 Decorator 实现依赖注入

## 什么是依赖注入 依赖注入是将一个对象所依赖的其他对象直接提供给这个对象,而不是在当前对象中直接构建这些依赖的对象。 ## 为什么要使用依赖注入 - 便于单元测试 - 解耦,统一管理被依赖对象的实例化,不用在类的内部创建被依赖对象 ## 如何实现依赖注入 ### Typescript 中的装饰器 Decorator 装饰器是一种特殊类型的声明,它能够被附

编程语言 前端与交互设计 架构 函数 阿里技术协会 js string class metadata type prototype

Knative 实战:基于 Knative Serverless 技术实现天气服务-下篇

上一期我们介绍了如何基于 Knative Serverless 技术实现天气服务-上篇,首先我们先来回顾一下上篇介绍的内容: 通过高德天气 API 接口,每隔 3 个小时定时发送定时事件,将国内城市未来 3 天的天气信息,存储更新到表格存储 提供 RESTful API 查询天气信息 接下来我们介绍如何通过表格存储提供的通道服务,实现 Knative 对接表格存储事件源,订阅并通过钉钉发送天气提醒通知。

钉钉 表格存储 metadata service github 云原生

【Kubernetes系列】第5篇 Ingress controller - traefik组件介绍

1. 概述 为了能够让Ingress资源能够工作,在Kubernetes集群中必须至少有一个运行中的ingress controller组件。也就是说如果在kubernetes集群中没有一个ingress controller组件,只是定义了ingress资源,其实并不会实现http、https协议的请求转发、负载均衡等功能。

云栖社区 系统研发与运维 云计算 配置 域名解析 集群 容器 负载均衡 metadata 端口映射 kubernetes

容器服务 kubernetes Deployment实现分批发布

1. 前言  容器服务官网提供的分批发布基于 StatefulSet 开发,有状态副本集部署 POD 是按照顺序一台一台的发布重启,需要消耗很长的时间,并且控制台不尽人意,存在不少坑。 StatefulSet 分批发布不支持任意数目任意批数的发布,实际操作中往往需要先发布一台线上服务做灰度,然后逐步放大。

监控 数据盘 配置 容器 负载均衡 控制台 脚本 metadata type service

容器服务K8S 实践与踩坑记录

1.前言 :  容器服务 kubernetes 是目前炙手可热的云原生基础设施,笔者过去一年上线了一个用户数极速增长的应用:该应用一个月内日活用户从零至四千万,用户数从零到一亿的裂变式增长,充分享受了容器服务快速简便的扩容操作和高可用特性。

安全 docker 日志 高可用 数据盘 配置 安全组 集群 容器 负载均衡 控制台 slb metadata service

Kubernetes集群中云盘在线扩容

云盘在线扩容功能已经发布,本文介绍如何在Kubernetes集群中在不断服的情况下实现云盘扩容。下面以StatefulSet多实例应用为例,介绍应用持续运行中实现挂载的云盘扩容。 注意:扩容云盘前,请务必先给云盘打快照,以免操作中出现数据丢失; 创建多实例statefulset应用 kubectl create -f sts.

nginx web 集群 云盘 控制台 metadata 扩容 kubernetes 数据卷

Knative 实战:基于 Knative Serverless 技术实现天气服务-上篇

提到天气预报服务,我们第一反应是很简单的一个服务啊,目前网上有大把的天气预报 API 可以直接使用,有必要去使用 Knative 搞一套吗?杀鸡用牛刀?先不要着急,我们先看一下实际的几个场景需求: 场景需求 1:根据当地历年的天气信息,预测明年大致的高温到来的时间 场景需求 2:近来天气多变,如果明天下雨,能否在早上上班前,给我一个带伞提醒通知 场景需求 3:领导发话“最近经济不景气,公司财务紧张,那个服务器,你们提供天气、路况等服务的那几个小程序一起用吧,但要保证正常提供服务”。

钉钉 同步 API 表格存储 metadata 云原生

Schedulerx正式登陆Ali-k8s应用目录

前言 分布式任务调度 SchedulerX 是阿里巴巴基于 Akka 架构自研的的分布式任务调度平台,今天正式登陆阿里云容器服务Kubernetes应用目录,支持用户以云原生的方式获取定时、工作流任务编排、分布式批量调度等功能,同时具有高可靠、海量任务、秒级调度能力,Schedulerx详细信息请查看产品文档了解更多。

控制台 aliyun string metadata html Group kubernetes k8s SchedulerX scheduler

# Schedulerx正式登陆Ali-k8s应用目录

简介 分布式任务调度 SchedulerX 是阿里巴巴基于 Akka 架构自研的的分布式任务调度平台,今天正式登陆阿里云容器服务Kubernetes应用目录,支持用户以云原生的方式获取定时、工作流任务编排、分布式批量调度等功能,同时具有高可靠、海量任务、秒级调度能力,Schedulerx详细信息请查看产品文档了解更多。

控制台 aliyun string metadata html Group kubernetes SchedulerX 任务调度 scheduler

Apache Spark Delta Lake 事务日志实现源码分析

Apache Spark Delta Lake 事务日志实现源码分析 我们已经在这篇文章详细介绍了 Apache Spark Delta Lake 的事务日志是什么、主要用途以及如何工作的。那篇文章已经可以很好地给大家介绍 Delta Lake 的内部工作原理,原子性保证,本文为了学习的目的,带领大家从源码级别来看看 Delta Lake 事务日志的实现。

大数据 函数 日志 Json Apache 源码 数据库 spark scala metadata Commit

Apache Spark Delta Lake 写数据使用及实现原理代码解析

Apache Spark Delta Lake 写数据使用及实现原理代码解析 Delta Lake 写数据是其最基本的功能,而且其使用和现有的 Spark 写 Parquet 文件基本一致,在介绍 Delta Lake 实现原理之前先来看看如何使用它,具体使用如下: df.

大数据 分布式系统与计算 日志 Apache spark scala metadata

77
GO