Kubernetes微服务架构应用实践

  1. 云栖社区>
  2. 博客>
  3. 正文

Kubernetes微服务架构应用实践

晚来风急 2017-07-03 13:49:00 浏览2682
展开阅读全文

谷歌于2015年正式推出的Kubernetes开源项目目前已经吸引了众多IT公司的关注,这些公司包括Redhat、CoreOS、IBM、惠普等知名IT公司,也包括国内如华为、时速云等公司。为什么Kubernetes会引发这么多公司的关注?最根本的原因是Kubernetes是新一代的基于先进容器技术的微服务架构平台,它将当前火爆的容器技术与微服务架构两大吸引眼球的技术点完美的融为一体,并且切切实实的解决了传统分布式系统开发过程中长期存在的痛点问题。

本文假设您已经很熟悉并掌握了Docker技术,这里不会再花费篇幅介绍它。正是通过轻量级的容器隔离技术,Kubernetes实现了“微服务”化的特性,同时借助于Docker提供的基础能力,使得平台的自动化能力得以实现。

概念与原理

作为一个架构师来说,我们做了这么多年的分布式系统,其实我们真正关心的并不是服务器、交换机、负载均衡器、监控与部署这些事物,我们真正关心的是“服务”本身,并且在内心深处,我们渴望能实现图1所示的下面的这段“愿景”:

我的系统中有ServiceA、ServiceB、ServiceC三种服务,其中ServiceA需要部署3个实例、而ServiceB与ServiceC各自需要部署5个实例,我希望有一个平台(或工具)帮我自动完成上述13个实例的分布式部署,并且持续监控它们。当发现某个服务器宕机或者某个服务实例故障的时候,平台能够自我修复,从而确保在任何时间点,正在运行的服务实例的数量都是我所预期的。这样一来,我和我的团队只需关注服务开发本身,而无需再为头疼的基础设施和运维监控的事情而烦恼了。

图1 分布式系统架构愿景

直到Kubernetes出现之前,没有一个公开的平台声称实现了上面的“愿景”,这一次,又是谷歌的神作惊艳了我们。Kubernetes让团队有更多的时间去关注与业务需求和业务相关的代码本身,从而在很大程度上提升了整个软件团队的工作效率与投入产出比。

Kubernetes里核心的概念只有以下几个:

Service

Pod

Deployments(RC)

Service表示业务系统中的一个“微服务”,每个具体的Service背后都有分布在多个机器上的进程实例来提供服务,这些进程实例在Kubernetes里被封装为一个个Pod,Pod基本等同于Docker Container,稍有不同的是Pod其实是一组密切捆绑在一起并且“同生共死”的Docker Container,从模型设计的角度来说,的确存在一个服务实例需要多个进程来提供服务并且它们需要“在一起” 的情况。

Kubernetes的Service与我们通常所说的“Service”有一个明显的的不同,前者有一个虚拟IP地址,称之为“ClusterIP”,服务与服务之间“ClusterIP+服务端口”的方式进行访问,而无需一个复杂的服务发现的API。这样一来,只要知道某个Service的ClusterIP,就能直接访问该服务,为此,Kubernetes提供了两种方式来解决ClusterIP的发现问题:

第一种方式是通过环境变量,比如我们定义了一个名称为ORDER_SERVICE 的Service ,分配的ClusterIP为10.10.0.3 ,则在每个服务实例的容器中,会自动增加服务名到ClusterIP映射的环境变量:ORDER_SERVICE_SERVICE_HOST=10.10.0.3,于是程序里可以通过服务名简单获得对应的ClusterIP。

第二种方式是通过DNS,这种方式下,每个服务名与ClusterIP的映射关系会被自动同步到Kubernetes集群里内置的DNS组件里,于是直接通过对服务名的DNS Lookup机制就找到对应的ClusterIP了,这种方式更加直观。

由于Kubernetes的Service这一独特设计实现思路,使得所有以TCP /IP 方式进行通信的分布式系统都能很简单的迁移到Kubernetes平台上了。如图2所示,当客户端访问某个Service的时候,Kubernetes内置的组件kube-proxy透明的实现了到后端Pod的流量负载均衡、会话保持、故障自动恢复等高级特性。

图2 Kubernetes负载均衡原理

Kubernetes是如何绑定Service与Pod的呢?它如何区分哪些Pod对应同一个Service?答案也很简单——“贴标签”。每个Pod都可以贴一个或多个不同的标签(Label),而每个Service都一个“标签选择器”,标签选择器(Label Selector)确定了要选择拥有哪些标签的对象,比如下面这段YAML格式的内容定义了一个称之为ku8-redis-master的Service,它的标签选择器的内容为“app: ku8-redis-master”,表明拥有“app= ku8-redis-master”这个标签的Pod都是为它服务的。

apiVersion: v1

kind: Service

metadata:

name: ku8-redis-master

spec:

ports:

  • port: 6379

selector:

app: ku8-redis-master

下面是对应的Pod的定义,注意到它的labels属性的内容:

apiVersion: v1

kind: Pod

metadata:

name: ku8-redis-master

labels:

app: ku8-redis-master

spec:

containers:

  • name: server

image: redis

ports:

  • containerPort: 6379

restartPolicy: Never

最后,我们来看看Deployment/RC的概念,它的作用是用来告诉Kubernetes,某种类型的Pod(拥有某个特定标签的Pod)需要在集群中创建几个副本实例,Deployment/RC的定义其实是Pod创建模板(Template)+Pod副本数量的声明(replicas):

apiVersion: v1

kind: ReplicationController

metadata:

name: ku8-redis-slave

spec:

replicas: 2

template:

metadata:

labels:

app: ku8-redis-slave

spec:

containers:

  • name: server

image: devopsbq/redis-slave

env:

  • name: MASTER_ADDR

value: ku8-redis-master

ports:

  • containerPort: 6379

Kubernetes开发指南

本节我们以一个传统的Java应用为例,来说明如何将其改造迁移到Kubernetes的先进微服务架构平台上来。

如图3所示,我们的这个示例程序是一个跑在Tomcat里的Web应用,为了简化,没有用任何框架,直接在JSP页面里通过JDBC操作数据库。

图3 待改造的Java Web应用

上述系统中,我们将MySQL服务与Web应用分别建模为Kubernetes中的一个Service,其中MySQL服务的Service定义如下:

apiVersion: v1

kind: Service

metadata:

name: mysql

spec:

ports:

  • port: 3306

selector:

app: mysql_pod

MySQL服务对应的Deployment/RC的定义如下:

apiVersion: v1

kind: ReplicationController

metadata:

name: mysql-deployment

spec:

replicas: 1

template:

metadata:

labels:

app: mysql_pod

spec:

containers:

  • name: mysql

image: mysql

imagePullPolicy: IfNotPresent

ports:

  • containerPort: 3306

env:

  • name: MYSQL_ROOT_PASSWORD

value: "123456"

下一步,我们需要改造Web应用中获取MySQL地址的这段代码,从容器的环境变量中获取上述MySQL服务的IP与Port:

String ip=System.getenv("MYSQL_SERVICE_HOST");

String port=System.getenv("MYSQL_SERVICE_PORT");

ip=(ip==null)?"localhost":ip;

port=(port==null)?"3306":port;

conn = java.sql.DriverManager.getConnection("jdbc:mysql://"+ip+":"+port+"?useUnicode=true&characterEncoding=UTF-8", "root","123456");

接下来,将此Web应用打包为一个标准的Docker镜像,名字为k8s_myweb_image,这个镜像直接从官方Tomcat镜像上添加我们的Web应用目录demo到webapps目录下即可,Dockerfile比较简单,如下所示:

FROM tomcat

MAINTAINER bestme

ADD demo /usr/local/tomcat/webapps/demo

类似之前的MySQL服务定义,下面是这个Web应用的Service定义:

apiVersion: v1

kind: Service

metadata:

name: hpe-java-web

spec:

type: NodePort

ports:

  • port: 8080

nodePort: 31002

selector:

app: hpe_java_web_pod

我们看到这里用了一个特殊的语法:NodePort,并且赋值为31002,词语法的作用是让此Web应用容器里的8080端口被NAT映射到kuberntetes里每个Node上的31002端口,从而我们可以用Node的IP和端口31002来访问Tomcat的8080端口,比如我本机的可以通过http://192.168.18.137:31002/demo/来访问这个Web应用。

下面是Web应用的Service对应的Deployment/RC的定义:

apiVersion: v1

kind: ReplicationController

metadata:

name: hpe-java-web-deployement

spec:

replicas: 1

template:

metadata:

labels:

app: hpe_java_web_pod

spec:

containers:

  • name: myweb

image: k8s_myweb_image

imagePullPolicy: IfNotPresent

ports:

  • containerPort: 8080

定义好所有Service与对应的Deployment/RC描述文件后(总共4个yaml文件),我们可以通过Kubernetes的命令行工具kubectrl –f create xxx.yaml提交到集群里,如果一切正常,Kubernetes会在几分钟内自动完成部署,你会看到相关的资源对象都已经创建成功:

-bash-4.2# kubectl get svc

NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE

hpe-java-web 10.254.183.22 nodes 8080/TCP 36m

kubernetes 10.254.0.1 443/TCP 89d

mysql 10.254.170.22 3306/TCP 36m

-bash-4.2# kubectl get pods

NAME READY STATUS RESTARTS AGE

hpe-java-web-deployement-q8t9k 1/1 Running 0 36m

mysql-deployment-5py34 1/1 Running 0 36m

-bash-4.2# kubectl get rc

NAME DESIRED CURRENT AGE

hpe-java-web-deployement 1 1 37m

mysql-deployment 1 1 37m

结束语

从上面步骤来看,传统应用迁移改造到Kubernetes上还是比较容易的,而借助于Kubernetes的优势,即使一个小的开发团队,也能在系统架构和运维能力上迅速接近一个大的研发团队的水平。

此外,为了降低Kubernetes的应用门槛,我们(惠普中国CMS研发团队)开源了一个Kubernetes的管理平台Ku8 eye,项目地址为https://github.com/bestcloud/ku8eye,Ku8 eye很适合用作为小公司的内部PaaS应用管理平台,其功能架构类似图4所示的Ku8 Manager企业版,Ku8 eye采用Java开发完成,是目前唯一一个开源的Kubernetes图形化管理系统,也希望更多爱好开源和有能力的同行参与进来,将它打造成为国内最好的云计算领域的开源软件。

图4 基于Kubernetes的PaaS平台架构

作者简介:吴治辉,惠普公司系统架构师,拥有超过15年的软件研发经验,专注于电信软件和云计算方面的软件研发,同时也是《Kubernetes权威指南》作者之一。

本文转自d1net(转载)

网友评论

登录后评论
0/500
评论
晚来风急
+ 关注