浅尝Kubeflow系列:阿里云上小试TFJob

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
对象存储 OSS,内容安全 1000次 1年
简介: ## 介绍 本系列将介绍如何在阿里云容器服务上运行[Kubeflow](https://github.com/kubeflow/kubeflow), 本文介绍如何使用`TfJob`运行模型训练。 ## TFJob简介 模型训练是机器学习最主要的实践场景,尤其以使用机器学习框架TensorFlow进行模型训练最为流行,但是随着机器学习的平台由单机变成集群,这个问题变得复杂了。GPU

介绍

本系列将介绍如何在阿里云容器服务上运行Kubeflow, 本文介绍如何使用TfJob运行模型训练。

TFJob简介

模型训练是机器学习最主要的实践场景,尤其以使用机器学习框架TensorFlow进行模型训练最为流行,但是随着机器学习的平台由单机变成集群,这个问题变得复杂了。GPU的调度和绑定,涉及到分布式训练的编排和集群规约属性的配置(cluster spec)也成了数据科学家们巨大的负担。

为了解决这一问题,一个新的资源类型TFJob,即TensorFlow Job被定义出来了。通过这个资源类型,使用TensorFlow的数据科学家无需编写复杂的配置,只需要关注数据的输入,代码的运行和日志的输入输出。

TFJob 定义

简单介绍一下TFJob的定义, TFJob实际上遵循Kubernetes标准的API定义。本文介绍v1alpha1的版本,对于v1alpha2,Kubeflow 0.2会支持,目前仍在开发中。

TFJob 对象

| 属性 | 类型| 描述 |
|-------|-----|-------------|
| apiVersion | string | api版本,目前为 kubeflow.org/v1alpha1 |
| kind | string | Value representing the REST resource this object represents. In our case it's TFJob |
| metadata | ObjectMeta| 标准元数据定义. |
| spec | TFJobSpec | TensorFlow job的定义 |

其中spec 非常重要,以下是其定义。

TFJobSpec 对象

属性 类型 描述
ReplicaSpecs TFReplicaSpec 类型数组 定义一组参加TensorFlow模型训练的成员

具体的TFReplicaSpec定义:

TFReplicaSpec 对象

属性 类型 描述
TfReplicaType string 参加TensorFlow模型训练的成员类型, 可以是 MASTER, WORKER 或者 PS。当单机训练的时候,只需要指定Master类型。
Replicas int 当前成员类型的数量,默认为 1.
Template PodTemplateSpec 这里是完全遵循Kubernetes Pod模板的定义,具体可以参考 Pod定义

前提要求

  • Kubernetes集群包含GPU的能力
  • Kubeflow核心模块安装

可以通过以下命令确认tf-operator这个核心组件已经正常启动

kubectl get deploy -n kubeflow tf-job-operator
NAME              DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
tf-job-operator   1         1         1            1           1m

运行TFJob进行训练

其实数据科学家运行模型训练关心的是三件事:

  1. 数据从哪里来
  2. 如何运行机器学习的代码
  3. 训练结果(模型和日志)到哪里去

对于运行在桌面机上的机器学习代码来说,这是很容易的事情;但是如果您的运行时环境是多台机器的集群环境,这个工作就变得复杂了。而TFJob希望机器学习训练的工程师们在集群的控制节点上实现中心化的配置管理,并且只需要了解如何编写和配置TFJob就能够像在单机上运行机器学习代码。

本文将提供三个例子阐述如何在云上使用数据和训练结果:

1. 数据和训练结果都在容器内

以下为示例yaml:

apiVersion: kubeflow.org/v1alpha1
kind: TFJob
metadata:
  name: mnist-simple-gpu
spec:
  replicaSpecs:
    - template:
        spec:
          containers:
            - image: registry.aliyuncs.com/kubeflow-images-public/tf-mnist:gpu
              name: tensorflow
              command: ["python", "/app/main.py"]
              resources:
                limits:
                  nvidia.com/gpu: 1
          restartPolicy: OnFailure

其中mnist代码来自 https://github.com/cheyang/tensorflow-sample-code/tree/master/tfjob/docker/mnist

将该模板保存到mnist-simple-gpu.yaml, 并且创建TFJob:

# kubectl create -f mnist-simple-gpu.yaml

现在可以看到TFJob资源已经被创建了:

# kubectl get tfjob
NAME               AGE
mnist-simple-gpu   1m

获得该TFJob的RUNTIME ID,这个RUNTIME ID是TFJob和其对应Pod之间的关联

# RUNTIMEID=$(kubectl get tfjob mnist-simple-gpu -o=jsonpath='{.spec.RuntimeId}')

根据RUNTIME ID查询对应执行该训练任务

# kubectl get po -lruntime_id=$RUNTIMEID
NAME                                   READY     STATUS    RESTARTS   AGE
mnist-simple-gpu-master-825k-0-23033   1/1       Running   0          1m

在Pod运行过程中,可以通过kubectl logs检查训练日志:

# kubectl logs mnist-simple-gpu-master-825k-0-23033 
[...]
2018-06-04 11:20:01.014330: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1120] Creating TensorFlow device (/device:GPU:0) -> (device: 0, name: Tesla P100-PCIE-16GB, pci bus id: 0000:00:08.0, compute capability: 6.0)
2018-06-04 11:20:06.612938: I tensorflow/stream_executor/dso_loader.cc:139] successfully opened CUDA library libcupti.so.8.0 locally
Successfully downloaded train-images-idx3-ubyte.gz 9912422 bytes.
Extracting /data/tensorflow/input_data/train-images-idx3-ubyte.gz
Successfully downloaded train-labels-idx1-ubyte.gz 28881 bytes.
Extracting /data/tensorflow/input_data/train-labels-idx1-ubyte.gz
Successfully downloaded t10k-images-idx3-ubyte.gz 1648877 bytes.
Extracting /data/tensorflow/input_data/t10k-images-idx3-ubyte.gz
Successfully downloaded t10k-labels-idx1-ubyte.gz 4542 bytes.
Extracting /data/tensorflow/input_data/t10k-labels-idx1-ubyte.gz
Accuracy at step 0: 0.1446
Accuracy at step 10: 0.7515
Accuracy at step 20: 0.8397
Accuracy at step 30: 0.8606
...
Accuracy at step 980: 0.9642
Accuracy at step 990: 0.9662
Adding run metadata for 999
[...]

从日志中可以看到该训练过程需要先下载数据,再在GPU上进行训练,但是训练出来的结果只是留在了容器里,难于导出。

如果需要将模型导出,就需要借用Kubernetes的数据卷,我们来看一下第二个例子:

2. 将训练结果保存在OSS上

2.1 创建OSS数据卷kubeflow-oss,具体可以参考文档创建OSS Bucket

2.2 创建OSS的PV, 以下为示例oss-pv.yaml

apiVersion: v1
kind: PersistentVolume
metadata:
  name: kubeflow-oss-mnist
  labels:
    tfjob: kubeflow-oss-mnist
spec:
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteMany
  storageClassName: oss
  flexVolume:
    driver: "alicloud/oss"
    options:
      bucket: "kubeflow-oss"
      url: "oss-cn-hangzhou.aliyuncs.com"
      akId: ***
      akSecret: ***
      otherOpts: "-o allow_other"

akId, akSecret为访问OSS 所需的 AccessKey

url为oss Bucket的访问域名,如果 BucketECS 实例位于不同地域(Region),请选择 外网域名;如果位于相同地域,需要根据集群网络类型进行选择,若是 VPC 网络,请选择 VPC域名,若是经典网络,请选择 内网域名

更多细节,请参考kubernetes配置数据卷

# kubectl create -f oss-pv.yaml
persistentvolume "kubeflow-oss-mnist" created

2.3 利用oss-pvc.yaml创建PVC

kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: kubeflow-oss-mnist
spec:
  storageClassName: oss
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 5Gi
  selector:
    matchLabels:
      tfjob: kubeflow-oss-mnist

具体命令:

# kubectl create -f oss-pvc.yaml
persistentvolumeclaim "kubeflow-oss-mnist" created

一旦完成,就可以运行kubectl get pvc检查pvc的创建结果:

# kubectl get pvc kubeflow-oss-mnist
NAME                 STATUS    VOLUME               CAPACITY   ACCESS MODES   STORAGECLASS   AGE
kubeflow-oss-mnist   Bound     kubeflow-oss-mnist   10Gi       RWX            oss            1d

2.4 创建TFJob

apiVersion: kubeflow.org/v1alpha1
kind: TFJob
metadata:
  name: mnist-simple-gpu-oss
spec:
  replicaSpecs:
    - template:
        spec:
          containers:
            - image: registry.aliyuncs.com/kubeflow-images-public/tf-mnist:gpu
              name: tensorflow
              env:
              - name: TEST_TMPDIR
                value: /data
              command: ["python", "/app/main.py"]
              resources:
                limits:
                  nvidia.com/gpu: 
              volumeMounts:
              - name: kubeflow-oss-mnist
                mountPath: "/data"
          volumes:
            - name: kubeflow-oss-mnist
              persistentVolumeClaim:
                claimName: kubeflow-oss-mnist
          restartPolicy: OnFailure

将该模板保存到mnist-simple-gpu-oss.yaml, 并且创建TFJob:

# kubectl create -f mnist-simple-gpu-oss.yaml
tfjob "mnist-simple-gpu-oss" created

一旦TFJob运行, 就能从OSS的客户端看到保存的模型文件,这些文件就会永远保存到OSS Bucket中。

oss-tfjobs.jpg

3. 利用NAS上的训练数据进行模型训练

3.1 创建NAS数据卷,并且设置与当前Kubernetes集群的同一个具体vpc的挂载点。操作详见文档

3.2 在NAS上创建 /tfdata/tensorflow/input_data的数据文件夹, 下载mnist训练所需要的数据

mkdir /nfs
mount -t nfs -o vers=4.0 0fc844b526-rqx39.cn-hangzhou.nas.aliyuncs.com:/ /nfs
mkdir -p /nfs/tfdata/tensorflow/input_data
cd /nfs/tfdata/tensorflow/input_data
wget https://raw.githubusercontent.com/cheyang/tensorflow-sample-code/master/data/t10k-images-idx3-ubyte.gz
wget https://raw.githubusercontent.com/cheyang/tensorflow-sample-code/master/data/t10k-labels-idx1-ubyte.gz
wget https://raw.githubusercontent.com/cheyang/tensorflow-sample-code/master/data/train-images-idx3-ubyte.gz
wget https://raw.githubusercontent.com/cheyang/tensorflow-sample-code/master/data/train-labels-idx1-ubyte.gz
cd /
umount /nfs

3.3 创建NAS的PV, 以下为示例nas-pv.yaml

apiVersion: v1
kind: PersistentVolume
metadata:
  name: kubeflow-nas-mnist
  labels:
    tfjob: kubeflow-nas-mnist
spec:
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteMany
  storageClassName: nas
  flexVolume:
    driver: "alicloud/nas"
    options:
      mode: "755"
      path: /tfdata
      server: 0fc844b526-rqx39.cn-hangzhou.nas.aliyuncs.com
      vers: "4.0"

3.4 利用nas-pvc.yaml创建PVC

kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: kubeflow-nas-mnist
spec:
  storageClassName: nas
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 5Gi
  selector:
    matchLabels:
      tfjob: kubeflow-nas-mnist

具体命令:

# kubectl create -f nas-pvc.yaml
persistentvolumeclaim "kubeflow-nas-mnist" created

3.5 创建TFJob

apiVersion: kubeflow.org/v1alpha1
kind: TFJob
metadata:
  name: mnist-simple-gpu-nas
spec:
  replicaSpecs:
    - template:
        spec:
          containers:
            - image: registry.aliyuncs.com/kubeflow-images-public/tf-mnist:gpu
              name: tensorflow
              env:
              - name: TEST_TMPDIR
                value: /tfdata
              command: ["python", "/app/main.py"]
              resources:
                limits:
                  nvidia.com/gpu: 
              volumeMounts:
              - name: kubeflow-nas-mnist
                mountPath: "/tfdata"
          volumes:
            - name: kubeflow-nas-mnist
              persistentVolumeClaim:
                claimName: kubeflow-nas-mnist
          restartPolicy: OnFailure

将该模板保存到mnist-simple-gpu-nas.yaml, 并且创建TFJob:

# kubectl create -f mnist-simple-gpu-nas.yaml
tfjob "mnist-simple-gpu-nas" created

通过kubectl logs检查训练日志, 可以看到这里的数据无需下载,直接解包就可以开始训练:

# kubectl logs mnist-simple-gpu-master-825k-0-23033 
[...]
2018-06-06 11:12:55.968267: I tensorflow/stream_executor/dso_loader.cc:139] successfully opened CUDA library libcupti.so.8.0 locally
Extracting /tfdata/tensorflow/input_data/train-images-idx3-ubyte.gz
Extracting /tfdata/tensorflow/input_data/train-labels-idx1-ubyte.gz
Extracting /tfdata/tensorflow/input_data/t10k-images-idx3-ubyte.gz
Extracting /tfdata/tensorflow/input_data/t10k-labels-idx1-ubyte.gz
Accuracy at step 0: 0.1446
Accuracy at step 10: 0.7515
Accuracy at step 20: 0.8397
Accuracy at step 30: 0.8606
...
Accuracy at step 980: 0.9642
Accuracy at step 990: 0.9662
Adding run metadata for 999
[...]

通过TFJob UI查看训练状态

1. 可以通过kubectl命令查看Jupyter Hub的外网访问ip, 在本例子里,外网ip为120.55.145.9

#  kubectl get svc -n kubeflow tf-job-dashboard
NAME               TYPE           CLUSTER-IP     EXTERNAL-IP    PORT(S)        AGE
tf-job-dashboard   LoadBalancer   172.19.9.247   120.55.145.9   80:30911/TCP   2d

注意由于Kubeflow的TFJob目前仅仅提供http访问,并不推荐在生产环境使用LoadBalancer模式的Service,建议在生产环境,可以使用kubectl proxy的模式访问

2. 查看TFJob的UI界面

tf-job-ui.jpg

总结

tf-operator是Kubeflow的第一个CRD实现,解决的是TensorFlow模型训练的问题,它提供了广泛的灵活性和可配置,可以与阿里云上的NAS,OSS无缝集成,并且提供了简单的UI查看训练的历史记录。可以称得上是数据科学家用于TensorFlow模型训练的利器,与此同时Kubeflow社区还提供了包括pytorch-operator等其他机器学习框架的支持。

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
存储 机器学习/深度学习 Kubernetes
kubeflow系列:基于国内阿里云镜像解决kubeflow一键安装
google出品在国内都存在墙的问题,而kubeflow作为云原生的机器学习套件对团队的帮助很大,对于无条件的团队,基于国内镜像搭建kubeflow可以帮助大家解决不少麻烦,这里给大家提供一套基于国内阿里云镜像的kubeflow 0.6的安装方案。
8744 0
kubeflow系列:基于国内阿里云镜像解决kubeflow一键安装
|
机器学习/深度学习
《阿里云 Kubernetes+Kubeflow – 加速深度学习实验的利器》电子版地址
阿里云 Kubernetes+Kubeflow – 加速深度学习实验的利器
129 0
《阿里云 Kubernetes+Kubeflow – 加速深度学习实验的利器》电子版地址
|
存储 机器学习/深度学习 Kubernetes
kubeflow系列(一):基于国内阿里云镜像解决kubeflow一键安装
google出品在国内都存在墙的问题,而kubeflow作为云原生的机器学习套件对团队的帮助很大,对于无条件的团队,基于国内镜像搭建kubeflow可以帮助大家解决不少麻烦,这里给大家提供一套基于国内阿里云镜像的kubeflow 0.6的安装方案。
4570 0
|
机器学习/深度学习 固态存储 容器
像Google一样构建机器学习系统 - 在阿里云上搭建Kubeflow Pipelines
谈到机器学习工作流平台,Google的工程经验非常丰富,它的TensorFlow Extended机器学习平台支撑了Google的搜索,翻译,视频等核心业务;更重要的是其对机器学习领域工程效率问题的理解深刻,
5432 0
|
TensorFlow 算法框架/工具 对象存储
Kubeflow实战系列:阿里云上小试TFJob
`tf-operator`是Kubeflow的第一个CRD实现,解决的是TensorFlow模型训练的问题,它提供了广泛的灵活性和可配置,可以与阿里云上的NAS,OSS无缝集成,并且提供了简单的UI查看训练的历史记录。
10461 0
|
TensorFlow 算法框架/工具 容器
Kubeflow实战系列:阿里云上使用JupyterHub
介绍 本系列将介绍如何在阿里云容器服务上运行Kubeflow, 本文介绍如何使用Jupyter Hub。 背景介绍 时间过得真快,李世乭和AlphaGo的人机对弈已经是两年前的事情。在过去的两年中,人工智能开始从学术界向工业界转型,基于人工智能技术的产品化落地和工业界方案的探索正如火如荼的进行。
16422 0
|
29天前
|
Ubuntu JavaScript 关系型数据库
在阿里云Ubuntu 20.04服务器中搭建一个 Ghost 博客
在阿里云Ubuntu 20.04服务器上部署Ghost博客的步骤包括创建新用户、安装Nginx、MySQL和Node.js 18.x。首先,通过`adduser`命令创建非root用户,然后安装Nginx和MySQL。接着,设置Node.js环境,下载Nodesource GPG密钥并安装Node.js 18.x。之后,使用`npm`安装Ghost-CLI,创建Ghost安装目录并进行安装。配置过程中需提供博客URL、数据库连接信息等。最后,测试访问前台首页和后台管理页面。确保DNS设置正确,并根据提示完成Ghost博客的配置。
在阿里云Ubuntu 20.04服务器中搭建一个 Ghost 博客
|
1月前
|
存储 分布式计算 网络协议
阿里云服务器内存型r7、r8a、r8y实例区别参考
在阿里云目前的活动中,属于内存型实例规格的云服务器有内存型r7、内存型r8a、内存型r8y这几个实例规格,相比于活动内的经济型e、通用算力型u1实例来说,这些实例规格等性能更强,与计算型和通用型相比,它的内存更大,因此这些内存型实例规格主要适用于数据库、中间件和数据分析与挖掘,Hadoop、Spark集群等场景,本文为大家介绍内存型r7、r8a、r8y实例区别及最新活动价格,以供参考。
阿里云服务器内存型r7、r8a、r8y实例区别参考
|
1月前
|
SQL 弹性计算 安全
购买阿里云活动内云服务器之后设置密码、安全组、增加带宽、挂载云盘教程
当我们通过阿里云的活动购买完云服务器之后,并不是立马就能使用了,还需要我们设置云服务器密码,配置安全组等基本操作之后才能使用,有的用户还需要购买并挂载数据盘到云服务器上,很多新手用户由于是初次使用阿里云服务器,因此并不知道这些设置的操作流程,下面给大家介绍下这些设置的具体操作流程。
购买阿里云活动内云服务器之后设置密码、安全组、增加带宽、挂载云盘教程
|
1月前
|
弹性计算
阿里云3M带宽云服务器并发多大?阿里云3M带宽云服务器测评参考
在探讨云服务器3M带宽能支持多大并发这一问题时,我们首先要明白一个关键点:并发量并非仅由带宽决定,还与网站本身的大小密切相关。一般来说,一个优化良好的普通网站页面大小可能只有几K,为便于计算,我们可以暂且假定每个页面大小为50K。
818 1

热门文章

最新文章