云上持续交付实践系列3 --- Python 篇

简介: 云上持续交付实践系列3 --- Python 篇 阿里云持续交付平台CRP(Continuous Release Platform)作为一款开发人员手里的居家旅行,杀人越货的利器,必然有其广泛的应用场景。本文将会演示如何在如何使用阿里云持续交付平台部署一个Python应用。Python作为一种脚本

云上持续交付实践系列3 --- Python 篇

阿里云持续交付平台CRP(Continuous Release Platform)作为一款开发人员手里的居家旅行,杀人越货的利器,必然有其广泛的应用场景。本文将会演示如何在如何使用阿里云持续交付平台部署一个Python应用。Python作为一种脚本语言,经常与多种语言一起配合完成某些复杂的功能,与此同时,其强大的第三方库又进一步拓展了Python的应用领域。

应用概述

本文涉及两个项目,分别为基于Python的在线爬虫以及基于node.js的web服务器。这也是笔者日常生活中经常使用的脚本,现在拿出来与大家分享。其中Python爬虫的功能为投资分析,该爬虫可以根据基金用户买入赎回的操作记录,结合在线抓取的基金价格走势,确定下一步投资的方向;而node.js服务器为之前分析的结果提供展示的平台。这两个项目均已在阿里云Code平台开源,在线爬虫 https://code.aliyun.com/394062113/FundManager,web服务器 https://code.aliyun.com/394062113/FundManagerWeb。由于本项目是由两个独立的部分组成,前端展示系统与后端数据分析系统分属于两个不同的代码库,因此,配置本项目需要使用两条工作流,其中一条工作流用于配置Python部分,另一条工作流用于配置node部分。

使用CRP进行配置的流程

首先,需要在CRP中创建新项目,点击创建新项目的按钮,输入新项目的名称,即可完成CRP新项目的创建。项目创建完成后如图所示:

Python部分配置流程

配置CRP的工作流的第一步为创建工作流,在本文中,笔者采用的默认模板工作流。在工作流中,设置第一个节点的名称为Python代码检出。在CRP中,我们只需要在新建节点中配置代码更新的任务,即可完成代码更新的配置。该节点的配置如图所示:
python_


完成了Python代码检出,需要进行依赖文件的安装并且执行测试。在这一步中,笔者将第二个节点的名称设置为Python测试,因为在CRP中,编译、测试可以在一个任务中同时完成。具体做法如下:在第二个节点中新建一个“编译/测试”任务,根据项目的开发语言选择编译环境,再填写具体的依赖安装脚本以及测试执行指令,同时打开产出物上传的开关,将刚才运行的结果同时打包。该在线爬虫是使用Python3.5开发的,同时依赖了爬虫框架Scrapy,使用的是pip install安装依赖。因此该节点的配置如图所示:
python_


紧接着,需要将Python爬虫部署至服务器上,具体的做法是,从Python测试节点拉出一个新的节点,并且添加任务为“部署”,然后输入部署目标主机的IP地址、部署路径、部署脚本以及进行机器授权。这里需要特别注意的是机器授权的流程,由于CRP是通过ssh的方式对目标主机进行操作,因此需要在目标主机上添加authorized_keys的条目。具体的部署脚本如下:

cd /root/FundManager
tar -xf package.tgz

笔者采用的是阿里云ECS主机,以该主机为例,Python部署节点的配置如图所示:
python_


至此,本项目的Python部分的部署完毕,在线爬虫系统的数据部分已经成功部署至服务器,后续的工作是部署一个web展示模块,方便使用浏览器查看数据分析的结果。
python_

Node.js部分配置流程

页面展示模块采用的是Node.js的express作为http服务器,配置的第一步也同样为拉出一个节点,命名为Node代码检出,并且配置完node.js项目的git地址。该节点的配置如图所示:
node_


完成Node代码检出后,需要进行依赖文件的安装并且执行测试。在这一步中,笔者拉出一个新节点的名称设置为Node安装依赖,并且新建一个“编译/测试”任务,根据项目的开发语言选择编译环境,再填写具体的依赖安装脚本指令,同时打开产出物上传的开关,将环境依赖同时打包。该服务器是使用Node0.12开发的,同时依赖了express,使用的是npm install安装依赖。因此该节点的配置如图所示:
node_


最后一个步骤为将node.js项目部署至服务器上,由于之前已经配置过部署任务,因此本次部署任务不需要重新添加公钥,只需要配置IP地址,部署路径以及部署脚本即可。具体的部署脚本如下:

cd /root/FundManager  && tar -xf package.tgz
kill -9 `ps -ef | grep node | grep -v grep | awk '{print $2}'`
nohup node app.js &

该节点的配置如图所示:
node_
至此,Node工作流部署完毕,完整的工作流如图所示。
node_

测试发布效果

分别触发刚才配置的两条工作流,等待其执行完毕。在执行完毕后,在浏览器中访问项目的URL可以看到返回页面,证明CRP的发布成功。只需要一次配置,以后均可以在提交代码后直接运行该工作流进行部署,真正实现,一键测试,一键发布。Stop coding, start amazing!
_

目录
相关文章
|
1月前
|
缓存 算法 测试技术
Python中的装饰器:原理与实践
【2月更文挑战第29天】 在Python编程领域,装饰器是一种强大的工具,它允许我们在不修改原始函数代码的情况下,增加或修改函数的行为。本文将深入探讨Python装饰器的概念、实现原理以及实际应用,帮助读者掌握这一技术并在实际项目中灵活运用。
|
1月前
|
数据采集 数据挖掘 调度
异步爬虫实践攻略:利用Python Aiohttp框架实现高效数据抓取
本文介绍了如何使用Python的Aiohttp框架构建异步爬虫,以提升数据抓取效率。异步爬虫利用异步IO和协程技术,在等待响应时执行其他任务,提高效率。Aiohttp是一个高效的异步HTTP客户端/服务器框架,适合构建此类爬虫。文中还展示了如何通过代理访问HTTPS网页的示例代码,并以爬取微信公众号文章为例,说明了实际应用中的步骤。
|
3天前
|
机器学习/深度学习 搜索推荐 Python
Python特征工程面试:从理论到实践
【4月更文挑战第17天】本文探讨了Python在数据科学面试中的特征工程,涵盖基础概念如特征选择和提取,实战技能如缺失值和异常值处理,以及特定场景应用。强调避免过度依赖单一方法,忽视数据分布和相关性,以及保持特征工程的可解释性。提供代码示例展示了处理缺失值、标准化、特征选择和异常值检测的基本操作。建议结合业务理解,灵活运用多种方法并注重模型解释性。
19 9
|
6天前
|
机器学习/深度学习 数据采集 算法
scikit-learn入门指南:从基础到实践
【4月更文挑战第17天】这篇指南介绍了scikit-learn,一个Python数据分析和机器学习的重要库。内容涵盖安装、数据加载与预处理、模型训练(如KNN分类器)、评估、调参优化及高级应用,如降维和聚类。通过实例展示了scikit-learn在分类任务中的使用,强调其在数据科学中的重要性。要深入了解,可参考官方文档和实践案例。
|
11天前
|
开发者 索引 Python
实践:如何使用python在网页的表格里抓取信息
实践:如何使用python在网页的表格里抓取信息
|
29天前
|
数据可视化 数据挖掘 Python
Python中的数据可视化工具Matplotlib简介与实践
在本文中,我们将介绍Python中常用的数据可视化工具Matplotlib,包括其基本概念、常用功能以及实际应用。通过学习Matplotlib,读者可以更好地理解和运用数据可视化技术,提升数据分析与展示的能力。
|
1月前
|
运维 安全 网络安全
Python灰帽子网络安全实践
旨在降低网络防范黑客的入门门槛,适合所有中小企业和传统企业。罗列常见的攻击手段和防范方法,让网站管理人员都具备基本的保护能力。Python 编程的简单实现,让网络运维变得更简单。各种黑客工具的理论和原理解剖,让人知其然更知道防范于未来。涉及互联网和局域网,让企业级网管工作更轻松。涵盖Linux&Windows 的知识点。
14 1
|
1月前
|
测试技术 Python
探究Python中的装饰器应用及实践
本文将深入探讨Python中装饰器的概念、原理和应用,并结合实际案例详细介绍装饰器在代码中的作用,帮助读者更好地理解和运用这一重要的编程技术。
|
1月前
|
测试技术 开发者 Python
探索Python中的装饰器应用及实践
装饰器作为Python中一种强大的编程工具,在代码中起到了优雅简洁、重复利用的作用。本文将深入探讨Python中装饰器的定义、原理以及在实际项目中的应用,帮助读者更好地理解和运用装饰器提升代码的可维护性和扩展性。
|
1月前
|
程序员 Python
Python中的装饰器:从理论到实践
【2月更文挑战第25天】 在Python编程的世界中,装饰器是一种强大的工具,它允许程序员修改或增强函数和类的行为,而无需更改其源代码。本文将深入探讨装饰器的概念,解析其工作原理,并通过实例演示如何在Python中创建和使用装饰器。