《Python数据可视化编程实战》——1.7 安装requests模块

简介:

本节书摘来自异步社区《Python数据可视化编程实战》一书中的第1章,第1.7节,作者[爱尔兰]Igor Milovanović ,颛青山 译,更多章节内容可以访问云栖社区“异步社区”公众号查看。

1.7 安装requests模块

我们需要的大部分数据都可以通过HTTP或类似协议获得,因此我们需要一些工具来实现数据访问。Python的requests库能让这部分工作变得轻松起来。

虽然Python提供的urllib2模块提供了访问远程资源的能力以及对HTTP协议的支持,但使用该模块完成基础任务的工作量还是很大的。

Request模块提供新的API,减轻了使用web服务的痛苦,使其变得更直接。Requests封装了很多HTTP 1.1的内容,仅在需要实现非默认行为的情况下才需要暴露相关内容。

1.7.1 操作步骤

安装requests模块最好的方式是使用pip。安装命令如下。

$ pip install requests

也可以在virtualenv虚拟环境中执行安装命令,如果并不是所有项目都需要requests,或是不同的项目需要使用不同版本的requests。

为了更快地理解requests的功能,下面是一个使用requests的小例子。

import requests
r = requests.get('http://github.com/timeline.json')
print r.content

1.7.2 requests使用说明

在本例中,我们向www.github.com站点的URI发送HTTP GET请求,以JSON格式返回了GitHub网站的活动时间表(也可以通过访问https://github.com/timeline 得到HTML版本的活动时间表)。在成功读取HTTP响应后,对象r包含了HTTP响应内容以及其他属性信息(HTTP状态码、cookies、HTTP头元数据,甚至包括当前响应所对应的请求信息)。

相关文章
|
1天前
|
5G Python
Windows11搭建Python环境(Anaconda安装与使用)
Windows11搭建Python环境(Anaconda安装与使用)
9 0
|
1天前
|
开发者 Python
Python的os模块详解
Python的os模块详解
11 0
|
2天前
|
数据采集 存储 JSON
Python爬虫面试:requests、BeautifulSoup与Scrapy详解
【4月更文挑战第19天】本文聚焦于Python爬虫面试中的核心库——requests、BeautifulSoup和Scrapy。讲解了它们的常见问题、易错点及应对策略。对于requests,强调了异常处理、代理设置和请求重试;BeautifulSoup部分提到选择器使用、动态内容处理和解析效率优化;而Scrapy则关注项目架构、数据存储和分布式爬虫。通过实例代码,帮助读者深化理解并提升面试表现。
11 0
|
4天前
|
数据挖掘 API 数据安全/隐私保护
python请求模块requests如何添加代理ip
python请求模块requests如何添加代理ip
|
6天前
|
测试技术 Python
Python 有趣的模块之pynupt——通过pynput控制鼠标和键盘
Python 有趣的模块之pynupt——通过pynput控制鼠标和键盘
|
6天前
|
Serverless 开发者 Python
《Python 简易速速上手小册》第3章:Python 的函数和模块(2024 最新版)
《Python 简易速速上手小册》第3章:Python 的函数和模块(2024 最新版)
39 1
|
6天前
|
数据可视化 数据挖掘 定位技术
Python 基于 Matplotlib 实现数据可视化(二)
Python 基于 Matplotlib 实现数据可视化(二)
19 0
|
8天前
|
数据可视化 算法 API
Python数据可视化-seaborn Iris鸢尾花数据
Python数据可视化-seaborn Iris鸢尾花数据
14 0
|
8天前
|
Python
python学习-函数模块,数据结构,字符串和列表(下)
python学习-函数模块,数据结构,字符串和列表
49 0
|
测试技术 Python
python接口自动化测试 - requests库的post请求进行文件下载
python接口自动化测试 - requests库的post请求进行文件下载
609 0

热门文章

最新文章