1. 云栖社区>
  2. 全部标签>
  3. #selenium#
selenium

#selenium#

已有0人关注此标签

内容分类:
博客 | 问答 | 视频 | 资料 |

Python | Scrapy + Selenium模拟登录CSDN

本文旨在记录selenium的一些操作实例,没啥技术含量,也没有太多概念的内容。

python request url Driver selenium chrome html cookie scrapy utf-8 webdriver

简单应用Selenium+PhantomJS来抓取煎蛋网妹子图

那天有朋友找我一起抓妹子图片,像我这么正派的人,肯定是要抱着学习的目的……打开网页,哇!又…又要上火了。。。。 话不多说,先看看网页吧! 熟练的打开网页,找到妹子图,然后F12打开开发者工具,定位,ok,图片地...

函数 源码 浏览器 selenium

python爬虫零基础入门——反爬的简单说明

之前在《如何开始写你的第一个python脚本——简单爬虫入门!》中给大家分享了一下写一个爬虫脚本的基本步骤,今天继续分享给大家在初期遇到的一个很烦人的问题——反爬及处理办法! 我们的工具及库为:python3.6、pycharm、requests库 基本步骤:获取网页源代码——匹配需要的内容——提取并保存。

python 服务器 函数 random 浏览器 脚本 多线程 selenium session cookie

一个刷简书访问量的小程序(仅供学习,切勿他用)---Python-selenium的安装及初步使用

爬虫经常需要伪装浏览器进行爬取数据,爬虫与反爬虫的较量无时无刻不在上演,本期介绍爬虫神器selenium库的安装及使用! 0.效果展示 以我自己的文章为例 代码运行 结果:加上自己两次查看访问结果5+2=7 ...

浏览器 空格 selenium 自动化测试 demo Firefox input webdriver

Python---如何实现千图成像:初级篇(从图片爬取到图片合成)

千图成像:用N张图片拼凑成一张图片。实现原理:先将所要成像的图片转化成马赛克图片,然后从图库中用对应颜色的图片替换相应色块。图库中的图片处理:标记图库中每张图片的混合颜色,用于替换目标色块,并记录每张图片的特征用于成像,增加成像质量。

python 浏览器 测试 url selenium

使用selenium实现前程无忧简历自动刷新

image.png 使用过前程无忧,智联招聘等这些招聘网站的都知道,网站都会有一个简历刷新功能,hr那边检索简历都时候网站会根据求职者简历的刷新时间来进行排序,所以如果你想要你的简历排在前列,让hr一眼看见的话,那就勤刷新,隔段时间刷新一次,或者花钱购买网站提供的增值服务,帮你置顶。

浏览器 Driver selenium utf-8 webdriver

Java selenium操作下拉滚动条的几种方法

数据采集中,经常遇到动态加载的数据,我们经常使用selenium模拟浏览器操作,需要多次下拉刷新页面才能采集到所有的数据,就此总结了几种selenium操作下拉滚动条的几种方法我这里演示的是Java版本的,使用chromedriver,当然你可以换成python或其他语言,浏览器用firefox或者phantomjs(无头浏览器),大部分都是适用的,不同浏览器有略微的差异。

java 浏览器 selenium 数据采集 webdriver

Jenkins系列一:安装和简单配置

软件的持续集成工具之一,易上手,功能强大,话不多说,干货奉上。 我的博客地址:http://blog.lzoro.com 求关注~ Jenkins简单介绍 Jenkins是一个开源软件项目,旨在提供一个开放易用的软件平台,使软件的持续集成变成可能。

配置 持续集成 测试 脚本 插件 selenium plugin jenkins

MODIS数据的简介和下载(六)——基于浏览器模拟登陆下载的方式以及D3L Tool开发

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/ESA_DSQ/article/details/80365806 接上文,由于NASA官方弃用了FTP改用HTTPS服务,所以关于MODIS数据的下载方式有所改变。

python 浏览器 脚本 selenium 自动化测试 cmd 数据存储

在docker中远程调用PhantomJS

背景:写了一个爬虫程序使用的docker部署,部署后在docker中安装PhantomJS 比较麻烦,于是想到了再另一个docker容器中部署一个PhantomJS ,通过远程调用的方式来使用它 1.

docker windows string Driver selenium session page chrome webdriver

scrapy+selenium爬取UC头条网站

Scrapy是Python优秀的爬虫框架,selenium是非常好用的自动化WEB测试工具,两者结合可以非常容易对动态网页进行爬虫。 本文的需求是抓取UC头条各个板块的内容。

函数 url Driver class selenium scrapy webdriver parse

常用python爬虫框架整理

Python中好用的爬虫框架 一般比价小型的爬虫需求,我是直接使用requests库 + bs4就解决了,再麻烦点就使用selenium解决js的异步 加载问题。

python 分布式 浏览器 脚本 url class selenium html scrapy github

Macaca初体验-PC端(Python)

前言: Macaca 是一套面向用户端软件的测试解决方案,提供了自动化驱动,周边工具,集成方案。由阿里巴巴公司开源:http://macacajs.github.io/macaca/ 特点: 同时支持PC端和移动端(Android、iOS)自动化测试。

python 浏览器 测试 Driver Registry selenium 自动化测试 chrome webdriver

Selenium--调用js,对话框处理 (python)

前言: 本次教程针对Python语言,selenium教程(调用js,对话框处理) 一、对话框处理 更多的时候我们在实际的应用中碰到的并不是简单警告框,而是提供更多功能的会话框。 本节重点: 1、打开对话框 2、关闭对话框 3、操作对话框中的元素 4、window_handles 获得所有窗口 5、switch_to.windows 切换窗口 (selenium3中,switch_to_windows 更改为switch_to.windows ) 举例:某网站付款之前弹出阅读协议弹框,点击协议名称,打开新窗口并展示协议内容,见下图。

python javascript windows js Driver selenium

UI Recorder 安装教程(一)

前言: UI Recorder 是一款零成本UI自动化录制工具,类似于Selenium IDE. UI Recorder 要比Selenium IDE更加强大! UI Recorder 非常简单易用. 官方网站:http://uirecorder.com/ 本次教程只针对windows系统 步骤一:安装NodeJs http://nodejs.cn/ 手动安装 注意:(version >= v7.x) 步骤二:安装chrome 请勿安装破解版,如已安装,请跳过此步骤。

配置 js 测试 UI Server 脚本 test selenium index chrome 单元测试 cmd

Selenium--数据驱动(python)

前言: 什么是数据驱动? 从它的本意来解释,就是数据的改变从而驱动自动化测试的执行,最终引起测试结果的改变。其实就是参数化。 本次介绍2种文件驱动:ini文件和yaml文件 一、ini文件 1、定义 程序没有任何配置文件,那么它对外是全封闭的,一旦程序需要修改一些参数必须要修改程序代码本身并重新编译,为了让程序出厂后还能根据需要进行必要的配置,所以要用配置文件;配置文件有很多种,如INI配置文件,XML配置文件,cfg配置文件,还有就是可以使用系统注册表等。

python 配置 序列 xml selenium 自动化测试 数据结构 数据类型

Deepin(Linux系统)下的selenium+chrome配置

之前的驱动版本和浏览器版本对不上,在deepin下吃了这个亏……,记录一下 chrome 安装selenium 打开终端,通过命令进入虚拟环境(当然,不用虚拟环境的可以不用这个命令): source activate pspiders (pspiders是虚拟环境名称)激活当前虚拟环境,然后在里面通过pip命令安装selenuim: pip install selenium 即可完成。

linux 配置 浏览器 pip selenium chrome webdriver

免费人脸识别工具可以跟踪社交媒体网站上的人

2018年8月9日,斯瓦蒂·汗德瓦尔(Swati Khandelwal image.png image.png 社交媒体监控软件Trustwave的安全研究人员发布了新的开源工具,该工具使用面部识别技术在大量社交媒体网络中定位目标。

Image exception Driver selenium login webdriver 人脸识别

Python爬虫环境常用库安装

Python爬虫环境常用库安装 1:urllib urllib.request 这两个库是python自带的库,不需要重新安装,在python中输入如下代码: import urllib import urllib.

python 模块 配置 测试 request 正则表达式 selenium chrome html

上一页 1 ... 4 5 6 7 8 ... 35 下一页
35
GO