python selenium自动化,python+selenium自动化测试
本文介绍了Python-Selenium自动爬虫。Selenium是一个Web自动化测试工具,最初是为网站自动化测试而开发的。Selenium可以直接在浏览器上运行。它支持所有主流浏览器,并且可以接收指令,让浏览器自动加载页面,获取所需数据,甚至可以截图页面。有需要的朋友可以参考一下。
00-1010 1.安装2。下载浏览器驱动程序3。例3.1下载相应版本的浏览器驱动3.2测试代码,打开一个网页,得到网页的标题3.3一个小样本3.4自动进入并跳转4。开启无头模式5。保存第6页的截图。模拟输入并点击6.1根据文本值找到节点6.2获取当前节点的文本6.3打印当前网页的部分信息6.4关闭浏览器驱动程序. close() #关闭当前网页6.5模拟鼠标滚动7.ChromeOptions8 .验证滑块移动9 .打开多个窗口和页面切换10。Cookie操作11。模拟登录12。简单介绍:的优势和劣势
Selenium是一个Web自动化测试工具,最初是为网站自动化测试而开发的。Selenium可以直接在浏览器上运行。它支持所有主流浏览器(包括PhantomJS,它没有接口(2018年开发者说暂停开发,chromedriver也可以实现同样的功能)),可以接收指令,让浏览器自动加载页面,获取需要的数据,甚至可以对页面进行截屏。
目录
皮普安装硒-I https://pypi.tuna.tsinghua.edu.cn/simple
1.安装
这里使用的谷歌浏览器
http://npm.taobao.org/mirrors/chromedriver/
检查您的浏览器版本并下载相应的驱动程序。
将解压缩后的驱动程序放入python.exe目录。
2.下载浏览器驱动
3.实例
http://npm.taobao.org/mirrors/chromedriver/
把解压后的驱动放在自己的python.exe 目录下
3.1下载对应版本的浏览器驱动
从selenium.webdriver导入Chrome
if __name__==__main__:
web=Chrome()
web.get(https://baidu.com )
打印(网页标题)
3.2测试code,打开一个网页,并获取网页的标题
y;">from selenium.webdriver import Chrome
if __name__ == __main__:
web = Chrome()
url = https://ac.nowcoder.com/acm/home
web.get(url)
# 获取要点击的a标签
el = web.find_element_by_xpath(/html/body/div/div[3]/div[1]/div[1]/div[1]/div/a)
# 点击
el.click() # "/html/body/div/div[3]/div[1]/div[2]/div[2]/div[2]/div[1]/h4/a"
# 爬取想要的内容
lists = web.find_elements_by_xpath("/html/body/div/div[3]/div[1]/div[2]/div[@class=platform-item js-item ]/div["
"2]/div[1]/h4/a")
print(len(lists))
for i in lists:
print(i.text)
3.4自动输入并跳转
from selenium.webdriver import Chrome
4.开启无头模式
是否开启无头模式(即是否需要界面)
from selenium.webdriver import Chrome
5.保存页面截图
from selenium.webdriver import Chrome
6.模拟输入和点击
from selenium.webdriver import Chrome
貌似现在百度可以识别出selenium
,还需要图片验证。
6.1根据文本值查找节点
# 找到文本值为百度一下的节点
6.2获取当前节点的文本
ele.text # 获取当前节点的文本
6.3打印当前网页的一些信息
print(driver.page_source) # 打印网页的源码
6.4关闭浏览器driver.close() # 关闭当前网页
driver.close() # 关闭当前网页
6.5模拟鼠标滚动
from selenium.webdriver import Chrome
7.ChromeOptions
options = webdriver.ChromeOptions()
8.验证滑块移动
目标:滑动验证码
1.定位按钮
2.按住滑块
3.滑动按钮
import time
9.打开多窗口和页面切换
有时候窗口中有很多子tab页面。这时候肯定是需要进行切换的。selenium提供了一个叫做switch_to_window来进行切换,具体切换到哪个页面,可以从driver.window_handles
中找到
from selenium import webdriver
10.Cookie操作
# 1.获取所有的cookie:
11.模拟登录
这里模拟登录我们学校教务处:
from selenium.webdriver import Chrome
因为没有滑块啥的验证,所以就很简单qwq。然后后面进行自己的操作即可。
12.优缺点
selenium能够执行页面上的js,对于js渲染的数据和模拟登陆处理起来非常容易。
selenium由于在获取页面的过程中会发送很多请求,所以效率非常低,所以在很多时候需要酌情使用。
到此这篇关于Python-Selenium自动化爬虫的文章就介绍到这了,更多相关 Selenium自动化爬虫内容请搜索盛行IT软件开发工作室以前的文章或继续浏览下面的相关文章希望大家以后多多支持盛行IT软件开发工作室!
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。