Python爬虫从入门到放弃 11 | Python爬虫实战–利用自动化神器Selenium爬取京东商品

SunriseCai 2020-11-13 11:28:34
Python 爬虫 入门 放弃


此博客仅为我业余记录文章所用,发布到此,仅供网友阅读参考,如有侵权,请通知我,我会删掉。
本文章纯野生,无任何借鉴他人文章及抄袭等。坚持原创!!

前言

你好。这里是Python爬虫从入门到放弃系列文章。我是SunriseCai。

结合视频食用,味道更佳。

Selenium爬取京东商城商品信息:https://www.bilibili.com/video/BV1Ka4y1i7Pz?p=4


本文章主要介绍利用Selenium爬虫程序去 获取京东商城的商品。

百度百科:Selenium

在这里插入图片描述
借助Selenium可以很方便的进行一些模拟的人为的浏览器操作。
用人话说就是,selenium会驱动浏览器去执行你的命令。

首先,建议移步官方文档进行系统的学习SeleniumSelenium官方文档
Selenium有很多知识,还请各位参考官方文档去进行系统的学习。

1. 安装Selenium

电脑配置selenium运行环境只需要三步:

  1. 安装selenium模块
  2. 下载webdriver驱动
  3. 配置环境变量

1.1 安装selenium模块

  • 安装Selenium模块。

pip install selenium

1.2 下载webdriver驱动

  • 下载一个与浏览器对应的webdriver驱动,本文章用chrome做演示。
浏览器
Chrome http://npm.taobao.org/mirrors/chromedriver/
Edge https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/
加粗样式 https://github.com/mozilla/geckodriver/releases
Safari https://webkit.org/blog/6900/webdriver-support-in-safari-10/
  • 看到我的chrome版本为80.0.3987.149
    在这里插入图片描述
  • webdriver下载页面这里,找到对应chrome版本的驱动下载即可。(只要版本号前面匹配了就可以,不必所有都一样)
    在这里插入图片描述

1.3 配置环境变量

配置环境变量有两种方法:

  1. 放到 Python安装目录下的Scripts文件夹里边;
  2. 执行时候指定webdriver驱动的路径。

(1)放到 Python安装目录下的Scripts文件夹里边
在这里插入图片描述


(2)执行时候指定webdriver驱动的路径。

例如我将chromedriver.exe驱动放在F盘的根目录下,那在执行selenium时候可以用executable_path指定webdriver驱动。

from selenium import webdriver
url = 'http://www.baidu.com'
browser = webdriver.Chrome(executable_path=r'F:\chromedriver.exe')
browser.get(url)

1.4 selenium简单示例

还是上面的代码,用百度来做示例。

from selenium import webdriver
url = 'http://www.baidu.com'
browser = webdriver.Chrome(executable_path=r'F:\chromedriver.exe') # 创建一个谷歌浏览器对象
browser.get(url) # 请求url
browser.save_screenshot('baidu.jpg') # 截图
browser.quit() # 退出浏览器对象

代码执行后,会发现本地文件夹下多了一个名为baidu.jpg的图片,看下图。
在这里插入图片描述

2. 分析京东商城页面

2.1 分析页面

打开首页,在搜索框输入需要搜索的商品。然后点击搜索
这里以口罩商品做演示。
在这里插入图片描述
获取搜索框的xpath表达式,如下图:
在这里插入图片描述
代码如下:

from selenium import webdriver
class JdSpider(object):
def __init__(self):
self.url = 'https://www.jd.com/'
options = webdriver.ChromeOptions()
options.add_argument("--start-maximized") # 最大化运行窗口 可不添加
self.browser = webdriver.Chrome(executable_path=r'F:\chromedriver.exe', options=options)
def __del__(self):
self.browser.close()
def search_goods(self):
self.browser.get(self.url)
self.browser.find_element_by_xpath('//*[@id="key"]').send_keys('口罩') # 输入内容
self.browser.find_element_by_xpath('//*[@id="search"]/div/div[2]/button').click() # 模拟点击按钮
if __name__ == '__main__':
spider = JdSpider()
spider.search_goods()

运行代码的结果如下:
在这里插入图片描述

2.2 需要提取的数据

接下来需要提取的内容就就是价格商品名称评价人数店铺名
在这里插入图片描述

后续的部分就不再解析了,剩点作业吧!!!

3. 完整代码

完整代码可以参考该博文,python爬虫入门 * selenium 爬取京东的所有商品信息 – 点击直达,没错,也是我水的博文。


  • 有任何疑问请先自己动手解决,尽信书则不如无书。
  • 实在解决不了可以一起交流。

最后来总结一下本章的内容:

  1. 介绍了Selenium的安装和配置环境等;
  2. 介绍了Selenium的简单示例等;
  3. 介绍了利用Selenium爬虫程序下载京东商城的商品信息。

sunrisecai

  • 感谢你的耐心观看,点关注,不迷路。
  • 为方便菜鸡互啄,欢迎加入QQ群组织:648696280

下一篇文章,名为 《Python爬虫从入门到放弃 12 | 结语》

版权声明
本文为[SunriseCai]所创,转载请带上原文链接,感谢
https://blog.csdn.net/weixin_45081575/article/details/105227467

  1. 利用Python爬虫获取招聘网站职位信息
  2. Using Python crawler to obtain job information of recruitment website
  3. Several highly rated Python libraries arrow, jsonpath, psutil and tenacity are recommended
  4. Python装饰器
  5. Python实现LDAP认证
  6. Python decorator
  7. Implementing LDAP authentication with Python
  8. Vscode configures Python development environment!
  9. In Python, how dare you say you can't log module? ️
  10. 我收藏的有关Python的电子书和资料
  11. python 中 lambda的一些tips
  12. python中字典的一些tips
  13. python 用生成器生成斐波那契数列
  14. python脚本转pyc踩了个坑。。。
  15. My collection of e-books and materials about Python
  16. Some tips of lambda in Python
  17. Some tips of dictionary in Python
  18. Using Python generator to generate Fibonacci sequence
  19. The conversion of Python script to PyC stepped on a pit...
  20. Python游戏开发,pygame模块,Python实现扫雷小游戏
  21. Python game development, pyGame module, python implementation of minesweeping games
  22. Python实用工具,email模块,Python实现邮件远程控制自己电脑
  23. Python utility, email module, python realizes mail remote control of its own computer
  24. 毫无头绪的自学Python,你可能连门槛都摸不到!【最佳学习路线】
  25. Python读取二进制文件代码方法解析
  26. Python字典的实现原理
  27. Without a clue, you may not even touch the threshold【 Best learning route]
  28. Parsing method of Python reading binary file code
  29. Implementation principle of Python dictionary
  30. You must know the function of pandas to parse JSON data - JSON_ normalize()
  31. Python实用案例,私人定制,Python自动化生成爱豆专属2021日历
  32. Python practical case, private customization, python automatic generation of Adu exclusive 2021 calendar
  33. 《Python实例》震惊了,用Python这么简单实现了聊天系统的脏话,广告检测
  34. "Python instance" was shocked and realized the dirty words and advertisement detection of the chat system in Python
  35. Convolutional neural network processing sequence for Python deep learning
  36. Python data structure and algorithm (1) -- enum type enum
  37. 超全大厂算法岗百问百答(推荐系统/机器学习/深度学习/C++/Spark/python)
  38. 【Python进阶】你真的明白NumPy中的ndarray吗?
  39. All questions and answers for algorithm posts of super large factories (recommended system / machine learning / deep learning / C + + / spark / Python)
  40. [advanced Python] do you really understand ndarray in numpy?
  41. 【Python进阶】Python进阶专栏栏主自述:不忘初心,砥砺前行
  42. [advanced Python] Python advanced column main readme: never forget the original intention and forge ahead
  43. python垃圾回收和缓存管理
  44. java调用Python程序
  45. java调用Python程序
  46. Python常用函数有哪些?Python基础入门课程
  47. Python garbage collection and cache management
  48. Java calling Python program
  49. Java calling Python program
  50. What functions are commonly used in Python? Introduction to Python Basics
  51. Python basic knowledge
  52. Anaconda5.2 安装 Python 库(MySQLdb)的方法
  53. Python实现对脑电数据情绪分析
  54. Anaconda 5.2 method of installing Python Library (mysqldb)
  55. Python implements emotion analysis of EEG data
  56. Master some advanced usage of Python in 30 seconds, which makes others envy it
  57. python爬取百度图片并对图片做一系列处理
  58. Python crawls Baidu pictures and does a series of processing on them
  59. python链接mysql数据库
  60. Python link MySQL database