Python爬虫从入门到放弃 08 | Python爬虫实战--下载英雄联盟全英雄皮肤

SunriseCai 2020-11-13 11:28:47
Python 爬虫 入门 放弃


此博客仅为我业余记录文章所用,发布到此,仅供网友阅读参考,如有侵权,请通知我,我会删掉。
本文章纯野生,无任何借鉴他人文章及抄袭等。坚持原创!!

前言

你好。这里是Python爬虫从入门到放弃系列文章。我是SunriseCai。

结合视频观看,味道更佳!

【Python爬虫入门案例】爬取英雄联盟全皮肤:https://www.bilibili.com/video/BV1nQ4y1T7k2


本文章主要介绍利用爬虫程序下载 英雄联盟的 所有英雄的皮肤。

英雄联盟英雄库:https://lol.qq.com/data/info-heros.shtml

1. 文章思路

看看英雄联盟网站,如下多图所示:

  • 首页(一级页面)
    在这里插入图片描述
  • 皮肤页面(二级页面)
    在这里插入图片描述
  • 图片(三级页面)
    在这里插入图片描述

通过上面几张图片可以看出,这一套下来依旧是个俄罗斯套娃!!!

  1. 访问 首页(一级页面) 获取 所有英雄链接(二级页面)
  2. 访问 英雄链接(二级页面) 获取 图片链接(三级页面)
  3. 访问 图片链接(三级页面),保存图片。在这里插入图片描述

那么,接下来的就是用代码实现下载图片了。

2. 请求 + 分析 网页

上面有说到,本文章的需请求的首页为https://lol.qq.com/data/info-heros.shtml

2.1 请求首页

浏览器打开 网站首页,点击F12,进入开发者模式。看看页面结构,发现了二级页面的链接就在<li>标签里面。perfect !!!

在这里插入图片描述

  • 相信细心的你已经发现,二级页面url的规律为:https://lol.qq.com/data/info-defail.shtml?id= 这一串字符后面跟一个数字,那这个数字是如何而来的呢?下面会讲解到。

首页请求代码:

import requests
url = 'https://lol.qq.com/data/info-heros.shtml'
headers = {

'User-Agent': 'Mozilla/5.0'
}
def get_hero_list():
res = requests.get(url, headers=headers)
if res.status_code == 200:
print(res.text)
else:
print('your code is fail')

!!!
执行上述代码之后,发现并没有上图中的<li>标签的内容,这是怎么回事呢?<li>标签的内容极有可能是通过xhr异步加载出来的的文件,咱们来抓包看看!!

  • 再次请求首页时候发现,在xhr这里,有一个hero_list.js文件,翻译过来就是英雄列表

  • 看到hero_list.jsurl为 :https://game.gtimg.cn/images/lol/act/img/js/heroList/hero_list.js
    在这里插入图片描述

  • 点击之后,发现这正是我们需要的内容!!!

  • 就是这里,注意看画框红色的地方有一个heroId,这个就是上面说的二级页面url屁股的Id
    在这里插入图片描述

  • 在浏览器输入hero_list.js文件的地址,如下图:
    在这里插入图片描述
    非常好,请求代码也是很简单,只需要将上面代码的url替换为https://game.gtimg.cn/images/lol/act/img/js/heroList/hero_list.js 即可。

2.2 请求二级页面(皮肤页面 )

这里以黑暗之女–安妮 为例,看到安妮共有13个皮肤。
在这里插入图片描述

  • 抓包发现,有个1.js文件的数据刚好对应了安妮13个皮肤。
    在这里插入图片描述

  • 1.js文件的url为:https://game.gtimg.cn/images/lol/act/img/js/hero/1.js

  • 2.js文件的url为:https://game.gtimg.cn/images/lol/act/img/js/hero/2.js

  • 当然了,这个后面的Id就是每个英雄的heroId
    在这里插入图片描述

  • 用浏览器打开1.js文件的url,如下图所示:
    在这里插入图片描述

看到1.js文件有几个imgurl,他们所表示图片的像素比如下:

名称 像素比
mainImg 980x500
iconImg 60x60
loadingImg 308x560
videoImg 130x75
sourceImg 1920x470

本次文章用mainImg做下载演示。

在这里,捋一下思路:

  1. 请求https://game.gtimg.cn/images/lol/act/img/js/heroList/hero_list.js 获取英雄名称Id
  2. 根据Id去拼接英雄皮肤的urlhttps://game.gtimg.cn/images/lol/act/img/js/hero/1.jsId替换数字1
  3. 上述请求后可以得到图片的url了,请求图片url即可。

3. 代码部分

3.1 代码:首页

  • 请求首页,获取二级页面(皮肤页面的链接)
import requests
url = 'https://game.gtimg.cn/images/lol/act/img/js/heroList/hero_list.js'
headers = {

'User-Agent': 'Mozilla/5.0'
}
def get_hero_list():
"""
:return: 获取英雄名称与heroId
"""
res = requests.get(url, headers=headers)
if res.status_code == 200:
data = json.loads(res.text)
for item in data['hero']:
id = item['heroId']
name = item['name']
title = item['title']
print(id, name, title)
else:
print('your code is fail')
get_hero_list()
  • 结果如下:
    在这里插入图片描述

3.2 代码:二级页面(皮肤页面)

import requests
skinUrl = 'https://game.gtimg.cn/images/lol/act/img/js/hero/{}.js'
headers = {

'User-Agent': 'Mozilla/5.0'
}
def get_skin_url(Id):
"""
:param Id: 英雄ID,用于拼接url
:return:
"""
res = requests.get(skinUrl.format(Id), headers=headers)
if res.status_code == 200:
data = json.loads(res.text)
for item in data['skins']:
url = item['mainImg']
name = item['name'].replace('/', '')
print(url, name)
else:
print('your code is fail')
get_hero_list()
  • 结果如下:
  • 值得注意的是,如果是一款皮肤有多个颜色的情况,则有可能不带mainImgurl
    在这里插入图片描述

3.3 完整代码

  • 复制黏贴即可运行
# -*- coding: utf-8 -*-
# @Time : 2020/1/28 21:12
# @Author : SunriseCai
# @File : YXLMSpider.py
# @Software: PyCharm
import os
import json
import time
import requests
"""英雄联盟皮肤爬虫程序"""
class YingXLMSpider(object):
def __init__(self):
self.onePageUrl = 'https://game.gtimg.cn/images/lol/act/img/js/heroList/hero_list.js'
self.skinUrl = 'https://game.gtimg.cn/images/lol/act/img/js/hero/{}.js'
self.headers = {

'User-Agent': 'Mozilla/5.0'
}
def get_heroList(self):
"""
:return: 获取英雄的heroId,和英雄名称
"""
res = requests.get(url=self.onePageUrl, headers=self.headers)
if res.status_code == 200:
data = json.loads(res.text)
for item in data['hero']:
Id = item['heroId']
title = item['title']
self.get_skin_url(Id, title)
else:
print('your code is fail')
def get_skin_url(self, Id, folder):
"""
:param Id: 英雄ID,用于拼接url
:param folder: 以英雄名称命名的文件夹
:return:
"""
url = self.skinUrl.format(Id)
res = requests.get(url, headers=self.headers)
if res.status_code == 200:
data = json.loads(res.text)
for item in data['skins']:
url = item['mainImg']
name = item['name'].replace('/', '')
self.download_picture(url, name, folder)
else:
print('your code is fail')
def download_picture(self, url, name, folder):
"""
:param url: 皮肤地址
:param name: 皮肤名称
:param folder: 文件夹
:return:
"""
# 判断如果文件夹不存在则创建
if not os.path.exists(folder):
os.makedirs(folder)
# 判断url不为空和 图片不存在本地则下载(主要用于断点重连)
if not url == '' and not os.path.exists('%s/%s.jpg' % (folder, name)):
time.sleep(1)
res = requests.get(url, headers=self.headers)
with open('%s/%s.jpg' % (folder, name), 'wb') as f:
f.write(res.content)
print('%s.jpg' % name, '下载成功')
f.close()
def main(self):
self.get_heroList()
if __name__ == '__main__':
spider = YingXLMSpider()
spider.main()

来看看成果:
在这里插入图片描述
在这里插入图片描述

  • 本篇文章很水,但是总体思路是正确的。建议各位通过复制黏贴代码去执行一番,有任何疑问请先自己动手解决,尽信书则不如无书
  • 实在解决不了可以一起交流哟。

最后来总结一下本章的内容:

  1. 介绍了英雄联盟网站全英雄皮肤的爬虫思路
  2. 代码展示

sunrisecai

  • 感谢你的耐心观看,点关注,不迷路。
  • 为方便菜鸡互啄,欢迎加入QQ群组织:648696280

下一篇文章,名为 《Python爬虫从入门到放弃 09 | Python爬虫实战–下载网易云音乐》

版权声明
本文为[SunriseCai]所创,转载请带上原文链接,感谢
https://blog.csdn.net/weixin_45081575/article/details/104085897

  1. 利用Python爬虫获取招聘网站职位信息
  2. Using Python crawler to obtain job information of recruitment website
  3. Several highly rated Python libraries arrow, jsonpath, psutil and tenacity are recommended
  4. Python装饰器
  5. Python实现LDAP认证
  6. Python decorator
  7. Implementing LDAP authentication with Python
  8. Vscode configures Python development environment!
  9. In Python, how dare you say you can't log module? ️
  10. 我收藏的有关Python的电子书和资料
  11. python 中 lambda的一些tips
  12. python中字典的一些tips
  13. python 用生成器生成斐波那契数列
  14. python脚本转pyc踩了个坑。。。
  15. My collection of e-books and materials about Python
  16. Some tips of lambda in Python
  17. Some tips of dictionary in Python
  18. Using Python generator to generate Fibonacci sequence
  19. The conversion of Python script to PyC stepped on a pit...
  20. Python游戏开发,pygame模块,Python实现扫雷小游戏
  21. Python game development, pyGame module, python implementation of minesweeping games
  22. Python实用工具,email模块,Python实现邮件远程控制自己电脑
  23. Python utility, email module, python realizes mail remote control of its own computer
  24. 毫无头绪的自学Python,你可能连门槛都摸不到!【最佳学习路线】
  25. Python读取二进制文件代码方法解析
  26. Python字典的实现原理
  27. Without a clue, you may not even touch the threshold【 Best learning route]
  28. Parsing method of Python reading binary file code
  29. Implementation principle of Python dictionary
  30. You must know the function of pandas to parse JSON data - JSON_ normalize()
  31. Python实用案例,私人定制,Python自动化生成爱豆专属2021日历
  32. Python practical case, private customization, python automatic generation of Adu exclusive 2021 calendar
  33. 《Python实例》震惊了,用Python这么简单实现了聊天系统的脏话,广告检测
  34. "Python instance" was shocked and realized the dirty words and advertisement detection of the chat system in Python
  35. Convolutional neural network processing sequence for Python deep learning
  36. Python data structure and algorithm (1) -- enum type enum
  37. 超全大厂算法岗百问百答(推荐系统/机器学习/深度学习/C++/Spark/python)
  38. 【Python进阶】你真的明白NumPy中的ndarray吗?
  39. All questions and answers for algorithm posts of super large factories (recommended system / machine learning / deep learning / C + + / spark / Python)
  40. [advanced Python] do you really understand ndarray in numpy?
  41. 【Python进阶】Python进阶专栏栏主自述:不忘初心,砥砺前行
  42. [advanced Python] Python advanced column main readme: never forget the original intention and forge ahead
  43. python垃圾回收和缓存管理
  44. java调用Python程序
  45. java调用Python程序
  46. Python常用函数有哪些?Python基础入门课程
  47. Python garbage collection and cache management
  48. Java calling Python program
  49. Java calling Python program
  50. What functions are commonly used in Python? Introduction to Python Basics
  51. Python basic knowledge
  52. Anaconda5.2 安装 Python 库(MySQLdb)的方法
  53. Python实现对脑电数据情绪分析
  54. Anaconda 5.2 method of installing Python Library (mysqldb)
  55. Python implements emotion analysis of EEG data
  56. Master some advanced usage of Python in 30 seconds, which makes others envy it
  57. python爬取百度图片并对图片做一系列处理
  58. Python crawls Baidu pictures and does a series of processing on them
  59. python链接mysql数据库
  60. Python link MySQL database