用Python爬取COS网页全部图片

Python爬取网页图片

一、爬取的网站内容

爬取http://www.win4000.com/meinvtag26_1.html的COS图片

二、爬取的网站域名

win4000.com

三、完成内容

(1)抓取的内容分布在电脑主题之家网站的24个页面和24个链接中。 (2)抓取一系列图片,并将图片按页面标题建立文件夹分类存入,存入时根据下载先后顺序排序。 (3)抓取内容的命名与抓取内容相衔接。 (4)使用了反爬技术 (5)图像数据选择JPG文档格式来保存

四、爬虫步骤及代码分析

爬虫的思路分为4步,具体如下:

1、分析目标网页,确定爬取的url路径,headers参数

在这里插入图片描述

(1)比如按F12后在内容中搜索“王者荣耀”(ctrl+f),寻找该页面的关系

在这里插入图片描述

因为可以找到当前网页的数据,所以这个网页是一个静态网页,那么这个网页的URL地址就是地址导航栏中的内容,即:http://www.win4000.com/meinvtag26_1.html

(2)我用谷歌浏览器,在network中找到User-agent

在这里插入图片描述

不知道为什么我的谷歌浏览器不能复制network中的User-agent 然后我用到了抓包工具fiddler复制了User-agent

在这里插入图片描述

(后来我的”谷歌浏览器不能复制network中的User-agent”问题解决了,原来是我没有用鼠标划取选择的内容…)

(3)代码如下: 1、确定爬取的url路径,headers参数

代码语言:javascript
复制
base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) 
##构建一个base_url来存放URL地址
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4181.9 Safari/537.36'}
##构建一个hearders参数来伪装为一个浏览器用户,构造出一个身份

2、发送请求 – requests 模拟浏览器发送请求,获取响应数据

(1)首先先导入第三方模块

代码语言:javascript
复制
import requests  ##安装后导入第三方模块 requests (HTTP 客户端库)

(2)创建response,data 2、发送请求 – requests 模拟浏览器发送请求,获取响应数据

代码语言:javascript
复制
response = requests.get(base_url, headers=headers)
##调出静态网页的get方法,获取该网页的URL,将关键字base_url和headers传入
##进方法中去,并创建一个response对象来接收
data = response.text
##从response对象中获取数据,因为数据是字符串类型的所以用".text"来提取,
##并建立一个data变量来接收

(3)但是首先要先输出测试代码是否可以成功运行,确认数据存在后再进行下一步操作

代码语言:javascript
复制
print(data)##确定代码是否可以成功运行,如果成功运行则可以注释掉
在这里插入图片描述

在pycharm中搜索“圣诞节美女”,因为有显示,代表代码可以成功运行,进行下一步的操作

在这里插入图片描述

3、解析数据 – parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理

(1)获取当前页面的每一个URL地址

在这里插入图片描述

可以看见a标签中的详细地址,点进去后发现当前相册每一个地址都是包裹在a标签下的,每一个a标签对应的href值即是每一个相册的url地址

(2)把相册内部的图片解析出来 进入一个相册后发现img标签内有src,点击进去后看见该相册内的一张高清大图

在这里插入图片描述

相册内部每一个src属性就是每一张图片的链接地址

(3)安装第三方模块

代码语言:javascript
复制
import parsel    ##安装后导入第三方模块 parsel(数据解析模块)
import os        ##系统自带模块,无需安装,直接导入第三方模块 os

( 4 ) 将data转化为Selector对象 3、解析数据 – parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理

代码语言:javascript
复制
html_data = parsel.Selector(data)##转换对象,将data数据传递进变量

html_data中,即将data数据自动转换为Selector对象 用“print(html_data)”打印html_data发现他就是一个Selector对象

在这里插入图片描述

(5)将data转化为Selector对象 将data转化为Selector对象解析成功后才可以与xpath进行交互 在页面中按<class=”Left_bar>,

  • ,顺序查找
在这里插入图片描述

并在最后a标签中的href属性,再用“.extract()”方法将Selector数据取出

代码语言:javascript
复制
data_list = html_data.xpath('//div[@class="Left_bar"]//ul/li/a/@href|//div[@class="Left_bar"]//ul/li/a/img/@title').extract()
#将转化为Selector对象的data_list运用xpath,在div中跨节点找到“class="Left_bar"进行精确定位

再按照同样跨节点的方式依次找到

  • ,,@a标签中的href属性,再用“.extract()”方法将Selector数据取出,并创建一个data_list变量来接收

(6)打印data_list

“print(data_list)”打印data_list出来发现是一个一个的字符串

4、保存数据

(1)观察不同的分页,得出规律

发现是通过26_xxx最后一个数字来实现分页效果 for page in range(1, 6):#构建翻页的范围,从1开始到6(即第5页)结束

代码语言:javascript
复制
base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) ##构建一个base_url来存放URL地址
##构建一个“.format(page)”来传入页数

(2)获取相册地址与名字,并对返回的列表分组

代码语言:javascript
复制
data_list = html_data.xpath('//div[@class="Left_bar"]//ul/li/a/@href|//div[@class="Left_bar"]//ul/li/a/img/@title').extract()
#获取相册的名字,返回的是一个列表

#使用列表推导式对列表进行分组
data_list = [data_list[i:i + 2] for i in range(0, len(data_list), 2)]#将相册的名称和相册的url地址进行分组

(3)遍历列表并创建图片文件夹
遍历列表元素

代码语言:javascript
复制
for alist in data_list:
html_url = alist[0]#取到每一个相册的URl地址
file_name = alist[1]#取到每一个相册的名称
创建图片的文件夹
root = 'G:/COS1/'
if not os.path.exists('img\' + file_name):
os.mkdir('img\' + file_name)#如果没有存在当前文件夹,则创建文件夹
print('正在下载:', file_name)#打印出正在下载的图片名称

(4)观察每一个相册页面的地址,发现规律

代码语言:javascript
复制
for url in range(1, int(page_num) + 1):
# 构建相册翻页的url地址
url_list = html_url.split('.')
all_url = url_list[0] + '.' + url_list[1] + '.' + url_list[2] + '_' + str(url) + '.' + url_list[3]
#嵌套出当前相册的每一张图片的URL地址,并拼接

(5)
发送详情页的请求,解析详情页的图片url地址

代码语言:javascript
复制
response_3 = requests.get(all_url, headers=headers).text
html_3 = parsel.Selector(response_3)
img_url = html_3.xpath('//div[@class="pic-meinv"]//img/@data-original').extract_first()
#因为仅当他加载图片时才返回图片数据,所以这个网页是软加载图片
#将转化为Selector对象的html_3运用xpath,在div中跨节点找到“class="pic-meinv"进行精确定位
#再按照同样跨节点的方式依次找到<img>,@a标签中的hdata-original属性,并创建一个img_url变量来接收
#使用“.extract_first()”提取出整一个数据,如果不加则只有一张图片
print(img_url)

#请求图片的url地址
img_data = requests.get(img_url, headers=headers).content

#图片的文件名
img_name = str(url) + '.jpg'#准备文件名称
#取当前for循环的索引做为文件名

(5)保存数据

代码语言:javascript
复制
with open('img\{}\'.format(file_name) + img_name, 'wb') as f:
print('下载完成:', img_name)
f.write(img_data)#写入文件数据

完整代码如下:

代码语言:javascript
复制
import requests  ##安装后导入第三方模块 requests(HTTP 客户端库)
import parsel ##安装后导入第三方模块 parsel(数据解析)
import os ##系统自带模块,无需安装,直接导入第三方模块 os(操作系统交互功能)

for page in range(1, 6):#构建翻页的范围,从1开始到6(即第5页)结束
print('=======================正在爬取第{}页数据====================='.format(page))
# 1、确定爬取的url路径,headers参数
base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) ##构建一个base_url来存放URL地址
##构建一个“.format(page)”来传入页数
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4181.9 Safari/537.36'}
#构建一个hearders参数来伪装为一个浏览器用户,构造出一个身份

# 2、发送请求 -- requests 模拟浏览器发送请求,获取响应数据
response = requests.get(base_url, headers=headers)
#调出静态网页的get方法,获取该网页的URL,将关键字base_url和headers传入进方法中去,并创建一个response对象来接收
data = response.text
#从response对象中获取数据,因为数据是字符串类型的所以用&#34;.text&#34;来提取,并建立一个data变量来接收
# print(data)##确定代码是否可以成功运行,如果成功运行则可以注释掉

# 3、解析数据 -- parsel  转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理
html_data = parsel.Selector(data)
#转换对象,将data数据传递进变量html_data中,即将data数据自动转换为Selector对象
data_list = html_data.xpath(&#39;//div[@class=&#34;Left_bar&#34;]//ul/li/a/@href|//div[@class=&#34;Left_bar&#34;]//ul/li/a/img/@title&#39;).extract()
#获取相册的名字,返回的是一个列表
#将转化为Selector对象的data_list运用xpath,在div中跨节点找到“class=&#34;Left_bar&#34;进行精确定位
# 再按照同样跨节点的方式依次找到&lt;ul&gt;,&lt;li&gt; ,&lt;a&gt;,@a标签中的href属性,再用“.extract()”方法将Selector数据取出,并创建一个data_list变量来接收
#  print(data_list)

# 使用列表推导式对列表进行分组
data_list = [data_list[i:i + 2] for i in range(0, len(data_list), 2)]#将相册的名称和相册的url地址进行分组
# print(data_list)

# 遍历列表元素
for alist in data_list:
    html_url = alist[0]#取到每一个相册的URl地址
    file_name = alist[1]#取到每一个相册的名称
    # print(html_url, file_name)

    # 创建图片的文件夹
    root = &#39;G:/COS1/&#39;
    if not os.path.exists(&#39;img\\&#39; + file_name):
        os.mkdir(&#39;img\\&#39; + file_name)#如果没有存在当前文件夹,则创建文件夹
    print(&#39;正在下载:&#39;, file_name)#打印出正在下载的图片名称

    # 发送详情页的请求,解析出总页数
    response_2 = requests.get(html_url, headers=headers).text
    html_2 = parsel.Selector(response_2)
    page_num = html_2.xpath(&#39;//div[@class=&#34;ptitle&#34;]//em/text()&#39;).extract_first()
    # print(page_num)

    for url in range(1, int(page_num) + 1):
        # 构建相册翻页的url地址
        url_list = html_url.split(&#39;.&#39;)
        all_url = url_list[0] + &#39;.&#39; + url_list[1] + &#39;.&#39; + url_list[2] + &#39;_&#39; + str(url) + &#39;.&#39; + url_list[3]
        #嵌套出当前相册的每一张图片的URL地址,并拼接
        # print(all_url)

        # 发送详情页的请求,解析详情页的图片url地址
        response_3 = requests.get(all_url, headers=headers).text
        html_3 = parsel.Selector(response_3)
        img_url = html_3.xpath(&#39;//div[@class=&#34;pic-meinv&#34;]//img/@data-original&#39;).extract_first()
        #因为仅当他加载图片时才返回图片数据,所以这个网页是软加载图片
        # 将转化为Selector对象的html_3运用xpath,在div中跨节点找到“class=&#34;pic-meinv&#34;进行精确定位
        # 再按照同样跨节点的方式依次找到&lt;img&gt;,@a标签中的hdata-original属性,并创建一个img_url变量来接收
        #使用“.extract_first()”提取出整一个数据,如果不加则只有一张图片
        # print(img_url)

        # 请求图片的url地址
        img_data = requests.get(img_url, headers=headers).content

        # 图片的文件名
        img_name = str(url) + &#39;.jpg&#39;#准备文件名称
        #取当前for循环的索引做为文件名

        # 4、保存数据
        with open(&#39;img\\{}\\&#39;.format(file_name) + img_name, &#39;wb&#39;) as f:
            print(&#39;下载完成:&#39;, img_name)
            f.write(img_data)#写入文件数据</code></pre></div></div>