博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Python爬虫入门教程 8-100 蜂鸟网图片爬取之三
阅读量:6423 次
发布时间:2019-06-23

本文共 3620 字,大约阅读时间需要 12 分钟。

啰嗦两句

前几天的教程内容量都比较大,今天写一个相对简单的,爬取的还是蜂鸟,依旧采用aiohttp 希望你喜欢 爬取页面https://tu.fengniao.com/15/ 本篇教程还是基于学习的目的,为啥选择蜂鸟,没办法,我瞎选的。

一顿熟悉的操作之后,我找到了下面的链接 https://tu.fengniao.com/ajax/ajaxTuPicList.php?page=2&tagsId=15&action=getPicLists

这个链接返回的是JSON格式的数据

  1. page =2页码,那么从1开始进行循环就好了
  2. tags=15 标签名称,15是儿童,13是美女,6391是私房照,只能帮助你到这了,毕竟我这是专业博客 ヾ(◍°∇°◍)ノ゙
  3. action=getPicLists接口地址,不变的地方

数据有了,开爬吧

import aiohttpimport asyncioheaders = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36", "X-Requested-With": "XMLHttpRequest", "Accept": "*/*"}async def get_source(url): print("正在操作:{}".format(url)) conn = aiohttp.TCPConnector(verify_ssl=False) # 防止ssl报错,其中一种写法 async with aiohttp.ClientSession(connector=conn) as session: # 创建session async with session.get(url, headers=headers, timeout=10) as response: # 获得网络请求 if response.status == 200: # 判断返回的请求码 source = await response.text() # 使用await关键字获取返回结果 print(source) else: print("网页访问失败")if __name__=="__main__": url_format = "https://tu.fengniao.com/ajax/ajaxTuPicList.php?page={}&tagsId=15&action=getPicLists" full_urllist= [url_format.format(i) for i in range(1,21)] event_loop = asyncio.get_event_loop() #创建事件循环 tasks = [get_source(url) for url in full_urllist] results = event_loop.run_until_complete(asyncio.wait(tasks)) #等待任务结束复制代码

上述代码在执行过程中发现,顺发了20个请求,这样子很容易就被人家判定为爬虫,可能会被封IP或者账号,我们需要对并发量进行一下控制。 使
Semaphore控制同时的并发量

import aiohttpimport asyncio# 代码在上面sema = asyncio.Semaphore(3)async def get_source(url):    # 代码在上面	######################## 为避免爬虫一次性请求次数太多,控制一下async def x_get_source(url):    with(await sema):        await get_source(url)if __name__=="__main__":        url_format = "https://tu.fengniao.com/ajax/ajaxTuPicList.php?page={}&tagsId=15&action=getPicLists"        full_urllist= [url_format.format(i) for i in range(1,21)]        event_loop = asyncio.get_event_loop()   #创建事件循环        tasks = [x_get_source(url) for url in full_urllist]        results = event_loop.run_until_complete(asyncio.wait(tasks))   #等待任务结束复制代码

走一波代码,出现下面的结果,就可以啦!

在补充上图片下载的代码

import aiohttpimport asyncioimport json# 代码去上面找async def get_source(url):    print("正在操作:{}".format(url))    conn = aiohttp.TCPConnector(verify_ssl=False)  # 防止ssl报错,其中一种写法    async with aiohttp.ClientSession(connector=conn) as session:  # 创建session        async with session.get(url, headers=headers, timeout=10) as response:  # 获得网络请求            if response.status == 200:  # 判断返回的请求码                source = await response.text()  # 使用await关键字获取返回结果                ############################################################                data = json.loads(source)                photos = data["photos"]["photo"]                for p in photos:                    img = p["src"].split('?')[0]                    try:                        async with session.get(img, headers=headers) as img_res:                            imgcode = await img_res.read()                            with open("photos/{}".format(img.split('/')[-1]), 'wb') as f:                                f.write(imgcode)                                f.close()                    except Exception as e:                        print(e)                ############################################################            else:                print("网页访问失败")# 为避免爬虫一次性请求次数太多,控制一下async def x_get_source(url):    with(await sema):        await get_source(url)if __name__=="__main__":        #### 代码去上面找复制代码

图片下载成功,一个小爬虫,我们又写完了,美滋滋

转载地址:http://nswga.baihongyu.com/

你可能感兴趣的文章
PostgreSQL 如何比较两个表的定义是否一致
查看>>
Ambari安装Hadoop集群
查看>>
WCF学习之旅—基于ServiceDebug的异常处理(十七)
查看>>
CLREX
查看>>
再也不用担心this指向的问题了
查看>>
使用putty远程连接linux
查看>>
【comparator, comparable】小总结
查看>>
Node 版本管理
查看>>
34、重分布配置实验之分发列表distribute-list
查看>>
命令模式-对象行为型
查看>>
VS2017配置、提高生产力、代码辨识度 (工欲善其事必先利其器)新手必备!
查看>>
[Phoenix] 七、如何使用自增ID
查看>>
路由基本配置(上)
查看>>
windows上传文件到linux乱码解决
查看>>
fpm打包zabbix-agent
查看>>
pythopn List(列表)
查看>>
学习笔记 十五: mariadb
查看>>
学习笔记 124: 预备知识总结
查看>>
windows server之AD(1)
查看>>
如何升级PowerShell
查看>>