ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

爬虫-aiohttp 模块的简单使用

2022-05-02 10:02:13  阅读:159  来源: 互联网

标签:__ name aiohttp url resp 37 爬虫 模块 async


代码 :

import asyncio
import aiohttp

urls = [
    'https://img.lianzhixiu.com/uploads/210304/37-21030410123B61.jpg',
    'https://img.lianzhixiu.com/uploads/210325/37-2103250930025H.jpg',
    'https://img.lianzhixiu.com/uploads/210208/37-21020P920505S.jpg',
]

async def aiodownload(url):
    name = url.rsplit('/', 1)[1]  # 切片 , 得到名字
    print(name)
    pass
    async with aiohttp.ClientSession() as session:  # 相当于requests
        async with session.get(url) as resp:  # resp = requests.get()
            # 请求回来, 写入文件
            with open(name, mode='wb') as f:  #创建文件
                f.write(await resp.content.read()) #读取内容是异步的, 需要await 挂起
                f.close()
    print(name, '下载完成')

async def main():
    tasks = []
    for url in urls:
        tasks.append(aiodownload(url))
    await asyncio.wait(tasks)

if __name__ == '__main__':
    asyncio.run(main())

 

标签:__,name,aiohttp,url,resp,37,爬虫,模块,async
来源: https://www.cnblogs.com/longly1111/p/16215123.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有