ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

【爬虫】下载图片

2022-06-12 20:35:28  阅读:135  来源: 互联网

标签:img resp 爬虫 href child div page 下载 图片


# -*- coding:utf-8 -*-
# 1、拿取出页面的源代码,然后提取到子页面的链接地址,href
# 2、通过href拿到子页面内容,从子页面找到图片下载地址 img->src
# 3、下载图片

import requests
from bs4 import BeautifulSoup
import time

url = "https://www.umeitu.com/bizhitupian/weimeibizhi/"
resp = requests.get(url)
resp.encoding = "utf-8"  # 处理乱码
# print(resp.text)
# 把源代码交给bs4
main_page = BeautifulSoup(resp.text, "html.parser")
# print(main_page)
# div = main_page.find("div",class_="swiper-wrapper after")
div = main_page.find("div", attrs={"class": "swiper-wrapper after"})
alist = div.find_all("a")
# print(alist)

for a in alist:
    href = "https://www.umeitu.com" + a.get("href")
    # print(href)
    # 拿到子页面源代码
    child_page_resp = requests.get(href)
    child_page_resp.encoding = "utf-8"
    child_page_text = child_page_resp.text
    # 从子页面中拿到下载路径
    child_page = BeautifulSoup(child_page_text, "html.parser")
    div = child_page.find("div", attrs={"class": "content-box"})
    image = div.find("img")
    src = image.get("src")  # 从子页面找到图片下载地址 img->src,直接get属性即可

    img_resp = requests.get(src)
    # img_resp.content 这里拿到的是字节
    image_name = src.split("/")[-1]  # 拿到url中的最后一个/以后的内容

    # 邮件文件夹->Mark directory as->Excluded
    with open("/python/download/image/" + image_name, mode="wb") as f:
        f.write(img_resp.content)  # 图片内容写入文件

    print("over", image_name)
    time.sleep(1)

    f.close()

print("all over")

 

标签:img,resp,爬虫,href,child,div,page,下载,图片
来源: https://www.cnblogs.com/hanyr/p/16368762.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有