您当前的位置:首页 > IT编程 > python
| C语言 | Java | VB | VC | python | Android | TensorFlow | C++ | oracle | 学术与代码 | cnn卷积神经网络 | gnn | 图像修复 | Keras | 数据集 | Neo4j | 自然语言处理 | 深度学习 | 医学CAD | 医学影像 | 超参数 | pointnet | pytorch | 异常检测 | Transformers | 情感分类 | 知识图谱 |

自学教程:Python 爬取网页图片详解流程

51自学网 2022-02-21 10:49:08
  python
这篇教程Python 爬取网页图片详解流程写得很实用,希望能帮到您。

简介

快乐在满足中求,烦恼多从欲中来

记录程序的点点滴滴。
输入一个网址从这个网址中解析出图片,并将它保存在本地

流程图

在这里插入图片描述

程序分析

解析主网址

def get_urls():    url = 'http://www.nipic.com/show/35350678.html' # 主网址    pattern = "(http.*?jpg)"    header = {            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36'    }    r = requests.get(url,headers=header)    r.encoding = r.apparent_encoding    html = r.text    urls = re.findall(pattern,html)    return urls

url 为需要爬的主网址
pattern 为正则匹配
header 设置请求头
r = requests.get(url,headers=header) 发送请求
r.encoding = r.apparent_encoding 设置编码格式,防止出现乱码

属性 说明
r.encoding 从http header中提取响应内容编码
r.apparent_encoding 从内容中分析出的响应内容编码

urls = re.findall(pattern,html) 进行正则匹配
re.findall(pattern, string, flags=0)
正则 re.findall 的简单用法(返回string中所有与pattern相匹配的全部字串,返回形式为数组)

下载图片并存储

def download(url_queue: queue.Queue()):    while True:        url = url_queue.get()        root_path = 'F://1//' # 图片存放的文件夹位置        file_path = root_path + url.split('/')[-1] #图片存放的具体位置        try:            if not os.path.exists(root_path): # 判断文件夹是是否存在,不存在则创建一个                os.makedirs(root_path)            if not os.path.exists(file_path): # 判断文件是否已存在                r = requests.get(url)                with open(file_path,'wb') as f:                    f.write(r.content)                    f.close()                    print('图片保存成功')            else:                print('图片已经存在')        except Exception as e:            print(e)        print('线程名: ', threading.current_thread().name,"url_queue.size=", url_queue.qsize())

此函数需要传一个参数为队列
queue模块中提供了同步的、线程安全的队列类,queue.Queue()为一种先入先出的数据类型,队列实现了锁原语,能够在多线程中直接使用。可以使用队列来实现线程间的同步。
url_queue: queue.Queue() 这是一个队列类型的数据,是用来存储图片URL
url = url_queue.get() 从队列中取出一个url
url_queue.qsize() 返回队形内元素个数

全部代码

import requestsimport reimport osimport threadingimport queuedef get_urls():    url = 'http://www.nipic.com/show/35350678.html' # 主网址    pattern = "(http.*?jpg)"    header = {            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36'    }    r = requests.get(url,headers=header)    r.encoding = r.apparent_encoding    html = r.text    urls = re.findall(pattern,html)    return urlsdef download(url_queue: queue.Queue()):    while True:        url = url_queue.get()        root_path = 'F://1//' # 图片存放的文件夹位置        file_path = root_path + url.split('/')[-1] #图片存放的具体位置        try:            if not os.path.exists(root_path):                os.makedirs(root_path)            if not os.path.exists(file_path):                r = requests.get(url)                with open(file_path,'wb') as f:                    f.write(r.content)                    f.close()                    print('图片保存成功')            else:                print('图片已经存在')        except Exception as e:            print(e)        print('线程名:', threading.current_thread().name,"图片剩余:", url_queue.qsize())if __name__ == "__main__":	url_queue = queue.Queue()	urls = tuple(get_urls())	for i in urls:	    url_queue.put(i)	t1 = threading.Thread(target=download,args=(url_queue,),name="craw{}".format('1'))	t2 = threading.Thread(target=download,args=(url_queue,),name="craw{}".format('2'))		t1.start()	t2.start()

到此这篇关于Python 爬取网页图片详解流程的文章就介绍到这了,更多相关Python 爬取网页图片内容请搜索51zixue.net以前的文章或继续浏览下面的相关文章希望大家以后多多支持51zixue.net!


Python PyQt5实战项目之网速监控器的实现
python数据处理67个pandas函数总结看完就用
万事OK自学网:51自学网_软件自学网_CAD自学网自学excel、自学PS、自学CAD、自学C语言、自学css3实例,是一个通过网络自主学习工作技能的自学平台,网友喜欢的软件自学网站。