您当前的位置:首页 > IT编程 > python
| C语言 | Java | VB | VC | python | Android | TensorFlow | C++ | oracle | 学术与代码 | cnn卷积神经网络 | gnn | 图像修复 | Keras | 数据集 | Neo4j | 自然语言处理 | 深度学习 | 医学CAD | 医学影像 | 超参数 | pointnet | pytorch | 异常检测 | Transformers | 情感分类 | 知识图谱 |

自学教程:Django结合使用Scrapy爬取数据入库的方法示例

51自学网 2021-10-30 22:48:34
  python
这篇教程Django结合使用Scrapy爬取数据入库的方法示例写得很实用,希望能帮到您。

在django项目根目录位置创建scrapy项目,django_12是django项目,ABCkg是scrapy爬虫项目,app1是django的子应用

在这里插入图片描述

2.在Scrapy的settings.py中加入以下代码

import osimport syssys.path.append(os.path.dirname(os.path.abspath('.')))os.environ['DJANGO_SETTINGS_MODULE'] = 'django_12.settings'  # 项目名.settingsimport djangodjango.setup()

3.编写爬虫,下面代码以ABCkg为例,abckg.py

# -*- coding: utf-8 -*-import scrapyfrom ABCkg.items import AbckgItem class AbckgSpider(scrapy.Spider):  name = 'abckg'  #爬虫名称  allowed_domains = ['www.abckg.com'] # 允许爬取的范围  start_urls = ['http://www.abckg.com/'] # 第一次请求的地址  def parse(self, response):    print('返回内容:{}'.format(response))    """    解析函数    :param response: 响应内容    :return:    """    listtile = response.xpath('//*[@id="container"]/div/div/h2/a/text()').extract()    listurl = response.xpath('//*[@id="container"]/div/div/h2/a/@href').extract()     for index in range(len(listtile)):      item = AbckgItem()      item['title'] = listtile[index]      item['url'] = listurl[index]      yield scrapy.Request(url=listurl[index],callback=self.parse_content,method='GET',dont_filter=True,meta={'item':item})    # 获取下一页    nextpage = response.xpath('//*[@id="container"]/div[1]/div[10]/a[last()]/@href').extract_first()    print('即将请求:{}'.format(nextpage))    yield scrapy.Request(url=nextpage,callback=self.parse,method='GET',dont_filter=True)    # 获取详情页  def parse_content(self,response):    item = response.meta['item']    item['content'] = response.xpath('//*[@id="post-1192"]/dd/p').extract()    print('内容为:{}'.format(item))    yield item

4.scrapy中item.py 中引入django模型类

 pip install scrapy-djangoitem
from app1 import modelsfrom scrapy_djangoitem import DjangoItemclass AbckgItem(DjangoItem):  # define the fields for your item here like:  # name = scrapy.Field()      # 普通scrapy爬虫写法  # title = scrapy.Field()  # url = scrapy.Field()  # content = scrapy.Field()  django_model = models.ABCkg   # 注入django项目的固定写法,必须起名为django_model =django中models.ABCkg表

5.pipelines.py中调用save()

import jsonfrom pymongo import MongoClient# 用于接收parse函数发过来的itemclass AbckgPipeline(object):  # i = 0  def open_spider(self,spider):    # print('打开文件')    if spider.name == 'abckg':      self.f = open('abckg.json',mode='w')  def process_item(self, item, spider):    # # print('ABC管道接收:{}'.format(item))    # if spider.name == 'abckg':    #   self.f.write(json.dumps(dict(item),ensure_ascii=False))    # # elif spider.name == 'cctv':    # #   img = requests.get(item['img'])    # #   if img != '':    # #     with open('图片/%d.png'%self.i,mode='wb')as f:    # #       f.write(img.content)    # #   self.i += 1    item.save()    return item  # 将item传给下一个管道执行  def close_spider(self,spider):    # print('关闭文件')    self.f.close()

6.在django中models.py中一个模型类,字段对应爬取到的数据,选择适当的类型与长度

class ABCkg(models.Model):  title = models.CharField(max_length=30,verbose_name='标题')  url = models.CharField(max_length=100,verbose_name='网址')  content = models.CharField(max_length=200,verbose_name='内容')  class Meta:    verbose_name_plural = '爬虫ABCkg'  def __str__(self):    return self.title

7.通过命令启动爬虫:scrapy crawl 爬虫名称

8.django进入admin后台即可看到爬取到的数据。

到此这篇关于Django结合使用Scrapy爬取数据入库的方法示例的文章就介绍到这了,更多相关Django Scrapy爬取数据入库内容请搜索51zixue.net以前的文章或继续浏览下面的相关文章希望大家以后多多支持51zixue.net!


django中使用原生sql语句的方法步骤
Scrapy元素选择器Xpath用法汇总
万事OK自学网:51自学网_软件自学网_CAD自学网自学excel、自学PS、自学CAD、自学C语言、自学css3实例,是一个通过网络自主学习工作技能的自学平台,网友喜欢的软件自学网站。