Python爬虫之Scrapy框架(案例练习)

活动地址:CSDN21天学习挑战赛

活动时间以过
请添加图片描述

@作者 : SYFStrive
@创建时间 : 2022/8/9 22:01
📜: Scrapy案例
🥧: 点击跳转到上一篇Scrapy续文🦄
🥧: 感谢支持,学习累了可以先看小段由小胖给大家带来的街舞😀
请添加图片描述

目录

  • 简介
  • 📦Scrapy使用前准备
  • yield的使用
  • Python爬虫之Scrapy框架之🔔🔔爬取数据
  • get
  • 案例使用的内容
  • 单管道
  • 多管道(单独使用一个管道下载图片……)
  • 实现多页面下载 (爬取100页内容)
  • 案例总结
  • post
  • Python爬虫之Scrapy框架之🎦爬取数据
  • 最后
  • 简介

    1. Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。 其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据 (例如 Amazon Associates Web Services ) 或者通用的网络爬虫。
    2. Scrapy 是一个基于 Twisted 实现的异步处理爬虫框架,该框架使用纯 Python 语言编写。Scrapy 框架应用广泛,常用于数据采集、网络监测,以及自动化测试等。
    3. 提示:Twisted 是一个基于事件驱动的网络引擎框架,同样采用 Python 实现。

    📦Scrapy使用前准备

  • 文档如👇
    1. 官网文档:链接
    2. C语言中文文档:链接
  • 安装
    1. 安装语法:python -m pip install Scrapy
    2. 报错:使用pip install -i https://pypi.tuna.tsinghua.edu.cn/simple –trusted-host pypi.tuna.tsinghua.edu.cn 加包名

    yield的使用

    1. 带有 yield 的函数不再是一个普通函数,而是一个生成器generator,可用于迭代
    2. yield 是一个类似 return 的关键字,迭代一次遇到yield时就返回yield后面(右边)的值。重点是:下一次迭代时,从上一次迭代遇到的yield后面的代码(下一行)开始执行
    3. 简要理解:yield就是 return 返回一个值,并且记住这个返回的位置,下次迭代就从这个位置后(下一行)开始

    Python爬虫之Scrapy框架之🔔🔔爬取数据

    get

    案例使用的内容

    涉及 单管道、多管道

    单管道

    📰代码演示:

    多管道(单独使用一个管道下载图片……)

    📰代码演示:

    如下图(下载成功🆗):

    实现多页面下载 (爬取100页内容)

    📰代码演示:

    如下图(下载成功🆗):

    案例总结

    1. 两个生命函数
        # 在爬虫文件开始的之前就执行的一个方法
        # def open_spider():
        # 在爬虫文件执行完之后  执行的方法
        # def close_spider():
    
    1. 简单步骤:获取数据后 👉 使用items 定义数据结构的 👉 导入items(传递数据) 👉 使用Yield返回 👉 通过pipelines管道下载数据(使用前要开启管道(item就是yield后面的book对象))

    2. 添加管道:定义管道类 👉 在settings中开启管道

    3. 注意:
      1、如果是多页下载的话 那么必须要调整的是allowed_domains的范围 一般情况下只写域名
      2、write方法必须要写一个字符串 而不能是其他的对象
      3、通过该案例检测的一点就是下载的图片目录文件是spiders下的理解如:‘./bookImg/’ + item.get(‘name’) + ‘.jpg’

    post

    效果如下:

    Python爬虫之Scrapy框架之🎦爬取数据

    📰代码演示:

    📰代码演示:

    class DianyingtiantangPipeline:
    
        def open_spider(self, spider):
            self.fs = open('movie.json', 'w', encoding='utf-8')
    
        def process_item(self, item, spider):
            # 简单理解:这里的item相当于yield movie返回值
            self.fs.write(str(item))
    
            return item
    
        def close_spider(self, spider):
            self.fs.close()
    

    如下图(下载成功🆗):

    最后

    本文还未结束(待更),觉得不错的请给我专栏点点订阅,你的支持是我们更新的动力,感谢大家的支持,希望这篇文章能帮到大家

    点击跳转到我的Python专栏

    下篇文章再见ヾ( ̄▽ ̄)ByeBye

    来源:SYFStrive

    物联沃分享整理
    物联沃-IOTWORD物联网 » Python爬虫之Scrapy框架(案例练习)

    发表评论