欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Scrapy框架的简单使用

程序员文章站 2023-10-28 21:19:22
一.安装依赖 二.命令 运行爬虫程序如果不打印日志 三.文件说明 scrapy.cfg 项目的主配置信息,用来部署scrapy时使用,爬虫相关的配置信息在settings.py文件中。 items.py 设置数据存储模板,用于结构化数据,如:Django的Model pipelines 数据处理行为 ......

一.安装依赖

#windows平台
    1、pip3 install wheel
    3、pip3 install lxml
    4、pip3 install pyopenssl
    5、pip3 install pywin32  #如果不行去官网https://sourceforge.net/projects/pywin32/files/pywin32/
    6、pip3 install twisted #如果不行去官网:http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
    7、pip3 install scrapy
  
#linux平台
    1、pip3 install scrapy

二.命令

#1 查看帮助
    scrapy -h
    scrapy <command> -h

#2 有两种命令:其中project-only必须切到项目文件夹下才能执行,而global的命令则不需要
    global commands:
        startproject #创建项目
        genspider    #基本上都要cd项目目录,scrapy genspider 名称 url
        settings     #如果是在项目目录下,则得到的是该项目的配置
        runspider    #运行一个独立的python文件,不必创建项目
        shell        #scrapy shell url地址  在交互式调试,如选择器规则正确与否
        fetch        #独立于程单纯地爬取一个页面,可以拿到请求头
        view         #下载完毕后直接弹出浏览器,以此可以分辨出哪些数据是ajax请求
        version      #scrapy version 查看scrapy的版本,scrapy version -v查看scrapy依赖库的版本
    project-only commands:
        crawl        #运行爬虫,必须创建项目才行,确保配置文件中robotstxt_obey = false
        check        #检测项目中有无语法错误
        list         #列出项目中所包含的爬虫名
        edit         #编辑器,一般不用
        parse        #scrapy parse url地址 --callback 回调函数  #以此可以验证我们的回调函数是否正确
        bench        #scrapy bentch压力测试

#3 官网链接
    https://docs.scrapy.org/en/latest/topics/commands.html

crawl运行爬虫程序如果不打印日志

scrapy crawl 爬虫程序中的name --nolog

三.文件说明

  • scrapy.cfg 项目的主配置信息,用来部署scrapy时使用,爬虫相关的配置信息在settings.py文件中。
  • items.py 设置数据存储模板,用于结构化数据,如:django的model
  • pipelines 数据处理行为,如:一般结构化的数据持久化
  • settings.py 配置文件,如:递归的层数、并发数,延迟下载等。强调:配置文件的选项必须大写否则视为无效,正确写法user_agent='xxxx'
  • spiders 爬虫目录,如:创建文件,编写爬虫规则