Python爬虫学习-第四篇 Scrapy框架抓取唯品会数据

2023-11-17

上篇博文讲述了scrapy的框架和组件,对于scrapy有了基本的了解,那么我们进入今天的正题:使用Scrapy框架爬取数据。

1.创建Scrapy项目

创建Scrapy工程文件的命令:

 scrapy startproject scrapytest

  此命令是python默认目下创建的工程。

指定目录文件下创建项目:

1.进入指定目录  cd D:\workspaces 

2.该目录下执行:scrapy startproject scrapytest 

2.scrpay项目结构

 使用PyCharm,打开scrpy的工程文件,效果如下:

2.1 spiders 文件夹就是我们编写spider存放的目录

2.2 items是定义数据类型

2.3 pipeline 负责处理被spider提取出来的item

2.4 Middlewares 默认两个中间件,一个spider 一个是download

2.5 setting 配置信息 默认:

 3.抓取某品会的纸尿裤数据

     3.1 定义数据

class DiaperItem(scrapy.Item):
    diaper_name = scrapy.Field() #纸尿裤商品名称
    diaper_price = scrapy.Field()#价格
    diaper_url = scrapy.Field()  #详情路径
    diaper_source_shop = scrapy.Field() #来源商城(默认为某品会)

   3.2 抓取目标分析

 

 

 

  目标是抓取上图所有的纸尿裤数据。

        3.2.1抓取页面代码

       通过写spider直接访问路径:https://category.vip.com/suggest.php?keyword=纸尿裤

from scrapy.spiders import Spider
from scrapy.http.request import Request


class vipShopSpider(Spider):
    name = "vipshopSpider"
    allowed_domains = ["category.vip.com"]
    start_url = 'https://category.vip.com/suggest.php?keyword=%E7%BA%B8%E5%B0%BF%E8%A3%A4'

    def start_requests(self):
        yield Request(url=self.start_url, callback=self.parse)

    def parse(self, response):
        body = response.body.decode('utf-8')

        pass

其中name就是爬虫的名称,必有字段

allowed_domains 允许爬去站点的域名,此域名内的访问才算有效。

start_url自定义参数,爬虫开始的爬去的页面路径。

start_request第一次请求,url请求页面路径,callback回调函数。

parse 自定义的方法,用于解析html ,主要爬取规则在这里实现。

通过pycharm 配置参数,调试爬虫,获取响应的内容body,用于我们第二次分析.

配置调试步骤:

填入python命令行路径  和执行scrapy的命令:crawl  vipShopSpider

debug运行 ,设置断点,查看body:

复制body ,得到访问结果。经过分析,我们发现body没有商品的信息,得到是一段未经过js渲染的代码:

  那该怎么办呢,我们用到与scrpy配套的js渲染中间件splash,通过这个splash,我们可以得到渲染后的body。

 安装splash很简单,只需在docker环境 安装splash就可以了(这个不是此篇文章的重点)。具体百度。

 splash安装成功后 界面如下:

 

 setting配置splash:

SPLASH_URL = '你的splash的url'

DOWNLOADER_MIDDLEWARES = {
    'scrapy_splash.SplashCookiesMiddleware': 723,
    'scrapy_splash.SplashMiddleware': 725,
    'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}

SPIDER_MIDDLEWARES = {
    'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
}

DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'

HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'

修改spider:

  script = """
                  function main(splash, args)
                     splash:go(args.url)
                     local scroll_to = splash:jsfunc("window.scrollTo")
                     scroll_to(0, 2800)
                     splash:set_viewport_full()
                     splash:wait(5)
                     return {html=splash:html()}
                   end
                 """

    def start_requests(self):
        #yield Request(url=self.start_url, callback=self.parse)
        yield SplashRequest(url=self.start_url, callback=self.parse, endpoint='execute',
                            args={'lua_source': self.script})

script的lua脚本,作用模拟拖动鼠标到页面最低端,保证页面把当前网页的数据加载完成。

再次debug运行爬虫,抓取body,查看最终的html代码。看到产品名称,价格信息。

    3.2.2抓取规则

     从html代码中获取到制定数据,selector(选择器)就在这时候大显身手,scapy选择器是依赖于lxml库,在我的博文《Python爬虫学习-第三篇 Scrapy框架初探和安装》提到过,所以在这儿我就不多讲,直接贴出我的筛选规则代码:

  def parse(self, response):
        sel = Selector(response)
        items = sel.xpath('//div[@class="goods-list-item  c-goods  J_pro_items"]')

        for data in items:
            diaper_name = data.xpath('.//h4[@class="goods-info goods-title-info"]/a/@title').extract_first()
            diaper_price = data.xpath(
                './/div[@class="goods-price-wrapper"]/em/span[@class="price"]/text()').extract_first()
            diaper_url = data.xpath('.//h4[@class="goods-info goods-title-info"]/a/@href').extract_first()

            shop_diaper_item = DiaperItem()
            shop_diaper_item['diaper_name'] = diaper_name
            shop_diaper_item['diaper_price'] = (re.findall(r"\d+\.?\d*", diaper_price))[0]
            shop_diaper_item['diaper_url'] = 'https:' + diaper_url
            shop_diaper_item['diaper_source_shop'] = '唯品会'

            yield shop_diaper_item

        next_url = sel.xpath(
            '//div[@class="m-cat-paging ui-paging"]/a[@class="cat-paging-next next"]/@href').extract_first()

        if next_url is not None:
            next_url = response.urljoin(next_url)
            yield SplashRequest(next_url, callback=self.parse, endpoint='execute', args={'lua_source': self.script})

      第一步:  sel = Selector(response)
        items = sel.xpath('//div[@class="goods-list-item  c-goods  J_pro_items"]')  选取class是"goods-list-item  c-goods  J_pro_items"的元素

      第二步:遍历选取的元素,找到名称、价格、详情url,赋值给自定义DiaperItem,返回DiaperItem

      第三步:找取下一页:

       next_url = sel.xpath(
            '//div[@class="m-cat-paging ui-paging"]/a[@class="cat-paging-next next"]/@href').extract_first() 找取分页的下一页href。得到类似的结果:

判断是否为空,不为空,拼接成类似https://category.vip.com/suggest.php?keyword=纸尿裤&page=2&count=100&suggestType=brand#catPerPos的链接

在加入splash的渲染中间件,循环调取。

   ps:scrapy 是默认开启了,url去重的访问,所以即使有重复url路径请求,scrapy会自动清除。

   3.2.3保存数据

      使用pipeline来处理数据,使用mssql数据库来存储数据:

from DiaperService.MssqlService import MssqlService


class DiaperPipeline(object):

    def process_item(self, item, spider):
        name = item['diaper_name'].replace("'", "''")

        ms = MssqlService(server='192.168.200.200', user='sa', password='123456aA', db_name='test')
        sql = 'insert into [dbo].[Diaper](Name,Price,DetailUrl,SourceShop) ' \
              'values(\'%s\',%f,\'%s\',\'%s\') ' % (name,
                                                    float(item['diaper_price']),
                                                    item['diaper_url'],
                                                    item['diaper_source_shop'])
        # print(sql)
        ms.exec_non_query(sql)
        return item

封装的mssql服务:

import pymssql


class MssqlService(object):
    def __init__(self, server, user, password, db_name):
        self.host = server
        self.user = user
        self.password = password
        self.database = db_name
        self.conn = self.__get_Conn()

    def __get_Conn(self):
        conn = pymssql.connect(self.host, self.user, self.password, self.database)
        return conn

    def exec_query(self, sql):
        cur = self.conn.cursor()
        cur.execute(sql)
        result_list = cur.fetchall()
        cur.close()
        return result_list

    def exec_non_query(self, sql):
        cur = self.conn.cursor()
        cur.execute(sql)
        self.conn.commit()
        cur.close()

setting配置pipeline的优先级300:

ITEM_PIPELINES = {
    'Diaper.pipelines.DiaperPipeline': 300,
}

那么到现在我们已经把爬虫从请求网页,获取相应,解析内容,保存数据的都完成开发,所以我们运行下程序,查看是否成功抓取数据。

数据库中的数据:

 4.总结

      scrapy还有很多强大的功能去探索,比如链式爬虫,能够递归爬取数据,可以配置递归的层级等。同时它的选择器lxml库,筛选查询非常方便快速,相较于正则表达式学习成本更低,更易理解,能让新手快速入门。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Python爬虫学习-第四篇 Scrapy框架抓取唯品会数据 的相关文章

  • Python 中的 Lanczos 插值与 2D 图像

    我尝试重新缩放 2D 图像 灰度 图像大小为 256x256 所需输出为 224x224 像素值范围从 0 到 1300 我尝试了两种使用 Lanczos 插值来重新调整它们的方法 首先使用PIL图像 import numpy as np
  • Python(Selenium):如何通过登录重定向/组织登录登录网站

    我不是专业程序员 所以请原谅任何愚蠢的错误 我正在做一些研究 我正在尝试使用 Selenium 登录数据库来搜索大约 1000 个术语 我有两个问题 1 重定向到组织登录页面后如何使用 Selenium 登录 2 如何检索数据库 在我解决
  • Flask 会话变量

    我正在用 Flask 编写一个小型网络应用程序 当两个用户 在同一网络下 尝试使用应用程序时 我遇到会话变量问题 这是代码 import os from flask import Flask request render template
  • SQLALchemy .query:类“Car”的未解析属性引用“query”

    我有一个这里已经提到的问题https youtrack jetbrains com issue PY 44557 https youtrack jetbrains com issue PY 44557 但我还没有找到解决方案 我使用 Pyt
  • Spark KMeans 无法处理大数据吗?

    KMeans 有几个参数training http spark apache org docs latest api python pyspark mllib html highlight kmeans pyspark mllib clus
  • 以编程方式停止Python脚本的执行? [复制]

    这个问题在这里已经有答案了 是否可以使用命令在任意行停止执行 python 脚本 Like some code quit quit at this point some more code that s not executed sys e
  • Python pickle:腌制对象不等于源对象

    我认为这是预期的行为 但想检查一下 也许找出原因 因为我所做的研究结果是空白 我有一个函数可以提取数据 创建自定义类的新实例 然后将其附加到列表中 该类仅包含变量 然后 我使用协议 2 作为二进制文件将该列表腌制到文件中 稍后我重新运行脚本
  • OpenCV 无法从 MacBook Pro iSight 捕获

    几天后 我无法再从 opencv 应用程序内部打开我的 iSight 相机 cap cv2 VideoCapture 0 返回 并且cap isOpened 回报true 然而 cap grab 刚刚返回false 有任何想法吗 示例代码
  • 如何在Python中获取葡萄牙语字符?

    我正在研究葡萄牙语 角色看起来很奇怪 我怎样才能解决这个问题 代码 import feedparser import random Vou definir os feeds feeds conf feedurl http pplware s
  • 添加不同形状的 numpy 数组

    我想添加两个不同形状的 numpy 数组 但不进行广播 而是将 缺失 值视为零 可能最简单的例子是 1 2 3 2 gt 3 2 3 or 1 2 3 2 1 gt 3 2 3 1 0 0 我事先不知道形状 我正在弄乱每个 np shape
  • IO 密集型任务中的 Python 多线程

    建议仅在 IO 密集型任务中使用 Python 多线程 因为 Python 有一个全局解释器锁 GIL 只允许一个线程持有 Python 解释器的控制权 然而 多线程对于 IO 密集型操作有意义吗 https stackoverflow c
  • 无法在 Python 3 中导入 cProfile

    我试图将 cProfile 模块导入 Python 3 3 0 但出现以下错误 Traceback most recent call last File
  • Pandas:merge_asof() 对多行求和/不重复

    我正在处理两个数据集 每个数据集具有不同的关联日期 我想合并它们 但因为日期不完全匹配 我相信merge asof 是最好的方法 然而 有两件事发生merge asof 不理想的 数字重复 数字丢失 以下代码是一个示例 df a pd Da
  • 有没有办法检测正在运行的代码是否正在上下文管理器内执行?

    正如标题所述 有没有办法做到这样的事情 def call back if called inside context print running in context else print called outside context 这将
  • 有人用过 Dabo 做过中型项目吗? [关闭]

    Closed 这个问题是基于意见的 help closed questions 目前不接受答案 我们正处于一个新的 ERP 风格的客户端 服务器应用程序的开始阶段 该应用程序是作为 Python 富客户端开发的 我们目前正在评估 Dabo
  • 使用 Python 绘制 2D 核密度估计

    I would like to plot a 2D kernel density estimation I find the seaborn package very useful here However after searching
  • Python:如何将列表列表的元素转换为无向图?

    我有一个程序 可以检索 PubMed 出版物列表 并希望构建一个共同作者图 这意味着对于每篇文章 我想将每个作者 如果尚未存在 添加为顶点 并添加无向边 或增加每个合著者之间的权重 我设法编写了第一个程序 该程序检索每个出版物的作者列表 并
  • 如何计算 pandas 数据帧上的连续有序值

    我试图从给定的数据帧中获取连续 0 值的最大计数 其中包含来自 pandas 数据帧的 id date value 列 如下所示 id date value 354 2019 03 01 0 354 2019 03 02 0 354 201
  • 在 Qt 中自动调整标签文本大小 - 奇怪的行为

    在 Qt 中 我有一个复合小部件 它由排列在 QBoxLayouts 内的多个 QLabels 组成 当小部件调整大小时 我希望标签文本缩放以填充标签区域 并且我已经在 resizeEvent 中实现了文本大小的调整 这可行 但似乎发生了某
  • Python 类继承 - 诡异的动作

    我观察到类继承有一个奇怪的效果 对于我正在处理的项目 我正在创建一个类来充当另一个模块的类的包装器 我正在使用第 3 方 aeidon 模块 用于操作字幕文件 但问题可能不太具体 以下是您通常如何使用该模块 project aeidon P

随机推荐