阅读(2749) (0)

scrapy 2.3 存储抓取的数据

2021-05-29 15:02:39 更新

存储抓取数据的最简单方法是使用 Feed exports ,使用以下命令::

scrapy crawl quotes -O quotes.json

这将生成一个``quotes.json``文件,其中包含所有已删除的项目,在`JSON`_中序列化。

这个 -O 命令行开关覆盖任何现有文件;使用 -o 而是将新内容附加到任何现有文件中。但是,附加到JSON文件会使文件内容无效JSON。附加到文件时,请考虑使用不同的序列化格式,例如 JSON Lines ::

scrapy crawl quotes -o quotes.jl

这个 JSON Lines 格式很有用,因为它类似于流,您可以很容易地向它附加新记录。当您运行两次时,它不存在相同的JSON问题。另外,由于每个记录都是单独的一行,因此您可以处理大文件,而不必将所有内容都放入内存中,因此有如下工具: JQ 以帮助在命令行中执行此操作。

在小项目中(如本教程中的项目),这就足够了。但是,如果您想对爬取的项目执行更复杂的操作,可以编写一个 Item Pipeline . 项目创建时已为您设置了项目管道的占位符文件,位于 ​tutorial/pipelines.py​ . 但是,如果只想存储爬取的项目,则不需要实现任何项目管道。