codecamp

scrapy 2.3 存储抓取的数据

存储抓取数据的最简单方法是使用 Feed exports ,使用以下命令::

scrapy crawl quotes -O quotes.json

这将生成一个``quotes.json``文件,其中包含所有已删除的项目,在`JSON`_中序列化。

这个 -O 命令行开关覆盖任何现有文件;使用 -o 而是将新内容附加到任何现有文件中。但是,附加到JSON文件会使文件内容无效JSON。附加到文件时,请考虑使用不同的序列化格式,例如 JSON Lines ::

scrapy crawl quotes -o quotes.jl

这个 JSON Lines 格式很有用,因为它类似于流,您可以很容易地向它附加新记录。当您运行两次时,它不存在相同的JSON问题。另外,由于每个记录都是单独的一行,因此您可以处理大文件,而不必将所有内容都放入内存中,因此有如下工具: JQ 以帮助在命令行中执行此操作。

在小项目中(如本教程中的项目),这就足够了。但是,如果您想对爬取的项目执行更复杂的操作,可以编写一个 Item Pipeline . 项目创建时已为您设置了项目管道的占位符文件,位于 ​tutorial/pipelines.py​ . 但是,如果只想存储爬取的项目,则不需要实现任何项目管道。

scrapy 2.3 在蜘蛛中提取数据
scrapy 2.3 数据抓取实例
温馨提示
下载编程狮App,免费阅读超1000+编程语言教程
取消
确定
目录

scrapy 2.3 链接提取器

scrapy 2.3 统计数据集合

scrapy 2.3 发送电子邮件

scrapy 2.3 蜘蛛合约

scrapy 2.3 如何部署蜘蛛

scrapy 2.3 AutoThrottle扩展

关闭

MIP.setData({ 'pageTheme' : getCookie('pageTheme') || {'day':true, 'night':false}, 'pageFontSize' : getCookie('pageFontSize') || 20 }); MIP.watch('pageTheme', function(newValue){ setCookie('pageTheme', JSON.stringify(newValue)) }); MIP.watch('pageFontSize', function(newValue){ setCookie('pageFontSize', newValue) }); function setCookie(name, value){ var days = 1; var exp = new Date(); exp.setTime(exp.getTime() + days*24*60*60*1000); document.cookie = name + '=' + value + ';expires=' + exp.toUTCString(); } function getCookie(name){ var reg = new RegExp('(^| )' + name + '=([^;]*)(;|$)'); return document.cookie.match(reg) ? JSON.parse(document.cookie.match(reg)[2]) : null; }