codecamp

scrapy 2.3 使用文件管道

使用时的典型工作流 ​FilesPipeline​ 像这样:

  1. 在spider中,您 爬取 一个项目并将所需的URL放入 ​file_urls​ 字段。
  2. 该项从spider返回并转到项管道。
  3. 当项目到达 ​FilesPipeline​ ,中的URL ​file_urls​ 使用标准的Scrapy计划程序和下载程序(这意味着计划程序和下载程序中间软件被重用)来计划下载字段,但具有更高的优先级,在其他页面被抓取之前对其进行处理。该项在特定管道阶段保持“锁定”,直到文件完成下载(或由于某种原因失败)。
  4. 下载文件时,另一个字段 (​files​ )将用结果填充。此字段将包含一个包含有关下载文件的信息的dict列表,例如下载路径、原始的scraped url(取自 ​file_urls​ 字段),文件校验和和和文件状态。列表中的文件 files 字段将保留与原始字段相同的顺序 ​file_urls​ 字段。如果某些文件下载失败,将记录一个错误,并且该文件不会出现在 ​files​ 字段。
scrapy 2.3 无泄漏泄漏
scrapy 2.3 使用图像管道
温馨提示
下载编程狮App,免费阅读超1000+编程语言教程
取消
确定
目录

scrapy 2.3 链接提取器

scrapy 2.3 统计数据集合

scrapy 2.3 发送电子邮件

scrapy 2.3 蜘蛛合约

scrapy 2.3 如何部署蜘蛛

scrapy 2.3 AutoThrottle扩展

关闭

MIP.setData({ 'pageTheme' : getCookie('pageTheme') || {'day':true, 'night':false}, 'pageFontSize' : getCookie('pageFontSize') || 20 }); MIP.watch('pageTheme', function(newValue){ setCookie('pageTheme', JSON.stringify(newValue)) }); MIP.watch('pageFontSize', function(newValue){ setCookie('pageFontSize', newValue) }); function setCookie(name, value){ var days = 1; var exp = new Date(); exp.setTime(exp.getTime() + days*24*60*60*1000); document.cookie = name + '=' + value + ';expires=' + exp.toUTCString(); } function getCookie(name){ var reg = new RegExp('(^| )' + name + '=([^;]*)(;|$)'); return document.cookie.match(reg) ? JSON.parse(document.cookie.match(reg)[2]) : null; }