scrapy 2.3 自定义日志格式
可以通过扩展为不同的操作设置自定义日志格式 LogFormatter 课程和制作 LOG_FORMATTER 指向你的新班级。
- class
scrapy.logformatter.LogFormatter -
用于为不同操作生成日志消息的类。
所有方法都必须返回一个列出参数的字典
level,msg和args调用时将用于构造日志消息logging.log.方法输出的字典键:
-
level是该操作的日志级别,可以使用 python logging library :logging.DEBUG,logging.INFO,logging.WARNING,logging.ERROR和logging.CRITICAL. -
msg应该是可以包含不同格式占位符的字符串。此字符串,格式为args,将是该行动的长期信息。 -
args应该是一个tuple或dict,其中的格式占位符为msg.最后的日志消息计算为msg % args.
用户可以定义自己的
LogFormatter如果要自定义每个操作的日志记录方式,或者希望完全忽略它,则初始化。为了省略记录操作,该方法必须返回None.以下是有关如何创建自定义日志格式化程序以降低从管道中删除项时日志消息的严重性级别的示例:
class PoliteLogFormatter(logformatter.LogFormatter): def dropped(self, item, exception, response, spider): return { 'level': logging.INFO, # lowering the level from logging.WARNING 'msg': "Dropped: %(exception)s" + os.linesep + "%(item)s", 'args': { 'exception': exception, 'item': item, } }crawled(request, response, spider)-
当爬虫找到网页时记录一条消息。
download_error(failure, request, spider, errmsg=None)-
记录来自spider的下载错误消息(通常来自引擎)。
2.0 新版功能.
dropped(item, exception, response, spider)-
当某个项在通过项管道时被丢弃时,记录该消息。
item_error(item, exception, response, spider)-
当一个项目在通过项目管道时出错时,记录消息。
2.0 新版功能.
scraped(item, response, spider)-
当一个项目被蜘蛛抓取时记录一条消息。
spider_error(failure, request, response, spider)-
记录来自spider的错误消息。
2.0 新版功能.
-