|
|
1
0
我相信,当scrapy收到SIGTERM时,它会先等待完成所有已发送/已调度的请求,然后尝试优雅地关闭。最好的办法是限制请求的数量或并发请求,以便更快地完成(
但是,如果这样做,则必须确保调度的代码也必须是非阻塞的,否则,当循环暂停执行太长时间时,可能会发生不好的事情。比如
|
|
|
Rodolfo · Scrapy响应返回一个空数组 2 年前 |
|
|
Nimo Db · 如何在python的scrapy选择器中只获取文本 2 年前 |
|
|
Vaidas · 当下一页链接没有产生任何结果时,剧烈的无限滚动 2 年前 |
|
|
galih · 有碎屑的外壳很好用,但不适合有碎屑的爬行 2 年前 |