前提・実現したいこと
あるページの記事をクロールしている。
Scrapyでキャッシュからcrawlしたが、途中で処理が止まる
思い当たる原因などがあればご教示願いたいです。
発生している問題・エラーメッセージ
エラーなどは発生しておらず、途中のurlをスクレイプした後に急に処理が止まる(実行中のまま)
試したこと
scrapyコマンドで、project作成とspider作成
コードを足す(ここで HTTPCACHE_ENABLED = True 設定)
実行→正常終了
コード編集して再実行→停止
コード戻して再実行→停止
補足情報(FW/ツールのバージョンなど)
OS: Ubuntu20.04.3 LTS
あなたの回答
tips
プレビュー