現在BeautifulSoupを使用してスクレイピングの演習をしております。
for文を使用し、tryとexceptで処理を実行しているのですが、タイトルにあるように、
python
1urllib.error.HTTPError: HTTP Error 400: Bad Request
上記のようなエラーが出るとその時点で処理が終了してしまいます。
robots.txtもきっちりと確認し、time.sleepを用いて、対象サイトに負荷の掛からないようなスクレイピングを心掛けてはいるのですが、前述のエラーはスクレイピンによるサイト側の拒否なのでしょうか?
また、
python
1except urllib.error.HTTPError: 2 pass
などで強制的に処理を継続させてしまうのはあまり良くないのでしょうか?
詳しい方アドバイスお願いします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
退会済みユーザー
2019/08/12 06:34