実現したいこと
requestsというライブラリを使ってスクレイピングをする時、ユーザーエージェントとSSL証明書の指定を両立させる方法を知りたいです。
requests.exceptions.SSLError: HTTPSConnectionPool(host='example.com', port=443): Max retries exceeded with url: /exampleapi (Caused by SSLError(SSLError(1, '[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:1000)'),))
一か月半前はちゃんと動いていたスクレイピングコードが何も変えていないのに上のようなエラーがでて動かなくなってしまいました。その際に上記のようなエラーがでたので、これを解消するために、SSL証明書(のパス)をrequests.getに組み込んでスクレイピングを行いたかったのですが上手くいきませんでした。
競馬ラボというサイトからスクレイピングを行いたくて、このサイトはユーザーエージェントを指定する必要があるため、SSL証明書の指定とユーザーエージェントの指定を両立させる方法を教えてください。
前提
ここに質問の内容を詳しく書いてください。
(例)
TypeScriptで●●なシステムを作っています。
■■な機能を実装中に以下のエラーメッセージが発生しました。
発生している問題・エラーメッセージ
エラーメッセージ
該当のソースコード
python
1 2#問題の部分だけを抜き出すと以下のような感じです。 3 4 load_url = "https://www.keibalab.jp~(任意のURL)" 5 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/139.0.0.0 Safari/537.36 Edg/139.0.0.0"} 6 html = requests.get(load_url,verify=r"任意のファイルのパス", headers=headers) 7 soup = BeautifulSoup(html.content, "html.parser") 8 9#このような感じでシンプルにheaders=headersの前にくっつけるか、後ろにくっつける感じでやってみましたが上手くいきませんでした。SSL証明書とユーザーエージェントを共存させる方法が検索してもなかなかいい情報がヒットせず、教えていただければ幸いです。 10
試したこと
ここに問題に対して試したことを記載してください。
補足情報(FW/ツールのバージョンなど)
ここにより詳細な情報を記載してください。

バッドをするには、ログインかつ
こちらの条件を満たす必要があります。