質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.33%
Beautiful Soup

Beautiful Soupは、Pythonのライブラリの一つ。スクレイピングに特化しています。HTMLデータの構文の解析を行うために、HTMLタグ/CSSのセレクタで抽出する部分を指定することが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

165閲覧

Python BeautifulSoup の問題特定方法について

showkit

総合スコア1646

Beautiful Soup

Beautiful Soupは、Pythonのライブラリの一つ。スクレイピングに特化しています。HTMLデータの構文の解析を行うために、HTMLタグ/CSSのセレクタで抽出する部分を指定することが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

1グッド

0クリップ

投稿2025/01/23 04:50

編集2025/01/23 07:16

実現したいこと

問題の発生個所をつきとめたい

発生している問題・分からないこと

Python BeautifulSoup で、自分のサイトの コンテンツをチェックしています。
2万件程度のコンテンツを ループさせて 下の方の箇所を実行しています。
そうすると、コンテンツのうち、いくつかで

plain

1/usr/local/lib/python3.11/html/parser.py:170: XMLParsedAsHTMLWarning: It looks like you're parsing an XML document using an HTML parser. If this really is an HTML document (maybe it's XHTML?), you can ignore or filter this warning. If it's XML, you should know that using an XML parser will be more reliable. To parse this document as XML, make sure you have the lxml package installed, and pass the keyword argument `features="xml"` into the BeautifulSoup constructor.

または

plain

1Some characters could not be decoded, and were replaced with REPLACEMENT CHARACTER.

という出力が発生します。
ひとつは、コンテンツが html であるべきところ、xml になっている。
もうひとつは、utf-8 であるべきところ が 他のコードになっていることは 理解しています。
ただし、件数が多いので、それが どの URL か特定できていないので、特定したいのです。

URL を 特定する方法 もしくは 出力発生時に 例外を発生させる方法が あれば 教えてください。

該当のソースコード

python

1http = urllib3.PoolManager(cert_reqs='CERT_REQUIRED', ca_certs='証明書ファイル') 23html = http.request('GET', 'URL') 4soup = BeautifulSoup(html.data, "html.parser")

試したこと・調べたこと

  • teratailやGoogle等で検索した
  • ソースコードを自分なりに変更した
  • 知人に聞いた
  • その他
上記の詳細・結果

自分の望む ことは得られませんでした。

補足

soup の箇所に print で 対象の URL を出力すれば いいのは 存じておりますが、それ以外の スマートな方法がないものかと 思っております。

melian👍を押しています

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

poto568

2025/01/23 06:27

soup の前に print(URL) とでも書いておけば分かりそうな気がしますけど…。 (他に要件があれば質問欄を編集してください。)
showkit

2025/01/23 07:14

おっしゃることは よくわかりますので、質問を修正いたします。
guest

回答1

0

ベストアンサー

ひとつは、コンテンツが html であるべきところ、xml になっている。

warnings モジュールを利用して、warning をエラー扱いにする方法があります。

Some characters could not be decoded, and were replaced with REPLACEMENT CHARACTER.

もうひとつは、utf-8 であるべきところが他のコードになっている

この場合、contains_replacement_characters が True にセットされるので、それで判断します。

soup の箇所に print で 対象の URL を出力すればいいのは存じておりますが、それ以外のスマートな方法がないものかと思っております。

上記の対応がスマートかどうかは不明です。

python

1import requests 2import warnings 3import logging 4from bs4 import BeautifulSoup 5from bs4.builder import XMLParsedAsHTMLWarning 6 7warnings.resetwarnings() 8warnings.simplefilter('error') 9logger = logging.getLogger('bs4.dammit') 10logger.disabled = True 11 12urls = [ 13 'https://teratail.com/', 14 'https://www.sitemaps.org/sitemap.xml', 15 'https://www.jleague.jp/standings/j1/', 16] 17 18for url in urls: 19 res = requests.get(url) 20 res.raise_for_status() 21 22 try: 23 soup = BeautifulSoup(res.content, 'html.parser') 24 if soup.contains_replacement_characters: 25 print(f'Some characters could not be decoded: {url}') 26 except XMLParsedAsHTMLWarning: 27 print(f'XMLParsedAsHTMLWarning: {url}') 28 except e: 29 print(f'{url}: {e}') 30 31 32# XMLParsedAsHTMLWarning: https://www.sitemaps.org/sitemap.xml 33# Some characters could not be decoded: https://www.jleague.jp/standings/j1/

投稿2025/01/23 07:30

編集2025/01/23 08:25
melian

総合スコア20905

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

showkit

2025/01/23 07:34

早速やってみます。
showkit

2025/01/23 09:10

うまくいきました。ありがとうございます。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.33%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問