質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Beautiful Soup

Beautiful Soupは、Pythonのライブラリの一つ。スクレイピングに特化しています。HTMLデータの構文の解析を行うために、HTMLタグ/CSSのセレクタで抽出する部分を指定することが可能です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

HTML

HTMLとは、ウェブ上の文書を記述・作成するためのマークアップ言語のことです。文章の中に記述することで、文書の論理構造などを設定することができます。ハイパーリンクを設定できるハイパーテキストであり、画像・リスト・表などのデータファイルをリンクする情報に結びつけて情報を整理します。現在あるネットワーク上のほとんどのウェブページはHTMLで作成されています。

Q&A

解決済

3回答

1517閲覧

HTML文字列の</tr>タグの個数を知りたいが、htmlソースに実際に存在する</tr>の個数とプログラムの結果が異なる。

pythonista

総合スコア21

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Beautiful Soup

Beautiful Soupは、Pythonのライブラリの一つ。スクレイピングに特化しています。HTMLデータの構文の解析を行うために、HTMLタグ/CSSのセレクタで抽出する部分を指定することが可能です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

HTML

HTMLとは、ウェブ上の文書を記述・作成するためのマークアップ言語のことです。文章の中に記述することで、文書の論理構造などを設定することができます。ハイパーリンクを設定できるハイパーテキストであり、画像・リスト・表などのデータファイルをリンクする情報に結びつけて情報を整理します。現在あるネットワーク上のほとんどのウェブページはHTMLで作成されています。

0グッド

2クリップ

投稿2019/05/09 12:22

編集2019/05/09 17:12

##実現したいこと
JR東日本の中央本線の遅延情報をスクレイピングしたい。
遅延情報はhtmlの<table>属性で書かれているため、それをスクレイピングしてCSVファイルにしたいが、タグが破損しているため、Pandasのhtml_read()を使えず、BeautifulSoup4でCSVファイル化しようにも、テーブルの要素をすべて取得できないためかなわず。
そこで、自力でhtmlファイルを修復するプログラムを考えている。
具体的には、<tr>---</tr>が終了タグ</tr>しかないため</tr>の後ろに<tr>をつけて、しっかりテーブルの行要素をタグで囲ってBeautifulSoup4で取得できるようにしたい。

発生している問題・エラーメッセージ

 まず最初に、htmlソースコードを文字列化して、</tr>のインデックスを確かめたい
そのために、</tr>が文字列中に何回登場するかを計算した。
JR東日本は過去45日分の遅延情報を載せているが、プログラムコード結果は2回であった。
どこがおかしいのか、また、このような原因を自力で発掘するアイデア等があればぜひ教えていただきたいです。初心者の質問であるため、不勉強や説明不足等があれば申し訳ありません。

イメージ説明
5月1日のデータです。

</tr>のタグのみで、開始タグが見当たりません。 ### 該当のソースコード

Python

1from bs4 import BeautifulSoup 2from urllib.request import urlopen 3 4#サイトを取り入れる 5site=urlopen('https://traininfo.jreast.co.jp/delay_certificate/history.aspx?R=06') 6 7html=BeautifulSoup(site,'lxml') 8table=html.find_all('table')[0] #HTMLソースコードを文字列化して<table>部分だけ回収する 9k=str(table) 10cnt=0 #<table>中にある</tr>の個数 11l=0 #文字列の左から数えて</tr>が何番目か 12while '</tr>' in k: 13 l=k.find('</tr>') 14 l+=5 #</tr>分だけ右にずらす 15 k=k[l:] 16 cnt+=1 17 18#実行部 19print(cnt)

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

kgm

2019/05/09 14:46

中央線の遅延証明書履歴 https://traininfo.jreast.co.jp/delay_certificate/history.aspx?R=06 このページを見たところ、すべてのtrタグは<tr></tr>で囲われていました。 問題ないように見えます。 </tr>しかないのならば、そもそもテーブルの表示が崩れてしまいます。 何を問題にされているのか把握できません。 特殊な条件下で行われているのなら、それを教えて下さい。
pythonista

2019/05/09 16:56

質問ありがとうございます。<tr>が欠けている部分のスクリーンショットをこの追記欄に乗せれないので、質問欄に載せます。ソースの確認はGooglechromeで対象のページからページのソースを表示により行いました。そこには、遅延情報のテーブルの最初の2行以外、<tr>が見つけられませんでした。コードの実行環境はAnacondaのspyderです。
guest

回答3

0

タグが破損しているならある程度修復して解析してくれるhtml5libを使えばきちんとtableタグを取得できると思います。
それと、以前と全く同じ質問をしているようですがパーサについては調べてみましたか?
パーサについてはドキュメントにも書いてあります。読んでみてください。
https://www.crummy.com/software/BeautifulSoup/bs4/doc/#installing-a-parser

投稿2019/05/10 00:33

mistn

総合スコア1191

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

0

ベストアンサー

python

1import pandas as pd 2 3url = "https://traininfo.jreast.co.jp/delay_certificate/history.aspx?R=06" 4 5dfs = pd.read_html(url, flavor="bs4") 6 7len(dfs) 8 9dfs[0]

flavorを変更すればpandasでも読み込めます

投稿2019/05/10 14:05

barobaro

総合スコア1286

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

0

table取るだけなら下記のような感じでもいけました。。
(どのテーブルを取るか書いてなかったのでtableのみにしています。便箋ご調整していただければと思います。なおJRの遅延情報などのスクレイピングは万が一のことを考えるとオススメできません。)

# pandas読み込み import pandas as pd from bs4 import BeautifulSoup from google.colab import files import requests html_doc = requests.get("https://traininfo.jreast.co.jp/delay_certificate/history.aspx?R=06").text # BeautifulSoupの初期化 soup = BeautifulSoup(html_doc, 'html.parser') tags = soup.find_all("table") for tag in tags: print (tag)

投稿2019/05/09 12:53

wataame

総合スコア302

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問