質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.47%
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

1437閲覧

python テーブル要素のスクレイピング

kmbaht

総合スコア10

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

2クリップ

投稿2018/10/29 13:01

https://snownet.jp/search/?prefarea=1
のゲレンデごとのコース数をスクレイピングしたいのですが、以下のようにしても上手くいきません。

import os, requests, bs4, openpyxl, re
url="https://snownet.jp/search/?prefarea=1"

res=requests.get(url)
res.raise_for_status()
soup=bs4.BeautifulSoup(res.content)

for tr in soup.select('table.type1 tbody tr'):
tds=tr.select('td')
print(tds[0].text)

.selectの後のセレクタ設定がおかしいような気もするのですが、原因がわからず。。
よろしくお願いいたします。 python3.6.5のWindows7です。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

Chrome の開発者ツールでサイト構造を確認し、適切にCSSセレクタを書いてあげれば、抽出できます。

python

1import requests 2from bs4 import BeautifulSoup 3 4url = 'https://snownet.jp/search/?prefarea=1' 5res = requests.get(url) 6res.raise_for_status() 7soup = BeautifulSoup(res.content, 'lxml') 8 9for section_tag in soup.select('section[class="skiDetail"]'): 10 # スキー場名 11 span_tag = section_tag.select_one('div[class="detailHead"] > span') 12 site = span_tag.string 13 14 # コース数 15 td_tag = section_tag.select_one('table[class="type1"] tr:nth-of-type(3) td') 16 num_courses = td_tag.string 17 18 print(site, num_courses)
【北海道】エリア:旭川富良野道北 9コース 【北海道】エリア:旭川富良野道北 23コース 【北海道】エリア:ニセコ小樽札幌 18コース 【北海道】エリア:ニセコ小樽札幌 3コース 【北海道】エリア:ニセコ小樽札幌 22コース 【北海道】エリア:旭川富良野道北 2コース 【北海道】エリア:ニセコ小樽札幌 13コース 【北海道】エリア:ニセコ小樽札幌 15コース 【北海道】エリア:十勝道東 21コース 【北海道】エリア:函館周辺 8コース

追記

CSS セレクタではなく、find_all() を使った場合

import requests from bs4 import BeautifulSoup url = 'https://snownet.jp/search/?prefarea=1' res = requests.get(url) res.raise_for_status() soup = BeautifulSoup(res.content, 'lxml') for section_tag in soup.find_all('section', class_='skiDetail'): # スキー場名 site = section_tag.find('div', class_='detailHead').span.string # コース数 tr_tags = section_tag.find('table', class_='type1').find_all('tr') num_courses = tr_tags[2].td.string print(site, num_courses)

section タグ以下が以下の階層構造になっていることを把握した上で、CSS セレクタまたは find_all(), find() を使い、タグを選んでいけばいいです。
コース数は table タグの子要素の3つ目の tr タグの子の td タグに貼っています。

なので、CSS セレクタの場合、table[class="type1"] tr:nth-of-type(3) td:nth-of-type(1) となります。
また、find() で選ぶ場合は、section_tag.find('table', class_='type1').find_all('tr')[2].find('td') となります。

# 視認性のため、改行など空白の NavigableString は除いています。 section (Tag) └── table (Tag) ├── tr (Tag) │ ├── th (Tag) │ │ └── 'アクセス' (NavigableString) │ └── td (Tag) │ ├── '[車] 函館市内から36km' (NavigableString) │ ├── br (Tag) │ └── '[その他] 函館本線・大沼公園駅より車で15分' (NavigableString) ├── tr (Tag) │ ├── th (Tag) │ │ └── '営業時間' (NavigableString) │ └── td (Tag) │ ├── '[平日] 09:00~17:00' (NavigableString) │ ├── br (Tag) │ ├── '[日祝] 09:00~17:00' (NavigableString) │ ├── br (Tag) │ ├── '[ナイター] 17:00~22:00' (NavigableString) │ ├── br (Tag) │ └── '営業時間 9:00〜17:00\u3000[ナイター] 17:00〜22:00※12/20〜3/8金・土・日・祝前日のみ' (NavigableString) └── tr (Tag) ├── th (Tag) │ └── 'コース数' (NavigableString) └── td (Tag) └── '8コース' (NavigableString)

投稿2018/10/29 14:07

編集2018/11/01 06:47
tiitoi

総合スコア21956

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

kmbaht

2018/10/29 14:32

ありがとうございます。 テーブル内にtr要素が複数あるために最初のやり方ではエラーになっていたと理解すれば良いでしょうか?
tiitoi

2018/10/29 14:36 編集

そうですね。 select() の返り値は必ずリストになってます。 なので、tr[2].select('td') のようにする必要があります。 もし1個しかなくても tr[0].select('td') にしないといけません。
kmbaht

2018/10/30 15:43

ありがとうございます。よくわかりました。
kmbaht

2018/10/31 15:46

すみません、もう一点教えてください。  'table[class="type1"] tr:nth-of-type(3) td:nth-of-type(1)'を.selectで実行することでページ内のすべての「classがtype1のテーブル要素の3番めのtrの1番めのtd」を抽出できると思ったのですが、これは間違いでしょうか(自分で試したところうまくいきませんでした) すなわち、上記を実行するとあくまでもそのページの「classがtype1のテーブル要素の3番めのtrの1番めのtd」を1個抽出するのみであり、期待しているような「該当するすべてのtdを拾ってくる」動作はできないという理解で良いでしょうか。 頂いた回答でも「classが"skiDetail"であるsectionを選ぶことで個々のスキー場の問題にまず限定し、各々のスキー場のコース名とコース数を抽出する動作をfor文を使って全スキー場で実行する」、という形式になっていると思いますので、上記のようなセレクタに起因する問題(機能上の限界)を意識されているのかな、と思いましたがいかがでしょうか。
tiitoi

2018/11/01 05:23 編集

> すなわち、上記を実行するとあくまでもそのページの「classがtype1のテーブル要素の3番めのtrの1番めのtd」を1個抽出するのみであり、期待しているような「該当するすべてのtdを拾ってくる」動作はできないという理解で良いでしょうか。 そのような認識であっています。 3番目の tr タグに限定しないのであれば、`section_tag.select('table[class="type1"] tr td')` とすれば、3つある各 tr タグの1個目の td タグが取得できます。 階層構造と find_all() を使うやり方について追記しました。
barobaro

2018/11/01 06:36

一番最初のデータ取得の場合はselect_oneで取得できます。findとfind_allと同じです。 select(self, selector, _candidate_generator=None, limit=None) select_one(self, selector) select_oneはselectのlimit=1にした時と同じになります。
tiitoi

2018/11/01 06:49

select_one() という関数があったのですね。 これを使うとより簡潔に書けました。 barobaro さん、教えていただきありがとうございます。
barobaro

2018/11/01 07:06

こちらこそtiitoiさんのコードで勉強させてもらっています。
kmbaht

2018/11/01 16:56

ご両名ともありがとうございます。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.47%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問