質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Python 2.7

Python 2.7は2.xシリーズでは最後のメジャーバージョンです。Python3.1にある機能の多くが含まれています。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

7952閲覧

python2.7,beautifulsoupでスクレイピングした<span>で囲まれた文字列を分割してcsvに保存する方法を教えてくださいませ!

akakage13

総合スコア89

Python 2.7

Python 2.7は2.xシリーズでは最後のメジャーバージョンです。Python3.1にある機能の多くが含まれています。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2016/09/09 12:07

###前提・実現したいこと

python初心者でございます。python2.7とbeautifulsoupで競馬情報をスクレイピングしたのですが、<span>で囲まれた部分の情報をそれぞれ分割して、csvに保存する方法が分からず苦慮しております。

###発生している問題・エラーメッセージ

<span>芝右 外2200m&nbsp;/&nbsp;天候 : 晴&nbsp;/&nbsp;芝 : 良&nbsp;/&nbsp;発走 : 15:40</span><br /> 上記の<span>で囲まれた部分を、(例)course= 芝右 外2200m 、weather=晴、course_condition=芝良 、start_time=15:40 というように、分割させたいのです。

###該当のソースコード

# -*- coding:utf-8 -*- import urllib2 import codecs import time from bs4 import BeautifulSoup f = codecs.open('g1_race.csv', 'w', 'utf-8') f.write('race_condition'+u"\n") url='http://db.netkeiba.com/race/201508050411/' soup = BeautifulSoup(urllib2.urlopen(url).read(),"lxml") tr_arr = soup.select("table.race_table_01 > tr") for tr in tr_arr: time.sleep(1) tds=tr.findAll("td") if len( tds ) > 1: race_condition_tag = soup.find('div',{'class':'mainrace_data'}).find('span') race_condition = "".join([x for x in race_condition_tag.text if not x == u'\xa0' and not x == u'\n']) print race_condition cols = [race_condition] f.write(",".join(cols) + "\n") f.close()

###試したこと
上記のプログラムは第36回エリザベス女王杯(G1)の結果をスクレイピングしております。
今回の苦慮しております<span>芝右 外2200m / 天候 : 晴 / 芝 : 良 / 発走 : 15:40</span><br />の部分は、netkeiba.com様のソースコードの170行目でございます。ノーブレークスペース (no-break space)のある文字列の対応については、ある程度は調べたのですが、わかりませんでした。

これを分割するスクリプトを御教示いただけますと幸いです。
よろしくお願いいたします。

###補足情報(言語/FW/ツール等のバージョンなど)
python2.7

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

この芝右 外2200m&nbsp;/&nbsp;天候 : 晴&nbsp;/&nbsp;芝 : 良&nbsp;/&nbsp;発走 : 15:40の部分を
取り出すことはできると思うので、
あとはBeautifulSoupから切り離して、(netkeiba.comからも切り離して、)
Pythonの文字列だけの問題と捉えて下さい。
(プログラミングにおいて、問題を分割して小さな単位にしてから解くというのは常套手段で重要です。)

質問もそこだけに絞ったほうが回答者の負担が減りますし、多くの方から回答が得られやすくなります。

回答ですが、
まずは、&npsp;は邪魔なだけなので、取り除いてしまいましょう。
特定の文字列を取り除くには、string.replace()メソッドを使います。

string.replace(str, old, new[, maxreplace]) (7.1. string — 一般的な文字列操作 — Python 2.7.x ドキュメント)
http://docs.python.jp/2.7/library/string.html#string.replace

その次は、特定の区切り文字で分割すれば
分割するには、string.split()メソッドを使います。

string.split(s[, sep[, maxsplit]]) (7.1. string — 一般的な文字列操作 — Python 2.7.x ドキュメント)
http://docs.python.jp/2.7/library/string.html#string.split

上記を踏まえて、芝右 外2200m&nbsp;/&nbsp;天候 : 晴&nbsp;/&nbsp;芝 : 良&nbsp;/&nbsp;発走 : 15:40
course= 芝右 外2200m 、weather=晴、course_condition=芝良 、start_time=15:40に加工する部分だけの処理を書いてみましょう。
通常はこのような場合は関数を書いてしまうとすっきりします。

replace()split()の例はいくらでも見つかりますので、上記リンクの説明で分からなければ他のサイトも調べてみて下さい。

投稿2016/09/09 12:52

argius

総合スコア9390

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

akakage13

2016/09/11 00:55

argius様、いつもありがとうございます。 御教示通りに、replace()を用いて、問題を解決することが出来ました。 今回は、split()は用いませんでした。 解決はしたのですが、以下のようなスクリプトになりましたので、その都度、手入力することになり、改善が出来ないか考えております。 <span>芝右 外2200m&nbsp;/&nbsp;天候 : 晴&nbsp;/&nbsp;芝 : 稍重&nbsp;/&nbsp;発走 : 15:40</span><br />この部分をアナログ的に取り出さずに、分割することが出来れば、すごく画期的と考えております。 今回も、懇切丁寧な御教示、本当にありがとうございました。 これからも、出来る限り自力を忘れずに精進いたします。 今後とも、よろしくお願いいたします。 # -*- coding:utf-8 -*- import urllib2 import codecs import time from bs4 import BeautifulSoup f = codecs.open('g1_race.csv', 'w', 'utf-8') f.write('race_name,race_direction,race_distance,weather,green_condition,post_time'+u"\n") url='http://db.netkeiba.com/race/201508050411/' soup = BeautifulSoup(urllib2.urlopen(url).read(),"lxml") tr_arr = soup.select("table.race_table_01 > tr") for tr in tr_arr: #time.sleep(1) tds=tr.findAll("td") if len( tds ) > 1: race_name_tag = soup.find('div',{'class':'mainrace_data'}).find('h1') race_name = "".join([x for x in race_name_tag.text if not x == u'\xa0' and not x == u'\n']) race_condition_tag = soup.find('div',{'class':'mainrace_data'}).find('span') race_condition = "".join([x for x in race_condition_tag.text if not x == u'\xa0' and not x == u'\n']) race_direction = race_condition.replace(u' 外2200m/天候 : 晴/芝 : 稍重/発走 : 15:40','') rds = race_condition.replace(u'/天候 : 晴/芝 : 稍重/発走 : 15:40','') race_distance = rds.replace(u'芝右 ','') wzer = race_condition.replace(u'/芝 : 稍重/発走 : 15:40','') weather = wzer.replace(u'芝右 外2200m/天候 : ','') g_cnd = race_condition.replace(u'/発走 : 15:40','') green_condition = g_cnd.replace(u'芝右 外2200m/天候 : 晴/芝 : ','') post_time = race_condition.replace(u'芝右 外2200m/天候 : 晴/芝 : 稍重/発走 : ','') print race_name,race_direction,race_distance,weather,green_condition,post_time cols = [race_name,race_direction,race_distance,weather,green_condition,post_time] f.write(",".join(cols) + "\n") f.close()
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問