🎄teratailクリスマスプレゼントキャンペーン2024🎄』開催中!

\teratail特別グッズやAmazonギフトカード最大2,000円分が当たる!/

詳細はこちら
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

CSV

CSV(Comma-Separated Values)はコンマで区切られた明白なテキスト値のリストです。もしくは、そのフォーマットでひとつ以上のリストを含むファイルを指します。

Beautiful Soup

Beautiful Soupは、Pythonのライブラリの一つ。スクレイピングに特化しています。HTMLデータの構文の解析を行うために、HTMLタグ/CSSのセレクタで抽出する部分を指定することが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

pandas

Pandasは、PythonでRにおけるデータフレームに似た型を持たせることができるライブラリです。 行列計算の負担が大幅に軽減されるため、Rで行っていた集計作業をPythonでも比較的簡単に行えます。 データ構造を変更したりデータ分析したりするときにも便利です。

Q&A

解決済

2回答

1171閲覧

Beautiful SoupでスクレイピングしたものをCSVファイルへ日付ごとに出力したい

onakafunifuni

総合スコア7

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

CSV

CSV(Comma-Separated Values)はコンマで区切られた明白なテキスト値のリストです。もしくは、そのフォーマットでひとつ以上のリストを含むファイルを指します。

Beautiful Soup

Beautiful Soupは、Pythonのライブラリの一つ。スクレイピングに特化しています。HTMLデータの構文の解析を行うために、HTMLタグ/CSSのセレクタで抽出する部分を指定することが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

pandas

Pandasは、PythonでRにおけるデータフレームに似た型を持たせることができるライブラリです。 行列計算の負担が大幅に軽減されるため、Rで行っていた集計作業をPythonでも比較的簡単に行えます。 データ構造を変更したりデータ分析したりするときにも便利です。

0グッド

0クリップ

投稿2019/10/11 05:15

先日、Beautiful Soupを使用したスクレイピングについて伺ったものです。
その後、時系列でデータをスクレイピングし、CSVファイルに出力したいと思っているのですが、改行に悩まされています。

前提・実現したいこと

外務省のホームページから、経済関係に関する文言のみを時系列で取り出すために、以下のプログラムを書きました。

python

1import requests 2import re 3from bs4 import BeautifulSoup 4import csv 5import time 6import pandas as pd 7 8date = '1228104', '1257898', '1286149', '1364311', '1368305', '1368468', '1368659', '1368915', '1436746', '1621199', '1621978', '1712311', '1713002', '1886784', '1918820' 9i = 0 10 11honbun1 = list() 12 13for aa in date : 14 url = "http://warp.ndl.go.jp/info:ndljp/pid/" + date[i] + "/www.mofa.go.jp/mofaj/area/korea/data.html" 15 res = requests.get(url) 16 print(url) 17 time.sleep(10) 18 h4 = exa.find("h4", text=re.compile("経済関係")) 19 for m in h4.find_next_siblings("p", limit = 3): 20 honbun1.append(m.string) 21 i = i + 1 22 print(str(i) + "件目") 23 24 25df = pd.DataFrame(honbun1) 26df.to_csv(r"パス名", index=False, header=False, sep="\t") 27

発生している問題・エラーメッセージ

その後、PandasのDataframeを使用し、リストを時系列に作成したいのですが、このまま出力すると、find_next_siblingsでlimit=3としているせいなのか、文字列が改行されてしまいます。
いずれは他のデータとマージして、時系列で扱いたいと思っているので、同じ日付の記述は同じ行に追加したいのですが、方法がわからず質問させていただきました。

↓上記のコードを実行し、出力したCSVファイルです。改行がページごとでなく、本文の行ごとになってしまいます。

試したこと

以下のコードで要素を一度strオブジェクトに変換し、limit=2だけ取り出して結合する処理を行いました。
このhonbun_csv1というリストをDataFrameに変換したところ、同じ日付のものをまとめることはできました。

python

1 2honbunstr1 = list(map(str, honbun1)) 3 4 5honbun_csv1 = list() 6i = 0 7 8for n in honbunstr1 : 9 two = ''.join(honbunstr1[i:i+3]) 10 honbun_csv.append(three) 11 i = i + 3 12 13honbun_csv1 = list(filter(lambda a: a != "", honbun_csv1))

しかし、このウェブサイトは途中で記述方法や段落が変わることが少なくなく、このまま対応し続けると連続でうまく対応することができません。

h4 = exa.find("h4", text=re.compile("経済関係")) for m in h4.find_next_siblings("p", limit = 2): honbun1.append(m.string) i = i + 1 print(str(i) + "件目")

個人的にはスクレイパーのこの部分を変更し、1要素にまとめる必要があるのかなと思っているのですが…

大変わかりづらい説明、そして初歩的な質問申し訳ありません。
ご不明点ございましたら、追記させていただきますので、お力添え願えないでしょうか。
どうぞ宜しくお願い致します。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答2

0

リストの中身を1つの文章(文字列)にする必要があるのではないでしょうか?

Python

1a = ['abc','def'] 2df = pd.DataFrame(a) 3# 0 4#0 abc 5#1 def 6 7b = [''.join(a)] 8df = pd.DataFrame(a) 9# 0 10#0 abcdef

投稿2019/10/11 12:22

meg_

総合スコア10742

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

onakafunifuni

2019/10/15 02:37

こちらでも正常に作動しました!ご教授ありがとうございます!
guest

0

ベストアンサー

スクレイパーのこの部分を変更し、1要素にまとめる必要があるのかな

そこですね。こんな感じですかね。

python

1 h4 = exa.find("h4", text=re.compile("経済関係")) 2 for m in h4.find_next_siblings("p", limit = 3): 3 honbun1.append(m.string)

↓ 日付単位で1回だけappendするように修正

python

1 h4 = exa.find("h4", text=re.compile("経済関係")) 2 honbun1.append(''.join([m.string for m in h4.find_next_siblings("p", limit = 3)]))

↓ pかどうか曖昧だし3個かどうかも曖昧なので「次のヘッダまでの要素」というヘルパ関数を導入

python

1 def elements_to_next_header(start): 2 next = start.find_next_sibling() 3 while next and not re.match('h[1-6]', next.name): 4 yield next 5 next = next.find_next_sibling() 6 h4 = exa.find(re.compile("h[1-6]"), text=re.compile("経済関係$")) 7 honbun1.append('\n'.join([m.string.strip() for m in elements_to_next_header(h4)]))

投稿2019/10/11 13:36

編集2019/10/11 16:34
matobaa

総合スコア2493

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

onakafunifuni

2019/10/15 02:37

ありがとうございます!!データは後できれいにしようと思っていたのですが、これでそのまま使用できるようになりました(T_T)質問以上のご回答を頂き、大変感激しております…本当にありがとうございます!!
onakafunifuni

2019/10/15 05:10 編集

ヘルパ関数についてお伺いしたいのですが、このまま動かすと例えば、 <p>(3)2010年は韓国併合から100年となる節目の年であり、8月10日に菅総理は<a href="/info:ndljp/pid/1713002/www.kantei.go.jp/jp/kan/statement/201008/10danwa.html">日韓関係に関する総理談話<img src="/info:ndljp/pid/1713002/www.mofa.go.jp/mofaj/image/othersite.gif" alt="他のサイトヘ" width="15" height="15" border="0"></a>(首相官邸ホームページへリンク)を発表した。植民地支配への反省とお詫びとともに、これからの100年を見据えた未来志向の日韓関係を構築していくことを表明。</p> のように、ハイパーリンクのタグが含まれている文字列がうまくスクレイプできませんでした(Noneと返ってきます)。それがなぜなのかヘルパ関数だけを見ても理解できませんでした… h1~h6じゃなければ次の要素を返すようにヘルパ関数で定義しているのなら、ここもうまくスクレイプできるはずですよね…?初歩的な質問お許しくださいませm(__)m 追記:こちらの例は政治関係の項目に応用した場合です。ややこしくすみません、、、
onakafunifuni

2019/10/15 05:38

↑自己解決しました。.stringの箇所を.textにすることでハイパーリンク等文字のなかの他タグを無視し文字列として返すことができました!通知が何度も行ってしまったかと思います。申し訳ありません。 ヘルパ関数で大変作業が進み、ありがとうございましたm(__)m
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.36%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問