質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

2回答

339閲覧

csvにうまく保存できない

shikatan

総合スコア4

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2019/10/23 03:08

前提・実現したいこと

webスクレイピングの結果をcsvに保存したい。

###現状

Python

1import requests 2from bs4 import BeautifulSoup 3import datetime 4import csv 5import re 6 7import dateutil 8from dateutil.relativedelta import relativedelta 9url1 = "https://avexnet.jp/" 10url2 = "https://avexnet.jp/live_event/?date=" 11 12today = datetime.date.today() 13urls = [] 14 15f = open('date1.csv', 'w') 16writer = csv.writer(f, lineterminator='\n') 17 18for i in range(0,3): 19 nogizaka = today + relativedelta(months=+1,days=+i) 20 urls.append(url2+str(nogizaka)) 21 22for i in urls: 23 r = requests.get(i) 24 soup = BeautifulSoup(r.content, "html.parser") 25 with open('keyakizaka.html', mode='w', encoding = 'utf-8') as fw: 26 fw.write(soup.prettify()) 27 hinatazaka = soup.find_all(href=re.compile(".li")) 28 csvlist=[] 29 csvlist.append(hinatazaka) 30 writer.writerow(csvlist) 31f.close()

今こんなコードを書きました。
しかし、csvに配列としても保存されず、またhtmlがそのまま保存されてしまいます。
csvにhtmlの情報で<a>など以外の情報を保存する方法、またそれが配列を生かして見やすくする方法などを教えていた大期待です。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答2

0

pandasのdataframeを利用するのが早いように思いました。

https://deepage.net/features/pandas/

回答になっていなかったら申し訳ございません。

投稿2019/12/05 14:46

john_doe_

総合スコア354

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

0

もう少し具体的にやりたいことを書いてもらった方が回答しやすいです。
質問者さんが欲しがっているCSVのアウトプットイメージがあると尚良いですね。

さて、
ソースコードを読んだ上で、質問者さんのやりたいことを想像してみました。
https://avexnet.jp/live_event/?date=2019-10-24 (例)
こちらのページにあるdt要素とdd要素のテキスト情報のペアを1行にしてCSVに保存したいということでいいでしょうか?

合っているという前提で話を進めます。
Beautiful Soupのfind_allメソッドを使ってHTMLをパースしてあげれば良いので

hinatazaka = soup.find_all(href=re.compile(".li"))

ここでhinatazakaの中身が何か教えて変数をprintした結果を貼り付けて下さい。
そうすればパースの仕方のアドバイスが出来ると思います。

投稿2019/10/23 05:51

編集2019/11/06 09:34
tomotomobile

総合スコア21

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

shikatan

2019/10/25 02:20

回答ありがとうございます。 csvの形としては、各行がyyyy-mm-dd, dt要素, dd要素のような形を想定しています。 実際hinatazakaの中身が何をやっているがわかっておりません。 keyakizakaのhtmlからスクレイピングをしていると考えていますがあっているかが不明です。 hinatazakaはkeyakizakaのhtmlの中のliの要素を全て所得したいと考えております。 beautifulsoupの使い方になると思いますがお願いします。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだベストアンサーが選ばれていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問