質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.46%
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Webサイト

一つのドメイン上に存在するWebページの集合体をWebサイトと呼びます。

JavaScript

JavaScriptは、プログラミング言語のひとつです。ネットスケープコミュニケーションズで開発されました。 開発当初はLiveScriptと呼ばれていましたが、業務提携していたサン・マイクロシステムズが開発したJavaが脚光を浴びていたことから、JavaScriptと改名されました。 動きのあるWebページを作ることを目的に開発されたもので、主要なWebブラウザのほとんどに搭載されています。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

5499閲覧

Python Webスクレイピング JavaScriptの動的コードを取得したいです。

pythonbegginer

総合スコア25

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Webサイト

一つのドメイン上に存在するWebページの集合体をWebサイトと呼びます。

JavaScript

JavaScriptは、プログラミング言語のひとつです。ネットスケープコミュニケーションズで開発されました。 開発当初はLiveScriptと呼ばれていましたが、業務提携していたサン・マイクロシステムズが開発したJavaが脚光を浴びていたことから、JavaScriptと改名されました。 動きのあるWebページを作ることを目的に開発されたもので、主要なWebブラウザのほとんどに搭載されています。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/04/01 05:56

編集2020/04/01 05:57

Pythonを初めてまもない初心者で、プログラミングも勉強始めたばかりです。
最終的にWebスクレイピングができるようになりたいと思っています。

最初に食べログで練習しているのですが、検索してもわからず初歩的な部分で、つまづいているので詳しい方教えて下さいm(__)m

※Windows10のコマンドプロンプトから実行しています。
※Webスクレイピングの規約は確認しています。

★やりたいこと★

以前質問させて頂いた際、下記画像のような食べログの予約空状況(日付と〇とか休み等)をリスト化したいと思うのですが、

イメージ説明

■以前いただいた回答では、
・ブラウザで開いて見えるHTMLとrequestsで取得できるHTMLが違う
・JavaScriptで動的に構成されている
・ブラウザなどを通す方法

などを教えてもらったのですが、これをどうにか実現する方法はありますでしょうか?

ちなみにホットペッパーでは下記画像のカレンダーの日付や◎などは取得できました。
イメージ説明

その時に使用したコードはこれです。

Python

1import requests 2from bs4 import BeautifulSoup 3 4url = "https://www.hotpepper.jp/strJ001099007/" 5 6response = requests.get(url) 7soup = BeautifulSoup(response.content, 'html.parser') 8yoyakus = soup.find_all("div", class_="multiLineList") 9 10#テーブル作成 11table = [] 12 13for yoyaku in yoyakus: 14 date = yoyaku.find("p", class_="jscCellNumber cellNumber") 15 vacancy = yoyaku.find("p", class_="cellMark") 16 table.append([date.text, vacancy.text]) 17 18import pandas as pd 19 20Column = ['日付', '空情報'] 21 22# データフレームを作成 23df = pd.DataFrame(table,columns=Column) 24 25# CSV ファイル出力 26df.to_csv(r"C:\python/vacancy.csv",encoding='utf_8_sig')

ちんぷんかんぷんな質問でしたらすいません(´;ω;`)。

どちらも選択してる店舗はランダムです。
教えていただけると嬉しいです。

宜しくお願いします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

Seleniumでページにアクセスしてpage_sourceをBeautifulSoupに渡すと
Javascriptが実行された後のHTMLで処理することができます。
requestsだとJavascript実行前のHTMLとなります。

python

1soup = BeautifulSoup(driver.page_source, 'html.parser')

投稿2020/04/01 08:53

退会済みユーザー

退会済みユーザー

総合スコア0

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

pythonbegginer

2020/04/02 06:17

いつもありがとうございます!なるほどです!requestsではなくてpage_sourceでやればいいのですね。 調べてみます!
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.46%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問