質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.31%
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

selenium

Selenium(セレニウム)は、ブラウザをプログラムで作動させるフレームワークです。この原理を使うことにより、ブラウザのユーザーテストなどを自動化にすることができます。

データマイニング

データマイニングは、購買履歴やクレジットカードの利用履歴、電話の通話履歴など企業にある大量のデータを解析して、その中に隠れたパターンやルールを探し出す技術です。DMと略されることもあります。

Q&A

解決済

1回答

3940閲覧

seleniumのスクレイピング動作が非常に遅い

rumippu

総合スコア26

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

selenium

Selenium(セレニウム)は、ブラウザをプログラムで作動させるフレームワークです。この原理を使うことにより、ブラウザのユーザーテストなどを自動化にすることができます。

データマイニング

データマイニングは、購買履歴やクレジットカードの利用履歴、電話の通話履歴など企業にある大量のデータを解析して、その中に隠れたパターンやルールを探し出す技術です。DMと略されることもあります。

0グッド

1クリップ

投稿2021/03/14 05:28

seleniumを利用したデータの取得がbeautifulsoupに比べて何倍も遅く、困っています。

下記は馬の戦績データを取得するコードですが、beautifulsoupを使えば1年分のレースの馬IDを取得するのに
4時間程度で終わるのですが、こちらだと30時間とかかかります。

beautifulsoupを使えばいいじゃんと思うのですが、有料会員データのタイム指数がjavascriptを使用しているらしく、
seleniumじゃないと取得できません。
headlessモードにするとタイム指数のデータは取得できず、またheadlessモードの方が何故か重かったです。

なにか対処法はありますでしょうか。

def horse_resultsp_scrape2(horse_id_list): horse_results_p ={} profile_path = '自分自身のクロームプロファイルパス' options = webdriver.chrome.options.Options() options.add_argument('--user-data-dir=' + profile_path) # options.add_argument('--headless') driver= webdriver.Chrome(options=options) framelist = ['日付','開催','天気','R','レース名','映像','頭数','枠番','馬番','オッズ','人気','着順','騎手','斤量','距離','馬場','馬場指数','タイム','着差','タイム指数','通過','ペース','上り','馬体重','厩舎コメント','備考','勝ち馬(2着馬)','賞金'] for horse_id in tqdm(horse_id_list): try: url = 'https://db.netkeiba.com/horse/' + horse_id driver.get(url) elements = driver.find_elements_by_tag_name('tbody')[3] try: tbls = driver.find_element_by_class_name('db_award_table_01') elements = driver.find_elements_by_tag_name('tbody')[4] except: pass tr_elements = elements.find_elements_by_tag_name('tr') s_row=[] row=[] for tr in tr_elements: td_elements = tr.find_elements_by_tag_name('td') for td in td_elements: row.append(td.text) s_row = list(split_list(row, 28)) df = pd.DataFrame(s_row,columns=framelist) df.index = [horse_id] * len(df) horse_results_p[horse_id] = df #存在しないrace_idを飛ばす except IndexError: continue #wifiの接続が切れた時などでも途中までのデータを返せるようにする except Exception as e: print(e) horse_results_df = pd.concat([horse_results_p[key] for key in horse_results_p]) driver.close() return horse_results_df #Jupyterで停止ボタンを押した時の対処 except: horse_results_df = pd.concat([horse_results_p[key] for key in horse_results_p]) driver.close() return horse_results_df horse_results_df = pd.concat([horse_results_p[key] for key in horse_results_p]) driver.close() return horse_results_df

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

BeautifulSoupと比較すると時間がかかるのは仕様なので仕方がないです。
BeautifulSoupはレスポンスで返ってくるHTMLデータに対して処理をするのに対して、
SeleniumはChromeが働いている以上、Webサイトのレンダリング処理といった動作も行われているので…
取得したいリストの全件数や遷移ページ数にもよりますが数十時間かかるのは妥当かと思います。

コードにも特に問題は見られませんでした。

投稿2021/03/28 06:19

yoshi_10_11

総合スコア241

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.31%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問