質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

2368閲覧

Pythonでのスクレイピングでうまく抽出できない

ogiogimaru

総合スコア39

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/12/19 07:06

編集2020/12/19 07:51

Pythonでのスクレイピングを勉強しています。作成しているコードは、Googleで語を検索し、表示されたページのタイトルとURLをエクセルに抜き取るというものです。

しかし、タイトルとURLがうまくリストに格納されません。これはなぜなのでしょうか。

以下が作成したコードです。

import openpyxl import time # スリープを使うために必要 from selenium import webdriver # Webブラウザを自動操作する(python -m pip install selenium) import chromedriver_binary driver = webdriver.Chrome() driver.get('https://www.google.com/') search = driver.find_element_by_name('q') search.send_keys("あばばば") search.submit() time.sleep(3) def search_page(driver): page_number = 1 page_number_max = 3 title_list = [] url_list = [] scraping_count = 0 #確認用変数 while page_number <= page_number_max: class_group = driver.find_elements_by_class_name("rc") for class_name in class_group: title_list.append(class_name.find_element_by_class_name("LC20lb DKV0Md").text) url_list.append(class_name.find_element_by_tag_name("a").get_attribute("href")) scraping_count += 1 if driver.find_elements_by_id("pnnext") == []: #次のページがなかったらループを抜け出す page_number = page_number_max + 1 else: next_page = driver.find_elements_by_id("pnnext").get_attribute("href") driver.get(next_page) page_number += 1 time.sleep(3) return title_list, url_list, scraping_count titles, urls, count= search_page(driver) print(f"Number of extracts are {count}") wb = openpyxl.Workbook() sheet = wb.active headers = ["Title", "URL"] i = 1 for header in headers: sheet.cell(row = 1, column = i, value = header) i += 1 i = 2 for (title, url) in zip(titles, urls): sheet.cell(row = i, column = 1, value = title) sheet.cell(row = i, column = 2, value = url) i += 1 wb.save("scraping.xlsx")

実行すると以下のように出力されます。

引用テキスト

DevTools listening on ws://127.0.0.1:49835/devtools/browser/d77618c9-a3d6-4982-814e-034bac32c200
[9312:13168:1219/164828.980:ERROR:device_event_log_impl.cc(211)] [16:48:28.980] USB: usb_device_handle_win.cc:1020 Failed to read descriptor from node connection: システムに接続されたデバイスが機能していません。 (0x1F)
Traceback (most recent call last):
File "C:\Users\yagla\Program_lessons\Python\index.py", line 38, in <module>
titles, urls, count= search_page(driver)
File "C:\Users\yagla\Program_lessons\Python\index.py", line 24, in search_page
title_list.append(class_name.find_element_by_class_name("LC20lb DKV0Md").text)
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\webelement.py", line 398, in find_element_by_class_name
return self.find_element(by=By.CLASS_NAME, value=name)
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\webelement.py", line 658, in find_element
return self._execute(Command.FIND_CHILD_ELEMENT,
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\webelement.py", line 633, in _execute
return self._parent.execute(command, params)
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 321, in execute
self.error_handler.check_response(response)
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\errorhandler.py", line 242, in check_response
raise exception_class(message, screen, stacktrace)
selenium.common.exceptions.NoSuchElementException: Message: no such element: Unable to locate element: {"method":"css selector","selector":".LC20lb DKV0Md"}
(Session info: chrome=87.0.4280.88)

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

大前提としてgoogleのスクレイピングは禁止となっておりますが、とりあえずは解説
class属性を複数指定する場合.find_element_by_css_selector()を使用し
各class属性を.で冠し指定してあげましょう。

diff

1- title_list.append(class_name.find_element_by_class_name("LC20lb DKV0Md").text) 2+ title_list.append(class_name.find_element_by_css_selector(".LC20lb.DKV0Md").text)

もう1点、次のページへの遷移の際の指定ですがelementsと複数形にしてしまっては
戻り値がリストになってしまうのでelementとすべきでしょう。

diff

1- next_page = driver.find_elements_by_id("pnnext").get_attribute("href") 2+ next_page = driver.find_element_by_id("pnnext").get_attribute("href")

投稿2020/12/20 04:49

編集2020/12/20 04:50
nto

総合スコア1438

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

ogiogimaru

2020/12/20 05:45

ありがとうございました!アドバイス通り変更し、クラス名を少し変えたらばっちりエクセルに抽出できました。 「googleのスクレイピングは禁止となっております」 →初耳でした、ご指摘ありがとうございます。勉強のためとはいえ、以後気を付けてます。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問