Pythonでのスクレイピングを勉強しています。作成しているコードは、Googleで語を検索し、表示されたページのタイトルとURLをエクセルに抜き取るというものです。
しかし、タイトルとURLがうまくリストに格納されません。これはなぜなのでしょうか。
以下が作成したコードです。
import openpyxl import time # スリープを使うために必要 from selenium import webdriver # Webブラウザを自動操作する(python -m pip install selenium) import chromedriver_binary driver = webdriver.Chrome() driver.get('https://www.google.com/') search = driver.find_element_by_name('q') search.send_keys("あばばば") search.submit() time.sleep(3) def search_page(driver): page_number = 1 page_number_max = 3 title_list = [] url_list = [] scraping_count = 0 #確認用変数 while page_number <= page_number_max: class_group = driver.find_elements_by_class_name("rc") for class_name in class_group: title_list.append(class_name.find_element_by_class_name("LC20lb DKV0Md").text) url_list.append(class_name.find_element_by_tag_name("a").get_attribute("href")) scraping_count += 1 if driver.find_elements_by_id("pnnext") == []: #次のページがなかったらループを抜け出す page_number = page_number_max + 1 else: next_page = driver.find_elements_by_id("pnnext").get_attribute("href") driver.get(next_page) page_number += 1 time.sleep(3) return title_list, url_list, scraping_count titles, urls, count= search_page(driver) print(f"Number of extracts are {count}") wb = openpyxl.Workbook() sheet = wb.active headers = ["Title", "URL"] i = 1 for header in headers: sheet.cell(row = 1, column = i, value = header) i += 1 i = 2 for (title, url) in zip(titles, urls): sheet.cell(row = i, column = 1, value = title) sheet.cell(row = i, column = 2, value = url) i += 1 wb.save("scraping.xlsx")
実行すると以下のように出力されます。
引用テキスト
DevTools listening on ws://127.0.0.1:49835/devtools/browser/d77618c9-a3d6-4982-814e-034bac32c200
[9312:13168:1219/164828.980:ERROR:device_event_log_impl.cc(211)] [16:48:28.980] USB: usb_device_handle_win.cc:1020 Failed to read descriptor from node connection: システムに接続されたデバイスが機能していません。 (0x1F)
Traceback (most recent call last):
File "C:\Users\yagla\Program_lessons\Python\index.py", line 38, in <module>
titles, urls, count= search_page(driver)
File "C:\Users\yagla\Program_lessons\Python\index.py", line 24, in search_page
title_list.append(class_name.find_element_by_class_name("LC20lb DKV0Md").text)
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\webelement.py", line 398, in find_element_by_class_name
return self.find_element(by=By.CLASS_NAME, value=name)
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\webelement.py", line 658, in find_element
return self._execute(Command.FIND_CHILD_ELEMENT,
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\webelement.py", line 633, in _execute
return self._parent.execute(command, params)
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 321, in execute
self.error_handler.check_response(response)
File "C:\Users\yagla\AppData\Local\Programs\Python\Python39\lib\site-packages\selenium\webdriver\remote\errorhandler.py", line 242, in check_response
raise exception_class(message, screen, stacktrace)
selenium.common.exceptions.NoSuchElementException: Message: no such element: Unable to locate element: {"method":"css selector","selector":".LC20lb DKV0Md"}
(Session info: chrome=87.0.4280.88)
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/12/20 05:45