前提・実現したいこと
現在、公的機関のサイトにログインをして、申請した案件の進捗を確認するという作業を人的に行なっており、
2-30のIDをログイン/ログアウトしながら1つずつ確認作業をしています。
この作業が2-3時間かかってしまい、webスクレイピングでエクセルに情報を持ってきて、精査を行いたいと考えております。
発生している問題・エラーメッセージ
現在、python3+selenium+pandasを使用して
・ログイン
・案件の絞り込み設定⇨テーブル表示
・pandasで取り込んで、既存のエクセルファイルへ新規シートで書き込み
までは出来ました。
が、URLが変わらないでテーブルが変化する動的サイト(javascript?)のページで、
かつ1ページ10件しか表示されない為、複数ページのスクレイピングができず困っております。
該当のソースコード
Python3.6.5
1from selenium import webdriver 2from selenium.webdriver.support.ui import Select 3from time import sleep 4from bs4 import BeautifulSoup as BS 5import sys 6import os 7import pandas as pd 8import openpyxl as excel 9import requests 10import re 11import ssl 12import datetime 13import math 14 15#SSLエラー出ない為の処理 16ssl._create_default_https_context = ssl._create_unverified_context 17options = webdriver.chrome.options.Options() 18#保存先の設定 19path = "保存場所のPATH" 20prefs = {"download.default_directory" : "保存場所のPATH"} 21options.add_experimental_option("prefs",prefs) 22 23#アクセス先サイトの設定 24loginurl = "ログインURL" 25url2 = "目的のURL" 26 27#ID/PASSを変数に代入 28username = "adc123" 29password = "123g123g" 30 31# ヘッドレスモードを有効にする(次の行をコメントアウトすると画面が表示される)。 32options.add_argument('--headless') 33 34# ChromeのWebDriverオブジェクトを作成する。 35driver = webdriver.Chrome(chrome_options=options) 36 37#開きたいページを開く 38driver.get(loginurl) 39 40#ページのテキストボックスへ入力 41driver.find_element_by_name("loginPage:j_id3:username").send_keys(username) 42driver.find_element_by_name("loginPage:j_id3:password").send_keys(password) 43 44driver.execute_script("return comExecSubmit('submit','login');") 45sleep(2) 46 47url = driver.find_element_by_xpath('//*[@id="page:form:j_id54"]/div[2]/a').get_attribute('href') 48driver.get(url) 49 50 51 52# 普通にエレメントを取得する 53shinsei_element = driver.find_element_by_name('j_id0:form:j_id71') 54 55# 取得したエレメントをSelectタグに対応したエレメントに変化させる 56shinsei_select_element = Select(shinsei_element) 57 58# 選択したいvalueを指定する 59shinsei_select_element.select_by_value('選択肢1') 60 61# 選択後、検索ボタンクリック 62driver.find_element_by_id("j_id0:form:comBtn").click() 63sleep(3) 64 65#ページ要素を取得 66dgdg = driver.page_source.encode('utf-8') 67 68#検索結果の合計件数を抽出(ex:○○○件中1件~10件目まで表示 といったタグ内のテキスト) 69test= driver.find_element_by_xpath('//*[@id="j_id0:form:j_id103"]/div[1]/p') 70print(test.text) 71s = test.text 72 73#抽出結果に日本語が含まれるので数字だけ抜き出す 74pattern = r'([0-9]*)' 75lists=re.findall(pattern,s) 76 77#抽出した数字の1番目の数字を抽出 78t = lists[0] 79 80#10件ずつ表示されるので10で割って繰り返し回数を求める。 81t2 = int(t)/10 82#少数点が出るので切り上げる 83t3 = math.ceil(t2) #これが後に繰り返し回数になる。 84 85###########ここからできていないところ########## 86#1)テーブル情報を取得し、ループで最後のページまで 87#2)溜め込んだデータをexcelへ貼り付け 88#がやりたいのです。 89#コレもダメで 90i = 0 91for x in range(t3): 92 dgdg = driver.page_source 93 v = requests.post(dgdg) 94 bos = BS(x, "lxml") 95 table = bos.findAll("table",{"class":"list_table"})[0] 96 rows = table.findAll("tr") 97 98#これでもダメでした。 99while i < t3: 100 dgdg = driver.page_source.encode('utf-8') 101 dfs = pd.read_html(dgdg) 102 driver.execute_script("var a=function(){return doPaging('next', true);if(window != window.top){var f = document.getElementById('j_id0:form');f.action += (f.action.indexOf('?') == -1 ? '?' : '&');};};var b=function(){if(typeof jsfcljs == 'function'){jsfcljs(document.getElementById('j_id0:form'),'j_id0:form:j_id122,j_id0:form:j_id122','');}return false};return (a()==false) ? false : b();") 103 i = i + 1 104 105#取り込んだデータを既存excelファイルへ新規シート追加、書き込み 106dfs[2].describe() 107now = datetime.datetime.now() 108EXL=pd.ExcelWriter('既存excelファイルのPATH', engine='openpyxl') 109EXL.book=excel.load_workbook('既存excelファイルのPATH') 110EXL.sheets=dict((ws.title, ws) for ws in EXL.book.worksheets) 111dfs[2].to_excel(EXL, sheet_name='申請{0:%Y%m%d%p%H%M}'.format(now)) 112EXL.save()
試したこと
Whileなどを用いてループ処理しましたが、最後の取り込んだページしか貼り付けられませんでした。
beautifulsoupを使用したところ、取り込みたいテーブルが格納されず断念しました。
※私の書き方に問題があった可能性もあります。
まだPythonを覚えたてで、悪戦苦闘しながらここまではできたのですが
javascriptのページスクレイピング
pandasを用いたループ処理 ※Pandasでなくても構いません
のところでつまずいてしまいました。
どなたか、お知恵をお貸しいただけませんでしょうか。
なにとぞよろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。