Python スクレイピング for文の高速化したい

解決済

回答 3

投稿

  • 評価
  • クリップ 0
  • VIEW 1,702

RWW

score 11

Pythonにてブランドサイトから、商品情報を抽出し保存するコードを書きました。
プログラミング初心者ながら、やっと完成したのですが
最後のエクセルへの書き込みと画像の保存の処理を行う度にループする速度が遅くなってしまいます。
原因と解決方法がありましたら、教えていただきたいです。

import requests
from bs4 import BeautifulSoup
import pprint
import os
from urllib.parse import urljoin
import itertools
import re
import time
import xlsxwriter

from selenium import webdriver
driver= webdriver.Chrome("/Users/AA/Downloads/chromedriver")

sex_URL = "https://www.gucci.com/jp/ja/ca/men-c-men" 
soup = BeautifulSoup(requests.get(sex_URL).content,'lxml')

#カテゴリ毎のURLを取得し、相対パスを絶対パスに変換
#category_listにURLを格納
base = "https://www.gucci.com/jp/ja/"
category_link = soup.find_all("a",class_="category-product")
category_list = []
for category_link in category_link:
    category_list.append(urljoin(base,category_link.get("href")))
print(category_list)

#商品カテゴリ名を取得し、category_name_listに格納
category_name = soup.select("header > h2")
category_name_list = []
for category_name in category_name:
    category_name_list.append((category_name).getText())
print(category_name_list)

#category_listとcategory_name_listの2つのリストを1つのディクショナリに変換
keys = category_name_list
values = category_list
dic = dict(zip(keys,values))
print(dic)

for category in dic:
    #カテゴリURL毎に分割されている全てのURLを取得する
    url = dic[category]
    url_list = [url]
    driver.implicitly_wait(10)
    driver.get(url)
    cur_url= driver.current_url 
    n = 1
    while url == cur_url:
        url = dic[category]
        url = url + "/" + str(n)
        driver.get(url)
        cur_url= driver.current_url 
        url_list.append(url)
        n += 1
    url_list.pop()
    #ここまで
    for p in url_list:
        soup_1 = BeautifulSoup(requests.get(p).content,'lxml')
        item_list=[]
        item_link = soup_1.find_all("a",class_="product-tiles-grid-item-link")
        for item_link in item_link:
            #商品URLの相対パスを絶対パスに変換し、item_listに格納
            item_list.append(urljoin(base,item_link.get("href")))
            #商品毎の名前、金額、商品説明を取得
            for i in item_list:
                soup_2 = BeautifulSoup(requests.get(i).content,'lxml')
                #商品名
                item_title = soup_2.select_one("section > h1").text
                #商品金額(日本円)
                item_price = soup_2.select_one("#markedDown_full_Price").text
                #商品金額(フランス)
                fr_url = i.replace("jp/ja", 'fr/fr')
                soup_3 = BeautifulSoup(requests.get(fr_url).content,'lxml')
                try:
                    item_price_fr= soup_3.select_one("#markedDown_full_Price").text
                except AttributeError:
                    item_price_fr = "フランスのサイトが存在しませんでした"
                #商品詳細
                item_detail = soup_2.find(class_="product-detail").text
                #フォルダを作成
                os.makedirs("/Users/RP/Desktop/GUCCI/メンズ/" + category +"/"+ item_title ,exist_ok=True)

                #エクセルファイルを作成
                workbook = xlsxwriter.Workbook("/Users/RP/Desktop/GUCCI/メンズ/" + category +"/"+ item_title + "/" + "detail.xlsx")
                worksheet = workbook.add_worksheet("Sheet1")
                worksheet.set_column('B:B', 90)
                worksheet.write('A1', '商品URL')
                worksheet.write('A2', 'カテゴリー名')
                worksheet.write('A3', '商品名')
                worksheet.write('A4', '商品金額(円)')
                worksheet.write('A5', '商品金額(€)')
                worksheet.write('A6', '商品詳細')

                worksheet.write('B1', i)
                worksheet.write('B2', category)
                worksheet.write('B3', item_title)
                worksheet.write('B4', item_price)
                worksheet.write('B5', item_price_fr)
                worksheet.write('B6', item_detail)
                workbook.close()

                #画像取得
                img = []
                img_url = soup_2.select("#carousel-vertical > div.product-detail-carouse-vertical-inner.carousel-vertical-inner.carousel-inner  picture > source")
                for url in img_url:
                    img_url = urljoin(base,url.get("srcset"))
                    img.append(img_url)
                for target in img: # imgからtargetに入れる
                    re = requests.get(target)
                    with open("/Users/RP/Desktop/GUCCI/メンズ/" + category +"/"+ item_title + "/" +target.split('/')[-1], 'wb') as f: # imgフォルダに格納
                        f.write(re.content) # .contentにて画像データとして書き込む
                time.sleep(1)
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 3

checkベストアンサー

+2

力作ですねー。。

1,変数:item_listは不要ではないでしょうか?
以下の処理だとitem_linkのループ分 item_listに要素を追加してしまいます。

            item_list = []
            item_link = soup_1.find_all("a", class_="product-tiles-grid-item-link")
            for item_link in item_link:
                # 商品URLの相対パスを絶対パスに変換し、item_listに格納
                item_list.append(urljoin(base, item_link.get("href")))
                # 商品毎の名前、金額、商品説明を取得
                for i in item_list:

2,urlを取り扱う時は重複値を扱える Listではなく重複なしの setで扱ってくださいな。
listsetの違いは検索サイトで検索するとHITするかと。

item_list = []
item_link = soup_1.find_all("a", class_="product-tiles-grid-item-link")
for item_link in item_link:
    # 商品URLの相対パスを絶対パスに変換し、item_listに格納
    item_list.append(urljoin(base, item_link.get("href")))


item_list = set()
item_link = soup_1.find_all("a", class_="product-tiles-grid-item-link")
for item_link in item_link:
    # 商品URLの相対パスを絶対パスに変換し、item_listに格納
    item_list.add(urljoin(base, item_link.get("href")))

3,全般的に個々の処理を関数化することをオススメします。これはデバックとテストをしやすさの向上のためです。

例えば、エクセルファイル書き込み処理なら

def create_excel(i, category, item_title, item_price, item_price_fr, item_detail):
    workbook = xlsxwriter.Workbook(
        "/Users/RP/Desktop/GUCCI/メンズ/" + category + "/" + item_title + "/" + "detail.xlsx")
    worksheet = workbook.add_worksheet("Sheet1")
    worksheet.set_column('B:B', 90)
    worksheet.write('A1', '商品URL')
    worksheet.write('A2', 'カテゴリー名')
    worksheet.write('A3', '商品名')
    worksheet.write('A4', '商品金額(円)')
    worksheet.write('A5', '商品金額(€)')
    worksheet.write('A6', '商品詳細')

    worksheet.write('B1', i)
    worksheet.write('B2', category)
    worksheet.write('B3', item_title)
    worksheet.write('B4', item_price)
    worksheet.write('B5', item_price_fr)
    worksheet.write('B6', item_detail)
    workbook.close()
#呼び出しかた
create_excel(i, category, item_title, item_price, item_price_fr, item_detail)


関数化するとスクレイピングを行わなくても、create_excelを呼び出せば、テストできます。
こうすることで、スクレイピングの問題なのか、エクセルファイル書き込みの問題なのかの問題切り分けが可能になります。

高速化の基本は処理に時間が掛かっているところ(ボトルネック)を特定するところからかと
cProfileSnakevizを使って時間が掛かっている所を可視化する事をお勧めします。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/04/19 18:47

    ご丁寧にありがとうございます!自分なりに、修正してみます!

    キャンセル

+2

おそらくなのですが、

#エクセルファイルを作成
                workbook = xlsxwriter.Workbook("/Users/RP/Desktop/GUCCI/メンズ/" + category +"/"+ item_title + "/" + "detail.xlsx")

の行を

        for item_link in item_link:

の上に移動しまして、

                #画像取得
                img = []
                img_url = soup_2.select("#carousel-vertical > div.product-detail-carouse-vertical-inner.carousel-vertical-inner.carousel-inner  picture > source")
                for url in img_url:
                    img_url = urljoin(base,url.get("srcset"))
                    img.append(img_url)
                for target in img: # imgからtargetに入れる
                    re = requests.get(target)
                    with open("/Users/RP/Desktop/GUCCI/メンズ/" + category +"/"+ item_title + "/" +target.split('/')[-1], 'wb') as f: # imgフォルダに格納
                        f.write(re.content) # .contentにて画像データとして書き込む
                time.sleep(1)

この部分を、

                #画像取得
                img = []
                img_url = soup_2.select("#carousel-vertical > div.product-detail-carouse-vertical-inner.carousel-vertical-inner.carousel-inner  picture > source")
                for url in img_url:
                    img_url = urljoin(base,url.get("srcset"))
                    img.append(img_url)
                with open("/Users/RP/Desktop/GUCCI/メンズ/" + category +"/"+ item_title + "/" +target.split('/')[-1], 'wb') as f: # imgフォルダを開く
                for target in img: # imgからtargetに入れる
                    re = requests.get(target)
                    f.write(re.content) # .contentにて画像データとして書き込む
                time.sleep(1)

こう書き直すと、必要以上にファイルを開く処理や、Excelファイルを展開する処理が減ると思います。

 P.S.

ファイルを開いたりする処理は極力1回だけ実行するように心がけ、for文やwhile文の中では実行しないようにするのがいいと思います。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/04/19 14:40

    ありがとうございます。必要以上にファイルを展開する処理が多くなると遅くなるのですね。勉強になりました。参考にさせていただきます。

    キャンセル

+1

time.sleep(1)を入れる場所がおかしくないですか。webへの連続アクセスを回避したいのだと思いますが、この位置だと、ループの奥にありすぎるので無駄に足踏みを続けそうな気がします。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/04/19 14:41

    ご回答ありがとうございます。もしよろしければ、どの位置に入れればいいか教えていただけると幸いです。

    キャンセル

  • 2018/04/19 14:47

    webにアクセスした直後。

    キャンセル

  • 2018/04/19 14:54

    これに限らず、ループの外で一回実行しておけばいい事をループのなかで繰返していないか再検討して、 外に出せる物は外に出す。
    この原則に従って数行修正するだけで、全体の所要時間が数十分の一に減ることもあります。

    キャンセル

  • 2018/04/19 18:46

    ありがとうございます!修正してみます!

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.21%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

同じタグがついた質問を見る