質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Google Colaboratory

Google Colaboratoryとは、無償のJupyterノートブック環境。教育や研究機関の機械学習の普及のためのGoogleの研究プロジェクトです。PythonやNumpyといった機械学習で要する大方の環境がすでに構築されており、コードの記述・実行、解析の保存・共有などが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

2回答

733閲覧

【Python】スクレイピングでのforの使い方に困ってます

data_kazu

総合スコア8

Google Colaboratory

Google Colaboratoryとは、無償のJupyterノートブック環境。教育や研究機関の機械学習の普及のためのGoogleの研究プロジェクトです。PythonやNumpyといった機械学習で要する大方の環境がすでに構築されており、コードの記述・実行、解析の保存・共有などが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

1グッド

1クリップ

投稿2022/07/13 17:02

編集2022/07/13 17:03

■使用言語とライブラリ

・Python
・Google Colaboratory

■本文

現在Python最速データ収集術(技術評論社出版)という本で、スクレイピングの学習をしているのですが、
その中の、商品が一覧ページにのっているようなサイトの各商品情報をスクレイピングするときに出てくるforの使い方がわからず、困っております。
※本でいうと、P181のリスト4.2.1_2の部分になります。

以下コードの「for i in range(9):」という部分で、コード内にiがない中で、
range(9)の範囲で繰り返し処理をしている理由が理解できておりません。

一覧ページの各商品ごとで同じ処理をやるなら、
「for elem in soup.find_all("div", class_ = "col-md-2"):」だけでよく、
「for i in range(9):」は不要ではないかと考えております。

■本に記載のコード

#ライブラリのインポート import requests from bs4 import BeautifulSoup import datetime import csv import os import shutil from urllib.parse import urljoin from time import sleep url = "https://python-data-collection.herokuapp.com/mens-fashion" #アイテムのデータを格納するための変数を作る item_list = [] #1ページずつ一覧ページでデータ取得 for i in range(9): response = requests.get(url) soup = BeautifulSoup(response.text, "html.parser") for elem in soup.find_all("div", class_ = "col-md-2"): item_image_url = urljoin(url, elem.find("img")["src"]) item_name = elem.find("div", class_ = "card-body").text.split("/n")[2] item_brand = elem.find("div", class_ = "card-body").text.split("/n")[3] item_price = int(elem.find("div", class_ = "card-body").text.split("/n")[4].replace(",", "")[1:]) item_list.append([item_name, item_image_url, item_brand, item_price]) #次のページのリンクをたどり、なければ処理終了 if soup.select("a:contains('Next')"): url = urljoin(url, soup.select("a:contains('Next')")[0]["href"]) sleep(1) else: break #人気商品の画像情報を集める csv_header = ["商品名", "画像URL", "ブランド", "価格"] csv_date = datetime.datetime.today().strftime("%Y%m%d%H") csv_file_name = "mens_fashion_" + csv_date + ".csv" with open(csv_file_name, "w", errors = "ignore") as file: writer = csv.writer(file, lineterminator = "/n") writer.writerow(csv_header) writer.writerows(item_list) path = "【Google Drive上のパスを入れてます】" for item in item_list: file_name = item[0] + "." + item[1].split(".")[-1] image_path = os.path.join(path, file_name) response = requests.get(item[1], stream = True) with open(image_path, "wb") as file: shutil.copyfileobj(response.raw, file)

こちらにつきまして、おわかりになる方がいらっしゃれば、アドバイスいただけますと幸いです。

恐れ入りますが、よろしくお願いいたします。

q22r5695👍を押しています

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

Zuishin

2022/07/13 23:28

不要なところを外して同じ結果になることは確かめましたか? まだならそれを確かめ、どこがどう違うのかを追記してみてください。 追記するまでもなく解決したなら自己解決で。
guest

回答2

0

ベストアンサー

問題のページというか記事が9ページで構成されているようですね。なのでfor i in range(9):で最大9回まわるようにしてfor文の末尾で次へボタンを探しなければ全ページぶん読み込んだとして切り上げるようになっています。
記事に10ページ目以降ができても9ページ処理したら止まってしまうので無限ループにして次へボタンがなくなったら止めるのが良いとは思いますが。

投稿2022/07/14 01:22

usekay

総合スコア395

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

usekay

2022/07/14 01:27

maximum_page_count = 9 for page_count in range(maximum_page_count): なんてなってればわかりやすいがまあテキストのたぐいはそのへんがだいたい不親切ですね。
data_kazu

2022/07/14 06:15 編集

usekayさん ご回答ありがとうございます!ページ構成にかかっているということで、理解しました! 大変助かります!ありがとうございました!
guest

0

一覧ページの各商品ごとで同じ処理をやるなら、
「for elem in soup.find_all("div", class_ = "col-md-2"):」だけでよく、
「for i in range(9):」は不要ではないかと考えております。

なら、実際にそう修正して実行してみましょう。
実行結果はどうなるでしょうか。

投稿2022/07/13 23:59

y_waiwai

総合スコア87747

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問