質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
87.20%
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

受付中

【Python】エラーの解決方法を教えてください

kenrou
kenrou

総合スコア0

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

2回答

0評価

0クリップ

877閲覧

投稿2020/05/23 09:38

編集2022/01/12 10:55

前提・実現したいこと

ここに質問の内容を詳しく書いてください。
Pythonでプログラムを作成しているのですが、エラーメッセージの修正方法が分かりません。
お分かりになられる方がいらっしゃいましたら、教えていただけないでしょうか。

発生している問題・エラーメッセージ

AttributeError Traceback (most recent call last) <ipython-input-12-77f87d602904> in <module>() 37 soup_info = getSoup(1) 38 time.sleep(1) ---> 39 page_count_str = soup_info.find(class_ = "last").text.strip() 40 41 page_count = int(page_count_str) AttributeError: 'NoneType' object has no attribute 'text'

該当のソースコード

Python

試したこと

矢印の付いている行が問題あるという事は分かったので、
classを変えたりしてみましたが、解決には至りませんでした。

補足情報(FW/ツールのバージョンなど)

ここにより詳細な情報を記載してください。

良い質問の評価を上げる

以下のような質問は評価を上げましょう

  • 質問内容が明確
  • 自分も答えを知りたい
  • 質問者以外のユーザにも役立つ

評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

気になる質問をクリップする

クリップした質問は、後からいつでもマイページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

  • プログラミングに関係のない質問
  • やってほしいことだけを記載した丸投げの質問
  • 問題・課題が含まれていない質問
  • 意図的に内容が抹消された質問
  • 過去に投稿した質問と同じ内容の質問
  • 広告と受け取られるような投稿

評価を下げると、トップページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

meg_
meg_

2020/05/23 11:32

コードはないんですか?
kenrou
kenrou

2020/05/23 13:19

失礼しました。 コードを載せてませんでした。 以下がコードになります。データを抽出するツールを作ろうと思っています。 import requests import bs4 import time import pandas as pd from tqdm import tqdm from google.colab import files def getSoup(page_number): Target_URL = "http://www.sakamotofoods.co.jp/webshop/&page=" + str(page_number) headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36"} response = requests.get(Target_URL, headers=headers) time.sleep(1) soup = bs4.BeautifulSoup(response.content, "html.parser") return soup def getData(URL): Target_URL = URL headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36"} response = requests.get(Target_URL, headers=headers) time.sleep(1) soup = bs4.BeautifulSoup(response.content, "html.parser") return soup def getDataframe(soup, df): entries = soup.find_all(class_ = "showcaseHd") for entry in entries: URL = entry.find("a")["href"] soup_second = getData(URL) se = pd.Series([ soup_second.find("title").text, # Product Name soup_second.find_all(class_ = "tableType02")[1].find_all("tr")[6].find("td").text, # JAN ], columns) df = df.append(se, columns) return df soup_info = getSoup(1) time.sleep(1) page_count_str = soup_info.find(class_ = "last").text.strip() page_count = int(page_count_str) print("\n") print("ページ数: " + str(page_count)) columns = ["Product Name", "JAN"] df = pd.DataFrame(columns=columns) for page in tqdm(range(1, page_count + 1)): soup_info = getSoup(page) df = getDataframe(soup_info, df) df
meg_
meg_

2020/05/23 14:56

・質問は編集できますのでコードを質問に追記してください。 ・質問については回答にあるように「クラス名がlastのタグ」が存在していないと思われます。(少なくともBeautifulSoupで取得できていない)
kenrou
kenrou

2020/05/23 21:03

ご連絡ありがとうございます。 コードの方は訂正しました。 textについて確認してみます。
javahack
javahack

2020/05/24 00:13

Pythonはインデントが非常に重要なのでコードを修正してインデントを正しく設定してください。 コードの```の後ろにPythonと言語名を入れるのも忘れずに。
meg_
meg_

2020/05/24 03:50

"text"が問題なのではなく、"soup_info.find(class_ = "last")"の結果が"None"(「クラス名がlastのタグ」が存在していない)になっていることが問題です。
kenrou
kenrou

2020/05/24 07:59

教えていただいた事を考えながら、いろいろ試してます。 上手くいきましたら、報告させていただきます。

まだ回答がついていません

会員登録して回答してみよう

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
87.20%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問

同じタグがついた質問を見る

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。