質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

2回答

1840閲覧

【Python】エラーの解決方法を教えてください

kenrou

総合スコア0

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/05/23 09:38

編集2020/05/23 20:58

前提・実現したいこと

ここに質問の内容を詳しく書いてください。
Pythonでプログラムを作成しているのですが、エラーメッセージの修正方法が分かりません。
お分かりになられる方がいらっしゃいましたら、教えていただけないでしょうか。

発生している問題・エラーメッセージ

AttributeError Traceback (most recent call last) <ipython-input-12-77f87d602904> in <module>() 37 soup_info = getSoup(1) 38 time.sleep(1) ---> 39 page_count_str = soup_info.find(class_ = "last").text.strip() 40 41 page_count = int(page_count_str) AttributeError: 'NoneType' object has no attribute 'text'

該当のソースコード

import requests import bs4 import time import pandas as pd from tqdm import tqdm from google.colab import files def getSoup(page_number): Target_URL = "http://www.sakamotofoods.co.jp/webshop/&page=" + str(page_number) headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36"} response = requests.get(Target_URL, headers=headers) time.sleep(1) soup = bs4.BeautifulSoup(response.content, "html.parser") return soup def getData(URL): Target_URL = URL headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36"} response = requests.get(Target_URL, headers=headers) time.sleep(1) soup = bs4.BeautifulSoup(response.content, "html.parser") return soup def getDataframe(soup, df): entries = soup.find_all(class_ = "showcaseHd") for entry in entries: URL = entry.find("a")["href"] soup_second = getData(URL) se = pd.Series([ soup_second.find("title").text, # Product Name soup_second.find_all(class_ = "tableType02")[1].find_all("tr")[6].find("td").text, # JAN ], columns) df = df.append(se, columns) return df soup_info = getSoup(1) time.sleep(1) page_count_str = soup_info.find(class_ = "last").text.strip() page_count = int(page_count_str) print("\n") print("ページ数: " + str(page_count)) columns = ["Product Name", "JAN"] df = pd.DataFrame(columns=columns) for page in tqdm(range(1, page_count + 1)): soup_info = getSoup(page) df = getDataframe(soup_info, df) df

試したこと

矢印の付いている行が問題あるという事は分かったので、
classを変えたりしてみましたが、解決には至りませんでした。

補足情報(FW/ツールのバージョンなど)

ここにより詳細な情報を記載してください。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

meg_

2020/05/23 11:32

コードはないんですか?
kenrou

2020/05/23 13:19

失礼しました。 コードを載せてませんでした。 以下がコードになります。データを抽出するツールを作ろうと思っています。 import requests import bs4 import time import pandas as pd from tqdm import tqdm from google.colab import files def getSoup(page_number): Target_URL = "http://www.sakamotofoods.co.jp/webshop/&page=" + str(page_number) headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36"} response = requests.get(Target_URL, headers=headers) time.sleep(1) soup = bs4.BeautifulSoup(response.content, "html.parser") return soup def getData(URL): Target_URL = URL headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36"} response = requests.get(Target_URL, headers=headers) time.sleep(1) soup = bs4.BeautifulSoup(response.content, "html.parser") return soup def getDataframe(soup, df): entries = soup.find_all(class_ = "showcaseHd") for entry in entries: URL = entry.find("a")["href"] soup_second = getData(URL) se = pd.Series([ soup_second.find("title").text, # Product Name soup_second.find_all(class_ = "tableType02")[1].find_all("tr")[6].find("td").text, # JAN ], columns) df = df.append(se, columns) return df soup_info = getSoup(1) time.sleep(1) page_count_str = soup_info.find(class_ = "last").text.strip() page_count = int(page_count_str) print("\n") print("ページ数: " + str(page_count)) columns = ["Product Name", "JAN"] df = pd.DataFrame(columns=columns) for page in tqdm(range(1, page_count + 1)): soup_info = getSoup(page) df = getDataframe(soup_info, df) df
meg_

2020/05/23 14:56

・質問は編集できますのでコードを質問に追記してください。 ・質問については回答にあるように「クラス名がlastのタグ」が存在していないと思われます。(少なくともBeautifulSoupで取得できていない)
kenrou

2020/05/23 21:03

ご連絡ありがとうございます。 コードの方は訂正しました。 textについて確認してみます。
javahack

2020/05/24 00:13

Pythonはインデントが非常に重要なのでコードを修正してインデントを正しく設定してください。 コードの```の後ろにPythonと言語名を入れるのも忘れずに。
meg_

2020/05/24 03:50

"text"が問題なのではなく、"soup_info.find(class_ = "last")"の結果が"None"(「クラス名がlastのタグ」が存在していない)になっていることが問題です。
kenrou

2020/05/24 07:59

教えていただいた事を考えながら、いろいろ試してます。 上手くいきましたら、報告させていただきます。
guest

回答2

0

AttributeError: 'NoneType' object has no attribute 'text'の意味は、
soup_info.find(class_ = "last")が'NoneType'(つまり空っぽのオブジェクト)なので、'.text'は使えません。
という意味です。
したがって、soup_infoとsoup_info.find(class_ = "last")を出力してみれば、
soup_info = getSoup(1)が上手くいっていないのか、
soup_info.find(class_ = "last")が上手くいっていないのかが分かります。
場所を特定できれば、修正は可能かと思いますので頑張ってください。

投稿2020/05/23 13:14

Sayuki

総合スコア21

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

kenrou

2020/05/23 21:02

ありがとうございます。 出力してみたんですが、 soup_infoはTypeError: int() argument must be a string, a bytes-like object or a number, not 'BeautifulSoup' soup_info.find(class_ = "last")はTypeError: int() argument must be a string, a bytes-like object or a number, not 'NoneType'とエラーが出ました。 これを基に場所を特定していこうと思います。
guest

0

'NoneType' object has no attribute 'text'

'NoneType' には'text'というアトリビュートはない!
とおっしゃってますんで、.textってついてる変数がnullやnoneになってないか確認してみよう

投稿2020/05/23 09:49

y_waiwai

総合スコア88042

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

kenrou

2020/05/23 20:59

ありがとうございます。 textについて確認してみます。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだベストアンサーが選ばれていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問