質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Scrapy

Scrapyは、Pythonで開発されたオープンソースソフトウェアです。スクレイピングという、Webサービスから必要な情報を取り出したり自動操作をしたりする技術を使うものです。

Q&A

解決済

1回答

814閲覧

Scrapyでyieldで書き込んだ値がまれにresponse.meta['xxx']から再度取得できてしまう

yoshi-fim

総合スコア3

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Scrapy

Scrapyは、Pythonで開発されたオープンソースソフトウェアです。スクレイピングという、Webサービスから必要な情報を取り出したり自動操作をしたりする技術を使うものです。

0グッド

0クリップ

投稿2020/08/18 07:33

編集2020/08/18 09:28

----追記----
解決するまで実際に利用しているコードを載せます。
https://github.com/yoshi-fim/crawler

crawler/hellowork/spiders/crawler.py
のpage_parse関数内で問題が発生しております。

※営利目的での利用ではないため、利用規約には抵触しておりません。

表題の書き方がわかりにくくすみません。以下にコードも交えて問題の内容を書いていきます。

Scrapyで
https://teratail.com/questions/219281
を参考にmetaを利用した関数を書いております。

python

1from project.items ProjectItem 2 3# 1ページ目で取得できる情報をitemに記録 4def parse(self, response): 5 # 複数のページを回る 6 for page in page_list: 7 item = ProjectItem() 8 next_url = response.css(......... 9 item['xxx'] = response.css(......... 10 yield scrapy.Request(next_url, callback=self.next_parse, meta={'item': item} 11 12# metaを使って前のページで取得したitemを取得。2ページ目で取得できる情報を追加で記録する 13def next_parse(self, response): 14 item = response.meta['item'] 15 item['yyy'] = response.css(......... 16 17 yield item

というように、記録しています。(実際に記述しているコードはかなり行数が多いため省いて書いております)
この場合、next_parse関数のitem = response.meta['item']から取得できるデータは、parse関数で取得した

python

1item = {'xxx': 'xxxxxxxxxxxxxxx'}

ようなものになる設計です。そして、最後のyield itemでは

python

1item = {'xxx': 'xxxxxxxxxxxxxx', 2 'yyy': 'yyyyyyyyyyyyyy'}

のようなデータをoutputする設計になっています。
※'xxxxxxxxxxxxx'や'yyyyyyyyyyyyyyy'の値はクローリング対象ページのデータによって異なります。

問題になっているのは、next_parse関数のitem = response.meta['item']でitemを取得しようとすると、前回のnext_parse関数実行時にyieldしたitemデータを取得してしまう、ということです。

itemのデータがおかしいことを調べるために

python

1def next_parse(self, response): 2 item = response.meta['item'] 3 import pdb; pdb.set_trace() 4 item['yyy'] = response.css(......... 5 6 yield item

上記のようにpdb.set_trace()を入れて、item変数の中身を確認しました。
この確認により、

python

1item = {'xxx': 'xxxxxxxxxxxxxxx'}

という感じで正常にitemが格納されていることもあれば、

python

1item = {'xxx': 'xxxxxxxxxxxxxx', 2 'yyy': 'yyyyyyyyyyyyyy'}

という感じで、この時点では取得できているはずのない'yyy'の値が入っている場合があることが判明しました。

今まで何度かScrapyコードを書いてきましたが、こういったことは初めてでした。

このような重複が起きうる場合があるのでしょうか?また、それを避ける方法はあるのでしょうか?
ご教授のほどよろしくお願いいたします。

試したこと

yieldしたitemを再度metaに記録したり、インデントのズレが無いかどうかチェックしましたが問題有りませんでした。

また、parse関数でRequestをする直前のitemの中身、next_parse関数でmetaからitemを取得した直後のitemの中身をそれぞれ確認したところ、
next_parseで取得したデータのみに上記の異常が見つかりました。

実行環境

Python 3.8.0
Scrapy 2.3.0

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

quickquip

2020/08/18 07:44

コードの例示が間違っていると思われます。 いま書かれているコードでは常に {'xxx': 'xxxxxxxxxxxxxx', 'yyy': 'yyyyyyyyyyyyyy'} になるのではないかと。
yoshi-fim

2020/08/18 07:51 編集

parse関数の最後でyieldを書くのを忘れていたので修正致しました。 また、 {'xxx': 'xxxxxxxxxxxxxx', 'yyy': 'yyyyyyyyyyyyyy'} の値については、next_parse関数の対象となるページによって変動します。このあたりわかりにくくてすみません。
quickquip

2020/08/18 07:56

> この場合、metaから取得できるデータはparse関数で取得した > item = {'xxx': 'xxxxxxxxxxxxxxx'} > ようなものになるはずなのですが と書いてあるのは、どこのことですか? next_parse関数の yield item で書き出されるデータですか? next_parse関数の item = response.meta['item'] の結果のことですか?
yoshi-fim

2020/08/18 07:57

next_parse関数の item = response.meta['item'] の結果のことですか? >>>>>>>>>>こちらの結果のことになります。言葉足らずですみません。
quickquip

2020/08/18 08:06

それなら質問としては理解できます。(回答はちょっと思いつきませんが) > まれに item = {'xxx': 'xxxxxxxxxxxxxx', 'yyy': 'yyyyyyyyyyyyyy'} のようなデータを取得してしまう場合があります。 を確認した方法も不明でした。(直後に'yyy'をセットしているところを外してみたとかでしょうか?) 併せて質問を編集していただければと思います。
yoshi-fim

2020/08/18 08:16

確認方法も含めて再度編集しました。要確認事項について何度もご指摘くださりありがとうございます。
guest

回答1

0

自己解決

解決しましたので修正内容を記述します。
そもそも、説明用に簡易的に書いたコードの内容のうち、parse関数について、実際のコードで書いているものと少し違っていました。

質問で書いていたコード

python

1# 1ページ目で取得できる情報をitemに記録 2def parse(self, response): 3 # 複数のページを回る 4 for page in page_list: 5 item = ProjectItem() 6 next_url = response.css(......... 7 item['xxx'] = response.css(......... 8 yield scrapy.Request(next_url, callback=self.next_parse, meta={'item': item} 9

実際にはfor文の前でitemインスタンスを作成していました。
実際のコード(イメージ)

python

1# 1ページ目で取得できる情報をitemに記録 2def parse(self, response): 3 # 【違っていたポイント】for文の前でitemインスタンスを定義していました。 4 item = ProjectItem() 5 item['xxx'] = response.css(......... 6 for page in page_list: 7 next_url = response.css(......... 8 yield scrapy.Request(next_url, callback=self.next_parse, meta={'item': item} 9

デバッグツールなどで一行ずつ叩くなどしていろいろ調べてみると、for文で回しているpage_listの配列の長さが2以上の場合に今回の問題が発生することに気づきました。

for文の前でitemインスタンスを定義しており、同じitemインスタンスを使いまわしているのが良くないのではないか?と思い、質問で書いていたようなfor文の中でitemインスタンスを作成するように修正したところ、問題が解決できました。

投稿2020/08/18 18:10

yoshi-fim

総合スコア3

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問