質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.50%
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Google

Googleは、アメリカ合衆国に位置する、インターネット関連のサービスや製品を提供している企業です。検索エンジンからアプリケーションの提供まで、多岐にわたるサービスを提供しています。

Q&A

0回答

273閲覧

python3 / beautifulsoup / google検索結果スクレイピングにおける連続的検索制限の突破方法

sadie

総合スコア18

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Google

Googleは、アメリカ合衆国に位置する、インターネット関連のサービスや製品を提供している企業です。検索エンジンからアプリケーションの提供まで、多岐にわたるサービスを提供しています。

0グッド

1クリップ

投稿2019/01/17 02:26

よろしくお願いします

以下のコードでgoogle検索結果をスクレイピングしています
大量の検索ワード収集が表題の制限によりできず困っています
ご教示お願いします

[確かめたこと]
・制限を受けた際、つなぐNETを変えるとまた新たに収集が行えるが、一定量に達すると制限を受ける
・日が変わると制限が解除される
・プロキシを経由させても解消できなかった

python3

1import csv 2import requests as web 3from urllib.parse import urlparse 4from bs4 import BeautifulSoup 5 6keyword_sets =[['リフォーム','屋根','鹿児島'], 7 ['リフォーム','屋根','青森'], 8 ['リフォーム','屋根','岩手'], 9 ['リフォーム','屋根','大分'], 10 ['リフォーム','屋根','石川'], 11 ['リフォーム','屋根','山形'], 12 ['リフォーム','屋根','宮崎'], 13 ['リフォーム','屋根','富山'], 14 ['リフォーム','屋根','秋田'], 15 ['リフォーム','屋根','香川'], 16 ['リフォーム','屋根','和歌山'], 17 ['リフォーム','屋根','佐賀'], 18 ['リフォーム','屋根','山梨'], 19 ['リフォーム','屋根''福井'], 20 ['リフォーム','屋根','徳島'], 21 ['リフォーム','屋根','高知'], 22 ['リフォーム','屋根','島根'], 23 ['リフォーム','屋根','鳥取']] 24 25def google(keywords): 26 url = 'https://www.google.co.jp/search?num=100&q=' + ' '.join(keywords) 27 print('googling... ', url) 28 29 # URL から HTML を取得する。 30 resp = web.get(url) 31 # HTML から BeautifulSoup オブジェクトを作成する。 32 soup = BeautifulSoup(resp.text, "html.parser") 33 34 results = [] 35 # URL、タイトル、説明を取得する。 36 # <div class="g"> のタグ一覧を取得する。 37 for div_elems in soup.select('div.g'): 38 # class="r" のタグ配下の a タグを取得する。 39 a_elem = div_elems.select('.r > a') 40 # class="s" のタグ配下の class="st" のタグを取得する。 41 div_elem = div_elems.select('.s > .st') 42 # 両方存在しない場合があったので、その場合はスキップする。 43 if not a_elem or not div_elem: 44 continue 45 # select() は選択された要素が1つでもリストで返すので、1個目の要素を取り出す。 46 a_elem, div_elem = a_elem[0], div_elem[0] 47 48 # a_elem タグの href 属性を取得し、'/url?q=' を削除する。 49 url = a_elem.get('href').replace('/url?q=', '') 50 # ドメイン部分までを取得する。 51 url_prefix = '{0.scheme}://{0.netloc}/'.format(urlparse(url)) 52 # a タグのテキストを取得する。 53 title = a_elem.text 54 # 説明文を取得する。改行コードは削除する。 55 description = div_elem.text.replace('\n','').replace('\r','') 56 # ドメイン部分までの URL、タイトル、説明をリストに追加する。 57 results.append([url_prefix, title, description]) 58 59 return results 60 61results = [] 62# キーワード分検索を実行する。 63for keywords in keyword_sets: 64 results.extend(google(keywords)) 65print(results) 66 67# CSV に書き込む。 68with open('リフォーム_都道府県(鹿児島-鳥取)_list_190116.csv', 'w', encoding='utf8') as f: 69 writer = csv.writer(f) 70 writer.writerow(['タイトル・説明','URL']) # ヘッダーを書き込む。 71 writer.writerows(results) # データを書き込む。 72 73 74

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

tiitoi

2019/01/17 03:20

Google は、プログラムによるアクセスは制限しているので、大量のスクレイピングを行うのは無理です。 検索結果を利用したい場合は、Google が提供している API が利用しましょう。 https://qiita.com/zak_y/items/42ca0f1ea14f7046108c
Kento75

2019/01/18 12:31

ループのたびに time.sleep() で数秒の間をおくか、 APIを使うしかないです。
sadie

2019/01/21 05:33

ご教示ありがとうございました ちなみに3時間ほど経つと制限が解かれることが新たにわかったので、テンポラリーにWiFiルーターを複数用意して急場をしのぎました
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.50%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問