質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

87.92%

クローリングをPython環境で実行しようとするとエラーが生じる

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 1,092

score 18

 前提・実現したいこと

私は現在クローリング用のプログラムを参考書を元に作成し

入力:検索したい語句が入ったファイル名、保存したいURLの数、出力するファイル名
出力:語句に対するURLが入力数だけ保存されたファイル、進捗状況を保存したファイル(search_progress.txt)

というプログラムを作成しました。

それを用いてクローリングを実行したいのですが、端末から動作させた所で下記のエラーを吐いてしまい想定どおりに動きません。
どうすればよろしいでしょうか?

 発生している問題・エラーメッセージ

端末に打ち込んだコード:python2 google_search.py UC.csv 10 res.txt

UC.csv の内容:ガンダム,宇宙世紀 のみを書いたCSVファイル

Traceback (most recent call last):
  File "google_search.py", line 73, in <module>
    main()
  File "google_search.py", line 69, in main
    get_urls_from(keywords,search_num)
  File "google_search.py", line 49, in get_urls_from
    progress_file = open('search_progress.txt','a')
IOError: [Errno 13] Permission denied: 'search_progress.txt'
[urai@localhost crawling]$ python google_search.py UC.csv 10 res.txt 
/usr/lib/python2.6/site-packages/google.py:203: UserWarning: No parser was explicitly specified, so I'm using the best available HTML parser for this system ("lxml"). This usually isn't a problem, but if you run this code on another system, or in a different virtual environment, it may use a different parser and behave differently.

The code that caused this warning is on line 203 of the file /usr/lib/python2.6/site-packages/google.py. To get rid of this warning, pass the additional argument 'features="lxml"' to the BeautifulSoup constructor.

  soup = BeautifulSoup(html)
Traceback (most recent call last):
  File "google_search.py", line 73, in <module>
    main()
  File "google_search.py", line 69, in main
    get_urls_from(keywords,search_num)
  File "google_search.py", line 56, in get_urls_from
    for url in urls:
  File "/usr/lib/python2.6/site-packages/google.py", line 204, in search
    anchors = soup.find(id='search').findAll('a')
AttributeError: 'NoneType' object has no attribute 'findAll'

 該当のソースコード

# -*- coding: utf-8 -*-
from google import search
import sys
import time
import codecs


def make_search_keywords(search_candidates):
    """
    入力は検索したい用語をまとめたファイル
    「,]区切りされたファイルの一番右の要素のリストがかえってくる
    """
    keyword={}
    for i,line in enumerate(open(search_candidates,'r')):
        line = line.rstrip().split(',')
        while '' in line:
            line.remove('')
        """
        検索用語を空白区切りにして使いたい場合
        例:XX大学,XX学部 ==> XX大学 XX学部
        map_line = map(str,line)
        keyword[i] = ' '.join(map_line)
        """
        keyword[i] = line[-1]
    return keyword.values()


def write(data,f_name):
    """
    入力は書き込みたいデータとファイル名
    データを指定されたファイルに書き込む
    """
    f_name.write(data+'\n')


def output_progress(keyword,f_name):
    """
    検索済みのキーワードを保存しておいて
    途中停止が起きても続きから始められるようにしている
    """
    print '現在の検索語:',keyword
    write(keyword,f_name)


def get_urls_from(keywords,search_num):
    """
    入力は検索語のリストと取得するwebサイトのurlの整数
    """
    progress_file = open('search_progress.txt','a')
    url_file = open(sys.argv[3],'a')
    for keyword in keywords:
        write(keyword,url_file)
        #XXX pauseが短すぎるとgoogleにブロックされシャットダウンするまで使えなくなる.
        #(20)なら安全だが時間がかかる
        urls = search(keyword, lang="jp", num=search_num,stop=search_num,pause=20)
        for url in urls:
            write(url,url_file)
        output_progress(keyword,progress_file)    
        time.sleep(20)
    progress_file.close()
    url_file.close()



def main():
    search_candidates = sys.argv[1]
    search_num = int(sys.argv[2])
    keywords = make_search_keywords(search_candidates)
    get_urls_from(keywords,search_num)


if __name__ == '__main__':
    main()

 試したこと

何が原因かされわからないので何もできていません。

 補足情報(FW/ツールのバージョンなど)

実行環境は
Python 2.6.6
BeautifulSoup (3.2.1)
google (1.6)
lxml (2.2.3)
pykakasi (0.24)
pyOpenSSL (0.13.1)
requests (2.18.4)
になっています。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • hayataka2049

    2018/10/19 14:14

    エラーはtraceback含めて全文載せてください

    キャンセル

  • hayataka2049

    2018/10/19 14:32

    googleというライブラリが吐いているエラーですね。ずいぶんバージョンが古いようなのでまずはアップグレードしたいところですが、依存があるのでこのライブラリの更新だけでは済まないと思います(下手したらpython3系に移行しないといけない可能性もある)

    キャンセル

  • hayataka2049

    2018/10/19 14:32

    googleというライブラリが吐いているエラーですね。ずいぶんバージョンが古いようなのでまずはアップグレードしたいところですが、依存があるのでこのライブラリの更新だけでは済まないと思います(下手したらpython3系に移行しないといけない可能性もある)

    キャンセル

回答 1

checkベストアンサー

+1

複数回の実行結果が貼り付けてあって、それぞれ違う原因でエラーになっているようです。


IOError: [Errno 13] Permission denied: 'search_progress.txt'

書き込み権限のない場所に、search_progress.txtを作ろうとしてエラーになっています。
書き込み先含めたパスを指定することで改善可能かと。


AttributeError: 'NoneType' object has no attribute 'findAll'

原因はgoogle.pyの中に書かれている、anchors = soup.find(id='search').findAll('a')です。

検索結果のhtmlの中にid='search'である要素がなかったため、findの戻り値がNoneとなりました。
Noneオブジェクトには当然findAllメソッドなどないので、エラーになっています。

google自身の造り(例外処理)がよくない。
あるいは、このソースのgoogleの呼び出しかたが誤っている。


で、対応ですが……。

hayataka2049さんが既にご指摘のように、環境(Pythonもライブラリも)が古すぎるのでこのまま動かすのは困難だと思います。
サポートがあるバージョン(Python2.7など)にアップデートします。個々のライブラリについては、サポートがなくなっていればサポートが継続されている別のものに乗り換えます。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/10/23 13:54

    回答ありがとうございます。
    バージョンアップの前にソースのgoogleのまずかった部分を改善したところ、無事動くようになりました。
    ご指摘感謝致します。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 87.92%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る