質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

87.59%

scrapyのrulesで相対URLを辿る

解決済

回答 1

投稿

  • 評価
  • クリップ 1
  • VIEW 4,235

score 90

現在scrapyを使ってWebスクレイピングの勉強をしています。

start_urlからリンクをたどる必要があるので、ClawlSpiderを使用しようと思っています。

ClawlSpiderのRule文でLinkExtractorのallowを使ってリンクを抽出しようとしています。

しかし、そのstart_urlのページ内のhrefに書かれているURLが相対URLになっているので、抽出できてもアクセスすることができてないようです。

具体例を挙げます。

class OsySpider(scrapy.Spider):
    name = 'OSy'
    allowed_domains = ['www0.osakafu-u.ac.jp/syllabus/']
    start_urls = ['http://www0.osakafu-u.ac.jp/syllabus/']

    def parse(self,response):
        for href in response.css('#contents > div:nth-child(5) li.li3 a::attr("href")').extract():
            print(response.urljoin(href))

上のようにすればurljoinを用いることで、目的の絶対URLをただ表示することはできます。

チュートリアルを見ると、allow内はリストでも良いっぽいので
http://scrapy-ja.readthedocs.io/ja/latest/topics/link-extractors.html#topics-link-extractors

    hrefArray = []
    for href in response.css('#contents > div:nth-child(5) li.li3 a::attr("href")').extract():
        hrefArray.append(response.urljoin(href))


こんな感じでhrefArrayという絶対URLが入ったリストを作ってみたのですが、

class OsySpider(scrapy.Spider):
    name = 'OSy'
    allowed_domains = ['www0.osakafu-u.ac.jp/syllabus/']
    start_urls = ['http://www0.osakafu-u.ac.jp/syllabus/']

    hrefArray = []
    for href in response.css('#contents > div:nth-child(5) li.li3 a::attr("href")').extract():
        hrefArray.append(response.urljoin(href))

    rules = (
        Rule(LinkExtractor(allow=hrefArray), callback='parse_topics'),
    )

    def parse_topics(self, response):
        print('success')

とすると、responseが定義されていません。とエラーが出ます。
恐らくscrapyがrule(parse関数を内包) → callback関数の順番に実行されるからだと思うのですが、これだとリストを創ることができないし、またそれをallowに指定することもできません。

rulesで相対URLをたどることは可能なのでしょうか。
よろしくお願いします。

※ClawlSpiderを使わないで相対URLをたどる方法はこの質問文を書いている時に見つけました。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

+1

とすると、responseが定義されていません。とエラーが出ます。 

そもそもこのエラーは下記のようにresponseが存在しないのに使おうとしてるからエラーになるんじゃないでしょうか。

class OsySpider(scrapy.Spider):
    name = 'OSy'
    allowed_domains = ['www0.osakafu-u.ac.jp/syllabus/']
    start_urls = ['http://www0.osakafu-u.ac.jp/syllabus/']

    hrefArray = []
    # いきなりここでresponseを使おうとしているからエラー
    for href in response.css('#contents > div:nth-child(5) li.li3 a::attr("href")').extract():
        hrefArray.append(response.urljoin(href))

なぜ、CrawlSpiderなのはダメだったのかよくわかっていませんが、CrawlSpiderでも下記のようにすれば欲しいリンク(syllabus以下のリンク)を辿ってくれると思いました。

from scrapy.contrib.spiders import Rule
from scrapy.contrib.linkextractors import LinkExtractor
from scrapy.contrib.spiders import CrawlSpider


class OsySpider(CrawlSpider):
    name = 'OSy'
    allowed_domains = ['www0.osakafu-u.ac.jp']
    start_urls = ['http://www0.osakafu-u.ac.jp/syllabus/']
    rules = [
        Rule(LinkExtractor(r'^http://www0.osakafu-u.ac.jp/syllabus/'), follow=True, callback='parse_topics')
    ]

    def parse_topics(self, response):
        print('success', response.url)

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/06/02 19:47

    うおお..できました...
    ありがとうございます!

    LinkExtractorってパラメータ(allowとかdeny)を使わない書き方もあるのですね。
    このような使い方ってチュートリアル(http://scrapy-ja.readthedocs.io/ja/latest/topics/link-extractors.html#scrapy.linkextractors.lxmlhtml.LxmlLinkExtractor)にも載っていない様に思うのですが、今後も使ってみたいので仕組みを教えてもらえないでしょうか。

    キャンセル

  • 2017/06/03 09:23

    そのドキュメントに書いてありますね。第一引数のallowをリストではなく正規表現の文字列で指定してるだけです。

    > allow (正規表現(またはそのリスト)) – リンクを抽出するために(絶対)URLが一致しなければならない単一の正規表現(または正規表現のリスト). 指定されていない(または空)場合, すべてのリンクに一致します.

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 87.59%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る