前提・実現したいこと
元のURLから店舗のURLをスクレイピングし、店舗名、住所、開店日を抽出し保存したいです。
そのページが終わったら”次の20件”のページにとび、同じスクレイピングを行いたいです。
発生している問題・エラーメッセージ
参考書を模写して作成したものは今でもうまく動作します。
ですが、自分で作成したコードだとこのエラーが起きてしまいます。
エラーを見てモジュールを確認しましたが何が原因なのかわかりません。
解消できる方法をご教示願います。
参考書
https://www.amazon.co.jp/dp/4297107384/ref=cm_sw_em_r_mt_dp_U_Ul73EbY2KKY5G
scrapy crawl ramenDB Traceback (most recent call last): File "/Users/#pc/.pyenv/versions/3.8.2/bin/scrapy", line 8, in <module> sys.exit(execute()) File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/site-packages/scrapy/cmdline.py", line 142, in execute cmd.crawler_process = CrawlerProcess(settings) File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/site-packages/scrapy/crawler.py", line 280, in __init__ super(CrawlerProcess, self).__init__(settings) File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/site-packages/scrapy/crawler.py", line 152, in __init__ self.spider_loader = self._get_spider_loader(settings) File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/site-packages/scrapy/crawler.py", line 146, in _get_spider_loader return loader_cls.from_settings(settings.frozencopy()) File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/site-packages/scrapy/spiderloader.py", line 60, in from_settings return cls(settings) File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/site-packages/scrapy/spiderloader.py", line 24, in __init__ self._load_all_spiders() File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/site-packages/scrapy/spiderloader.py", line 46, in _load_all_spiders for module in walk_modules(name): File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/site-packages/scrapy/utils/misc.py", line 77, in walk_modules submod = import_module(fullpath) File "/Users/#pc/.pyenv/versions/3.8.2/lib/python3.8/importlib/__init__.py", line 127, in import_module return _bootstrap._gcd_import(name[level:], package, level) File "<frozen importlib._bootstrap>", line 1014, in _gcd_import File "<frozen importlib._bootstrap>", line 991, in _find_and_load File "<frozen importlib._bootstrap>", line 975, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 671, in _load_unlocked File "<frozen importlib._bootstrap_external>", line 779, in exec_module File "<frozen importlib._bootstrap_external>", line 916, in get_code File "<frozen importlib._bootstrap_external>", line 846, in source_to_code File "<frozen importlib._bootstrap>", line 219, in _call_with_frames_removed File "/Users/#pc/scrapys/second_scrapy/second_scrapy/spiders/ramenDB.py", line 16 #ページの店舗URLが取得し終わったら、次の20件にいき、店舗URLを取得 ^ SyntaxError: EOL while scanning string literal
該当のソースコード
import scrapy class RamendbSpider(scrapy.Spider): name = 'ramenDB' allowed_domains = ['ramendb.supleks.jp'] start_urls = [ #二郎系ラーメンのみのURL 'https://ramendb.supleks.jp/search?q=&state=&order=point&station-id=&tag%5B%5D=3&type=' ] rules = [ #ページの店舗URLを取得 Rule(LinkExtractor(restrict_xpaths='//td/div/h4/a'),callback=parse_item',follow=True,\ #ページの店舗URLが取得し終わったら、次の20件にいき、店舗URLを取得 Rule(LinkExtractor(restrict_xpaths='//a[contains(text(),"次の20件")]')) ) ] def parse(self, response): item = Shop item['shopname'] = response.css('.shopname').xpath('string()').get() #店舗名を取得 item['address'] = response.xpath('//div[@id="shop-data"]//span[@itemprop="address"]').get() #住所を取得 item['open'] = response.xpath('//th[text()="開店日"]/following-sibling::td[1]').get() #開店日を取得 yield item
至らぬ点が多いと思いますが、宜しくお願い致します。
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。