質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
87.20%
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Scrapy

Scrapyは、Pythonで開発されたオープンソースソフトウェアです。スクレイピングという、Webサービスから必要な情報を取り出したり自動操作をしたりする技術を使うものです。

解決済

scrapyでスクレイピングしたデータをint型に加工したい

zonkota
zonkota

総合スコア4

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Scrapy

Scrapyは、Pythonで開発されたオープンソースソフトウェアです。スクレイピングという、Webサービスから必要な情報を取り出したり自動操作をしたりする技術を使うものです。

2回答

0評価

0クリップ

283閲覧

投稿2022/03/02 14:44

実現したいこと

scrapyでスクレイピングしたデータをtext型やint型で保存できるように加工しようとしています。

詰まっていること

text型の加工(空白の削除など)はできましたが、int型の加工がうまくできず、「¥1,000」の「¥」や「,」を消したいのですが、残ったままです。
どうすればint型を加工できるでしょうか?

*講座を受講中に分からなくなったため、きれいにしたつもりではありますが、いらないコードなどが入っているかもしれません。ご容赦ください。

items.py

import scrapy from itemloaders.processors import TakeFirst, MapCompose, Join #[¥]消す def strip_yen(element): if element: return element.replace('¥','') return element #[,]消す def strip_comma(element): if element: return element.replace(',','') return element #int型に変える def convert_integer(element): if element: return int(element) return 0 #[サイズ][判]を消す def get_size(element): if element: return element.split('/')[0].replace('サイズ ','').replace('判','') return element #[ページ数][p]消す def get_page(element): if element: return element.split('/')[0].replace('ページ数 ','').replace('p','') return element #[商品コード]消す def strip_isbn(element): if element: return element.replace('商品コード ','') return element class BookItem(scrapy.Item):   #タイトル title = scrapy.Field( imput_processor = MapCompose(str.lstrip), output_processor = Join(' ') ) #著者 author = scrapy.Field( output_processor = TakeFirst() ) #値段 price = scrapy.Field( imput_processor = MapCompose(strip_yen, strip_comma, convert_integer), output_processor = TakeFirst() )   #出版社 publisher = scrapy.Field( output_processor = TakeFirst() ) #サイズ size = scrapy.Field( imput_processor = MapCompose(get_size), output_processor = TakeFirst() ) #ページ page = scrapy.Field( imput_processor = MapCompose(get_page, convert_integer), output_processor = TakeFirst() ) #ISBN isbn = scrapy.Field( imput_processor = MapCompose(strip_isbn), output_processor = TakeFirst() )

computer_books.py

import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule import logging from kinokuniya.items import BookItem from scrapy.loader import ItemLoader class ComputerBooksSpider(CrawlSpider): name = 'computer_books' allowed_domains = ['www.kinokuniya.co.jp'] start_urls = ['https://www.kinokuniya.co.jp/f/dsd-101001037028005-06-'] rules = ( #書籍20冊分のURLを辿る Rule(LinkExtractor(restrict_css='h3.heightLine-2 > a'), callback='parse_item', follow=False) ) def parse_item(self, response): logging.info(response.url) loader = ItemLoader(item=BookItem(),response=response) #タイトル loader.add_css('title','h3[itemprop="name"]::text'), #著者 loader.add_css('author','div.infobox.ml10.mt10 > ul > li > a::text'), #値段 loader.add_css('price','span.sale_price::text'), #出版社 loader.add_css('publisher','a[href*=publisher-key]::text'), #サイズ loader.add_css('size','div.infbox.dotted.ml10.mt05.pt05 > ul > li::text'), #ページ loader.add_css('page','div.infbox.dotted.ml10.mt05.pt05 > ul > li::text'), #ISBN loader.add_css('isbn','li[itemprop="identifier"]::text'), yield loader.load_item()

settings.py

# Scrapy settings for kinokuniya project # # For simplicity, this file contains only settings considered important or # commonly used. You can find more settings consulting the documentation: # # https://docs.scrapy.org/en/latest/topics/settings.html # https://docs.scrapy.org/en/latest/topics/downloader-middleware.html # https://docs.scrapy.org/en/latest/topics/spider-middleware.html BOT_NAME = 'kinokuniya' SPIDER_MODULES = ['kinokuniya.spiders'] NEWSPIDER_MODULE = 'kinokuniya.spiders' # Crawl responsibly by identifying yourself (and your website) on the user-agent #USER_AGENT = 'kinokuniya (+http://www.yourdomain.com)' # Obey robots.txt rules ROBOTSTXT_OBEY = True # Configure maximum concurrent requests performed by Scrapy (default: 16) #CONCURRENT_REQUESTS = 32 # Configure a delay for requests for the same website (default: 0) # See https://docs.scrapy.org/en/latest/topics/settings.html#download-delay # See also autothrottle settings and docs DOWNLOAD_DELAY = 3 # The download delay setting will honor only one of: #CONCURRENT_REQUESTS_PER_DOMAIN = 16 #CONCURRENT_REQUESTS_PER_IP = 16 # Disable cookies (enabled by default) #COOKIES_ENABLED = False # Disable Telnet Console (enabled by default) #TELNETCONSOLE_ENABLED = False # Override the default request headers: #DEFAULT_REQUEST_HEADERS = { # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', # 'Accept-Language': 'en', #} # Enable or disable spider middlewares # See https://docs.scrapy.org/en/latest/topics/spider-middleware.html #SPIDER_MIDDLEWARES = { # 'kinokuniya.middlewares.KinokuniyaSpiderMiddleware': 543, #} # Enable or disable downloader middlewares # See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html #DOWNLOADER_MIDDLEWARES = { # 'kinokuniya.middlewares.KinokuniyaDownloaderMiddleware': 543, #} # Enable or disable extensions # See https://docs.scrapy.org/en/latest/topics/extensions.html #EXTENSIONS = { # 'scrapy.extensions.telnet.TelnetConsole': None, #} # Configure item pipelines # See https://docs.scrapy.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { 'kinokuniya.pipelines.CheckItemPipeline': 100, } IMAGE_STORE = r'/Users/koyamataichi/Desktop/books_toscrape/kinokuniya/book_images' IMAGE_URLS_FIELD = 'image_urls' # Enable and configure the AutoThrottle extension (disabled by default) # See https://docs.scrapy.org/en/latest/topics/autothrottle.html #AUTOTHROTTLE_ENABLED = True # The initial download delay #AUTOTHROTTLE_START_DELAY = 5 # The maximum download delay to be set in case of high latencies #AUTOTHROTTLE_MAX_DELAY = 60 # The average number of requests Scrapy should be sending in parallel to # each remote server #AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0 # Enable showing throttling stats for every response received: #AUTOTHROTTLE_DEBUG = False # Enable and configure HTTP caching (disabled by default) # See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings HTTPCACHE_ENABLED = True HTTPCACHE_EXPIRATION_SECS = 0 HTTPCACHE_DIR = 'httpcache' #HTTPCACHE_IGNORE_HTTP_CODES = [] #HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage' FEED_EXPORT_ENCODING='utf-8' #処理する量を一つに限定する CONCURRENT_REQUESTS = 1 #優先順を階層の浅いところから処理する DEPTH_PRIORITY = 1 #リクエストを受けた最後から処理する⇨最初から処理するへ変更 SCHEDULER_DISK_QUEUE = 'scrapy.squeues.PickleFifoDiskQueue' SCHEDULER_MEMORY_QUEUE = 'scrapy.squeues.FifoMemoryQueue'

良い質問の評価を上げる

以下のような質問は評価を上げましょう

  • 質問内容が明確
  • 自分も答えを知りたい
  • 質問者以外のユーザにも役立つ

評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

気になる質問をクリップする

クリップした質問は、後からいつでもマイページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

  • プログラミングに関係のない質問
  • やってほしいことだけを記載した丸投げの質問
  • 問題・課題が含まれていない質問
  • 意図的に内容が抹消された質問
  • 過去に投稿した質問と同じ内容の質問
  • 広告と受け取られるような投稿

評価を下げると、トップページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

まだ回答がついていません

会員登録して回答してみよう

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
87.20%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問

同じタグがついた質問を見る

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Scrapy

Scrapyは、Pythonで開発されたオープンソースソフトウェアです。スクレイピングという、Webサービスから必要な情報を取り出したり自動操作をしたりする技術を使うものです。