質問編集履歴
3
追記依頼
title
CHANGED
File without changes
|
body
CHANGED
@@ -68,6 +68,67 @@
|
|
68
68
|
|
69
69
|
```
|
70
70
|
|
71
|
+
```ログ
|
72
|
+
2018-04-27 23:15:48 [scrapy.utils.log] INFO: Scrapy 1.5.0 started (bot: myproject)
|
73
|
+
2018-04-27 23:15:48 [scrapy.utils.log] INFO: Versions: lxml 3.5.0.0, libxml2 2.9.3, cssselect 1.0.1, parsel 1.3.1, w3lib 1.18.0, Twisted 17.9.0, Python 3.5.2 (default, Nov 23 2017, 16:37:01) - [GCC 5.4.0 20160609], pyOpenSSL 17.5.0 (OpenSSL 1.1.0g 2 Nov 2017), cryptography 2.1.4, Platform Linux-4.4.0-119-generic-x86_64-with-Ubuntu-16.04-xenial
|
74
|
+
2018-04-27 23:15:48 [scrapy.crawler] INFO: Overridden settings: {'FEED_FORMAT': 'jl', 'BOT_NAME': 'myproject', 'DOWNLOAD_DELAY': 1, 'NEWSPIDER_MODULE': 'myproject.spiders', 'ROBOTSTXT_OBEY': True, 'FEED_URI': 'test5.jl', 'SPIDER_MODULES': ['myproject.spiders']}
|
75
|
+
2018-04-27 23:15:48 [scrapy.middleware] INFO: Enabled extensions:
|
76
|
+
['scrapy.extensions.feedexport.FeedExporter',
|
77
|
+
'scrapy.extensions.memusage.MemoryUsage',
|
78
|
+
'scrapy.extensions.logstats.LogStats',
|
79
|
+
'scrapy.extensions.corestats.CoreStats',
|
80
|
+
'scrapy.extensions.telnet.TelnetConsole']
|
81
|
+
2018-04-27 23:15:48 [scrapy.middleware] INFO: Enabled downloader middlewares:
|
82
|
+
['scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware',
|
83
|
+
'scrapy.downloadermiddlewares.httpauth.HttpAuthMiddleware',
|
84
|
+
'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware',
|
85
|
+
'scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware',
|
86
|
+
'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware',
|
87
|
+
'scrapy.downloadermiddlewares.retry.RetryMiddleware',
|
88
|
+
'scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware',
|
89
|
+
'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware',
|
90
|
+
'scrapy.downloadermiddlewares.redirect.RedirectMiddleware',
|
91
|
+
'scrapy.downloadermiddlewares.cookies.CookiesMiddleware',
|
92
|
+
'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware',
|
93
|
+
'scrapy.downloadermiddlewares.stats.DownloaderStats']
|
94
|
+
2018-04-27 23:15:48 [scrapy.middleware] INFO: Enabled spider middlewares:
|
95
|
+
['scrapy.spidermiddlewares.httperror.HttpErrorMiddleware',
|
96
|
+
'scrapy.spidermiddlewares.offsite.OffsiteMiddleware',
|
97
|
+
'scrapy.spidermiddlewares.referer.RefererMiddleware',
|
98
|
+
'scrapy.spidermiddlewares.urllength.UrlLengthMiddleware',
|
99
|
+
'scrapy.spidermiddlewares.depth.DepthMiddleware']
|
100
|
+
2018-04-27 23:15:48 [scrapy.middleware] INFO: Enabled item pipelines:
|
101
|
+
[]
|
102
|
+
2018-04-27 23:15:48 [scrapy.core.engine] INFO: Spider opened
|
103
|
+
2018-04-27 23:15:48 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
|
104
|
+
2018-04-27 23:15:48 [scrapy.extensions.telnet] DEBUG: Telnet console listening on 127.0.0.1:6023
|
105
|
+
2018-04-27 23:15:49 [scrapy.core.engine] DEBUG: Crawled (404) <GET http://www.bash-tv.com/robots.txt> (referer: None)
|
106
|
+
2018-04-27 23:15:51 [scrapy.core.engine] DEBUG: Crawled (200) <GET http://www.bash-tv.com/wp/schedule> (referer: None)
|
107
|
+
2018-04-27 23:15:51 [scrapy.core.engine] INFO: Closing spider (finished)
|
108
|
+
2018-04-27 23:15:51 [scrapy.statscollectors] INFO: Dumping Scrapy stats:
|
109
|
+
{'downloader/request_bytes': 449,
|
110
|
+
'downloader/request_count': 2,
|
111
|
+
'downloader/request_method_count/GET': 2,
|
112
|
+
'downloader/response_bytes': 199210,
|
113
|
+
'downloader/response_count': 2,
|
114
|
+
'downloader/response_status_count/200': 1,
|
115
|
+
'downloader/response_status_count/404': 1,
|
116
|
+
'finish_reason': 'finished',
|
117
|
+
'finish_time': datetime.datetime(2018, 4, 27, 14, 15, 51, 243458),
|
118
|
+
'log_count/DEBUG': 3,
|
119
|
+
'log_count/INFO': 7,
|
120
|
+
'memusage/max': 54681600,
|
121
|
+
'memusage/startup': 54681600,
|
122
|
+
'response_received_count': 2,
|
123
|
+
'scheduler/dequeued': 1,
|
124
|
+
'scheduler/dequeued/memory': 1,
|
125
|
+
'scheduler/enqueued': 1,
|
126
|
+
'scheduler/enqueued/memory': 1,
|
127
|
+
'start_time': datetime.datetime(2018, 4, 27, 14, 15, 48, 736407)}
|
128
|
+
2018-04-27 23:15:51 [scrapy.core.engine] INFO: Spider closed (finished)
|
129
|
+
|
130
|
+
```
|
131
|
+
|
71
132
|
日付ごとのboxを取得し、それをparse_infoで解析し、itemに格納したいんですが、JSONに出力しようとしても出力されず、
|
72
133
|
ログをみてもスクレイピングできていないようです。
|
73
134
|
parse_infoがうまく呼び出せていないのかななんて考えているのですがいまいちよくわかりません。
|
2
コードの追加
title
CHANGED
File without changes
|
body
CHANGED
@@ -26,14 +26,14 @@
|
|
26
26
|
日付ごとのboxを取得
|
27
27
|
"""
|
28
28
|
for info in response.xpath('//div[@class="syuroku_raiten_area"]'):
|
29
|
-
self.parse_info(info)
|
29
|
+
yield from self.parse_info(info)
|
30
30
|
|
31
31
|
def parse_info(self, info):
|
32
32
|
"""
|
33
33
|
取得した日付ごとのboxの中にある、それぞれのboxをスクレイピングし、itemに格納する
|
34
34
|
"""
|
35
35
|
item = SceduleItem()
|
36
|
-
day = info.xpath('//h3/text()').extract_first()
|
36
|
+
day = info.xpath('//h3/text()').extract_first() #parseで取得したboxの日付を得る。
|
37
37
|
for result in info.xpath('//div[@class="syuroku_raiten_area"]/div[@class="hall_info"]'):
|
38
38
|
content = result.xpath('//div[@class="text"]/div[@class="bangumi"]/text()').extract_first()
|
39
39
|
cast = result.xpath('//div[@class="text"]/div[@class="syutsuen"]/text()').extract_first()
|
@@ -44,8 +44,30 @@
|
|
44
44
|
item['media'] = 'バッシュTV'
|
45
45
|
yield item
|
46
46
|
|
47
|
+
|
48
|
+
|
47
49
|
```
|
48
50
|
|
51
|
+
```items.py
|
52
|
+
# -*- coding: utf-8 -*-
|
53
|
+
|
54
|
+
# Define here the models for your scraped items
|
55
|
+
#
|
56
|
+
# See documentation in:
|
57
|
+
# https://doc.scrapy.org/en/latest/topics/items.html
|
58
|
+
|
59
|
+
import scrapy
|
60
|
+
|
61
|
+
|
62
|
+
class SceduleItem(scrapy.Item):
|
63
|
+
day = scrapy.Field()
|
64
|
+
place = scrapy.Field()
|
65
|
+
content = scrapy.Field()
|
66
|
+
shop = scrapy.Field()
|
67
|
+
media = scrapy.Field()
|
68
|
+
|
69
|
+
```
|
70
|
+
|
49
71
|
日付ごとのboxを取得し、それをparse_infoで解析し、itemに格納したいんですが、JSONに出力しようとしても出力されず、
|
50
72
|
ログをみてもスクレイピングできていないようです。
|
51
73
|
parse_infoがうまく呼び出せていないのかななんて考えているのですがいまいちよくわかりません。
|
1
不足
title
CHANGED
File without changes
|
body
CHANGED
@@ -48,4 +48,5 @@
|
|
48
48
|
|
49
49
|
日付ごとのboxを取得し、それをparse_infoで解析し、itemに格納したいんですが、JSONに出力しようとしても出力されず、
|
50
50
|
ログをみてもスクレイピングできていないようです。
|
51
|
-
parse_infoがうまく呼び出せていないのかななんて考えているのですがいまいちよくわかりません
|
51
|
+
parse_infoがうまく呼び出せていないのかななんて考えているのですがいまいちよくわかりません。
|
52
|
+
このプログラムが正常にスクレピングするにはどうしたらいいでしょうか。
|