質問編集履歴

2

コード化してインデントをつけました。

2017/11/09 00:23

投稿

A.Kobayashi
A.Kobayashi

スコア13

test CHANGED
File without changes
test CHANGED
@@ -41,6 +41,8 @@
41
41
  python
42
42
 
43
43
 
44
+
45
+ ```ここに言語を入力
44
46
 
45
47
  # -*- coding: utf-8 -*-
46
48
 
@@ -108,6 +110,8 @@
108
110
 
109
111
  ```
110
112
 
113
+ ```
114
+
111
115
  ###試したこと
112
116
 
113
117
  poko_pokoさんご回答ありがとうございます、試してみたのですがうまくいきませんでした…

1

ご指摘の通りコード化してインデントをつけました、よろしくお願いいたします。

2017/11/09 00:23

投稿

A.Kobayashi
A.Kobayashi

スコア13

test CHANGED
File without changes
test CHANGED
@@ -38,35 +38,33 @@
38
38
 
39
39
  ###該当のソースコード
40
40
 
41
+ python
42
+
43
+
44
+
41
45
  # -*- coding: utf-8 -*-
42
46
 
43
47
  import csv
44
-
45
- import re
46
48
 
47
49
  import requests
48
50
 
49
51
  from bs4 import BeautifulSoup
50
52
 
51
-
52
-
53
53
  f = open('output.csv', 'w', newline='')
54
54
 
55
55
 
56
56
 
57
- #アクセスするURL
57
+ #アクセスするURL url検索
58
58
 
59
- line = [line.rstrip() for line in open(r'C:\Python36\scraping.txt')]
59
+ line = ["https://r.nikkei.com/search?keyword=経済","https://r.nikkei.com/search?keyword=株価"]
60
60
 
61
61
 
62
62
 
63
63
  # ヘッダ書き込み
64
64
 
65
- f.write('A,B\n')
65
+ f.write('経済,株価\n')
66
66
 
67
67
 
68
-
69
- # スクレイピング抽出要素
70
68
 
71
69
  for url in line:
72
70
 
@@ -74,11 +72,15 @@
74
72
 
75
73
  r = requests.get(url)
76
74
 
75
+
76
+
77
+ # スクレイピング抽出要素を指定
78
+
77
79
  soup = BeautifulSoup(r.text, 'lxml')
78
80
 
79
- for list in soup.find_all('a' , class_='nui-card__meta-pubdate'):
80
81
 
81
82
 
83
+ for list in soup.find_all('a' , class_='nui-card__meta-pubdate'):
82
84
 
83
85
  nlist = list.get('href')
84
86
 
@@ -96,17 +98,19 @@
96
98
 
97
99
  writer.writerow(csvlist)
98
100
 
101
+ f.write(',')
102
+
99
103
 
100
104
 
101
105
  # ファイルクローズ
102
106
 
103
107
  f.close()
104
108
 
105
-
109
+ ```
106
110
 
107
111
  ###試したこと
108
112
 
109
- 出力の後ろにf.write(',')などをつけて空白入れよしたけど、思い通りことはでき
113
+ poko_pokoさんご回答ありがとございます、試てみたのですがうまくいませんでした…
110
114
 
111
115
 
112
116