###やりたいこと
1日文のデータをスクレイピングしたいと考えてます。
例えば
https://www.AAA/1/
というサイトがあり、末尾の数字が1~12まで変化しこれを全て読み込ませたいと考えております。
書いたコード
import csv from urllib.request import urlopen from bs4 import BeautifulSoup #URLの指定 Round = range(1.12) for i in Round: url = 'https://www.AAA/'+str(i)+'/' html = urlopen(url) bsObj = BeautifulSoup(html, "html.parser") #テーブルを指定 table = bsObj.findAll("table")[1] rows = table.findAll("tr") csvFile = open("ebooks.csv", 'wt', newline = '', encoding = 'utf-8') writer = csv.writer(csvFile) try: for row in rows: csvRow = [] for cell in row.findAll(['td', 'th']): csvRow.append(cell.get_text()) writer.writerow(csvRow) finally: csvFile.close()
上記のように書いて
実行させたところ,csvファイルには最後の
https://www.AAA/12/
の読み込み結果しかcsvファイルに書き込まれていないという状況です。
解決したいこと
1.サイトの1〜12まで全てをcsvファイルに書き込みたい
2.次の日にデータについては上書きせずそのまま更新されるようにしたいと思っております。
回答1件
あなたの回答
tips
プレビュー