前提・実現したいこと
目当てのサイトから必要な情報を抜き出し、csvに保存するところまではできたのですが、実際にやりたいことまで知恵が及ばず、こちらで質問することにしました。
下記コードで1つのURLの"h2"が取得でき、"news.csv”に保存ができています。
でも本当は、情報を取得したいURLが大量あるのです。
該当のソースコード
現在のコード(sample.py)
──────────
import requests, bs4 import csv res = requests.get('https://news.yahoo.co.jp/pickup/6286588') res.raise_for_status() soup = bs4.BeautifulSoup(res.text, "html.parser") elems = soup.select('h2') for elem in elems: print(elem) with open('news.csv', 'w', encoding='CP932', errors='ignore') as f: writer = csv.writer(f) writer.writerows(elems)
──────────
本題
URLは違うけど、同じサイトの中で、hmtlの骨組みが同じなので、アクセスするURLさえ変えることができれば他はそのままでいいです。
そこで、「URLがリスト化されたファイル"urllist.txt"の内容を読み込んで、一行目のURLから順々にアクセスして"h2"を取得し、csvに書き込んで保存するコード」というイメージでコーディングしたいと思っています。
※urllist.txtの内容
https://news.yahoo.co.jp/pickup/6286588
https://news.yahoo.co.jp/pickup/6286594
https://news.yahoo.co.jp/pickup/6286582
"requests.get"で指定するURLを別のファイルから読み込んで指定する方法、同じ処理を繰り返す方法、などで調べたのですが、必要な回答に辿り着くことができませんでした。
正解例がわかる方、どなたかお願いしますm(__)m
補足情報
・URLとh2に関しては質問用です。
・urllist.txtはテキストファイルじゃなくてもいいです。
・requests.getにこだわりはないです。

回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/06/17 15:07
2018/06/17 15:09
2018/06/17 15:16
2018/06/17 15:29
2018/06/17 15:30
2018/06/17 16:12
2018/06/18 05:59
2018/06/18 06:14
2018/06/18 06:17
2018/06/18 07:21 編集