質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.61%

  • Python 3.x

    5889questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

URLリストのtxtを読み込んでスクレイピングして、取得した情報をcsvに保存したい

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 255

etherwind

score 4

 前提・実現したいこと

目当てのサイトから必要な情報を抜き出し、csvに保存するところまではできたのですが、実際にやりたいことまで知恵が及ばず、こちらで質問することにしました。

下記コードで1つのURLの"h2"が取得でき、"news.csv”に保存ができています。
でも本当は、情報を取得したいURLが大量あるのです。

 該当のソースコード

現在のコード(sample.py)
──────────

import requests, bs4
import csv

res = requests.get('https://news.yahoo.co.jp/pickup/6286588')
res.raise_for_status()
soup = bs4.BeautifulSoup(res.text, "html.parser")
elems = soup.select('h2')
for elem in elems:
    print(elem)

with open('news.csv', 'w', encoding='CP932', errors='ignore') as f:
    writer = csv.writer(f)
    writer.writerows(elems)


──────────

 本題

URLは違うけど、同じサイトの中で、hmtlの骨組みが同じなので、アクセスするURLさえ変えることができれば他はそのままでいいです。

そこで、「URLがリスト化されたファイル"urllist.txt"の内容を読み込んで、一行目のURLから順々にアクセスして"h2"を取得し、csvに書き込んで保存するコード」というイメージでコーディングしたいと思っています。

※urllist.txtの内容
https://news.yahoo.co.jp/pickup/6286588
https://news.yahoo.co.jp/pickup/6286594
https://news.yahoo.co.jp/pickup/6286582

"requests.get"で指定するURLを別のファイルから読み込んで指定する方法、同じ処理を繰り返す方法、などで調べたのですが、必要な回答に辿り着くことができませんでした。
正解例がわかる方、どなたかお願いしますm(__)m

 補足情報

・URLとh2に関しては質問用です。
・urllist.txtはテキストファイルじゃなくてもいいです。
・requests.getにこだわりはないです。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

+1

データを読み取る部分を関数にすると良いでしょう。

import time
...略


def scrape(url):
    res = requests.get(url)
    ...略

    time.sleep(1)  # 一秒待つ。相手方のサーバに負担をかけすぎないための配慮。


def main():
    ファイルからidを読み込み、page_id_listを作る
    for page_id in page_id_list:
        scrape(f'https://news.yahoo.co.jp/pickup/{page_id}')


if __name__ == '__main__':
    main()

肝心の『ファイルからidを読み込む』部分は、例えば次のように書けます。

6286588
6286594
6286582
with open('id_list.txt') as f:
     page_id_list = [int(row) for row in f]

追記

順調なようなので、追加で少しお手伝い。
ファイルに書き出す方法は、主に次の二つのうちいずれかです。

  • csvライターをやり取りする方法
def scrape(url, csv_writer):
    ...略

    csv_writer.writerows(elems)


def main(f):
    writer = csv.writer(f)

    ...略
    for page_id in page_id_list:
        scrape(f'https://news.yahoo.co.jp/pickup/{page_id}', writer)


if __name__ == '__main__':
    with open('news.csv', 'w', encoding='CP932', errors='ignore') as f:
        main(f)

毎回開きなおすと上書きされてしまうことにご注意ください。

  • 結果をリストにまとめておく方法
def scrape(url):
    ...略


def main():
    result = []

    ...略
    for page_id in page_id_list:
        result.extend(scrape(f'https://news.yahoo.co.jp/pickup/{page_id}'))

    with open('news.csv', 'w', encoding='CP932', errors='ignore') as f:
        writer = csv.writer(f)
        f.writerows(result)

コードの書き方について

teratailには、上記のようにコードを見やすく表示する機能があります。
質問編集画面を開き、コードを選択した状態で<code>ボタンを押してください。
Python

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/06/18 00:07

    素早いご回答ありがとうございます。早速試しているのですがうまくいかず、もしできたら完成形のコードで書き込んでいただければ幸いですm(_ _)m

    キャンセル

  • 2018/06/18 00:09

    インデントさえ気を付ければ、ほとんど元のコードのままで動くはずですよ。
    なにかエラーが出ているのでしょうか?

    キャンセル

  • 2018/06/18 00:16

    実は、pythonの勉強は今日始めたばかりで、単純に、教えてくださったコードを、自分のコードのどこに書き加えて、どこを書き換えるのか、まだ知識不足でわからないからですm(_ _)m 「データを読み取る部分を関数にする」の意味はわかりました。いま「def scrape」や「def main」の使い方や、パラメータを関数にする場合のやり方などを調べています(汗)

    キャンセル

  • 2018/06/18 00:29

    なるほど。
    『scrape』というのは今私がテキトーにつけた名前なので、ヒットしないです。

    『Python 関数』とか調べてみてください。

    キャンセル

  • 2018/06/18 00:30

    ありがとうございます。頑張ってみますm(_ _)m

    キャンセル

  • 2018/06/18 01:12

    コードの見た目を直しました(;^ω^)

    キャンセル

  • 2018/06/18 14:59

    途中経過です。
    とりあえずid_list.txtを読み込んで情報を取得するところまでいけました。
    あとはcsvへの保存のみです。

    ──────
    import requests, bs4
    import csv
    import time

    def scrape(url):
    res = requests.get(url)
    res.raise_for_status()
    soup = bs4.BeautifulSoup(res.text, "html.parser")
    elems = soup.select ('h2')
    for elem in elems:
    print(elem)

    time.sleep(1)

    def main():
    with open('id_list.txt') as f:
    page_id_list = [int(row) for row in f]
    for page_id in page_id_list:
    scrape(f'https://news.yahoo.co.jp/pickup/{page_id}')

    if __name__ == '__main__':
    main()

    #with open('news.csv', 'w', encoding='CP932', #errors='ignore' newline="") as f:
    # writer = csv.writer(f)
    # writer.writerows(elems)

    キャンセル

  • 2018/06/18 15:14

    順調なようですね。素晴らしいです。少しだけ追記しておきました。

    キャンセル

  • 2018/06/18 15:17

    ありがとうございます。追記していただいたコードをみました。あぁまさにこれで、ちょうどいま「= []」という、リスト化する時に使うらしいコードの使い方を調べていたところです! 保存が上手く行かないので、とりあえずデータの取得までで仕上げたのが上の途中経過のものになります。引き続き、頑張ります。

    キャンセル

  • 2018/06/18 16:19 編集

    できました!
    「csvライターをやり取りする方法」を参考にしました。
    commandプロンプト上で情報を取得している流れが見たかったので11行目に「print(elem)」を追記しています。
    ここから細かい調整をしていきますが、ひとまず、実現したい事はできたので、一旦クローズにします。
    「LouiS0616」さんありがとうございました!

    ──────────
    import requests, bs4
    import csv
    import time

    def scrape(url, csv_writer):
    res = requests.get(url)
    res.raise_for_status()
    soup = bs4.BeautifulSoup(res.text, "html.parser")
    elems = soup.select ('h2')
    for elem in elems:
    print(elem)
    csv_writer.writerows(elems)

    time.sleep(1)

    def main(f):
    writer = csv.writer(f)
    with open('id_list.txt') as f:
    page_id_list = [int(row) for row in f]
    for page_id in page_id_list:
    scrape(f'https://news.yahoo.co.jp/pickup/{page_id}', writer)

    if __name__ == '__main__':
    with open('news.csv', 'w', encoding='CP932', errors='ignore') as f:
    main(f)

    ──────────
    ※余談
    「結果をリストにまとめておく方法」だとどうしても「NoneType’ object is not iterable」が出てしまい、そちらは断念しました。いつかエラーが出てしまう原因を理解したいと思います。
    エラーが出てしまうコードを一応載せておきます。

    失敗パターン
    ──────────
    import requests, bs4
    import csv
    import time

    def scrape(url):
    res = requests.get(url)
    res.raise_for_status()
    soup = bs4.BeautifulSoup(res.text, "html.parser")
    elems = soup.select ('h2')
    for elem in elems:
    print(elem)

    time.sleep(1)

    def main():
    result = []

    with open('id_list.txt') as f:
    page_id_list = [int(row) for row in f]
    for page_id in page_id_list:
    result.extend(scrape(f'https://news.yahoo.co.jp/pickup/{page_id}'))

    with open('news.csv', 'w', encoding='CP932', errors='ignore') as f:
    writer = csv.writer(f)
    f.writerows(result)

    if __name__ == '__main__':
    main()

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.61%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る

  • Python 3.x

    5889questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。