質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

87.61%

for文の中でcsvを作成するとエラーが出ます。何を見落としているでしょうか?

解決済

回答 2

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 951

score 8

python3 
BeautifulSoup

【行いたいこと】
BeautifulSoupでループを回し、ループごとにCSVを作成したいです。
wモードなので、ファイルが存在しなければ作る、だと認識しています。
for文の中だとファイルが存在しません、となって止まってしまいます。

【エラー内容】
with open('{}.csv'.format(file_name), 'w') as f:
FileNotFoundError: [Errno 2] No such file or directory: 

【各コード】
問題を切り分けるために、全く同じコードをfor文のループの外に出すと作成されました。

【行ったこと】
文字コードのチェック⇛UTF-8
CSVのタイトルになる変数の型⇛string

コードをシンプルにした所、シンプルなfor文だと作成出来るので
BeautifulSoupの扱いがまずいのかなと思ってはいます。

何を見落としているか教えていただきたいです
これから先どう切り分けていけばいいか教えて頂きたいです。

よろしくお願い致します

#_*_ coding: utf-8 _*_
import urllib.request, urllib.error
import re 
import csv
import os

from bs4 import BeautifulSoup
from pprint import pprint

#+----------------関数ゾーン----------------+

#csvを作る関数
def save_to_csv(executions, file_name):
  """
  :param executions:約定履歴の2次元配列
  :return:
  """
  with open('{}.csv'.format(file_name), 'a') as f:
    writer = csv.writer(f, lineterminator='\n')#改行コードの指定
    writer.writerows(executions) #list型の場合はこれでOk,2次元配列の場合はコレでもOk


#urlを投げてスープで返す関数
def get_soup(url):
  target = url

  # URLにアクセスする htmlが帰ってくる → <html><head><title>経済、株価、ビジネス、政治のニュース:日経電子版</title></head><body....
  source = urllib.request.urlopen(target)

  # htmlをBeautifulSoupで扱う
  soup = BeautifulSoup(source, "lxml")
  return soup

#+----------------関数ゾーン_fin-------------+

top_url = 'https://hogehoge.com'

top = get_soup(top_url)

#疑似要素を取れないので近くの要素を取得してよしなに。
blocks = top.select('css_selector') #ブログカードの取得

#配列のための用意
i = 0
first_result = [ 'url' , 'title' , 'midashi' , 'midasi_moji' , 'body' ]

for block in blocks:
  #topページから記事ページとURLを取得
  i = i +1 
  print(block)

  href = block.find("a").attrs['href'].strip().rstrip()#URL取得
  title = block.find("h3").string.strip().rstrip()     #タイトル取得

  print(i)
  print("回目")
  print( title , ">" , href )

  #topページから記事ページとURLを取得_ここまで

  page = get_soup(href)

  page_soup = page.select_one('#nocopy > div')

  text = ''

  file_name = top_url + "_" + title

  print('sakusei_mae')

  #ヘッダーの書き込み_なければ書き込み
  with open('{}.csv'.format(file_name), 'w') as f:
    writer = csv.writer(f, lineterminator='\n')
    writer.writerow(["title","body","str_len",href])

  print('sakusei_go')

  for tag in page_soup.find_all():
    if re.match(r'h\d$', tag.name):
      # h1, h2, ..., h6 タグが見つかった場合、それ以前の文字数を出力する。_logファイルを作成する
      print('{} ,{}, {}'.format(text, len(text), tag.text))

      csv_ready = [text,len()]
      text = ''
      save_to_csv(csv_ready, file_name)

    elif tag.string:
      # h1, h2, ..., h6 タグ以外で値を持つタグの場合
      text += tag.string

      csv_ready = ''

またソースコードをなるべくシンプルにしたとこと、下記内容では全てCSV作成が成功しました。

#_*_ coding: utf-8 _*_
import urllib.request, urllib.error
import re 
import csv
import os

from bs4 import BeautifulSoup
from pprint import pprint


#+----------------関数ゾーン----------------+

#csvを作る関数
def save_to_csv(executions, file_name):
  """
  :param executions:約定履歴の2次元配列
  :return:
  """
  with open('{}.csv'.format(file_name), 'a') as f:
    writer = csv.writer(f, lineterminator='\n')#改行コードの指定
    writer.writerows(executions) #list型の場合はこれでOk,2次元配列の場合はコレでもOk

#+----------------関数ゾーン_fin-------------+


file_name = 'loop_no_ue'
href      = "href_test"


with open('{}.csv'.format(file_name), 'w') as f:
  writer = csv.writer(f, lineterminator='\n')
  writer.writerow(["title","body","str_len",href])
#作成成功


for i in range(5):

  #topページから記事ページとURLを取得_ここまで

  file_name = str(i) + "回目のテスト"

  #ヘッダーの書き込み_なければ書き込み
  with open('{}.csv'.format(file_name), 'w') as f:
    writer = csv.writer(f, lineterminator='\n')
    writer.writerow(["title","body","str_len",href])
  #作成成功


file_name = "loop_no_shita"
href = "href_test"
file_name = 'loop_soto'

with open('{}.csv'.format(file_name), 'w') as f:
  writer = csv.writer(f, lineterminator='\n')
  writer.writerow(["title","body","str_len",href])
#作成成功
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 2

+2

with open('{}.csv'.format(file_name), 'w') as f:
FileNotFoundError: [Errno 2] No such file or directory:  

そういうファイルがない、と言ってるんですから、実際にどういうファイルをアクセスしに行ってるのか、ここで生成したファイル名をどこかに出してみたらどうでしょうか。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

checkベストアンサー

0

file_name/が入ると駄目です。ディレクトリ階層を表すとみなされます。ファイルは勝手に作ってくれますが、ディレクトリまでは掘ってくれないのです。

URLをファイル名の一部に使おうとしているので問題になっているのでしょう。

そもそも論ですが、ファイル名に使えない文字がいろいろあるので、そのへんにご注意を。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/02/28 12:29

    完全に盲点でした。
    ありがとうございます!少し検証していきます。

    キャンセル

  • 2019/02/28 13:42

    ありがとうございました。解決致しました。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 87.61%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る