質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

CSV

CSV(Comma-Separated Values)はコンマで区切られた明白なテキスト値のリストです。もしくは、そのフォーマットでひとつ以上のリストを含むファイルを指します。

Beautiful Soup

Beautiful Soupは、Pythonのライブラリの一つ。スクレイピングに特化しています。HTMLデータの構文の解析を行うために、HTMLタグ/CSSのセレクタで抽出する部分を指定することが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

pandas

Pandasは、PythonでRにおけるデータフレームに似た型を持たせることができるライブラリです。 行列計算の負担が大幅に軽減されるため、Rで行っていた集計作業をPythonでも比較的簡単に行えます。 データ構造を変更したりデータ分析したりするときにも便利です。

Q&A

解決済

2回答

2020閲覧

関数に格納した複数要素をpandasで複数行でCSV出力する。

pasomtr

総合スコア20

スクレイピング

スクレイピングとは、公開されているWebサイトからページ内の情報を抽出する技術です。

CSV

CSV(Comma-Separated Values)はコンマで区切られた明白なテキスト値のリストです。もしくは、そのフォーマットでひとつ以上のリストを含むファイルを指します。

Beautiful Soup

Beautiful Soupは、Pythonのライブラリの一つ。スクレイピングに特化しています。HTMLデータの構文の解析を行うために、HTMLタグ/CSSのセレクタで抽出する部分を指定することが可能です。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

pandas

Pandasは、PythonでRにおけるデータフレームに似た型を持たせることができるライブラリです。 行列計算の負担が大幅に軽減されるため、Rで行っていた集計作業をPythonでも比較的簡単に行えます。 データ構造を変更したりデータ分析したりするときにも便利です。

0グッド

0クリップ

投稿2020/01/25 05:26

pandasのCSV出力に関して質問させて頂きます。

行いたい内容

スクレイピングで抽出した複数の要素を格納した関数をpandasでCSV出力する際、複数行で出力したい。

処理の流れ

  1. BeautifulSoupで<script></script>内を取得
  2. 取得した要素をhttp  jpgで分割
  3. 分割した要素をimg_urlに格納
  4. pandasでimg_urlをcsvで出力

現状のコード

Python

1import urllib.request 2import pandas as pd 3from bs4 import BeautifulSoup 4from selenium import webdriver 5 6driver = webdriver.Chrome ( executable_path=r'C:\Users\chromedriver_win32\chromedriver.exe' ) 7driver.get ("https://hogehoge.com" ) 8 9html = driver.page_source 10bs = BeautifulSoup ( html, "html.parser" ) 11 12for script_ele in bs.find_all ( "script" ): 13 text_list = str(script_ele).split("\"")# 引用符「"」で分割 14 for img_url in text_list: 15 if img_url.startswith("http") and img_url.endswith("jpg"): 16 print (img_url) 17 Datef = pd.DataFrame([ 18 ["A", "B", (img_url),],], 19 columns=['Title', 'Body (HTML)', 'Image Src', ]) 20Datef.to_csv('C:/Users/csv_out.csv',encoding='cp932')

img_urlに格納されている要素

https://hogehoge.com/hogehoge.jpg
https://hogehoge.com/hogehoge1.jpg
https://hogehoge.com/hogehoge2.jpg
https://hogehoge.com/hogehoge3.jpg
https://hogehoge.com/hogehoge4.jpg
https://hogehoge.com/hogehoge5.jpg

現状の出力状況

TitleBody (HTML)Image Src
ABhttps://hogehoge.com/hogehoge5.jpg

※何故か、一番最後の要素が出力されます。

行いたい出力形式

TitleBody (HTML)Image Src
ABhttps://hogehoge.com/hogehoge.jpg
https://hogehoge.com/hogehoge1.jpg
https://hogehoge.com/hogehoge2.jpg
https://hogehoge.com/hogehoge3.jpg
https://hogehoge.com/hogehoge4.jpg
https://hogehoge.com/hogehoge5.jpg

最後に

以上の出力がそもそも出来るのか、出来ないのか、できるのであればどうすれば出来るのか皆様のお力をお貸し頂けますと幸いです。

お願いします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答2

0

ベストアンサー

img_urlの作り方はbamboo-novaさんの回答のとおりです。
その後は以下のようなコードで求めるDataFrameを作ることができます。

Python

1import pandas as pd 2 3img_url = [ 'https://hogehoge.com/hogehoge.jpg', 4 'https://hogehoge.com/hogehoge1.jpg', 5 'https://hogehoge.com/hogehoge2.jpg'] 6 7blanks = ['' for _ in range(1,len(img_url))] 8df = pd.DataFrame( {'Title':['A'] + blanks, 'Body (HTML)':['B'] + blanks, 'Image Src':img_url}) 9print(df) 10""" 11 Title Body (HTML) Image Src 120 A B https://hogehoge.com/hogehoge.jpg 131 https://hogehoge.com/hogehoge1.jpg 142 https://hogehoge.com/hogehoge2.jpg 15"""

投稿2020/01/25 05:47

can110

総合スコア38266

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

pasomtr

2020/01/25 07:13 編集

bamboo-nova様 can110様 ご回答ありがとうございます。 ご指摘いただきましたように、 ```Python for script_ele in bs.find_all ( "script" ): text_list = str(script_ele).split("\"")# 引用符「"」で分割 img_url = [] for img_url in text_list: if img_url.startswith("http") and img_url.endswith("jpg"): print (img_url) img_url.append(img_url) blanks = ['' for _ in range(1,len(img_url))] Datef = pd.DataFrame({'Title':['A'] + blanks, 'Body (HTML)':['B'] + blanks, 'Image Src':img_url}) ``` として変更を加えました。 すると、 AttributeError: 'str' object has no attribute 'append' が発生致します。 解決するにはどうすれば宜しいでしょうか? 理解力が乏しく申し訳ございませんが、ご教授頂けますと幸いです。
can110

2020/01/25 07:20

img_url = [] for img_url in text_list: の部分が明らかにおかしいです。img_urlがtext_listの要素で上書きされてしまっています。
pasomtr

2020/01/25 07:37

can110様 ありがとうございます!!見落としていました。 for script_ele in bs.find_all ( "script" ): text_list = str(script_ele).split("\"")# 引用符「"」で分割 image_url = [] for img_url in text_list: if img_url.startswith("http") and img_url.endswith("jpg"): print (img_url) image_url.append(img_url) blanks = ['' for _ in range(1,len(image_url))] Datef = pd.DataFrame({'Title':['A'] + blanks, 'Body (HTML)':['B'] + blanks, 'Image Src':image_url}) にて解決致しました! 問題解決に細やかに寄り添って頂き感謝致します!! ありがとうございます!
guest

0

原因は、

Datef = pd.DataFrame([ ["A", "B", (img_url),],], columns=['Title', 'Body (HTML)', 'Image Src', ])

の部分で毎回データフレームを初期化しているので、最後のimageのURLしか取得できないようになっています。あくまで一例ですが、事前にforループの前にimage_url = []とでも定義して、appendを使って

for img_url in text_list: if img_url.startswith("http") and img_url.endswith("jpg"): print (img_url) image_url.append(img_url)

とすれば必要なURLが全て取得できると思います。

投稿2020/01/25 05:34

bamboo-nova

総合スコア1408

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

pasomtr

2020/01/25 07:14

bamboo-nova様 ご回答ありがとうございます。 ご指摘頂きました内容では、文字列であるため AttributeError: 'str' object has no attribute 'append' のエラーが発生致します。 こちら解決方法の記述はございますでしょうか。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問