かなり初歩的な質問になります。
Excelシートの内容を整形し必要な列や行だけをデータフレームとして作成しました。
列は4行(場所、名称、現象、原因)
行は3万行近くあります
以下のコードでデータフレーム'input_sheet_df' の列'場所'の行データは取得できたのですが他の列'名称','現象','原因'も合わせたデータフレーム内の全テータを取得して一つのリストにしたい場合はどのようにすればよいでしょうか?
for wordlist in input_sheet_df[['場所','名称','現象','原因']]:
というように書き換えてみたのですが行データが取れておらず悩んでいます。
初歩的な内容ですがアドバイスお願い致します。
python
1import pandas as pd 2from janome.tokenizer import Tokenizer 3from collections import Counter 4from gensim.models import word2vec 5import logging 6 7 8#ファイル指定 9input_file_name = (r'C:\Users\Desktop\Book.xlsm') 10 11#ファイル読み込み 12input_book = pd.ExcelFile(input_file_name) 13 14#シート名取得(sheet_namesメソッドでExcelブック内の各シートの名前をリスト型で取得) 15input_sheet_name = input_book.sheet_names 16 17#シート総数取得 18num_sheet = len(input_sheet_name) 19 20#シート総数表示 21print('シートの数:', num_sheet) 22#シート名表示 23print('シートの名前:',input_sheet_name) 24#type確認 25print('type :',type(input_book)) 26 27input_sheet_df = input_book.parse(input_sheet_name[1], 28 skiprows = 5, 29 skip_footer = 1, 30 usecols = 'Z,AD:AF', 31 names = range(0,4)) 32 33#列名変更 34input_sheet_df = input_sheet_df.rename(columns={0:'場所',1:'名称',2:'現象',3:'原因'}) 35print('type :',type(input_sheet_df)) 36 37 38 39 40ret = [] 41# Tokenizerのインスタンス生成 42t = Tokenizer() 43 44#↓↓↓↓データフレームの全データを一つのリストにしたい 45for wordlist in input_sheet_df['場所']: 46 #print(wordlist) 47 tokens = t.tokenize(str(wordlist)) 48 for token in tokens: 49 #print(token) 50 if token.part_of_speech.split(',')[0] in ['名詞']: 51 ret.append(token.base_form)
回答2件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/05/21 04:20