質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

89.99%

pythonのmultiprocessingを利用しているがCPU使用率があまり上がっていない

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 1
  • VIEW 4,142

kohekoh

score 131

タイトル通りです

pythonのmultiprocessingを利用して、並列処理を行っていますが
タスクマネージャを見ると、CPU使用率があまり上がっていません
CPUを最大限に使うようなコードを書いています
例えば

p = Pool()
p = Pool(multiprocessing.count())
p = Pool(8) #仮想コアが8のため


これらを試しましたが、CPUはあまり変化しません
コードに何か問題があるのか
他に何か考えられることはありますか?

import nltk
import numpy as np
import json
import nltk_exa as nl
import time
from multiprocessing import Pool
#import multiprocessing
import sys

def subcalc(word):
    subdoc = []
    lists = []
    collection = nltk.TextCollection(word) #サイトにのっていた
    #uniqterms = list(set(collection)) #ここも上と同じサイトに載っていた
    wo=[]
    for term in set(word):
        if(collection.tf_idf(term, word) > 0):
            wo.append([term,collection.tf_idf(term, word)]) #ここも上のサイトにのってる
            #print(wo)
    wo.sort(key=lambda x:x[1]) #keyに無名関数lambdaをいれてる woの1番目の要素(WO(1,2)だったら”2”)でソート
    wo.reverse()
    try:
        slice1 = np.array(wo[:20]) #先頭の文字から終了インデックスまでが抽出
        lists = slice1[:,0] #[:]は戦闘から終了のインデックスまで抽出と、slice1の0番目を格納
        subdoc.append(list(lists)) #listsが文字列だから、リストに格納
        del wo
    except:
        print(wo)
    return subdoc

def tfidf():
    t1 = time.time()
    doc0 = []
    doc = []
    word0 = []
    word = []
    f = open("/Users//Dropbox/prg/dataset/word0_notuseful012.txt")
    for row in f:
        word0.append(row.split("]["))
    f.close()
    for i in word0[0]:
        word.append(str(i).replace("[","").replace("]","").replace(",","").replace("'","").replace("\"","").split())
    #word.pop()
    ttt = time.time()
    p = Pool(4)
    #a = subcalc(word)  #1コアによる実行
    #print(a)
    doc = p.map(subcalc, word) #複数コアによる実行
    t3 = time.time()
    #print(doc[0][0])
    #print('processing time(nltkはこんだけかかってる)(終わり): ' + str(ttt - tt) + '(sec)')
    print('processing time2(終わり): ' + str(t3 - ttt) + '(sec)')

if __name__ == "__main__":
    tfidf()

ちなみにこのテキストファイルは30万行ほどのテキストファイルです
このときCPU使用率は40%ほどです

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • kohekoh

    2017/07/25 23:13

    一行目に4件以上分のデータが入るというのはどういう状況でしょうか、ちなみに、タスクマネージャをみるとスレッドが増えているので複数プロセスで動いてそうです

    キャンセル

  • kohekoh

    2017/07/25 23:14

    TFIDFをやっているつもりです、ここが間違っているとちょっとつらいですね…

    キャンセル

  • quiqui

    2017/07/25 23:27

    単にコードの転記間違いかと思ったのですが。

    キャンセル

回答 1

checkベストアンサー

0

スレッドじゃなくてプロセスだとは思いますが「プロセスが増えている」ことはなんの保証にもなりません。何もしていないプロセスが待機しているだけなのでしょう。

これを実行するとわかります。1つのプロセスだけ60秒sleepする処理が実行されるけれども、他の9プロセスは存在するけれども正真正銘何もしていないです。

import time
from multiprocessing import Pool

def wait(sec):
    print('wait executed')
    time.sleep(sec)


def main():
    Pool(10).map(wait, [60])

if __name__ == "__main__":
    main()
    f = open("/Users//Dropbox/prg/dataset/word0_notuseful012.txt")
    for row in f:
        word0.append(row.split("]["))


でrowに行を読みこみますね。

for i in word0[0]:
        word.append(str(i).replace("[","").replace("]","").replace(",","").replace("'","").replace("\"","").split())


1行目row.split("][")した結果の分、ループしていますね。
word.appendは1回しかやっていないので、wordの要素数は「1行目をrow.split("][")した結果」の個数に等しいです。
それをPool.mapに渡していますから、「1行目をrow.split("][")した結果」が1つより多ければ複数プロセスで回りますが、そうでなければプロセスは1つだけ実行されていて、他のプロセスは待機しているだけですね。

ところで、wordは「strを要素にしたlist」のlistですね。(型アノテーション的に書くとList[List[str]])

だから

def subcalc(word):


に渡るwordは「strを要素にしたlist」なのでドキュメント1個分の情報しかないように見えます。
これではidfは計算しできない(しても意味が無い)ですね。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/07/27 00:18

    想像だと、collection が 文書の数分( len(words) 分)pickle化されるのに時間がかかる & メモリを圧迫するのかな? と思いました。
    地道にメモリ使用量や時間がかかっている箇所を調べていくしかないでしょうね。

    キャンセル

  • 2017/07/27 00:24 編集

    すみません。pickleは関係ないかもしれません。pickle化できる必要があったような記憶があったのですが、ちょっと曖昧です

    キャンセル

  • 2017/07/27 10:47

    ありがとうございます

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 89.99%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

同じタグがついた質問を見る