質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.51%

  • Python

    11677questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

pythonのmultiprocessingを利用しているがCPU使用率があまり上がっていない

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 1
  • VIEW 3,043

kohekoh

score 122

タイトル通りです

pythonのmultiprocessingを利用して、並列処理を行っていますが
タスクマネージャを見ると、CPU使用率があまり上がっていません
CPUを最大限に使うようなコードを書いています
例えば

p = Pool()
p = Pool(multiprocessing.count())
p = Pool(8) #仮想コアが8のため


これらを試しましたが、CPUはあまり変化しません
コードに何か問題があるのか
他に何か考えられることはありますか?

import nltk
import numpy as np
import json
import nltk_exa as nl
import time
from multiprocessing import Pool
#import multiprocessing
import sys

def subcalc(word):
    subdoc = []
    lists = []
    collection = nltk.TextCollection(word) #サイトにのっていた
    #uniqterms = list(set(collection)) #ここも上と同じサイトに載っていた
    wo=[]
    for term in set(word):
        if(collection.tf_idf(term, word) > 0):
            wo.append([term,collection.tf_idf(term, word)]) #ここも上のサイトにのってる
            #print(wo)
    wo.sort(key=lambda x:x[1]) #keyに無名関数lambdaをいれてる woの1番目の要素(WO(1,2)だったら”2”)でソート
    wo.reverse()
    try:
        slice1 = np.array(wo[:20]) #先頭の文字から終了インデックスまでが抽出
        lists = slice1[:,0] #[:]は戦闘から終了のインデックスまで抽出と、slice1の0番目を格納
        subdoc.append(list(lists)) #listsが文字列だから、リストに格納
        del wo
    except:
        print(wo)
    return subdoc

def tfidf():
    t1 = time.time()
    doc0 = []
    doc = []
    word0 = []
    word = []
    f = open("/Users//Dropbox/prg/dataset/word0_notuseful012.txt")
    for row in f:
        word0.append(row.split("]["))
    f.close()
    for i in word0[0]:
        word.append(str(i).replace("[","").replace("]","").replace(",","").replace("'","").replace("\"","").split())
    #word.pop()
    ttt = time.time()
    p = Pool(4)
    #a = subcalc(word)  #1コアによる実行
    #print(a)
    doc = p.map(subcalc, word) #複数コアによる実行
    t3 = time.time()
    #print(doc[0][0])
    #print('processing time(nltkはこんだけかかってる)(終わり): ' + str(ttt - tt) + '(sec)')
    print('processing time2(終わり): ' + str(t3 - ttt) + '(sec)')

if __name__ == "__main__":
    tfidf()

ちなみにこのテキストファイルは30万行ほどのテキストファイルです
このときCPU使用率は40%ほどです

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • kohekoh

    2017/07/25 23:13

    一行目に4件以上分のデータが入るというのはどういう状況でしょうか、ちなみに、タスクマネージャをみるとスレッドが増えているので複数プロセスで動いてそうです

    キャンセル

  • kohekoh

    2017/07/25 23:14

    TFIDFをやっているつもりです、ここが間違っているとちょっとつらいですね…

    キャンセル

  • quiqui

    2017/07/25 23:27

    単にコードの転記間違いかと思ったのですが。

    キャンセル

回答 1

checkベストアンサー

0

スレッドじゃなくてプロセスだとは思いますが「プロセスが増えている」ことはなんの保証にもなりません。何もしていないプロセスが待機しているだけなのでしょう。

これを実行するとわかります。1つのプロセスだけ60秒sleepする処理が実行されるけれども、他の9プロセスは存在するけれども正真正銘何もしていないです。

import time
from multiprocessing import Pool

def wait(sec):
    print('wait executed')
    time.sleep(sec)


def main():
    Pool(10).map(wait, [60])

if __name__ == "__main__":
    main()
    f = open("/Users//Dropbox/prg/dataset/word0_notuseful012.txt")
    for row in f:
        word0.append(row.split("]["))


でrowに行を読みこみますね。

for i in word0[0]:
        word.append(str(i).replace("[","").replace("]","").replace(",","").replace("'","").replace("\"","").split())


1行目row.split("][")した結果の分、ループしていますね。
word.appendは1回しかやっていないので、wordの要素数は「1行目をrow.split("][")した結果」の個数に等しいです。
それをPool.mapに渡していますから、「1行目をrow.split("][")した結果」が1つより多ければ複数プロセスで回りますが、そうでなければプロセスは1つだけ実行されていて、他のプロセスは待機しているだけですね。

ところで、wordは「strを要素にしたlist」のlistですね。(型アノテーション的に書くとList[List[str]])

だから

def subcalc(word):


に渡るwordは「strを要素にしたlist」なのでドキュメント1個分の情報しかないように見えます。
これではidfは計算しできない(しても意味が無い)ですね。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/07/26 02:43

    一行目には40ほど文字列があるので大丈夫だと思います
    tfidfについての知識が浅いので、もっと勉強します
    リストを2個以上わたさないと計算できないということですか?

    キャンセル

  • 2017/07/26 09:49 編集

    word(単語)がたくさん集まってtext(文書)になって、text(文書)がたくさん集まってtext collection(文書集合)になります。
    TF-IDFのうち、IDFの方は文書集合に定義されるものなので、nltk.TextCollection を作るときの引数は「『strのlist』のlist」を(普通)とります。nltk.TextCollection([['a','b','c'],['b','c','d'],['c','e']]) みたいに。

    キャンセル

  • 2017/07/26 12:05

    なるほど…
    ということはwordは
    [[['a','b','c'],['b','c','d'],['c','e']]]
    このようにならないといけないということですかね?

    キャンセル

  • 2017/07/26 12:34

    doc = p.subcalc(word)
    こういうこともできないですよね?

    キャンセル

  • 2017/07/26 14:18

    pool.mapに渡したいならwordの形はそうですけど、マルチプロセスにはなりませんね.

    キャンセル

  • 2017/07/26 14:43

    理解があってるかわからないのですが
    idfをするときはリストに3つの要素(リスト)があったら、
    1つの要素を他の3つと比較する作業ということですよね
    ということは、一つ目の要素を回すのに1つのプロセスを使って
    二つ目の要素を回すのに2つ目のプロセスを使って…
    という風にマルチプロセスにならないのですか?

    キャンセル

  • 2017/07/26 15:07

    [[['a','b','c'],['b','c','d'],['c','e']]] は1つしか要素を持っていませんよ。

    idfの計算を自分で作るなら、そういう風に「マルチプロセスで処理するように書く」ことはできるでしょう。

    キャンセル

  • 2017/07/26 15:14

    word自体の要素は1つですが、mapを用いたときは
    nltk.TextCollection([['a','b','c'],['b','c','d'],['c','e']])
    のように渡されますよね
    ということは要素は3つだと思うのですが、違いますか?

    キャンセル

  • 2017/07/26 15:37 編集

    そもそもおもったのですが、
    collection = nltk.TextCollection(word)
    この処理をsubcalcに入る前に計算させて、
    doc = p.map(subcalc, word, collection)
    このようにすればいいのではと思ったのですが、どうですか
    ちなみに
    doc = p.map(subcalc, word, collection)
    のときにエラーが出ます
    unorderable types: textcollection() <= int()

    キャンセル

  • 2017/07/26 16:00

    あなたがそう思っても multiprocessing.pool.Pool はそうは動かない。

    キャンセル

  • 2017/07/26 16:03

    どうすればいいんですかね

    キャンセル

  • 2017/07/26 16:05

    word自体の要素が1つならmultiprocessing.pool.Poolは1のプロセスでしか処理しない。
    このようにすればいいのではとあなたがどう思おうとも、multiprocessing.pool.Poolはそのように渡したら動かない。

    どうですかと聞かれても、あなたがmultiprocessing.pool.Poolを使おうと思った問題がそれで解決するならいいし、解決しないなら駄目でしょう、としか私には答えられない。

    キャンセル

  • 2017/07/26 16:11

    multiprocessing.pool.Poolを使ってTF-IDFの計算の中のどの部分の処理を並列化したかったのか? というのが伝わっていないです。(なぜなら質問のソースは並列になってないから)

    キャンセル

  • 2017/07/26 16:35

    自分がいまいちmutiprocessingの使い方がわかっていないみたいなのですが
    自分はtfidfの処理全体を並列化したつもりでした
    とりあえず動かして、動くので
    並列化もtfidfもできていると思っていました

    キャンセル

  • 2017/07/26 16:36

    nltk.TextCollectionを作成するのがあまり時間がかからなくて、そのなかの処理が**ループ回数が多すぎて**時間がかかるようなら、nltk.TextCollectionを作成してしまってその後をマルチプロセスで実行するのはいいと思います。本当にそういう状況なのかはわかりません。

    キャンセル

  • 2017/07/26 16:46

    collection = nltk.TextCollection(word)
    これを先にするということですよね
    となると
    unorderable types: textcollection() <= int()
    のエラーが出てしまいます
    これは nltk.TextCollectionの計算の中で
    textcollection() <= int()をやってしまっているということでいいんですかね

    キャンセル

  • 2017/07/26 17:12

    http://docs.python.jp/3/library/multiprocessing.html#multiprocessing.pool.Pool.map
    Pool.mapの第3引数はチャンクサイズです。

    キャンセル

  • 2017/07/26 17:23

    普通のmapと勘違いしていました
    ありがとうございます

    キャンセル

  • 2017/07/26 21:29

    動かしてみたところ、結局
    普通の処理よりも遅くなってしまいました
    これは、wordに一つの要素しか入ってないことに起因しているということですか?
    自分の思っているmultiproceddingの動作は
    subcalcを複数のプロセスで呼び出すとおもっているのですが
    そういうことではないということですよね?

    キャンセル

  • 2017/07/26 22:07

    プロセスのフォークや、受け渡しするデータのシリアライズ(pickle化)や、プロセス間の同期処理などの追加の作業が入るので少しは遅くなるでしょう。極端に違うなら別の原因(そもそも処理が違うとか)だと思います。

    例えば、1万個ある要素にすべて同じ関数(ここでいうsubcalc)をmapを使って適用させる時、その関数は1万個の引数に対して合計で1万回呼び出されます。
    それを、4プロセスで「分担」すると、1つのプロセスは2500回ぐらいを処理すれば済みます。
    そうすると同期処理などで余計な処理が増えるので全体の作業量は*常に*増えます。
    それでも「かかる時間」が短く済みます。

    wordが1つの要素しかないならmapに渡してもsubcalcは1回しか呼び出されません。だから分担のしようがありません。

    キャンセル

  • 2017/07/26 22:25

    すみません
    何回も同じような質問になるのですが
    [['a','b','c'],['b','c','d'],['c','e']]
    これの要素は3つですよね
    もしmultiprocessingするなら、三回呼び出されるということでいいですよね?

    キャンセル

  • 2017/07/26 22:42

    ちなみに少ないデータだと少しだけ早いのですが
    その4倍ほどのデータで行うと2倍ほど遅いです

    キャンセル

  • 2017/07/26 23:00

    いいですけど、そういう呼び方をしてIDFが計算されるようにはできてないですよね? (最初に話が戻りました)

    キャンセル

  • 2017/07/26 23:01

    nltkを使わないで計算できるようにsubcalcを書きかえたのならいいですけど。

    キャンセル

  • 2017/07/26 23:05

    collection = nltk.TextCollection(word)
    words = [(i, collection) for i in word]
    doc = p.map(wrapper, words) #複数コアによる実行
    このようにnltkの処理は外に出しています
    wrapper関数を別に作って、二つの引数をとってsabcalcを回しています

    キャンセル

  • 2017/07/27 00:18

    想像だと、collection が 文書の数分( len(words) 分)pickle化されるのに時間がかかる & メモリを圧迫するのかな? と思いました。
    地道にメモリ使用量や時間がかかっている箇所を調べていくしかないでしょうね。

    キャンセル

  • 2017/07/27 00:24 編集

    すみません。pickleは関係ないかもしれません。pickle化できる必要があったような記憶があったのですが、ちょっと曖昧です

    キャンセル

  • 2017/07/27 10:47

    ありがとうございます

    キャンセル

同じタグがついた質問を見る

  • Python

    11677questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。