質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.37%

  • Python

    10381questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • Python 3.x

    8528questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

要素比較の高速化について

解決済

回答 5

投稿

  • 評価
  • クリップ 1
  • VIEW 2,636

cho

score 17


二つのファイルの要素を比較しています.
ファイルAはとにかく大きい(10GB前後),ファイルBは400件程度の要素が存在します.
Aには要素の被りがありますが,Bにはありません.
Aの中からBを探し,Bが出現頻度を算出することが目的です.

現在,どちらのファイルもl読み込み,比較していき,
要素が一致すれば出力(ファイルに書き出し)という手順で行っています.
出現頻度は後から・・と考えています.

sys.stdout=open('hoge.txt','w')
for row in csv.reader(open('B.csv','r'),delimiter='\t'):
    for row2 in csv.reader(open('A.csv','r'),delimiter='\t'):
        if (row[0]==row2[0]):
            print(row2[0]+'\t'+row2[2]+'\t'+row2[4]);
sys.stdout.close()
sys.stdout=sys.__stdout__
`これで動いてはいるのですが非常に時間がかかり困っています.
高速化する方法はないでしょうか.

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 5

+2

頻度を数えることも同時にやってしまって、出力は頻度のみでOKということであれば、
sys.stdout=open('hoge.txt','w')
rows=[row[0] for row in csv.reader(open('B.csv','r'),delimiter='\t')]
counts=[0]*len(rows)
for row2 in csv.reader(open('A.csv','r'),delimiter='\t'):
    if row2[0] in rows:
        counts[rows.index(row2[0])]+=1
for row,count in zip(rows,counts):
    print(row,count)
sys.stdout.close()
sys.stdout=sys.__stdout__
とすれば、出力として
row[0] 頻度
というのが並んだファイルが作られます。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

checkベストアンサー

0

遅い問題は、10GB前後もあるファイルを400回程度も繰り返し読んでいることに起因します。
なので、10GBのファイルを1回読めば良いように変更すれば速くなります。

たとえば、出力の順番が変わっても良いなら、

sys.stdout=open('hoge.txt','w')
rows=[row[0] for row in csv.reader(open('B.csv','r'),delimiter='\t')]
for row2 in csv.reader(open('A.csv','r'),delimiter='\t'):
    if row2[0] in rows:
        print(row2[0]+'\t'+row2[2]+'\t'+row2[4]);
sys.stdout.close()
sys.stdout=sys.__stdout__
というのは如何でしょうか?
rows という B.csv の各行 の最初の要素(row[0])が入った list を作ります。
その後A.csv の各行の最初の要素(rows[2])が rowsに含まれていれば出力します。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

0

1.Aのデータを一度先に走査し、要素名をファイル名としたファイルにその要素が存在するごとにカウントを増やしていく。
2.1.のデータがあればBの各行の出現頻度は要素名のファイルを開けばわかる。

という感じにすれば、Aのデータの走査が一回だけで済んでそれなりに高速になると思いますが如何でしょうか?

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

0

もし、出力の順番が変わっては困るということだと、全部の探索が終わった後に出力する必要があります。

sys.stdout=open('hoge.txt','w')
rows=[row[0] for row in csv.reader(open('B.csv','r'),delimiter='\t')]
outputs=[[] for n in xrange(len(rows))]
for row2 in csv.reader(open('A.csv','r'),delimiter='\t'):
    if row2[0] in rows:
        outputs[rows.index(row2[0])].append(row2[0]+'\t'+row2[2]+'\t'+row2[4])
for output in outputs:
    for o in output:
        print(o)
sys.stdout.close()
sys.stdout=sys.__stdout__
というように、まずは全ての出力をoutputs に貯めて、最後に出力することになります。
この場合「10GBのほとんどが出力対象」などのように出力量が多いと、沢山のメモリが必要になります。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

0

  1.  小さい方のファイルを全部読み込む。csvreader を介し、先頭カラムだけリストに格納する。row
  2.  デカイ方のファイルを 1000 行単位で読み込む。csvreader を介さず、1 行まるごと読み込む。row2
  3.  2つの配列で、小さい方を外、大きい方を内側の2重ループで検索する。row2 行の最初のタブまでの文字列を抽出して比較、同一ならば、row2 だけ出力用リストに格納する。出力用リストが100件溜まったら、ファイルにしゅつりょくする、0,2,4カラムを抽出してcsv形式にせいけいする。

これを延々くり返す。ディスクアクセスは、HDDの場合、1/1000秒以下のアクセスは無理なので、なるべくアクセスを避ける。出力用リストも、メモリやヒープサイズとの兼ね合いもありますが、何度も試行して、最適な出力のしきい値を求める。100じゃなくて、余裕あれば10000とかにするだけで、結果が50000件なら、500回のアクセスを5回に大幅削減できます。また、csv出力も、1行作ってファイル書き込みではなくて、100行繋げて一辺に書き込むとかするだけで、ディスクヘッドの移動時間のオーバーヘッドとかも回避できるかもしれません。10000文字書き込んで、10000文字が連続した領域に書き込まれるのかは運次第ですが。

結局メインループは、大きいファイル依存で物凄い回数まわるので、その部分はなるべくpythonのロジックだけが動作するように工夫するのがベターだと思います。


投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

同じタグがついた質問を見る

  • Python

    10381questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • Python 3.x

    8528questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。