質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.01%

ローカルのテキストファイル(約3GB)の処理を早くしたい〜!

解決済

回答 2

投稿

  • 評価
  • クリップ 0
  • VIEW 417

hacosato

score 37

前提・実現したいこと

ローカルにWikipediaのダンプを保存して、それの処理をしています。時間がかかるので早くやりたいです!

http://taka-say.hateblo.jp/entry/2016/05/20/221817
こちらのブログの内容の通り、Wikipediaのデータを落としてきてローカルに保存しました。
ファイルは約500KBごとに分割されていて、全部で約2.96GBあります。
中身はブログに書いてある通り、<doc>というタグでくくられたxmlみたいなファイルです。

その中から、BeautifulSoupを使って、指定したキーワードの記事を抽出するPythonを書きました。
以下、動作します!

import os
from bs4 import BeautifulSoup
import time

def files(path):
    for pathname, dirnames, filenames in os.walk(path):
        for filename in filenames:
            yield os.path.join(pathname, filename)

starttime = time.time()
cd = 'ぱす〜〜/Wikipedia_dump190121/extracted/'
q = '恋するフォーチュンクッキー'
for path in files(cd):
    if 'wiki_' in path:
        with open(path) as f:
            soup = BeautifulSoup(f, 'html.parser')
            article = soup.find_all('doc', title=q)
            if article:
                print(article)
endtime = time.time()
print(endtime-starttime, ' sec')


しかしめちゃくちゃ遅くて、さっきやったところ105秒もかかりました。
1秒ぐらいでできたらうれしいなと思っているんですが、方法はありますでしょうか?

試したこと

ファイルの開閉に時間がかかるからかな?と思い、上記ブログの通りぜんぶファイルをつなげました。

find extracted -name 'wiki*' -exec cat {} \; > text.xml


xmlファイルひとつにまとまりました。約2.81GBあります。
上記Pythonと同じような感じで処理させてみたところ、下記のようにエラーになりました。重すぎるからかも…。

OSError                                   Traceback (most recent call last)
<ipython-input-53-b974053833d4> in <module>()
      4 q = '恋するフォーチュンクッキー'
      5 with open('ぱす〜〜/Wikipedia_dump190121/jawiki-latest-pages-articles.xml.bz2') as f:
----> 6     soup = BeautifulSoup(f, 'html.parser')
      7     article = soup.find_all('doc', title=q)
      8     if article:

/usr/local/lib/python3.6/site-packages/bs4/__init__.py in __init__(self, markup, features, builder, parse_only, from_encoding, exclude_encodings, **kwargs)
    189 
    190         if hasattr(markup, 'read'):        # It's a file-type object.
--> 191             markup = markup.read()
    192         elif len(markup) <= 256 and (
    193                 (isinstance(markup, bytes) and not b'<' in markup)

OSError: [Errno 22] Invalid argument

補足情報(FW/ツールのバージョンなど)

Python 3.6.5
jupyter 4.4.0
ストレージはSSDです。
ほかに必要な情報あれば教えてください…。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • hacosato

    2019/02/11 12:01

    やってみました!
    hayataka2049さんの書いてくださった分があるので、書くこと自体はすぐできました!
    https://qiita.com/castaneai/items/9cc33817419896667f34
    こちら参考にスレッドプールを使いました。
    その結果、クエリ1つで106秒、10コで720秒でした。思ったほど早くない……。

    キャンセル

  • hacosato

    2019/02/11 12:03

    いや、ごめんなさいこれ違う…書き直します…。

    キャンセル

  • hacosato

    2019/02/11 13:23

    やってみたところ、クエリ1つで111秒、10コで700秒ちょうどでした…。
    あんまり上手に生かせないです……。

    キャンセル

回答 2

checkベストアンサー

+2

処理内容的に1秒はなかなかきついでしょうねぇ。

とりあえず安直にプロセス並列化。これで数倍くらいにはなりませんか。

import os
import time
from multiprocessing import Pool

from bs4 import BeautifulSoup

def files(path):
    for pathname, dirnames, filenames in os.walk(path):
        for filename in filenames:
            yield os.path.join(pathname, filename)

def process(args):
    path, q = args
    with open(path) as f:
        soup = BeautifulSoup(f, "html.parser")
        article = soup.find_all("doc", title=q)
        return article

if __name__ == "__main__":
    p = Pool(コア数の倍くらいの整数)
    cd = "ぱす〜〜/Wikipedia_dump190121/extracted/"
    targets = [path for path in files(cd) if "wiki_" in path]
    q = "恋するフォーチュンクッキー"
    result = [x for x in p.map(process, ((t, q) for t in targets)) if x]
    print(result)

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/02/11 01:30 編集

    2階建てはともかく(原理的にはできるけど面倒くさい)、クエリが変わるごとに同じファイルをいちいちopenしても無意味ですからねぇ。
    process関数の書き方を工夫して複数クエリ同時に受け取れば良いでしょう。
    たとえばqをクエリのリストにして、process関数はそのつもりで受け取って然るべく処理するとか。

    キャンセル

  • 2019/02/11 02:00

    そうでした…。
    ファイルの開け閉めに時間がかかっているっぽいので、そのほうがよさそうですね! やってみます!!

    キャンセル

  • 2019/02/11 11:58

    やってみました!
    qを10コのリストにして回してみたところ、94秒でした!
    もしファイルの開け閉め以外の操作に時間がまったくかからなかったら、12秒のままで10コのクエリを処理できるはず〜(1つあたり1.2秒!)と思ったのに意外とそんなことはなかったです…。
    いまの技量でできる範囲だとこれが限界かな…。

    キャンセル

0

メモリをマウントしてそこにファイルを保存すれば読み込み速度は爆速になるかと思います。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/02/11 00:00

    ありがとうございます。
    「メモリをマウント」というのは、xmlファイルをまとめてRAMに載せる、という感じでしょうか?
    なんか難しそうな感じがするのですが、検索するためのキーワードよければ教えていただけますか?
    (「メモリをマウント Python」だけだとRaspberryの話がたくさん出てくる…)

    キャンセル

  • キャンセル

  • 2019/02/11 11:04

    ありがとうございます! Python関係ないのですね……。
    「RAMディスク Mac」でいろいろ見つけられた気がします!

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.01%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる