質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.36%

  • Python

    10326questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • Python 3.x

    8479questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Beautiful Soup

    41questions

ローカルのテキストファイル(約3GB)の処理を早くしたい〜!

解決済

回答 2

投稿

  • 評価
  • クリップ 0
  • VIEW 171

hacosato

score 30

前提・実現したいこと

ローカルにWikipediaのダンプを保存して、それの処理をしています。時間がかかるので早くやりたいです!

http://taka-say.hateblo.jp/entry/2016/05/20/221817
こちらのブログの内容の通り、Wikipediaのデータを落としてきてローカルに保存しました。
ファイルは約500KBごとに分割されていて、全部で約2.96GBあります。
中身はブログに書いてある通り、<doc>というタグでくくられたxmlみたいなファイルです。

その中から、BeautifulSoupを使って、指定したキーワードの記事を抽出するPythonを書きました。
以下、動作します!

import os
from bs4 import BeautifulSoup
import time

def files(path):
    for pathname, dirnames, filenames in os.walk(path):
        for filename in filenames:
            yield os.path.join(pathname, filename)

starttime = time.time()
cd = 'ぱす〜〜/Wikipedia_dump190121/extracted/'
q = '恋するフォーチュンクッキー'
for path in files(cd):
    if 'wiki_' in path:
        with open(path) as f:
            soup = BeautifulSoup(f, 'html.parser')
            article = soup.find_all('doc', title=q)
            if article:
                print(article)
endtime = time.time()
print(endtime-starttime, ' sec')


しかしめちゃくちゃ遅くて、さっきやったところ105秒もかかりました。
1秒ぐらいでできたらうれしいなと思っているんですが、方法はありますでしょうか?

試したこと

ファイルの開閉に時間がかかるからかな?と思い、上記ブログの通りぜんぶファイルをつなげました。

find extracted -name 'wiki*' -exec cat {} \; > text.xml


xmlファイルひとつにまとまりました。約2.81GBあります。
上記Pythonと同じような感じで処理させてみたところ、下記のようにエラーになりました。重すぎるからかも…。

OSError                                   Traceback (most recent call last)
<ipython-input-53-b974053833d4> in <module>()
      4 q = '恋するフォーチュンクッキー'
      5 with open('ぱす〜〜/Wikipedia_dump190121/jawiki-latest-pages-articles.xml.bz2') as f:
----> 6     soup = BeautifulSoup(f, 'html.parser')
      7     article = soup.find_all('doc', title=q)
      8     if article:

/usr/local/lib/python3.6/site-packages/bs4/__init__.py in __init__(self, markup, features, builder, parse_only, from_encoding, exclude_encodings, **kwargs)
    189 
    190         if hasattr(markup, 'read'):        # It's a file-type object.
--> 191             markup = markup.read()
    192         elif len(markup) <= 256 and (
    193                 (isinstance(markup, bytes) and not b'<' in markup)

OSError: [Errno 22] Invalid argument

補足情報(FW/ツールのバージョンなど)

Python 3.6.5
jupyter 4.4.0
ストレージはSSDです。
ほかに必要な情報あれば教えてください…。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • hacosato

    2019/02/11 12:01

    やってみました!
    hayataka2049さんの書いてくださった分があるので、書くこと自体はすぐできました!
    https://qiita.com/castaneai/items/9cc33817419896667f34
    こちら参考にスレッドプールを使いました。
    その結果、クエリ1つで106秒、10コで720秒でした。思ったほど早くない……。

    キャンセル

  • hacosato

    2019/02/11 12:03

    いや、ごめんなさいこれ違う…書き直します…。

    キャンセル

  • hacosato

    2019/02/11 13:23

    やってみたところ、クエリ1つで111秒、10コで700秒ちょうどでした…。
    あんまり上手に生かせないです……。

    キャンセル

回答 2

checkベストアンサー

+2

処理内容的に1秒はなかなかきついでしょうねぇ。

とりあえず安直にプロセス並列化。これで数倍くらいにはなりませんか。

import os
import time
from multiprocessing import Pool

from bs4 import BeautifulSoup

def files(path):
    for pathname, dirnames, filenames in os.walk(path):
        for filename in filenames:
            yield os.path.join(pathname, filename)

def process(args):
    path, q = args
    with open(path) as f:
        soup = BeautifulSoup(f, "html.parser")
        article = soup.find_all("doc", title=q)
        return article

if __name__ == "__main__":
    p = Pool(コア数の倍くらいの整数)
    cd = "ぱす〜〜/Wikipedia_dump190121/extracted/"
    targets = [path for path in files(cd) if "wiki_" in path]
    q = "恋するフォーチュンクッキー"
    result = [x for x in p.map(process, ((t, q) for t in targets)) if x]
    print(result)

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/02/10 23:52 編集

    ありがとうございました!
    ローカルのデータなのに1秒はむずかしいのか…ネットってすごい…。

    ご提示いただいたのを実行すると、こういうエラーが起きました!
    def files(args):のargsが使われてないみたいに思うんですが、
    どこか取り違えでしょうか…?

    ---------------------------------------------------------------------------
    ValueError Traceback (most recent call last)
    <ipython-input-62-9208cabdb828> in <module>()
    20 p = Pool(8)
    21 cd = ぱす〜〜/Wikipedia_dump190121/extracted/'
    ---> 22 targets = [path for path in files(cd) if "wiki_" in path]
    23 q = "恋するフォーチュンクッキー"
    24 result = [x for x in p.map(process, ((t, q) for x in targets)) if x]

    <ipython-input-62-9208cabdb828> in <listcomp>(.0)
    20 p = Pool(8)
    21 cd = 'ぱす〜〜/Wikipedia_dump190121/extracted/'
    ---> 22 targets = [path for path in files(cd) if "wiki_" in path]
    23 q = "恋するフォーチュンクッキー"
    24 result = [x for x in p.map(process, ((t, q) for x in targets)) if x]

    <ipython-input-62-9208cabdb828> in files(args)
    6
    7 def files(args):
    ----> 8 path, q = args
    9 for pathname, dirnames, filenames in os.walk(path):
    10 for filename in filenames:

    ValueError: too many values to unpack (expected 2)

    キャンセル

  • 2019/02/10 23:57

    ごめんなさい、素でミスりました。修正しておきます。

    キャンセル

  • 2019/02/11 00:19

    ありがとうございます!
    最後から2番目のこの行は、
    result = [x for x in p.map(process, ((t, q) for x in targets)) if x]
    (t, q)のところ(x, q)が正しいと思いましたのでそれで直しました。
    さらに、時間を計測する部分を付け加えて動かしたところ、
    Jupyter notebookが下記のようなよくわかんないエラーを出すようになりました…。

    ERROR:root:Internal Python error in the inspect module.
    Below is the traceback from this internal error.

    そこで、ローカルの.pyファイルに書いて、ターミナルで動かしました。
    すると今度は下記のような結果が出ました。
    中略のところに求めている記事の内容が出るのですが、
    時間が表示されないので、処理が途中で止まってしまっているみたいに思いました。

    ---------------------------------------------------------------------------
    Traceback (most recent call last):
    File "ぱす〜〜/Desktop/untitled.py", line 25, in <module>
    result = [x for x in p.map(process, ((x, q) for x in targets)) if x]
    File "/usr/local/Cellar/python/3.6.5/Frameworks/Python.framework/Versions/3.6/lib/python3.6/multiprocessing/pool.py", line 266, in map
    return self._map_async(func, iterable, mapstar, chunksize).get()
    File "/usr/local/Cellar/python/3.6.5/Frameworks/Python.framework/Versions/3.6/lib/python3.6/multiprocessing/pool.py", line 644, in get
    raise self._value
    multiprocessing.pool.MaybeEncodingError: Error sending result: '[[], [], … [], [<doc 中略…</doc>], [], … []]'. Reason: 'RecursionError('maximum recursion depth exceeded while calling a Python object',)'

    キャンセル

  • 2019/02/11 00:25

    xに関しては間違いです。下のエラーはなんだろう、これ。
    import sys
    sys.setrecursionlimit(10**6)
    とかをimportのあたりに書いてみてください。

    キャンセル

  • 2019/02/11 00:34

    うまくいきました! ありがとうございます〜!

    所要時間は105秒だったのが15秒になりました! 1/7になったぞ!!

    教えていただいたのはマルチプロセスという方法と理解しています。
    あしたマルチスレッドも試してみます〜!

    キャンセル

  • 2019/02/11 00:39 編集

    実行中のCPU利用率が100%より低くて、メモリ容量に余裕があるうちは並列化するプロセス数(コア数の倍くらいの整数のところの数字)を増やせます。並列に走る数を増やせば、あるプロセスではCPUで処理している間に他プロセスがストレージを読むというふうに高速化できます。
    最終的にストレージ律速なので、SSDの読み出し速度の限界に達するまでは高速化できるはずです。300MB/sとして10秒くらい。そう考えると割とすでに限界に近いですが、もう少し増やしてみる余地はあるかもしれません。

    キャンセル

  • 2019/02/11 01:17

    数値を増やしたら12秒ぐらいまでいきました〜!
    Pool(16)です。そこから先は、数値を増やしてもほとんど時間変わらなかったです…。

    いまqのところは決め打ちですけど、このクエリが1000個とかあった場合、各クエリもプロセスにすることはできるのでしょうか?
    クエリを2階建てにしても弊害はないのでしょうか?(自分でやってみればいいよね…と自分にツッコミ)

    キャンセル

  • 2019/02/11 01:30 編集

    2階建てはともかく(原理的にはできるけど面倒くさい)、クエリが変わるごとに同じファイルをいちいちopenしても無意味ですからねぇ。
    process関数の書き方を工夫して複数クエリ同時に受け取れば良いでしょう。
    たとえばqをクエリのリストにして、process関数はそのつもりで受け取って然るべく処理するとか。

    キャンセル

  • 2019/02/11 02:00

    そうでした…。
    ファイルの開け閉めに時間がかかっているっぽいので、そのほうがよさそうですね! やってみます!!

    キャンセル

  • 2019/02/11 11:58

    やってみました!
    qを10コのリストにして回してみたところ、94秒でした!
    もしファイルの開け閉め以外の操作に時間がまったくかからなかったら、12秒のままで10コのクエリを処理できるはず〜(1つあたり1.2秒!)と思ったのに意外とそんなことはなかったです…。
    いまの技量でできる範囲だとこれが限界かな…。

    キャンセル

0

メモリをマウントしてそこにファイルを保存すれば読み込み速度は爆速になるかと思います。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/02/11 00:00

    ありがとうございます。
    「メモリをマウント」というのは、xmlファイルをまとめてRAMに載せる、という感じでしょうか?
    なんか難しそうな感じがするのですが、検索するためのキーワードよければ教えていただけますか?
    (「メモリをマウント Python」だけだとRaspberryの話がたくさん出てくる…)

    キャンセル

  • 2019/02/11 05:30

    https://www.jamescoyle.net/how-to/943-create-a-ram-disk-in-linux

    キャンセル

  • 2019/02/11 11:04

    ありがとうございます! Python関係ないのですね……。
    「RAMディスク Mac」でいろいろ見つけられた気がします!

    キャンセル

同じタグがついた質問を見る

  • Python

    10326questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • Python 3.x

    8479questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Beautiful Soup

    41questions