実現したいこと
llama.cppを実行した時に、モデルを読み込んで、回答に対しての出力を表示するまでの関数の流れが分からない。
前提
現在、LLMの研究に取り組んでいます。
ですが、大きなファイルを扱った経験が少ないため、何から取り組むべきかがいまいちわかりません。
大まかな手順でもいいので教えてほしいです。
特に、どの関数から始まり、どの関数で終了しているのか調べる方法を教えてほしいです。
よろしくお願いします。
発生している問題・エラーメッセージ
エラーメッセージ
該当のソースコード
ソースコード
試したこと
./llama.cpp/llama-cli -ngl 32 -m ./llama.cpp/models/llama-2-7b-chat.Q4_K_M.gguf --color -c 4096 --repeat_penalty 1.1 -n -1 -p "[INST] <<SYS>>\n How tall is Tokyo Tower? \n<<SYS>>\n{prompt}[/INST]"
以上のコマンドで実行を行っています。
また、
gprof ./llama.cpp/llama-cli -ngl 32 -m ./llama.cpp/models/llama-2-7b-chat.Q4_K_M.gguf --color -c 4096 --repeat_penalty 1.1 -n -1 -p "[INST] <<SYS>>\n How tall is Tokyo Tower? \n<<SYS>>\n{prompt}[/INST]" gmon.out
のコマンドでプロファイルも行ってみましたが、望んでいるものが手に入っている状態なのかはわかりません。
理由としては、実行時間とgprofの時間が違っていました。
ただ、gpro2dotを活用すればpdfでプロファイル結果を可視化できるのを知ったので、それはこれから試そうと思います。
補足情報(FW/ツールのバージョンなど)
ここにより詳細な情報を記載してください。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2024/10/29 04:07