質問するログイン新規登録
雑談

カジュアルな意見交換の質問を投稿する際、適切なタグが見つからない場合はこのタグをご使用ください。

LLM

LLM(大規模言語モデル)は、膨大なデータセットとディープラーニング技術により構築された言語モデル。データ量・計算量・パラメータ量の3つの要素が従来の言語モデルよりも大幅に強化され、より高精度な言語処理が可能です。

意見交換

クローズ

2回答

689閲覧

ローカルにLLMを組み込んだファイルサイズの大きいPC・スマホゲームって売れますか?

dras

総合スコア2

雑談

カジュアルな意見交換の質問を投稿する際、適切なタグが見つからない場合はこのタグをご使用ください。

LLM

LLM(大規模言語モデル)は、膨大なデータセットとディープラーニング技術により構築された言語モデル。データ量・計算量・パラメータ量の3つの要素が従来の言語モデルよりも大幅に強化され、より高精度な言語処理が可能です。

0グッド

0クリップ

投稿2025/06/03 23:43

0

0

前提

Unityでゲームを開発しています。
LLMのモデルファイル、Python実行環境をゲームに組み込んでいます。
LLMのモデルファイルがすごくデカいので、ゲームの内容は薄いのにファイルサイズが5GBとかします。
ゲームはPC、スマホで動作可能です。

相談したいこと

皆さんは5GBのゲームって気軽にPCやスマホに入れますか?

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

回答2

#1

maisumakun

総合スコア146706

投稿2025/06/04 01:15

LLMのモデルには蒸留という手法があり、同様の動作をするコンパクトなモデルを作成することができます。

そういったことは試してみましたか?

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

#2

fiveHundred

総合スコア10466

投稿2025/06/04 02:12

Pythonの実行環境を移植しなくとも、実はLLMUnityというものがあったりします。
これはllama.cppを使ったものであり、通常のモデルよりも量子化という技術で軽量化されているので、こちらのほうがいいかもしれません。
また、蒸留されているモデルも豊富です。

ただ、それでも現状では厳しいものがあるかもしれません。
ファイルサイズだけに注目されていますが、動作させるためにもその分のメモリが使われます。
そのため、「メモリが足りず、そもそも動作しない」という問題が付きまといます。
8GB未満ということも普通にあり得るため、古いものだと普通に厳しいでしょう。
また計算量もあるため、デバイス次第では十分な速度が出ない場合もあります。

実際に私の場合だと

  • 所持しているスマホでは最軽量のモデルがまともに動くかどうか
  • PCはGPUのVRAMを確保できるよう、デスクトップに買い替えた
    といった状況なので、一般ユーザーだと現状厳しいような気もします。

もちろん技術が進めば、デバイスの容量が大きくなったり、モデルを軽量化しても問題なくなったりするのですが、現状では「一部の人が使ってくれればいいかな」と割り切る必要があると思います。
もし多くの人に使ってほしい場合は、サーバーやAPIなどを使って、そもそもユーザーのデバイスで動作させること自体を避ける、といったことを行う必要があるのかなと思います。

それでも、LLMは面白いので、いろいろ試してみたくなってしまいますけどね。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

最新の回答から1ヶ月経過したため この意見交換はクローズされました

意見をやりとりしたい話題がある場合は質問してみましょう!

質問する

関連した質問