質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.31%
雑談

カジュアルな意見交換の質問を投稿する際、適切なタグが見つからない場合はこのタグをご使用ください。

LLM

LLM(大規模言語モデル)は、膨大なデータセットとディープラーニング技術により構築された言語モデル。データ量・計算量・パラメータ量の3つの要素が従来の言語モデルよりも大幅に強化され、より高精度な言語処理が可能です。

意見交換

2回答

237閲覧

ローカルにLLMを組み込んだファイルサイズの大きいPC・スマホゲームって売れますか?

dras

総合スコア2

雑談

カジュアルな意見交換の質問を投稿する際、適切なタグが見つからない場合はこのタグをご使用ください。

LLM

LLM(大規模言語モデル)は、膨大なデータセットとディープラーニング技術により構築された言語モデル。データ量・計算量・パラメータ量の3つの要素が従来の言語モデルよりも大幅に強化され、より高精度な言語処理が可能です。

0グッド

0クリップ

投稿2025/06/03 23:43

前提

Unityでゲームを開発しています。
LLMのモデルファイル、Python実行環境をゲームに組み込んでいます。
LLMのモデルファイルがすごくデカいので、ゲームの内容は薄いのにファイルサイズが5GBとかします。
ゲームはPC、スマホで動作可能です。

相談したいこと

皆さんは5GBのゲームって気軽にPCやスマホに入れますか?

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

回答2

#1

maisumakun

総合スコア146618

投稿2025/06/04 01:15

LLMのモデルには蒸留という手法があり、同様の動作をするコンパクトなモデルを作成することができます。

そういったことは試してみましたか?

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

#2

fiveHundred

総合スコア10390

投稿2025/06/04 02:12

Pythonの実行環境を移植しなくとも、実はLLMUnityというものがあったりします。
これはllama.cppを使ったものであり、通常のモデルよりも量子化という技術で軽量化されているので、こちらのほうがいいかもしれません。
また、蒸留されているモデルも豊富です。

ただ、それでも現状では厳しいものがあるかもしれません。
ファイルサイズだけに注目されていますが、動作させるためにもその分のメモリが使われます。
そのため、「メモリが足りず、そもそも動作しない」という問題が付きまといます。
8GB未満ということも普通にあり得るため、古いものだと普通に厳しいでしょう。
また計算量もあるため、デバイス次第では十分な速度が出ない場合もあります。

実際に私の場合だと

  • 所持しているスマホでは最軽量のモデルがまともに動くかどうか
  • PCはGPUのVRAMを確保できるよう、デスクトップに買い替えた

といった状況なので、一般ユーザーだと現状厳しいような気もします。

もちろん技術が進めば、デバイスの容量が大きくなったり、モデルを軽量化しても問題なくなったりするのですが、現状では「一部の人が使ってくれればいいかな」と割り切る必要があると思います。
もし多くの人に使ってほしい場合は、サーバーやAPIなどを使って、そもそもユーザーのデバイスで動作させること自体を避ける、といったことを行う必要があるのかなと思います。

それでも、LLMは面白いので、いろいろ試してみたくなってしまいますけどね。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

この意見交換はまだ受付中です。

会員登録して回答してみよう

アカウントをお持ちの方は

関連した質問