機械学習もバトルロイヤルゲームも素人ですが、気になった点を指摘しようと書き連ねた結果、回答レベルの長さや内容になってしまったので、こちらに記載します。
まず、「画像から安置を抽出することが出来ない」のか「フェーズ1での安置の位置や大きさはすでに抽出済みで、そこから安置の位置を予測するのが出来ない」のか(もしくはその両方なのか)が分かりません。
そもそも「画像から直接画像を出力する」ということを考えていたのかもしれませんが、画像を出力するだけでも非常に難しい(GANみたいなのをやらないといけない)ので、「画像から安置の位置を取得して、そこから将来の安置の位置を推測、その結果から用意したマップと安置を表した円を合成して出力する」というステップを踏むことになるかなと思います。
また、「画像から安置を抽出する」のは、機械学習というよりかは画像認識の分野になります。
機械学習ではない古典的なものでも、例えば「ハフ変換」というものがあるので、それでもいいのではないかと思いますが、どうなのでしょうか。
また、この問題の場合「最初の安置の中心からプレイヤーの位置までの距離」で確率が決まってしまうのではないかと思います。
ランダムなので逆に「この位置に確実に来る」ということもありません。
なので、「最初の安置の円を中心としたヒートマップ(もしくはグラフ)」で十分で、それだとプレイすればなんとなく分かるのではないかと思ってしまいます。
それを踏まえて、もしやるとしても(私は分かりませんが)統計学的な手法がいいのではないかと思います。
もしくは、安置の生成するシミュレーターを作れるのであれば、それを何度も実行してみて、それをグラフで表す、という方法も考えられますね(流石にゲームと全く同じかどうかは証明できませんが、なんとなくの結果は出てくると思います)。