質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.46%
PyTorch

PyTorchは、オープンソースのPython向けの機械学習ライブラリ。Facebookの人工知能研究グループが開発を主導しています。強力なGPUサポートを備えたテンソル計算、テープベースの自動微分による柔軟なニューラルネットワークの記述が可能です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Q&A

解決済

1回答

3795閲覧

Pytorchでのクロスエントロピーの計算について

Y_Miz

総合スコア3

PyTorch

PyTorchは、オープンソースのPython向けの機械学習ライブラリ。Facebookの人工知能研究グループが開発を主導しています。強力なGPUサポートを備えたテンソル計算、テープベースの自動微分による柔軟なニューラルネットワークの記述が可能です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

0グッド

0クリップ

投稿2020/12/26 02:19

知りたいこと

PytorchのCrossEntropyLoss()の挙動

Python

1from torch import nn 2nn.CrossEntropyLoss()

試したこと

Python

1from torch import nn 2 3# yは、xの要素を確率として捉えられるよう規格化したもの 4x = torch.tensor([[2., 5., 3.]]) 5y = torch.tensor([[0.2, 0.5, 0.3]]) 6 7# 正解ラベルは「1」とする 8true_label = torch.tensor([1]) 9 10#x, yそれぞれのクロスエントロピーを出力する 11print('CrossEntropy-x:', nn.CrossEntropyLoss()(x, true_label)) 12print('CrossEntropy-y:', nn.CrossEntropyLoss()(y, true_label))

上記を実行すると、下記の出力となりました。

Python

1CrossEntropy-x: tensor(0.1698) 2CrossEntropy-y: tensor(0.9398)

疑問点

以下のことを伺いました。
0. PytorchのCrossEntropyLoss()関数では、({予測値}, {正解ラベル})という形式で引数を与える。
0. ここで与える"予測値"は、関数内でsoftmax関数により確率のように規格化されるため、CrossEntropyLoss関数に渡すときには、規格化する必要はない。

前項"試したこと"では、確率として規格化する前の"予測値(x)"と、手元で規格化した後の"予測値(y)"で、それぞれクロスエントロピーを計算しました。

上記2番が正しいとすると、規格化前後のxとyで出力結果が変わるのは不思議ですし、
また、実際のクロスエントロピーは、この場合、-1*ln(0.5)~0.7となると思います。

私の使い方および理解で、誤っている点をご指摘いただきたいです。

使用したバージョン

Python: 3.8
Pytorch: 1.7.1

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

Y_Miz

2020/12/26 04:34

ご指摘ありがとうございます。 その点誤解しておりました。お恥ずかしい限りです。 各要素をexp関数の指数にとって、規格化のような操作をしているのですね。 そのため、-1*ln(0.5)~0.7といった出力にならないと理解しました。 pytorchのCrossEntropyLoss関数でも同様の指数関数を用いた処理を行なった後に、クロスエントロピーを計算していると理解しました。 きちんと確認していませんが、元の定義のクロスエントロピーの大小と、ソフトマックス処理後のクロスエントロピーの大小は整合し、後者の場合は 逆伝播での微分時の利便性考えているというところまで納得できました。 いずれにせよ、私の勉強不足で情けないです。 ありがとうございました。
Y_Miz

2020/12/26 04:37

ソフトマックス処理の勉強不足でした。
guest

回答1

0

自己解決

ソフトマックス処理の誤解でした。

投稿2020/12/26 04:36

Y_Miz

総合スコア3

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.46%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問