Slide 7
Slide 7 text
不確実性サンプリング
判断の境目にあるデータ(間違えやすいデータ)を集めるアルゴリズム
信頼度はDep LearningであればNNの出力(softmax前or後)。Scoreだったり精度と呼んだりする。
・最小確信度サンプリング
正解値の信頼度を100%として、モデルの出力との差を取る。犬の画像に対して、犬80%という推論をした時の不確実性は0.2
・確信度マージンサンプリング
2番目の信頼度の差をマージンとして計測。犬の画像に対して、犬80%、猫10%と推論した時、不確実性は100-(80-10)で0.3
一つ目と二つ目の差が大きいと不確実性が減る。
・確信度比率サンプリング
一つ目と2つめの信頼度の比率をとる。犬80%、猫10%の時は10/80 = 0.125が不確実性。
・エントロピー基準サンプリング
信頼度のエントロピーを計算する。他クラス分類の時はすべての出力を使う。
例えば犬80%、猫50%の時、足して1にならないので、softmaxを取って0.574, 0.426にする。このエントロピーを取って0.984を不確実性とする。
ChatGPTに計算させたけど、E資格受験者は電
卓叩いて自力で計算できるように