AIC と BIC: 違いと比較

ケーススタディを解決している間、研究者は多くの予測因子、可能性、および相互作用に遭遇します。 そのため、モデルの選択が複雑になります。 モデル選択のさまざまな基準を利用して、これらの問題を解決し、精度を推定できます。

AIC と BIC は、モデルを評価するための 2002 つの基準プロセスです。 それらは、考慮される変数を集約するための選択的決定要因で構成されます。 XNUMX 年、バーナムとアンダーソンは両方の基準について調査研究を行いました。 

主要な取り組み

  1. AIC と BIC はどちらも、統計分析でモデルを選択するために使用される尺度です。
  2. AICは赤池情報量基準、BICはベイジアン情報量基準の略です。
  3. AIC は BIC よりもモデルの複雑さにペナルティを課しません。つまり、サンプル サイズが小さい場合は AIC が好まれ、サンプル サイズが大きい場合は BIC が好まれる可能性があります。

AIC 対 BIC

AIC は、特定のデータ セットの統計モデルの相対的な品質を測定します。 これは、尤度関数とモデル内のパラメーターの数に基づいています。 BIC は、複雑さの測定に関するベイジアンの原則に基づく同様のモデルですが、より多くのパラメーターを持つモデルにより大きなペナルティを課します。

AIC 対 BIC

AICは複雑な特性をもたらしますが、BICはより有限の次元と一貫した属性を持っています。 前者は否定的な結果に、後者は肯定的な結果に適しています。

比較表

比較のパラメータAICBIC
完全形AIC の完全な形式は赤池情報量基準です。BIC の完全な形式は、ベイジアン情報基準です。
定義未確定で正確かつ正当化された事実の確率の間の継続的かつ対応する間隔の評価は、赤池情報量基準または AIC と呼ばれます。特定のベイジアン構造の下で、モデルに従って可能性の目的を正確に評価することは、ベイジアン情報量基準または BIC と呼ばれます。
赤池情報量基準を計算する式は次のとおりです。 AIC = 2k – 2ln(L^)ベイズ情報量基準を計算する式は次のとおりです。 BIC = k ln(n) – 2ln(L^)
モデルの選択偽陰性の結果の場合、AIC がモデルで選択されます。偽陽性の結果の場合、BIC がモデルで選択されます。
次元AIC の次元は無限であり、比較的高いです。BIC の次元は有限であり、AIC の次元よりも小さくなります。
罰則期間ここでは、ペナルティ条件は小さくなります。ここでは罰則が大きくなります。
確率AIC で真のモデルを選択するには、確率を 1 未満にする必要があります。BIC で真のモデルを選択するには、確率が正確に 1 になる必要があります。
結果ここでは、結果は BIC よりも予測不可能で複雑です。ここでは、結果が一貫しており、AIC よりも簡単です。
仮定仮定を利用して、AIC は最適なカバレッジを計算できます。仮定の助けを借りて、BIC はその AIC より最適でないカバレッジを計算できます。
リスクAIC を使用すると、リスクが最小限に抑えられます。 n k よりはるかに大きい2.リスクは BIC で最大化されます。 n 有限です。
後で思い出せるように今すぐピン留めする
これを固定する

AICとは何ですか?

このモデルは、1971 年に統計学者の「赤池博次」によって最初に発表されました。そして、1974 年に赤池によって最初の正式な論文が発表され、14,000 を超える引用がありました。

また読む:  アンカーとレポーター: 違いと比較

赤池情報量基準 (AIC) は、事実の未確定、正確、および正当化された確率の間の対応する間隔に加えて、連続を評価します。

これは、モデルの統合された確率の目的です。 したがって、AIC が低いほど、モデルが精度により近いと推定されることを意味します。 偽陰性の結論の場合、これは役に立ちます。

真のモデルに到達するには、1 未満の確率が必要です。AIC の次元は無限であり、数が比較的多いため、予測不可能で複雑な結果が得られます。

これは、仮定の最適なカバレッジを提供します。 そのペナルティ条件はより小さくなります。 多くの研究者は、推測しながら最小限のリスクで利益を得ると信じています. なぜなら、ここでは、 n kより大きい2.

AIC の計算は、次の式で行われます。 

  • AIC = 2k – 2ln(L^)

BICとは何ですか?

ベイジアン情報量基準 (BIC) は、特定のベイジアン構造の下で、モデルの精度に従って、可能性の目的を評価したものです。 したがって、BIC が低いということは、モデルが正確なモデルとしてさらに期待されると認められていることを意味します。

この理論は、1978 年に Gideon E. Schwarz によって開発および公開されました。また、Schwarz Information Criterion、略して SIC、SBIC、または SBC としても知られています。 真のモデルに到達するには、正確に 1 の確率が必要です。偽陽性の結果の場合、これは役に立ちます。 

ペナルティ条件はかなりのものです。 その次元は有限であり、一貫した簡単な結果が得られます。 科学者は、その最適なカバレッジは、仮定の AIC よりも小さいと言います。 それは、最大のリスクテイクにもつながります。 なぜなら、ここでは、 n 定義可能です。

BIC 計算は、次の式で行われます。 

  • BIC = k ln(n) – 2ln(L^)

「ブリッジ基準」BC は、Jie Ding、Vahid Tarokh、および Yuhong によって開発されました。 ヤン. この基準は、20 年 2017 月 XNUMX 日に IEEE Transactions on Information Theory で公開されました。 その動機は、AIC モジュールと BIC モジュールの間の根本的なギャップを埋めることでした。

また読む:  LPN と LVN: 違いと比較

AICとBICの主な違い

  1. AIC は偽陰性の結果のモデル選択に使用されますが、BIC は偽陽性の結果に使用されます。
  2. 前者は無限で比較的高い次元を持っています。 それどころか、後者は有限です。
  3. 最初のペナルティ期間は小さくなります。 同時に、XNUMXつ目は充実しています。
  4. 赤池情報量基準は、複雑で予測不可能な結果を​​もたらします。 逆に、ベイジアン情報量基準は、一貫性のある簡単な結果をもたらします。
  5. AIC は楽観的な仮定を提供します。 同時に、BIC の適用範囲は最適な仮定とは言えません。
  6. リスクは AIC で最小化され、BIC で最大化されます。
  7. 赤池理論では 1 未満の確率が必要ですが、ベイジアンでは真のモデルに到達するために正確に 1 が必要です。
参考情報
  1. https://psycnet.apa.org/record/2012-03019-001 
  2. https://journals.sagepub.com/doi/abs/10.1177/0049124103262065 
  3. https://journals.sagepub.com/doi/abs/10.1177/0049124104268644 
  4. https://www.sciencedirect.com/science/article/pii/S0165783605002870 

この記事の執筆者: Supriya Kandekar

XNUMXつのリクエスト?

私はあなたに価値を提供するために、このブログ記事を書くことに多大な努力を払ってきました. ソーシャルメディアや友人/家族と共有することを検討していただければ、私にとって非常に役立ちます. 共有は♥️

後で読むためにこの記事を保存しますか? 右下のハートをクリックして自分の記事ボックスに保存!

著者について

Emma Smith は、アーバイン バレー カレッジで英語の修士号を取得しています。 彼女は 2002 年からジャーナリストとして、英語、スポーツ、法律に関する記事を書いています。 彼女についてもっと読む バイオページ.