Lors de la résolution d'une étude de cas, un chercheur rencontre de nombreux prédicteurs, possibilités et interactions. Cela complique la sélection d'un modèle. À l'aide de différents critères de sélection de modèles, ils peuvent résoudre ces problèmes et estimer la précision.
L'AIC et le BIC sont les deux processus de critères d'évaluation d'un modèle. Ils consistent en des déterminants sélectifs pour l'agrégation des variables considérées. En 2002, Burnham et Anderson ont fait une étude de recherche sur les deux critères.
Faits marquants
- L'AIC et le BIC sont tous deux des mesures utilisées pour la sélection de modèles dans l'analyse statistique.
- AIC signifie Akaike Information Criterion et BIC signifie Bayesian Information Criterion.
- L'AIC pénalise moins la complexité du modèle que le BIC, ce qui signifie que l'AIC peut être préféré pour les échantillons de petite taille, tandis que le BIC peut être préféré pour les échantillons de plus grande taille.
AIC contre BIC
L'AIC mesure la qualité relative d'un modèle statistique pour un ensemble de données donné. Il est basé sur la fonction de vraisemblance et le nombre de paramètres du modèle. BIC est un modèle similaire basé sur les principes bayésiens sur la mesure de la complexité, mais pénalise davantage les modèles avec plus de paramètres.
L'AIC donne des traits complexes, tandis que le BIC a des dimensions plus finies et des attributs cohérents. Le premier est meilleur pour les résultats négatifs et le second pour les résultats positifs.
Tableau de comparaison
Paramètres de comparaison | AIC | BIC |
---|---|---|
Formulaires Complets | La forme complète de l'AIC est les critères d'information d'Akaike. | La forme complète du BIC est le critère d'information bayésien. |
Définition | Une évaluation d'un intervalle continu et correspondant parmi la probabilité indéterminée, précise et justifiée des faits est appelée Akaike Information Criteria ou AIC. | Sous une structure bayésienne particulière, une évaluation précise de l'objectif de la possibilité suivant le modèle est appelée critère d'information bayésien ou BIC. |
Laits en poudre | Pour calculer le critère d'information d'Akaike, la formule est : AIC = 2k – 2ln(L^) | Pour calculer le critère d'information bayésien, la formule est : BIC = k ln(n) – 2ln(L^) |
Sélection du modèle | Pour les résultats faussement négatifs, AIC est élu dans le modèle. | Pour les résultats faussement positifs, BIC est élu dans le modèle. |
Dimension | La dimension de l'AIC est infinie et relativement élevée. | La dimension de BIC est finie et inférieure à celle de AIC. |
Pénalité | Les peines sont plus petites ici. | Les peines sont plus importantes ici. |
Probabilité | Pour sélectionner le vrai modèle dans AIC, la probabilité doit être inférieure à 1. | Pour sélectionner le vrai modèle dans BIC, la probabilité doit être exactement à 1. |
Résultats | Ici, les résultats sont plus imprévisibles et plus compliqués que BIC. | Ici, les résultats sont cohérents et plus faciles que l'AIC. |
Hypothèses | À l'aide d'hypothèses, l'AIC peut calculer la couverture la plus optimale. | A l'aide d'hypothèses, le BIC peut calculer une couverture moins optimale que celle de l'AIC. |
Risques | Le risque est minimisé avec l'AIC, car n est beaucoup plus grand que k2. | Le risque est maximisé avec BIC, car n est fini. |
Qu'est-ce que l'AIC ?
Le modèle a été annoncé pour la première fois par le statisticien "Hirotugu Akaike" en 1971. Et le premier article officiel a été publié par Akaike en 1974 et a reçu plus de 14,000 XNUMX citations.
Les critères d'information d'Akaike (AIC) évaluent un continu en plus de l'intervalle correspondant parmi la probabilité indéterminée, précise et justifiée des faits.
C'est le but probabiliste intégré du modèle. Ainsi, un AIC inférieur signifie qu'un modèle est estimé plus proche de la précision. Pour les conclusions faussement négatives, c'est utile.
Atteindre un vrai modèle nécessite une probabilité inférieure à 1. La dimension de l'AIC est infinie et relativement élevée en nombre, à cause de quoi elle fournit des résultats imprévisibles et compliqués.
Il sert la couverture la plus optimale des hypothèses. Ses peines sont moindres. De nombreux chercheurs pensent qu'il bénéficie du minimum de risques tout en présumant. Parce qu'ici, n est plus grand que k2.
Le calcul de l'AIC se fait avec la formule suivante :
- AIC = 2k – 2ln(L^)
Qu'est-ce que le BIC ?
Les critères d'information bayésiens (BIC) sont une évaluation de l'objectif de la possibilité, suivant la précision du modèle, sous une structure bayésienne particulière. Ainsi, un BIC inférieur signifie qu'un modèle est reconnu comme étant davantage anticipé en tant que modèle précis.
La théorie a été développée et publiée par Gideon E. Schwarz en 1978. Elle est également connue sous le nom de Schwarz Information Criterion, en abrégé SIC, SBIC ou SBC. Pour atteindre un vrai modèle, il faut une probabilité d'exactement 1. Pour les résultats faussement positifs, c'est utile.
Les peines sont substantielles. Sa dimension est finie ce qui donne des résultats cohérents et faciles. Les scientifiques disent que sa couverture optimale est inférieure à l'AIC pour les hypothèses. Cela entraîne même une prise de risque maximale. Parce qu'ici, n est définissable.
Le calcul du BIC se fait avec la formule suivante :
- BIC = k ln(n) – 2ln(L^)
Le "Bridge Criterion", BC, a été développé par Jie Ding, Vahid Tarokh et Yuhong Yang. Le critère a été publié le 20 juin 2017 dans IEEE Transactions on Information Theory. Son objectif était de combler le fossé fondamental entre les modules AIC et BIC.
Principales différences entre AIC et BIC
- AIC est utilisé dans la sélection de modèles pour les résultats faux négatifs, tandis que BIC est utilisé pour les faux positifs.
- Le premier a une dimension infinie et relativement élevée. Au contraire, ce dernier a fini.
- Le terme de pénalité pour le premier est plus petit. En même temps, le second est substantiel.
- Les critères d'information d'Akaike ont des résultats compliqués et imprévisibles. À l'inverse, le critère d'information bayésien a des résultats faciles avec cohérence.
- L'AIC fournit des hypothèses optimistes. Dans le même temps, les couvertures BIC sont des hypothèses moins optimales.
- Le risque est minimisé dans l'AIC et maximal dans le BIC.
- La théorie d'Akaike nécessite une probabilité inférieure à 1, et le bayésien a besoin d'exactement 1 pour atteindre le vrai modèle.
- https://psycnet.apa.org/record/2012-03019-001
- https://journals.sagepub.com/doi/abs/10.1177/0049124103262065
- https://journals.sagepub.com/doi/abs/10.1177/0049124104268644
- https://www.sciencedirect.com/science/article/pii/S0165783605002870
Cet article a été rédigé par : Supriya Kandekar
Dernière mise à jour : 11 juin 2023
Emma Smith est titulaire d'une maîtrise en anglais du Irvine Valley College. Elle est journaliste depuis 2002, écrivant des articles sur la langue anglaise, le sport et le droit. En savoir plus sur moi sur elle page bio.
Les explications détaillées de l'AIC et du BIC proposées dans l'article contribuent de manière significative à la compréhension globale de ces critères de sélection de modèles.
L’aperçu complet de l’AIC et du BIC présenté dans l’article améliore la compréhension de ces critères dans le contexte de l’analyse statistique.
La comparaison entre AIC et BIC a été présentée avec une grande clarté, permettant une meilleure compréhension de leurs rôles respectifs dans la modélisation statistique.
Je ne pourrais pas être plus d'accord. Les risques associés à l’AIC et au BIC ont particulièrement suscité la réflexion.
La distinction claire entre AIC et BIC permet aux chercheurs de prendre plus facilement des décisions éclairées lors de la sélection du modèle.
Il s'agit d'une étude bien menée qui fournit un aperçu clair des différences cruciales entre AIC et BIC.
Oui, l’analyse approfondie de l’AIC et du BIC ainsi que leurs calculs respectifs ont été très instructifs.
Je suis complètement d'accord. Le tableau comparatif s’est avéré particulièrement utile pour comprendre les nuances de chaque critère.
L'article fournit un aperçu complet de l'AIC et du BIC, facilitant ainsi la compréhension de leur importance dans l'analyse statistique.
Absolument, les principaux points à retenir ont été présentés de manière concise et la comparaison entre AIC et BIC a été éclairante.
J'ai quelques réserves quant à l'exactitude de l'AIC et du BIC, notamment en ce qui concerne leur applicabilité dans divers scénarios de recherche.
Je comprends votre inquiétude. Il serait intéressant d’explorer des études de cas où les limites de l’AIC et du BIC sont évidentes.
Il est certainement possible d'approfondir les recherches sur les implications pratiques de l'AIC et du BIC dans la recherche réelle.
Bien que l'article présente un examen approfondi de l'AIC et du BIC, il serait utile d'aborder les limites et les défis potentiels associés à leur utilisation.
Je partage votre point de vue. Explorer les implications pratiques de l’AIC et du BIC dans divers domaines de recherche pourrait fournir des informations précieuses.
Convenu. Une exploration des inconvénients potentiels de l’AIC et du BIC contribuerait à une compréhension plus équilibrée de leur utilité.
Le tableau de comparaison a démontré efficacement les distinctions entre AIC et BIC, mettant en lumière les aspects complexes de la sélection du modèle statistique.
En effet, les implications pratiques de l’AIC et du BIC étaient bien articulées, fournissant des informations précieuses aux chercheurs.
L'analyse détaillée de l'AIC et du BIC présentée dans l'article constitue une ressource précieuse pour les chercheurs impliqués dans la sélection et l'analyse des modèles.