Une procédure particulière pour résoudre des problèmes de calcul est connue sous le nom d'algorithme. Il existe différents types d'algorithmes.
En programmation, le développement d'algorithmes a une valeur différente de toute autre technique. Un programme a besoin d'un tas de meilleurs algorithmes pour fonctionner efficacement.
Bagging et Random Forest sont également deux types d'algorithmes.
Faits marquants
- Le bagging, ou bootstrap aggregating, est une technique qui utilise plusieurs modèles pour réduire la variance des prédictions. Dans le même temps, la forêt aléatoire est une méthode d'apprentissage d'ensemble qui étend le concept de bagging en ajoutant une sélection aléatoire de caractéristiques pour chaque arbre de décision.
- Le bagging se concentre sur la réduction du surajustement en faisant la moyenne des prédictions de plusieurs arbres de décision, tandis que la forêt aléatoire vise à améliorer la précision prédictive en introduisant du caractère aléatoire dans la construction des arbres.
- Les deux techniques exploitent la puissance de plusieurs apprenants, mais la forêt aléatoire surpasse l'ensachage en raison de sa couche supplémentaire d'aléatoire lors de la construction de l'arbre.
Ensachage vs forêt aléatoire
Le bagging (Bootstrap Aggregating) est une méthode permettant de créer plusieurs modèles (arbres de décision) sur des sous-ensembles aléatoires de données d'entraînement, puis de combiner leurs prédictions par le biais d'une moyenne ou d'un vote. Random Forest est une extension de Bagging qui combine plusieurs arbres de décision pour former une forêt.
Le bagging est un méta-algorithme conçu pour augmenter et améliorer la précision et la stabilité des algorithmes d'apprentissage automatique utilisés dans la classification des termes statistiques et régression.
Un autre nom pour le bagging est l'agrégation bootstrap. C'est une technique très utile pour améliorer un programme informatique.
La forêt aléatoire est également un algorithme connu sous le nom d'algorithme d'apprentissage automatique supervisé qui est également conçu pour améliorer la précision et la stabilité du terme régression. Les programmeurs utilisent largement cet algorithme pour résoudre des problèmes de régression.
Cette technique fonctionne en construisant des arbres de décision pour différents échantillons. Il gère également les ensembles de données qui incluent des variables continues.
Tableau de comparaison
Paramètres de comparaison | Bagging | Forêt aléatoire |
---|---|---|
Année | L'ensachage a été introduit en 1996 il y a près de 2 décennies. La forêt aléatoire a été introduite. | L'algorithme Random Forest a été introduit en 2001. |
Inventor | L'algorithme d'ensachage a été créé par un homme du nom de Leo Breiman. | Après le succès de l'ensachage, Leo Breiman a créé une version améliorée de l'agrégation bootstrap, la forêt aléatoire. |
Utilisation | Pour augmenter la stabilité du programme, le bagging est utilisé par les arbres de décision. | La technique random forest est utilisée pour résoudre les problèmes liés à la classification et à la régression. |
Objectif | Le but principal du bagging est de former des arbres de décision non élagués appartenant aux différents couchers de soleil. | Le but principal de la forêt aléatoire est de créer plusieurs arbres aléatoires. |
Résultat | L'algorithme de bagging donne le résultat d'un modèle d'apprentissage automatique avec une stabilité précise. | Le résultat donné par la forêt aléatoire est la robustesse contre le problème de surajustement dans le programme. |
Qu'est-ce que l'ensachage ?
Le bagging est un algorithme utilisé par de nombreux programmeurs en apprentissage automatique. L'autre nom sous lequel l'ensachage est connu est bootstrap agrégation.
Il est basé sur un ensemble et est un méta-algorithme. L'ensachage est utilisé dans les programmes informatiques pour augmenter leur précision et leur stabilité.
La méthode de l'arbre de décision a également adapté le bagging.
L'ensachage peut être considéré comme un modèle d'approche de moyenne pour des cas particuliers. Lorsqu'il y a sur-ajustement dans un programme et augmentation du nombre de variances, le bagging est utilisé pour apporter l'aide nécessaire à la résolution de ces problèmes.
Le nombre d'ensembles de données trouvés dans le bagging est de trois, qui sont des ensembles de données bootstrap, originaux et out-to-bag. Lorsque le programme sélectionne des objets aléatoires dans l'ensemble de données, ce processus conduit à la création d'une base de données bootstrap.
Dans l'ensemble de données out-to-bag, le programme représente les objets restants laissés dans Bootstrap.
L'ensemble de données bootstrap et out-to-bag doivent être créés avec une grande attention car ils sont utilisés pour tester la précision des programmes ou des algorithmes de bagging.
Les algorithmes de bagging génèrent plusieurs arbres de décision et plusieurs ensembles de données, et il y a des chances qu'un objet soit laissé de côté. Faire un arbre est utilisé pour examiner l'ensemble des échantillons qui ont été amorcés.
Qu'est-ce qu'une forêt aléatoire ?
La forêt aléatoire est une technique largement utilisée dans les programmes d'apprentissage automatique. Il est également connu sous le nom d'algorithme d'apprentissage automatique supervisé.
La forêt aléatoire prend plusieurs échantillons différents et construit des arbres de décision pour résoudre le problème lié aux cas de régression et de classification. La majorité tirée des arbres de décision est utilisée pour voter.
Lorsqu'il existe des variables continues dans les cas de classification, les forêts aléatoires aident à gérer l'ensemble de données. La forêt aléatoire est connue pour être un algorithme basé sur un ensemble.
Par ensemble, on peut entendre plusieurs modèles combinés au même endroit. Les ensembles utilisent deux méthodes, et le bagging en est une.
Le second est boostant. Une collection d'arbres de décision forme une forêt aléatoire.
Lorsqu'un programmeur crée des arbres de décision, il doit créer chaque arbre différemment pour conserver la diversité entre les arbres.
Dans une forêt aléatoire, l'espace pour les caractéristiques est réduit puisque chaque arbre ne les considère pas. Les données ou attributs utilisés pour former chaque arbre de décision sont différents les uns des autres.
La fabrication de forêts aléatoires utilise un processeur à fond. Il y a toujours une possibilité de 30 % que l'ensemble des données ne soit pas utilisé ou testé lors de l'utilisation d'une forêt aléatoire.
Les résultats ou sorties dépendent de la majorité fournie par les arbres de décision.
Différences principales entre le bagging et la forêt aléatoire
- Le bagging est utilisé lorsqu'il n'y a pas de stabilité trouvée dans un programme d'apprentissage automatique. Alors que la forêt aléatoire est utilisée pour résoudre les problèmes de régression.
- Bagging voit à travers les arbres de décision pour vérifier les changements nécessaires et les améliorer. D'autre part, les forêts aléatoires créent des arbres de décision en premier lieu.
- Le bagging a été créé en 1996 alors que l'apprentissage automatique était encore en développement, tandis que l'algorithme de forêt aléatoire a été introduit en 2001.
- Le bagging a été développé et amélioré par Leo Breiman pour faciliter l'apprentissage automatique, et après un an, la forêt aléatoire a été introduite en tant que version améliorée également développée par Leo.
- Le bagging est un méta-algorithme basé sur une technique d'ensemble, tandis que la forêt aléatoire est une forme améliorée de bagging.
- https://projecteuclid.org/journals/annals-of-statistics/volume-30/issue-4/Analyzing-bagging/10.1214/aos/1031689014.short
- https://link.springer.com/chapter/10.1007/978-3-642-31537-4_13
Dernière mise à jour : 11 juin 2023
Sandeep Bhandari est titulaire d'un baccalauréat en génie informatique de l'Université Thapar (2006). Il a 20 ans d'expérience dans le domaine de la technologie. Il s'intéresse vivement à divers domaines techniques, notamment les systèmes de bases de données, les réseaux informatiques et la programmation. Vous pouvez en savoir plus sur lui sur son page bio.
L'article était très instructif et donnait un aperçu complet du sujet.
D'accord, j'ai l'impression d'avoir beaucoup appris de cette lecture.
Oui, j'avais beaucoup d'idées fausses sur ces algorithmes et maintenant j'ai l'impression de les comprendre beaucoup mieux.
Les informations fournies ont été vraiment utiles
Oui, je pense que les données étaient vraiment bien triées et que tout était bien expliqué
Le tableau comparatif a bien mis en évidence les particularités des deux techniques. Bon travail!
Je n'ai pas trouvé l'explication assez claire. Il est facile de se perdre dans tous ces détails techniques.
La façon dont l'article décrivait les différences entre Bagging et Random Forest était tout simplement incroyable.
L’article présentait des informations précieuses, mais il était fastidieux de lire tous ces détails.
Je suis d'accord, c'est comme lire un manuel.