Een bepaalde procedure om rekenproblemen op te lossen staat bekend als een algoritme. Er zijn verschillende soorten algoritmen.
Bij het programmeren heeft de ontwikkeling van algoritmen een andere waarde dan welke andere techniek dan ook. Een programma heeft een aantal beste algoritmen nodig om effectief te kunnen werken.
bagging en Random Forest zijn ook twee soorten algoritmen.
Key Takeaways
- Bagging, of bootstrap-aggregatie, is een techniek die meerdere modellen gebruikt om voorspellingsvariantie te verminderen. Tegelijkertijd is het willekeurige bos een ensemble-leermethode die het bagging-concept uitbreidt door een willekeurige functieselectie toe te voegen voor elke beslissingsboom.
- Bagging richt zich op het verminderen van overfitting door het gemiddelde te nemen van de voorspellingen van meerdere beslissingsbomen, terwijl willekeurig bos de voorspellende nauwkeurigheid probeert te verbeteren door willekeur in de constructie van bomen te introduceren.
- Beide technieken maken gebruik van de kracht van meerdere leerlingen, maar willekeurig bos presteert beter dan het inpakken vanwege de extra laag van willekeur tijdens het bouwen van bomen.
Zakken versus willekeurig bos
Bagging (Bootstrap Aggregating) is een methode om meerdere modellen (beslissingsbomen) te bouwen op willekeurige subsets van de trainingsgegevens en vervolgens hun voorspellingen te combineren door middel van middeling of stemmen. Random Forest is een uitbreiding van Bagging die meerdere beslissingsbomen combineert om een bos te vormen.
Bagging is een meta-algoritme dat is ontworpen om de nauwkeurigheid en stabiliteit van machine learning-algoritmen die worden gebruikt bij de classificatie van de termen statistisch en regressie.
Een andere naam voor bagging is bootstrap-aggregatie. Het is een zeer nuttige techniek om een computerprogramma te verbeteren.
Random forest is ook een algoritme dat bekend staat als Supervised Machine Learning Algorithm, dat ook is ontworpen om de nauwkeurigheid en stabiliteit in de term regressie te verbeteren. Programmeurs gebruiken dit algoritme op grote schaal om regressieproblemen op te lossen.
Deze techniek werkt door beslisbomen te bouwen voor verschillende steekproeven. Het verwerkt ook datasets die continue variabelen bevatten.
Vergelijkingstabel
Vergelijkingsparameters | bagging | Willekeurig bos |
---|---|---|
Jaar | Bagging werd geïntroduceerd in het jaar 1996, bijna 2 decennia geleden. Willekeurig bos werd geïntroduceerd. | Het algoritme, random forest, werd geïntroduceerd in het jaar 2001. |
Inventor | Het bagging-algoritme is gemaakt door een man genaamd Leo Breiman. | Na het succesvolle resultaat van het inpakken creëerde Leo Breiman een verbeterde versie van bootstrap-aggregatie, willekeurig bos. |
Gebruik | Om de stabiliteit van het programma te vergroten, wordt bagging gebruikt door beslissingsbomen. | De techniek willekeurig bos wordt gebruikt om de problemen met betrekking tot classificatie en regressie op te lossen. |
Doel | Het belangrijkste doel van bagging is het trainen van ongesnoeide beslissingsbomen die bij de verschillende zonsondergangen horen. | Het belangrijkste doel van willekeurig bos is om meerdere willekeurige bomen te maken. |
Resultaat | Het bagging-algoritme geeft het resultaat van een machine learning-model met nauwkeurige stabiliteit. | Het resultaat van willekeurig bos is de robuustheid tegen het overfittingprobleem in het programma. |
Wat is baggeren?
Bagging is een algoritme dat door veel programmeurs wordt gebruikt bij machine learning. De andere naam waaronder bagging bekend staat, is bootstrap aggregatie.
Het is gebaseerd op een ensemble en is een meta-algoritme. Bagging wordt gebruikt in computerprogramma's om hun nauwkeurigheid en stabiliteit te vergroten.
De beslisboommethode heeft ook het inpakken aangepast.
Bagging kan worden beschouwd als een modelmiddelingsbenadering voor speciale gevallen. Wanneer er sprake is van overfitting in een programma en een toename van het aantal varianties, wordt bagging gebruikt om de nodige hulp te bieden om deze problemen op te lossen.
Het aantal gevonden datasets bij het inpakken is drie, dit zijn bootstrap, originele en out-to-bag datasets. Wanneer het programma willekeurige objecten uit de dataset kiest, leidt dit proces tot het maken van een bootstrap-database.
In de out-to-bag dataset vertegenwoordigt het programma de resterende objecten die in Bootstrap zijn achtergebleven.
De bootstrap-dataset en out-to-bag moeten met grote aandacht worden gemaakt, aangezien ze worden gebruikt om de nauwkeurigheid van programma's of bagging-algoritmen te testen.
Bagging-algoritmen genereren meerdere beslissingsbomen en meerdere datasets, en de kans is groot dat een object wordt weggelaten. Om een boom te maken wordt gebruikt om de set monsters te onderzoeken die zijn opgestart.
Wat is willekeurig bos?
Random forest is een techniek die veel wordt gebruikt in machine learning-programma's. Het staat ook bekend als het Supervised Machine Learning-algoritme.
Random forest neemt meerdere verschillende steekproeven en bouwt beslissingsbomen om het probleem met betrekking tot regressie- en classificatiegevallen op te lossen. De meerderheid uit de beslisbomen wordt gebruikt om te stemmen.
Wanneer er continue variabelen zijn in classificatiegevallen, bieden willekeurige forests hulp bij het verwerken van de dataset. Random forest staat bekend als een op ensembles gebaseerd algoritme.
Onder ensemble kan men meerdere modellen verstaan die op dezelfde plaats zijn gecombineerd. Ensembles gebruiken twee methoden, en bagging is er een van.
De tweede is aan het boosten. Een verzameling beslisbomen vormt een willekeurig bos.
Wanneer een programmeur beslisbomen maakt, moet hij elke boom anders maken om diversiteit tussen bomen te behouden.
In een willekeurig bos wordt de ruimte voor kenmerken verkleind omdat elke boom ze niet in overweging neemt. De gegevens of attributen die worden gebruikt om elke beslissingsboom te vormen, verschillen van elkaar.
Het maken van willekeurige forests gebruikt grondig een CPU. Er is altijd een kans van 30% dat de volledige gegevens niet worden gebruikt of getest tijdens het werken door een willekeurig bos.
De resultaten of output zijn afhankelijk van de meerderheid die wordt geleverd door beslisbomen.
Belangrijkste verschillen tussen zakken en willekeurig bos
- Bagging wordt gebruikt wanneer er geen stabiliteit wordt gevonden in een machine learning-programma. Terwijl het willekeurige bos wordt gebruikt om problemen met betrekking tot regressie aan te pakken.
- Bagging doorziet de beslisbomen om noodzakelijke wijzigingen te controleren en te verbeteren. Aan de andere kant creëren willekeurige forests in de eerste plaats beslissingsbomen.
- Bagging is ontstaan in 1996 toen machine learning nog in ontwikkeling was, terwijl het random forest-algoritme in 2001 werd geïntroduceerd.
- Bagging is ontwikkeld en verbeterd door Leo Breiman om machinaal leren gemakkelijker te maken, en na een jaar werd het willekeurige bos geïntroduceerd als een verbeterde versie die ook door Leo was ontwikkeld.
- Bagging is een meta-algoritme dat is gebaseerd op een ensembletechniek, terwijl het willekeurige bos een verbeterde vorm van bagging is.
- https://projecteuclid.org/journals/annals-of-statistics/volume-30/issue-4/Analyzing-bagging/10.1214/aos/1031689014.short
- https://link.springer.com/chapter/10.1007/978-3-642-31537-4_13
Laatst bijgewerkt: 11 juni 2023
Sandeep Bhandari heeft een Bachelor of Engineering in Computers van Thapar University (2006). Hij heeft 20 jaar ervaring op het gebied van technologie. Hij heeft een grote interesse in verschillende technische gebieden, waaronder databasesystemen, computernetwerken en programmeren. Je kunt meer over hem lezen op zijn bio pagina.
Het artikel was zeer informatief en gaf een uitgebreid overzicht van het onderwerp.
Akkoord, ik heb het gevoel dat ik veel heb geleerd van dat lezen.
Ja, ik had veel misvattingen over deze algoritmen en nu heb ik het gevoel dat ik ze veel beter begrijp.
De verstrekte informatie was erg nuttig
Ja, ik denk dat de gegevens heel goed gesorteerd waren en dat alles goed werd uitgelegd
De vergelijkingstabel benadrukte echt de onderscheidende kenmerken van de twee technieken. Goed werk!
Ik vond de uitleg niet duidelijk genoeg. Het is gemakkelijk om te verdwalen in al deze technische details.
De manier waarop het artikel de verschillen tussen Bagging en Random Forest beschreef, was gewoonweg verbazingwekkend.
Het artikel bevatte waardevolle informatie, maar het was vervelend om al die details door te lezen.
Ik ben het ermee eens, het is alsof je een leerboek leest.