OLS vs MLE: differenza e confronto

In statistica ci sono diversi concetti che ci aiutano a raggiungere un particolare risultato. I dati statistici possono variare da contenuto a contenuto e da quantità a quantità.

La statistica è un tipo di ramo che ci aiuta ad acquisire un'idea approssimativa riguardo a un evento in corso. Ci aiuta a prevedere i risultati e quindi a prendere decisioni in merito.

L'analisi statistica viene eseguita sulla base di vari dati raccolti durante un determinato evento o dopo di esso. Tuttavia, vari tipi di dati vengono analizzati utilizzando vari tipi di concetti.

Due di questi concetti sono 1. OLS o minimi quadrati ordinari e 2. MLE o stima di massima verosimiglianza.

Punti chiave

  1. Ordinary Least Squares (OLS) è un metodo statistico per stimare i modelli di regressione lineare minimizzando la somma degli errori al quadrato.
  2. La stima della massima verosimiglianza (MLE) è una tecnica statistica che stima i parametri massimizzando la funzione di verosimiglianza.
  3. OLS è specifico per la regressione lineare, mentre MLE può essere applicato a vari modelli statistici.

OLS contro MLE

OLS stima i parametri che minimizzano la somma dei quadrati dei residui, mentre MLE stima i parametri che massimizzano la verosimiglianza dei dati osservati. OLS è un metodo più semplice e intuitivo, mentre MLE può gestire modelli più complessi ed essere più efficiente in piccoli campioni.

OLS contro MLE

Il metodo utilizzato per calcolare e stimare i parametri sconosciuti presenti in una determinata lineare regressione modello è noto come minimi quadrati ordinari (OLS). È un metodo in cui il numero di errori è equamente distribuito.

È una delle tecniche più coerenti quando i regressori nel modello hanno origine esterna.

Il metodo in statistica utilizzato per stimare diversi parametri quando si assume la distribuzione di probabilità dei dati statistici osservati è noto come stima di massima verosimiglianza (MLE).

La stima di massima verosimiglianza è il punto nello spazio dei parametri che massimizza la funzione di verosimiglianza.

Tavola di comparazione

Parametri di confrontoOLSMLE
Moduli completiMinimi quadrati ordinari.Stima di massima verosimiglianza.
Conosciuto anche comeMinimi quadrati lineariNessun altro nome
Usato perIl metodo dei minimi quadrati ordinari viene utilizzato per la determinazione di vari parametri sconosciuti presenti in un modello di regressione lineare. La stima di massima verosimiglianza è il metodo utilizzato per 1. Stima dei parametri 2. Adattamento di un modello statistico ai dati statistici.
Scoperto daAdrian Marie LegendreIl concetto è stato derivato collettivamente con l'aiuto dei contributi di Gauss, Hagen e Edgeworth.
svantaggiNon è disponibile e applicabile ai dati statistici censurati. Non può essere applicato a dati con valori estremamente grandi o estremamente piccoli. Ci sono relativamente meno proprietà di ottimalità in questo concetto.Durante il calcolo di dati statistici che hanno valori estremamente piccoli, il metodo di stima della massima verosimiglianza può essere piuttosto distorto, in alcuni casi potrebbe essere necessario risolvere in modo specifico le equazioni di verosimiglianza, a volte la stima dei valori numerici può essere non banale.

Cos'è l'OLS?

Il metodo utilizzato per calcolare e stimare i parametri sconosciuti presenti in un certo modello di regressione lineare è noto come minimi quadrati ordinari (OLS). La scoperta di questo concetto nel mondo della statistica è stata fatta da Adrien Marie Legendre.

Leggi anche:  Cerchio vs Sfera: differenza e confronto

I quadri in cui si applicano i minimi quadrati ordinari possono variare.

È necessario selezionare un quadro appropriato in cui i minimi quadrati ordinari possono essere espressi in un particolare modello di regressione lineare per scoprire i parametri sconosciuti situati nello stesso.

Uno degli aspetti di questo concetto che è differenziale è se trattare i regressori come variabili casuali o come costanti con valori predefiniti.

Se i regressori sono trattati come variabili casuali, allora lo studio può essere più innato e le variabili possono essere campioni insieme per un collettivo studio osservazionale. Ciò porta ad alcuni risultati relativamente più accurati.

Tuttavia, se i regressori sono trattati come costanti con valori predefiniti, allora lo studio è considerato relativamente più simile a un esperimento.

Esiste un altro modello di regressione lineare classico in cui l'accento è posto sui dati campione che sono finiti. Ciò porta alla conclusione che i valori nei dati sono limitati e fissi e la stima dei dati viene effettuata sulla base dei dati fissi.

Inoltre inferenza della statistica è anche calcolata in un metodo relativamente più semplice.

Che cos'è MLE?

Il metodo in statistica utilizzato per stimare diversi parametri quando si assume la distribuzione di probabilità dei dati statistici osservati è noto come stima di massima verosimiglianza (MLE).

Ha proprietà relativamente più ottimali rispetto a molti altri concetti utilizzati per calcolare i parametri sconosciuti in vari modelli statistici.

La stima iniziale viene effettuata sulla base della funzione di verosimiglianza di base dei dati del campione statistico.

Leggi anche:  Preterito vs imperfetto: differenza e confronto

La previsione approssimativa dei dati è fatta come l'insieme di dati, e la sua probabilità è anche la probabilità di ottenere un insieme di dati simile per il dato modello statistico di probabilità. 

L'intera previsione approssimativa dell'insieme di dati è costituita da vari parametri sconosciuti che si trovano nel modello di probabilità. Questi valori o questi parametri sconosciuti massimizzano la verosimiglianza dell'insieme di dati.

Questi valori sono noti come stime di massima verosimiglianza. Esistono diverse funzioni di verosimiglianza utili anche per le distribuzioni utilizzate comunemente nell'analisi dell'affidabilità.

Esistevano modelli censurati in base ai quali vengono calcolati i dati censurati nell'analisi dell'affidabilità e il concetto di stima della massima verosimiglianza può essere utilizzato per fare lo stesso.

Vari parametri possono essere stimati utilizzando questo concetto in quanto fornisce un approccio relativamente più coerente nei suoi confronti.

Utilizzando questo concetto è possibile generare diversi insiemi di ipotesi per i parametri nei dati. Contiene approssimativamente sia distribuzioni normali che varianze campionarie.

Principali differenze tra OLS e MLE

  1. Il metodo OLS è il metodo ordinario dei minimi quadrati. D'altra parte, il metodo MLE è la stima di massima verosimiglianza.
  2. Il metodo dei quadrati lineari ordinari è anche noto come metodo dei minimi quadrati lineari. D'altra parte, il metodo della massima verosimiglianza non ha altro nome con cui sia conosciuto.
  3. Il metodo dei minimi quadrati ordinari ha relativamente meno proprietà ottimali. D'altra parte, la stima di massima verosimiglianza ha proprietà comparativamente più ottimali.
  4. Il metodo ordinario dei minimi quadrati non può essere utilizzato per i dati censurati. D'altra parte, il metodo di stima della massima verosimiglianza può essere utilizzato per i dati censurati.
  5. Il metodo dei minimi quadrati ordinari viene utilizzato per la determinazione di vari parametri sconosciuti presenti in un modello di regressione lineare. D'altra parte, la stima di massima verosimiglianza è il metodo utilizzato per 1. Stima dei parametri 2. Adattamento di un modello statistico ai dati statistici.
Riferimenti
  1. https://methods.sagepub.com/base/download/BookChapter/the-multivariate-social-scientist/d49.xml
  2. https://rss.onlinelibrary.wiley.com/doi/abs/10.1111/j.2517-6161.1961.tb00430.x

Ultimo aggiornamento: 13 luglio 2023

punto 1
Una richiesta?

Ho messo così tanto impegno scrivendo questo post sul blog per fornirti valore. Sarà molto utile per me, se pensi di condividerlo sui social media o con i tuoi amici/familiari. LA CONDIVISIONE È ♥️

Lascia un tuo commento

Vuoi salvare questo articolo per dopo? Fai clic sul cuore nell'angolo in basso a destra per salvare nella casella dei tuoi articoli!