Come posso applicare il criterio di informazione Akaike e calcolarlo per la regressione lineare?

Come posso applicare il criterio di informazione Akaike e calcolarlo per la regressione lineare?

Una semplice formula per il calcolo dell’AIC nel OLS quadro (dal momento che si dice di regressione lineare) può essere trovato nel Gordon (2015, pag. 201):

$$\text{AIC} = n *\ln\Big(\frac{SSE}{n}\Big)+2k $$

Dove SSE significa Somma degli Errori al Quadrato ($\sum(Y_i-\hat Y_i)^2$), $n$ è la dimensione del campione, e $k$ è il numero di predittori del modello più uno per l’intercetta., Sebbene i valori AIC non siano generalmente interpretabili, le differenze tra i valori per i diversi modelli possono essere interpretate (una serie di domande sul CV copre questo problema, ad esempio qui). Quindi, il modello con il più piccolo AIC viene solitamente selezionato. È facile capire perché questo è il caso nella formula sopra: tutto il resto è uguale, mentre l’SSE diminuisce, anche l’AIC diminuisce.

In altre fonti, è possibile trovare una formula più generale di massima verosimiglianza., Ad esempio, nell’analisi di regressione applicata e nei modelli lineari generalizzati, Fox fornisce:

text\text{AIC}_j \equiv – \text{log}_eL(\hat \theta_j)+2s_j Fox

Fox, J. (2016). Analisi di regressione applicata e modelli lineari generalizzati (3a ed.). Los Angeles: Sage Publications.

Gordon, R. A. (2015). Analisi di regressione per le Scienze Sociali. New York e Londra: Routledge.

E l’articolo originale:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *