Una simple fórmula para el cálculo de la AIC en el OLS marco (ya que dicen regresión lineal) se puede encontrar en Gordon (2015), pág. 201):
$$\text{AIC} = n *\ln\Big(\frac{ESS}{n}\Big)+2k $$
Donde ESS significa la Suma de los Cuadrados de los Errores ($\sum(Y_i-\hat Y_i)^2$), $n$ es el tamaño de la muestra, y $k$ es el número de predictores en el modelo más uno para la intercepción., Aunque los valores de AIC no son generalmente interpretables, las diferencias entre los valores para diferentes modelos pueden interpretarse (una serie de preguntas en CV cubre este tema, por ejemplo aquí). Por lo tanto, el modelo con el AIC más pequeño generalmente se selecciona. Es fácil ver por qué este es el caso en la fórmula anterior: todo lo demás es igual, a medida que disminuye la SSE, AIC también disminuye.
En otras fuentes, puede encontrar una fórmula más general de máxima verosimilitud., Por ejemplo, en Análisis de regresión aplicada y modelos lineales generalizados, Fox proporciona:
\ \ text {AIC} _j \ equiv – \text {log} _el (\hat \theta_j)+2s_j Fox
Fox, J. (2016). Applied Regression Analysis and Generalized Linear Models (3rd ed.). Los Angeles: Sage Publications.
Gordon, R. A. (2015). Análisis de regresión para las Ciencias Sociales. New York and London: Routledge.
Y el artículo original: