el modelo de regresión general con n Observaciones y explicadores k, el primero de los cuales es un vector unitario constante cuyo coeficiente es la intersección de regresión, es
y = x β + e {\displaystyle Y=X\beta +e}
donde y es un vector n × 1 de observaciones de variables dependientes, cada columna de la matriz N × k X es un vector de observaciones en uno de los explicadores k, β {\displaystyle \beta } es un vector K × 1 de coeficientes verdaderos, y e es un vector n× 1 de los errores subyacentes verdaderos., El estimador de mínimos cuadrados ordinarios para la beta {\displaystyle \beta } es
X β ^ = y ⟺ {\displaystyle X{\hat {\beta }}=y\iff } X T X β ^ = X T y ⟺ {\displaystyle X^{\operatorname {T} }X{\hat {\beta }}=X^{\operatorname {T} }y\iff } β ^ = ( X T X ) − 1 X T y . {\displaystyle {\hat {\beta }}=(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y.} RSS = e ^ T e ^ = ‖ e ^ ‖ 2 {\displaystyle \operatorname {RSS} ={\hat {e}}^{\operatorname {T} }{\hat {e}}=\|{\hat {e}}\|^{2}} ,
(equivalente al cuadrado de la norma de residuos)., En total:
RSS = y T − y T X ( X T X ) − 1 X T y = y T y = y T y {\displaystyle \operatorname {RSS} =y^{\operatorname {T} }y-y^{\operatorname {T} }X(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y=y^{\operatorname {T} }y=y^{\operatorname {T} }y} ,
, donde H es el sombrero de la matriz, o de la matriz de proyección en la regresión lineal.