A geral do modelo de regressão com n observações e k explanators, a primeira das quais é constante a uma unidade de vetor cujo coeficiente de regressão interseção, é

y = X β + e {\displaystyle y=X\beta +e}

onde y é um n × 1 vetor da variável dependente observações, cada coluna de a, n × k matriz X é um vetor de observações em um dos k explanators, β {\displaystyle \beta } é um k × 1 vetor de verdade coeficientes, e e é um n× 1 vetor do verdadeiro erros subjacentes., O processo estimador de mínimos quadrados de β {\displaystyle \beta } é

X β ^ = y ⟺ {\displaystyle X{\hat {\beta }}=y\iff } X T X β ^ = X T y ⟺ {\displaystyle X^{\operatorname {T} }X{\hat {\beta }}=X^{\operatorname {T} }y\iff } β ^ = ( X T X ) − 1 X T y . {\displaystyle {\hat {\beta }}=(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y.} RSS = e ^ T ^ = ‖ e ^ ‖ 2 {\displaystyle \operatorname {RSS} ={\hat {e}}^{\operatorname {T} }{\hat {e}}=\|{\hat {e}}\|^{2}} ,

(equivalente ao quadrado da norma do resíduo)., Na íntegra:

RSS = y T y − y T X ( X T X ) − 1 X T y = y T y = y T y) {\displaystyle \operatorname {RSS} =y^{\operatorname {T} }y-y^{\operatorname {T} }X(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y=y^{\operatorname {T} }y=y^{\operatorname {T} }y} ,

, onde H é o chapéu de matriz, ou a matriz de projeção na regressão linear.