den allmänna regressionsmodellen med n-observationer och k-explanatorer, varav den första är en konstant enhetsvektor vars koefficient är regressionsinterceptet, är
y = X β + e {\displaystyle y=X\beta +e}
där y är en n × 1-vektor av beroende variabla observationer, är varje kolumn i n × k-matrisen X en vektor av observationer på en av k-explanatorerna, β {\displaystyle \beta } är en K × 1-vektor av sanna koefficienter, och e är en n× 1 vektor av de sanna underliggande felen., The ordinary least squares estimator för β {\displaystyle \ beta } är
X β ^ = y {\displaystyle X {\hat {\beta }}=y \ iff } X T X β ^ = x t y {\displaystyle X^{\operatorname {T} }x {\hat {\beta }} = x^{\operatorname {t} }y \ iff } β ^ = ( X T X ) − 1 x t y . {\displaystyle {\hat {\beta }} =(X^{\operatorname {T} }X)^{-1}x^{\operatorname {t}} y.} RSS = e ^ t e ^ = e ^ 2 {\displaystyle \ operatorname {RSS} ={\hat {e}}^{\operatorname {t} } {\hat {e}} = | / {\hat {e}}\|^{2}} ,
(motsvarar kvadraten av normen för residualer)., I sin helhet:
RSS = y t y − y T X ( X T X ) − 1 X t y = y t y = y t y {\displaystyle \operatorname {RSS} =y^{\operatorname {t} }y-y^{\operatorname {T} }X(X^{\operatorname {T} }X)^{-1}x^{\operatorname {t} }y=y^{\operatorname {t} }y=y^{\operatorname {t} }y = y ^ {\operatorname {t}} y},
där H är Hattmatrisen eller Projektionsmatrisen i linjär regression.