ogólny model regresji z obserwacjami n i eksplanatorami k, z których pierwszy jest stałym wektorem jednostkowym, którego współczynnik jest przechwyceniem regresji, to

Y = X β + E {\displaystyle Y=X\beta +e}

Gdzie y jest wektorem N × 1 zmiennych zależnych, każda kolumna macierzy N × k x jest wektorem obserwacji na jednym z eksplanatorów k, β {\displaystyle \beta } jest wektorem K × 1 współczynników rzeczywistych, A E jest wektorem N× 1 rzeczywistych błędów podstawowych., Estymator najmniejszych kwadratów dla β {\displaystyle \beta } to

x β ^ = y ⟺ {\displaystyle X {\Hat {\beta }}=y \ iff} X T x β ^ = x T y ⟺ {\displaystyle X^{\operatorname {T} }X {\Hat {\beta}} = X^{\operatorname {t} }y\iff } β ^ = (X T X) – 1 x T y . {\displaystyle {\hat {\beta}} =(X^{\operatorname {T}} X)^{-1}x^{\operatorname {T}} y.} RSS = e ^ T e ^ = ‖ E ^ ‖ 2 {\displaystyle \ operatorname {RSS} ={\hat {e}}^{\operatorname {t}} {\hat {e}}=|/{\hat {e}}\|^{2}} ,

(odpowiednik kwadratu normy rezydualnej)., W całości:

RSS = y t y − y T X ( X T X ) − 1 x T y = y t y = y t y t y {\displaystyle \operatorname {RSS} =y^{\operatorname {T} }y-y^{\operatorname {T} }X(X^{\operatorname {T} }X)^{-1}x^{\operatorname {t} }y=y^{\operatorname {t} }y=y^{\operatorname {t} }y} ,

gdzie H jest macierzą hat lub Macierzą projekcji w regresji liniowej.