Hvorfor anvendes den almindelige minimale kvadratmetode i en lineær regression?

Hvorfor anvendes den almindelige minimale kvadratmetode i en lineær regression?
Anonim

Svar:

Hvis Gauss-Markof-antagelserne holder, giver OLS den laveste standardfejl af en lineær estimator, så den bedste lineære, objektive estimator

Forklaring:

I betragtning af disse antagelser

  1. Parameter-koefficienter er lineære, det betyder bare det # beta_0 og beta_1 # er lineære, men den #x# variabel behøver ikke at være lineær, det kan være # X ^ 2 #

  2. Dataene er taget fra en tilfældig prøve

  3. Der er ingen perfekt multikollinearitet, så to variabler er ikke perfekt korrelerede.

  4. #E (u #/#x_j) = 0 # Middelbetinget forudsætning er nul, hvilket betyder at # X_j # variabler giver ingen oplysninger om gennemsnittet af de observerede variabler.

  5. Afvigelserne er ens for et givet niveau af #x# dvs. #var (u) = sigma ^ 2 #

Så er OLS den bedste lineære estimator i populationen af lineære estimatorer eller (Best Linear Unbiased Estimator) BLUE.

Hvis du har denne yderligere antagelse:

  1. Afvigelserne fordeles normalt

Så bliver OLS estimatoren den bedste estimator, uanset om det er en lineær eller ikke-lineær estimator.

Hvad dette i det væsentlige betyder er, at hvis antagelserne 1-5 holder, giver OLS den laveste standardfejl af en lineær estimator, og hvis 1-6 holder, giver den den laveste standardfejl for enhver estimator.