Lineáris regresszió
A lineáris regresszió a kétváltozós regresszió legegyszerűbb formája. Egy vagy több független változó hatását vizsgálja egy függő változóra. Az eljárás során az adatainkhoz legjobban illeszkedő egyenest - angolul: best fit regression line - keressük. Tehát egy olyan vonalat kell húzzunk, amely a mérési pontoktól a lehető legkisebb távolságra van. Az SPSS programcsomag több módszert is felkínál ezen egyenes megtalálására, azonban ezek közül a legelterjedtebb a legkisebb négyzetek módszere - angolul: least squares method.
A lineáris regresszió fő kérdése, hogy mi az a lineáris függvény segítségével megadható szabály, amellyel az egyik változó (x) értékét megismerve előrejelzést tehetünk egy másik változó (y) értékére vonatkozóan (regressziós függvény).
Az ábrázolás során a koordináta-tengely vízszintes tengelyére a független változók értékeit tüntetjük fel, míg a függőleges tengelyen a függő változó értékeit ábrázoljuk. A regressziós egyenlet a kapcsolat összegzésére használható.
Regression - Linear: egy- és többváltozós lineáris regressziót hajt végre. A célváltozót vagy függő változót (dependent variable) egy vagy több független változó (independents) lineáris függvényeként írja le. Az együtthatókat a legkisebb négyzetek elvével határozza meg. Az összefüggésben résztvevő változók kiválasztására különböző modellek alkalmazhatóak.
A lineáris regresszió előfeltételei
A függő változónak normális eloszlásúnak kell lennie.
A függő változó szórása nem függhet össze a független változóval.
Mikor használjuk?
Amikor több mennyiségi változó közötti kapcsolatot szeretnénk megvizsgálni.