Svečias
Titulinis Mokymai Mokymų medžiaga Metodologiniai paketai Taikomoji regresija
Apie mokymus
Mokomieji duomenys
E. mokymai
TAIKOMOJI REGRESINĖ ANALIZĖ SOCIALINIUOSE TYRIMUOSE
TAIKOMOJI REGRESINĖ ANALIZĖ SOCIALINIUOSE TYRIMUOSE

Pavyzdinis metodologinis mokomasis studijų paketas

TAIKOMOJI REGRESINĖ ANALIZĖ SOCIALINIUOSE TYRIMUOSE

Autorus Prof. habil. dr. Vydas Čekanavičius

Ankstesnis dokumentas Turinys  Literatūros sąrašas Duomenų šaltiniai Sekantis dokumentas

3. TIESINĖS REGRESIJOS ALTERNATYVOS
3.5. Netiesinė regresija
     3.5.2. Netiesinė regresija su SPSS

Pasirinksime jau tiesinėje regresijoje nagrinėtą respondentų pasitikėjimo politiniu šalies klimatu satisfaction priklausomybės nuo pasitikėjimo  svarbiausiomis valstybės institucijomis trust_all tyrimą (A duomenys). Tirsime 35 – 40 m Estijos vyrus (agea >= 35 & agea <= 40 & gndr = 1). Pasirenkame tokį modelį su trimis nežinomais parametrais a, b, c:

.

Kodėl pasirinkome tokią modelio išraišką? Mes jau žinome, kad duomenims tinka tiesinė regresija. Pasirinkome modelį, kuris tik truputį bendresnis. Jeigu b = 0, tai faktiškai gauname tiesinę regresiją. Šią informaciją išnaudojame, pasirinkdami pradines reikšmes a = 1, b = 0, c = 1.
Renkamės Analyze → Regression → Nonlinear. Atsidariusiame lange kintamąjį satisfaction įkeliame į laukelį Dependent. Langelyje Model Expression įrašome modelio išraišką su visomis nežinomomis konstantomis: exp(a+b*trust_all) +c*trust_all.

Paspaudę Parameters surašome nežinomus parametrus ir jų pradines reikšmes. Renkamės Continue. Pasirenkame Save. Pažymime Predicted values ir Residuals. Renkamės Continue .

Jeigu norėtume apriboti galimas parametrų reikšmes (pvz., c > 0), tai būtų galima padaryti, pasirinkus Constraints.

Rezultatų išklotinė prasideda nuo iteracijų istorijos. Joje matyti, kaip vis kartojant skaičiavimus keitėsi parametrų reikšmės. Procesas nutraukiamas, kai parametrų reikšmės stabilizuojasi. Čia galima sulaukti informacijos apie netikusius parametrų pasirinkimus (neigiamo skaičiaus logaritmavimą ir pan.) . Lentelėje Parameter Estimates  pateikiami parametrų įverčiai.

Parameter Estimates

Parameter

Estimate

Std. Error

95% Confidence Interval

Lower Bound

Upper Bound

a

.237

.538

-.837

1.311

b

.199

.030

.139

.260

c

.279

.392

-.504

1.063

Matome, kad b = 0,199 nors ir netoli nulio, bet jam nelygus. Jeigu nuspręstume, kad modelis tinkamas, šiuos įverčius įstatytume į modelio išraišką. Kitoje lentelėje surašyti parametrų koreliacijų įverčiai. Matome, kad c ir a stipriai koreliuoja. Galbūt, reikėtų ištirti modelį be vieno iš šių parametrų.

Correlations of Parameter Estimates

 

a

b

c

A

1.000

-.160

-.944

B

-.160

1.000

-.158

C

-.944

-.158

1.000

Kita lentelė ANOVA su ANOVA tiesiogiai sietųsi, jeigu tirtume tiesinę priklausomybę. SPSS nepateikia jokių p reikšmių, nes netiesiniame modelyje nelabai šiuo kriterijumi galima tikėti, ypač nedidelėms imtims. Dažniausiai visus užganėdina R2 suradimas. Mūsų atveju R2 = 0,571, pakankamai didelis.

ANOVAa

Source

Sum of Squares

df

Mean Squares

Regression

1548.629

3

516.210

Residual

155.121

67

2.315

Uncorrected Total

1703.750

70

 

Corrected Total

361.718

69

 

Dependent variable: satisfaction

a. R squared = 1 - (Residual Sum of Squares) / (Corrected Sum of Squares) = .571.

Vis dėlto, aklai pasitikėti vieninteliu R2 negalima. Pabandysime vizualiai palyginti tikras satisfaction reikšmes su gautomis, naudojant modelį. Spaudžiame Graphs → Legacy Dialogs → Line.  Pažymime Multiple  ir Values of individual cases. Spaudžiame Define.

Atsidariusiame lange perkeliame satisfaction ir PRED_  į laukelį Lines Represent.


Spaudžiame OK. Gauname tikrųjų ir progozuotų reikšmių grafikus. Kuo geresnis prognozavimas, tuo labiau šie grafikai sutampa. Paredagavome grafiką taip, kad kreivės būtų skirtingo storio. Matome, kad modelis gana gerai tinka.

Labai norint įsitikinti liekamųjų paklaidų normalumu (tada labiau galima pasitikėti R2), galima pritaikyti Šapiro – Vilko testą. Jį aprašėme tiesinės regresijos skyriuje. Surinkę Analyze → Descriptive Statistics → Explore → Plots, pažymėję Normality plots with tests, į Dependent List įkeliame RESID ir spaudžiame OK. Gautasis Šapiro – Vilko testas rodo, kad liekanas galima laikyti normaliomis (p =  0,792 >  0,05). Tą patį leidžia teigti ir Q-Q grafikas. Tai kvantilių grafikas, kuris vertinamas analogiškai P-P grafikui: kuo taškai arčiau tiesės, tuo liekamosios paklaidos normalesnės.

Tests of Normality

 

Kolmogorov-Smirnova

Shapiro-Wilk

Statistic

df

Sig.

Statistic

df

Sig.

RESID Residuals

.055

70

.200*

.989

70

.792

a. Lilliefors Significance Correction
*. This is a lower bound of the true significance.

Gavome, kad siūlomas modelis pakankamai gerai tinka duomenims. Ar tai reiškia, kad jau galima užmiršti analogišką tiesinės regresijos modelį? Jokiu būdu. Nerašyta taisyklė skelbia, jeigu yra keli daugiau mažiau vienodai gerai tinkantys modeliai, tai naudotinas paprastesnis. Reikėtų užmesti akį į tiesinės regresijos prognozių grafiką, ir tik tada apsispręsti.

Jeigu yra keli, vienodai tinkantys modeliai, tai pranašesniu laikomas paprastesnis modelis.

NAUJIEMS VARTOTOJAMS
NAUJIENOS
Naujienlaiškis

Nr.1  2009 07-11
Nr.2  2009 12-2010 02
Nr.3  2010 03-05
Nr.4  2010 06-08
Nr.5  2010 09-11
Nr.6  2010 12-2011 02
Nr.7 2011 03-05
Nr.8 2011 06-08
 
© KTU Politikos ir viešojo administravimo institutas
Atnaujinta 2015-06-18