Regresi Linear dengan SPSS

Regresi linear bertujuan untuk memodelkan nilai dari variabel independen yang berskala rasio atau interval. Model ini didasarkan dengan hubungan secara linear dengan variabel dependennya. Oleh karena itu data haruslah linear, normal dan bebas outlier. Artinya uji parametrik harus dilakukan sebelum menggunakan permodelan ini. Beberapa penulis menyatakan model adalah semu jika uji parametrik tidak dilakukan.

SPSS (Statistical Package For Social Science) dapat membantu dalam proses menghitung dan menetapkan level signifikannya. Prosesnya adalah sebagai berikut:
  1. Siapkan data dan variabel-variabel yang menjadi perhatian kita. Secara logis dan lebih baik ada pengalaman empiris sudah pernah ada yang membuktikan
  2. Klik menu SPSS: Analyze > Regression > Linear
  3. Selanjutnya input variabel yang akan dianalisa
  4. Setelah itu pada menu statistics conteng: Model fit, R Squared Change, Part and Partial Correlation, Collinearity Diagnostics.
  5. Bila ingin otomatis menghilangkan pengaruh outlier dapat diconteng Casewise Diagnostics---outlier outside :  (isikan sesuai aturan ilmiah/silahkan cek juga di web ini pada laman outlier)
Hasilnya ada beberapa tabel. 

Tabel Anova:
Tabel ini berisi nilai F hitung dan nilai signifikannya: nilai signifikan bila bernilai dibawah nilai alfa yang ditetapkan-umumnya 0,05 maka model mampu menjelaskan variabel dependen. Hal ini mengindikasikan bahwa model lebih baik digunakan daripada menebak variabel dependen.

Tabel Model Summary:
Tabel ini berisi nilai Koefisien determinasi. Nilai koefisien determinasi dengan simbol R Square. Ini menunjukkan kemampuan model dalam menjelaskan variabel dependen. Sisanya dijelaskan variabel lain yang tidak masuk dalam penelitian saat ini. Adjusted R Square digunakan ketika akan membanding dua model penelitian untuk variabel dependen yang sama. 

Tabel Coefficient:
Tabel ini berisi nilai t hitung dan signifikannya. Kriteria signifikan adalah sama yaitu nilai signifikan di tabel harus dibawah nilai alfa atau bisanya 0,05. Bila banyak variabel, nilai yang tidak signifikan cenderung bermakna variabel tidak berkontribusi banyak pada model. Artinya berpengaruh tidak signifikan (bukan tidak berpengaruh).
Tabel ini juga berisi Standardized Coefficient. Ini menunjukkan kontribusi variabel independen terhadap model regresi. Lumrah terjadi bahwa nilai koefisien unstandardized tinggi namun kontibusinya rendah, karena nilai absolute standardized coefficicientnya lebih tinggi. Biasanya nilai ini menjelaskan variabel yang dominan.
Tabel ini juga berisi correlations: Zero order, partial and part. Ini menunjukkan adanya multikolinearitas. Bila zero order sampai part menurun tajam maka ada indikasi multikolinearitas. Artinya kemampuan variabel terkait (bila menurun tajam zero order- part) juga dijelaskan oleh variabel lain dalam model tersebut.
Tabel ini juga menjelaskan Collinearity Statistics. Nilai Tolerance menunjukkan kemampuan menjelaskan variabel terkait. Bila rendah maka porsi sisanya dijelaskan variabel lain dalam model regresi terkait. Artinya nilai tolerance mendekati nol (0) maka model cenderung terkena multikolinearitas. Nilai VIF (Variance Inflation Factor) yang melebihi dua (2) maka merupakan masalah mulkolinearitas.

Tabel Collinearity Diagnostics
Tabel ini berisi eigenvalue. Nilai ini bila mendekati nol (0) maka cenderung indikasi variabel independen saling berhubungan yang tinggi. Perubahan kecil pada akan merubah besar pada dugaan koefisien variabel dependen. Condition Index menunjukkan koliniearitas bila nilai lebih dari 15.
Bila terkena multikolinearitas cenderung disarankan merunning regresi dengan trasnformasi variabel independen kedalam nilai Z.
Bersambung.....
Based on SPSS 22 Case Studies


 

Komentar