Uji Asumsi Klasik
Uji asumsi klasik adalah
persyaratan statistik yang harus dipenuhi pada analisis regresi linear
bergandayang berbasis ordinary least square (OLS). Jadi analisis regresi
yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik,
misalnya regresi logistik atau regresi ordinal.
Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis
regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis
regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data
cross sectional.
Uji asumsi klasik juga
tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk
menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang
dihitung dengan market model, atau market adjusted model. Perhitungan nilai
return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak
perlu diuji asumsi klasik.
Uji asumsi klasik yang
sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji
normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti
tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan
tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap
semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan.
Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi
persyaratan, dilakukan pengujian pada uji yang lain.
1. Uji Normalitas
Uji normalitas adalah untuk melihat
apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik
adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas
bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya.
Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada
masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan
normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara
sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh
sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada
kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak
normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang
pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan.
Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim
tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai
rata-rata, modus dan median relatif dekat.
Uji normalitas dapat
dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan
Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau
paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering
menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan
uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak
ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian
dengan metode grafik.
Jika residual tidak normal
tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov
Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang
mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka
dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan
trimming data outliers atau menambah data observasi.
Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat,
inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah
condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan
dan kiri.
2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat
ada atau tidaknya korelasi yang tinggi antara
variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi
yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel
bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah
model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan
kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah
bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan
kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi
antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara
kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering
dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance
inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau
dengan melihat eigenvalues dan condition index (CI).
Beberapa alternatif cara
untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau
mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah
observasi.
3.
Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar
kuadrat atau bentuk first difference delta.
3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat
apakah terdapat ketidaksamaan varians dari residual satu ke
pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan
adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke
pengamatan yang lain tetap atau disebut homoskedastisitas.
Deteksi heteroskedastisitas
dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai
prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika
tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah,
menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji
statistik yang dapat digunakan adalah uji Glejser, uji Park atau
uji .
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.
4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat
apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t
-1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat
pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada
korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh
adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah
terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan
Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat
gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam
suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan
belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun,
pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya
dilakukan pada data time series (runtut waktu) dan tidak perlu
dilakukan pada data cross section seperti pada kuesioner di mana pengukuran
semua variabel dilakukan secara serempak pada saat yang bersamaan. Model
regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari
satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang
sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data
observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan
mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam
bentuk persamaan beda umum (generalized difference equation). Selain itu juga
dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi
salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.
5. Uji Linearitas
Uji linearitas dipergunakan
untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak.
Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model
dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas
dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara
teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis
dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara
dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas
tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut
bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan
apakah sifat linear antara dua variabel yang diidentifikasikan secara teori
sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat
menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.
Komentar
Posting Komentar