Pengertian Regresi : Definisi, Manfaat dan Contoh

Regresi merupakan suatu metode analisis statistik yang digunakan dalam melihat pengaruh antara dua atau lebih variabel. Metode ini sifatnya fungsional dengan model matematis. Terdapat dua bagian variabel pada analisis regresi, di antaranya variabel respons atau bergantung dan variabel penduga atau bebas.

Regresi dibagi menjadi dua jenis di antaranya adalah regresi sederhana dan berganda. Regresi sederhana terbagi menjadi dua yaitu linier sederhana dan nonlinier sederhana, sedangkan regresi berganda juga dibagi menjadi dua bagian yaitu linier berganda dan non linier berganda.

A. Manfaat Analisis Regresi

Hampir di dalam penelitian atau analisis data menggunakan analisis regresi. Penelitian itu di antaranya seperti bidang ekonomi, industri, ketenagakerjaan, sejarah, pemerintah, ilmu lingkungan atau botani, dan sebagainya.

Spesifik manfaat dari analisis regresi adalah mengetahui berbagai variabel kunci yang berpengaruh pada variabel bergantung, permodalan, pendugaan, hingga peramalan.

Adapun beberapa manfaat lainnya dari analisis regresi di antaranya sebagai berikut:

  • Membuat perkiraan rata-rata dan nilai variabel bergantung yang dipengaruhi oleh nilai variabel bebas;
  • Menguji hipotesa karakter dependensi;
  • Memperkirakan nilai rata-rata variabel bebas yang dilihat dari nilai variabel bebas di luar perkiraan sampel.

B. Contoh Analisis Regresi

Seperti yang kita ketahui bahwa analisis regresi merupakan suatu metode pendekatan yang digunakan pada permodalan hubungan antara variabel dependen dengan variabel independen. Di dalam analisis ini, hubungan antara kedua variabel tersebut bersifat linier, yang mana perubahan variabel X akan diikuti oleh perubahan variabel Y dengan nilai tetap.

Sedangkan metode nonlinier, perubahan variabel X tidak mempengaruhi variabel Y secara proporsional. Seperti pada model kuadratik, perubahan X mempengaruhi kuadrat variabel X, yang mana hubungan tersebut bersifat linier.

Secara sistematis, model analisis regresi linier sederhana bisa dirumuskan sebagai berikut:

Y = A + BX + e

Y = variabel dependen atau response

A = konstanta

B = residual atau error

C. Regresi Sederhana yang Ideal

Regresi sederhana yang idel tentunya dipenuhi beberapa asumsi di antaranya sebagai berikut:

1. Eksogenitas yang Lemah

Asumsi ini adalah analisis yang mensyaratkan bahwa variabel yang bersifat tetap, dan variabel Y bersifat acak. Di mana satu nilai variabel X akan memperkirakan variabel Y yang memungkinkan munculnya beberapa variabel Y. sehingga perlu adanya nilai error atau residual pada variabel Y.

Contohnya, ketika pendapatan (X) seseorang sebesar 1 juta, pengeluarannya bisa 500 rb, 600 rb, atau seterusnya.

2. Linieritas

Analisis regresi bersifat linier yang membuat kenaikan variabel X dan dipengaruhi oleh kenaikan variabel Y. jika pengujian linieritas tidak memenuhi syarat, maka bisa dilakukan transformasi data alias menggunakan model kuadratik, eksponensial dan model lainnya sesuai dengan pola nonlinier.

3. Varians Error Konstan

Asumsi ini menjelaskan adanya residual yang konstan alias tidak berubah-ubah meskipun pada respon yang berbeda. Asumsi ini lebih dikenal dengan istilah homoskedastisitas.

Varian eror perlu bernilai tetap, karena variabel eror dapat membentuk model sendiri dan mengganggu model utama. Sehingga, untuk menanggulangi permasalahan tersebut dapat diatasi dengan menambahkan model varian eror ke dalam model ARCH atau GARCH.

4. Autokorelasi untuk Data Waktu/Time Series

Data yang disusun berdasarkan waktu, sehingga terdapat satu asumsi yang harus dipenuhi yang disebut sebagai asumsi autokrelasi. Asumsi ini melihat variabel waktu sebelumnya yang mempengaruhi variabel Y. jika terdapat gangguan, maka terdapat variabel waktu yang mempengaruhi variabel Y.