Daftar Isi: |
Regresi linier sederhana adalah alat analisis statistik yang menjelaskan hubungan satu variabel terikat (dependen) dengan satu variabel bebas (independen) dalam bentuk sebuah fungsi linier.
Model Regresi Linier Sederhana
Model umum regresi linier sederhana adalah:
\[y = \beta_0 + \beta_1 x + \varepsilon\]- Keterangan:
- \(y\) adalah variabel dependen
- \(x\) adalah variabel independen
- \(\beta_0\) adalah intercept (parameter regresi)
- \(\beta_1\) adalah slope (parameter regresi)
- \(\varepsilon\) adalah nilai data peramalan ke-\(i\)
Estimasi Model Regresi Linier Sederhana
Model regresi linier sederhana dapat diestimasi dengan sebuah garis regresi, yaitu:
\[\hat{y} = b_0 + b_1 x\]- Keterangan:
- \(b_1 = \frac{\displaystyle n\sum_{i=1}^n x_iy_i - \left(\sum_{i=1}^n x_i\right) \left(\sum_{i=1}^n y_i\right)}{\displaystyle n\sum_{i=1}^n x_i^2-\left(\sum_{i=1}^n x_i\right)^2}\)
- \(b_0 = \bar{y}-b_1\bar{x}\)
Pembuktian Rumus Estimasi Regresi Linier Sederhana
Salah satu metode estimasi yang digunakan untuk mengestimasi parameter regresi linier sederhana adalah Metode Kuadrat Terkecil atau Ordinary Least Squares (OLS).
Proses dari metode ini adalah dengan meminimumkan jumlah kuadrat error atau sum of squared errors (SSE).
Langkah-langkah meminimumkan jumlah kuadrat error adalah sebagai berikut:
Persamaan jumlah kuadrat error
Substitusi persamaan estimasi garis regresi ke dalam persamaan jumlah kuadrat error
Turunan parsial persamaan jumlah kuadrat error terhadap \(b_0\)
\[\begin{aligned}
\frac{\partial}{\partial b_0}SSE &= 0\\
\frac{\partial}{\partial b_0}\sum_{i=1}^n {(y_i-b_0-b_1x_i)}^2 &= 0\\
\sum_{i=1}^n -2(y_i-b_0-b_1x_i) &= 0\\
\sum_{i=1}^n y_i-nb_0-b_1\sum_{i=1}^n x_i &= 0\\
nb_0 = \sum_{i=1}^n y_i - b_1\sum_{i=1}^n x_i
\end{aligned}\]
Turunan parsial persamaan jumlah kuadrat error terhadap \(b_1\)
\[\begin{aligned}
\frac{\partial}{\partial b_1} SSE &= 0\\
\frac{\partial}{\partial b_1}\sum_{i=1}^n {(y_i-b_0-b_1x_i)}^2 &= 0\\
\sum_{i=1}^n {-2x_i(y_i-b_0-b_1x_i)} &= 0\\
\sum_{i=1}^n {(x_iy_i-b_0x_i-b_1x_i^2)} &=0
\end{aligned}\]
Pertama-tama buat persamaan jumlah kuadrat error: \(SSE = \sum_{i = 1}^n e_i^2\) dimana error diperoleh dari \(e = y_i - \hat{y},\) sehingga persamaan jumlah kuadrat error-nya menjadi:
\[SSE = \sum_{i = 1}^n {(y_i - \hat{y}_i)}^2\]Garis regresi \(\hat{y}_i = b_0 + b_1x_i\) disubstitusikan ke dalam persamaan jumlah kuadrat error di atas.
\[SSE = \sum_{i=1}^n {(y_i-b_0 - b_1x_i)}^2\]\(SSE\) minimum diperoleh ketika turunannya bernilai 0. Oleh karena itu, \(SSE\) diturunkan secara parsial terhadap \(b_0\) dan \(b_1,\) kemudian disamakan dengan 0.
Ruas kiri dan ruas kanan dibagi dengan \(n,\) sehingga bentuknya menjadi
Terbukti bahwa:
\[\boxed {b_0 = \bar{y}-b_1\bar{x}}\]Substitusikan persamaan \(b_0 = \bar{y}-b_1\bar{x}\) ke dalam persamaan di atas.
Kalikan ruas kiri dan kanan persamaan di atas dengan \(n.\)
Ingat bahwa \(\displaystyle \bar x = \frac {1}{n} \sum_{i=1}^n x_i\) dan \(\displaystyle \bar y = \frac {1}{n} \sum_{i=1}^n y_i,\) sehingga
dengan demikian terbukti bahwa rumus \(b_1,\) yaitu