Regresi linear: Perbedaan antara revisi
Konten dihapus Konten ditambahkan
k +{{Authority control}} |
k v2.04b - Fixed using Wikipedia:ProyekWiki Cek Wikipedia (Tanda baca setelah kode "<nowiki></ref></nowiki>") |
||
Baris 7:
<math>h_w(x) = w_1x+w_0</math>
dimana <math>w</math> merupakan nilai yang akan dicari sedemikian sehingga nilai <math>w</math> menjadi optimal dan <math>x</math> merupakan variable bebas atau input. Proses pencarian nilai <math>w</math> dapat dilakukan dengan beberapa cara diantaranya dengan menggunakan pendekatan ''least square'', ''maximum likehood'', atau algoritme ''gradient descent''. Pada dasarnya, pencarian nilai <math>w</math> dilakukan hingga nilai error yang dihasilkan merupakan nilai yang paling minimal
<math>E(w) = \frac{1}{2N} \sum_{i=1}^{N}(h_w(x^i)-t^i)^2</math>
Baris 20:
<math>h_w(x) = w_0+\sum_{i=0}^{m}w_ix_i</math>
Dimana <math>w</math> juga merupakan nilai yang akan dicari sedemikian sehingga nilai <math>w</math> menjadi optimal dan <math>x</math> merupakan variable bebas atau input. Proses pencarian nilai <math>w</math> juga masih dapat dilakukan dengan menggunakan cara yang sama dengan regresi linear ''univariate'', yaitu dengan menggunakan pendekatan ''least square'', ''maximum likehood'', atau algoritme ''gradient descent''. Pada dasarnya, pencarian nilai <math>w</math> dilakukan hingga nilai error yang didapatkan dari fungsi error merupakan nilai yang paling minimal
== Referensi ==
|