Regresi linear: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
HsfBot (bicara | kontrib)
k +{{Authority control}}
HsfBot (bicara | kontrib)
k v2.04b - Fixed using Wikipedia:ProyekWiki Cek Wikipedia (Tanda baca setelah kode "<nowiki></ref></nowiki>")
Baris 7:
<math>h_w(x) = w_1x+w_0</math>
 
dimana <math>w</math> merupakan nilai yang akan dicari sedemikian sehingga nilai <math>w</math> menjadi optimal dan <math>x</math> merupakan variable bebas atau input. Proses pencarian nilai <math>w</math> dapat dilakukan dengan beberapa cara diantaranya dengan menggunakan pendekatan ''least square'', ''maximum likehood'', atau algoritme ''gradient descent''. Pada dasarnya, pencarian nilai <math>w</math> dilakukan hingga nilai error yang dihasilkan merupakan nilai yang paling minimal .<ref name="russelBook" />. Fungsi error yang digunakan adalah sebagai berikut.
 
<math>E(w) = \frac{1}{2N} \sum_{i=1}^{N}(h_w(x^i)-t^i)^2</math>
Baris 20:
<math>h_w(x) = w_0+\sum_{i=0}^{m}w_ix_i</math>
 
Dimana <math>w</math> juga merupakan nilai yang akan dicari sedemikian sehingga nilai <math>w</math> menjadi optimal dan <math>x</math> merupakan variable bebas atau input. Proses pencarian nilai <math>w</math> juga masih dapat dilakukan dengan menggunakan cara yang sama dengan regresi linear ''univariate'', yaitu dengan menggunakan pendekatan ''least square'', ''maximum likehood'', atau algoritme ''gradient descent''. Pada dasarnya, pencarian nilai <math>w</math> dilakukan hingga nilai error yang didapatkan dari fungsi error merupakan nilai yang paling minimal .<ref name="russelBook"/>. Fungsi error yang digunakan masih sama dengan regresi linear ''univariate''.
 
== Referensi ==