Metode ensemble: Perbedaan antara revisi
Konten dihapus Konten ditambahkan
Richard0904 (bicara | kontrib) Tidak ada ringkasan suntingan |
Daniel19EXO (bicara | kontrib) Fitur saranan suntingan: 1 pranala ditambahkan. Tag: VisualEditor Suntingan perangkat seluler Suntingan peramban seluler Tugas pengguna baru Disarankan: tambahkan pranala |
||
(6 revisi perantara oleh 5 pengguna tidak ditampilkan) | |||
Baris 60:
== Klasifikasi ==
===
[[Bagging]] merupakan metode yang dapat memperbaiki hasil dari algoritma klasifikasi machine learning dengan menggabungkan klasifikasi prediksi dari beberapa model. Hal ini digunakan untuk mengatasi ketidakstabilan pada model yang kompleks dengan kumpulan data yang relatif kecil. Bagging adalah salah satu algoritma berbasis ensemble yang paling awal dan paling sederhana, namun efektif. Bagging paling cocok untuk masalah dengan dataset pelatihan yang relatif kecil. Bagging mempunyai variasi yang disebut ''Pasting Small Votes.'' cara ini dirancang untuk masalah dengan dataset pelatihan yang besar, mengikuti pendekatan yang serupa, tetapi membagi dataset besar menjadi segmen yang lebih kecil. Penggolong individu dilatih dengan segmen ini, yang disebut ''bites'', sebelum menggabungkannya melalui cara voting mayoritas.
<gallery>
Bagging.png|thumb|Figure Bagging
</gallery>Bagging mengadopsi distribusi bootstrap supaya menghasilkan base learner yang berbeda, untuk memperoleh data subset. sehingga melatih base learners. dan bagging juga mengadopsi strategi aggregasi output base leaner, yaitu metode voting untuk kasus klasifikasi dan averaging untuk kasus regresi.
=== Boosting ===
Boosting merupakan cara untuk menghasilkan beberapa model atau penggolongan untuk prediksi atau klasifikasi, dan juga menggabungkan prediksi dari berbagai model ke dalam prediksi tunggal.
Boosting di rancang untuk masalah kelas biner, menciptakan kumpulan dari tiga klasifikasi yang lemah pada satu waktu. klasifikasi pertama (atau [[hipotesis]]) adalah memproses subset acak dari data training yang tersedia. klasifikasi kedua adalah subset yang berbeda dari dataset asli, dimana hasil dari klasifikasi pertama yang sudah benar di klasifikasi dan setengahnya lagi salah diklasifikasi. klasifikasi ketiga
<gallery>
Baris 79:
=== Stacking ===
Stacking merupakan cara untuk mengkombinasi beberapa model, dengan konsep meta learner. dipakai setelah bagging dan boosting. tidak seperti bagging dan boosting, stacking memungkinkan mengkombinasikan model dari tipe yang berbeda. Ide dasarnya adalah untuk train learner tingkat pertama menggunakan kumpulan data training asli, dan kemudian menghasilkan kumpulan data baru untuk melatih learner tingkat kedua, di mana output dari learner tingkat pertama dianggap sebagai fitur masukan sementara yang asli label masih dianggap sebagai label data training baru. Pembelajar tingkat pertama sering dihasilkan dengan menerapkan algoritma learning yang berbeda.
Dalam fase training pada stacking, satu set data baru perlu dihasilkan dari classifier tingkat pertama. Jika data yang tepat yang digunakan untuk melatih classifier tingkat pertama juga digunakan untuk menghasilkan kumpulan data baru untuk melatih classifier tingkat kedua. proses tersebut memiliki
<gallery>
Baris 91:
* Ensembling adalah metode yang terbukti untuk meningkatkan akurasi model dan bekerja di sebagian besar kasus.
* Ini adalah bahan utama untuk memenangkan hampir semua hackathon pembelajaran mesin.
* Ensembling membuat model lebih kuat dan stabil sehingga memastikan kinerja yang layak pada uji kasus di sebagian besar skenario.
* Untuk menangkap hubungan kompleks linier dan sederhana serta non-linear dalam data. Ini dapat dilakukan dengan menggunakan dua model yang berbeda dan membentuk ensemble dua.
Baris 101 ⟶ 98:
* Ensembling mengurangi interpretability model dan membuatnya sangat sulit untuk menarik wawasan bisnis penting di akhir.
* Memakan waktu dan dengan demikian mungkin bukan ide terbaik untuk aplikasi real-time.
* Pemilihan model untuk menciptakan ensemble adalah seni yang benar-benar sulit untuk dikuasai.
Baris 110 ⟶ 105:
* {{cite book |last=[[Zhou Zhihua]] |first= |date=2012 |title=Ensemble Methods: Foundations and Algorithms |url= |location= |publisher= Chapman and Hall/CRC |isbn=978-1-439-83003-1 }}
* {{cite book |last1=[[Robert Schapire]] |last2=[[Yoav Freund]] |date=2012 |title=Boosting: Foundations and Algorithms |url= |location= |publisher=MIT |isbn=978-0-262-01718-3 }}
* Cha Zhang; Yunqian Ma(2012). ''Ensemble Machine Learning Methods and Applications''. Springer New York Dordrecht Heidelberg London. ISBN 978-1-4419-9325-0
[[Kategori:
|