Stabilitas (teori pemelajaran)
Stabilitas (bahasa Inggris: stability), dan dikenal juga sebagai stabilitas algoritmik atau algorithmic stability, adalah sebuah ide dalam teori pembelajaran komputasional yang menjelaskan bagaimana keluaran dari algoritma pembelajaran mesin dapat berubah seiring dengan dilakukannya perubahan kecil dalam masukannya. Suatu algoritma pembelajaran dikatakan stabil jika prediksi yang dihasilkan tidak banyak berubah jika terjadi sedikit perubahan pada data latihnya. Sebagai contoh, pertimbangkan sebuah algoritma pembelajaran mesin yang dilatih untuk mengenal huruf tulisan tangan dari alfabet dengan menggunakan 1000 contoh dan label yang diberikan adalah “A” sampai “Z” sebagai himpunan data latih. Maka satu cara untuk memodifikasi himpunan data latih ini adalah dengan membuang satu contoh, sehingga dengan itu tersisa 999 contoh huruf tulisan tangan dari alfabet beserta labelnya masing-masing. Dengan demikian, sebuah algoritma pembelajaran dikatakan stabil jika dapat menghasilkan klasifier yang mirip, baik dengan 1000 elemen maupun 999 elemen dari himpunan data latih.
Stabilitas ini dapat dipelajari untuk berbagai jenis masalah pembelajaran, mulai dari pembelajaran bahasa hingga masalah invers dalam bidang fisika dan teknik. Hal ini dapat terjadi karena stabilitas merupakan sifat dari suatu proses pembelajaran, bukan berdasarkan jenis informasi yang dipelajari. Studi terkait stabilitas menjadi penting dalam teori pembelajaran komputasi pada tahun 2000-an ketika terbukti ia memiliki hubungan dengan generalisasi[butuh rujukan]. Hal tersebut menunjukkan bahwa untuk algoritma pembelajaran dengan jumlah kelas yang besar, terutama algoritma minimalisasi risiko empiris, jenis stabilitas tertentu dapat memastikan generalisasi yang baik.
Sejarah
Tujuan utama dalam mendesain sebuah sistem pembelajaran mesin adalah untuk menjamin bahwa algoritma pembelajaran dapat melakukan generalisasi, atau dapat menampilkan hasil prediksi secara akurat pada contoh baru setelah dilatih dalam jumlah contoh yang terbatas. Pada dekade 1990-an, dicapai tonggak sejarah dalam menentukan batas generalisasi pada algoritma pembelajaran terarah. Teknik tersebut di waktu itu digunakan untuk membuktikan bahwa generalisasi dapat menunjukkan bagaimana suatu algoritma bersifat konsisten , dengan menggunakan sifat konvergensi uniform dari kuantitas empiris. Teknik ini digunakan untuk mendapatkan batas generalisasi untuk kelas besar dalam algoritma minimalisasi risiko empiris (ERM). Algoritma ERM adalah suatu algoritma yang memilih solusi dari ruang hipotesis sedemikian rupa untuk meminimalkan kesalahan empiris pada satu set latih .
Hasil umum yang dibuktikan oleh Vladimir Vapnik untuk algoritma klasifikasi biner ERM menyatakan bahwa untuk setiap fungsi target dan distribusi masukan, setiap ruang hipotesis dengan dimensi VC , dan sebanyak contoh latih, algoritmanya bersifat konsisten dan akan menghasilkan kesalahan latih yang paling banyak sebesar (ditambah faktor logaritmik) dari kesalahan sebenarnya. Hasilnya kemudian diperluas ke algoritma hampir-ERM dengan kelas fungsi yang tidak memiliki minimalisasi yang unik.
Karya Vapnik, menggunakan apa yang dikenal sebagai teori VC, telah membangun sebuah hubungan antara generalisasi dari sebuah algoritma pembelajaran dan properti dari ruang hipotesis dalam fungsi yang sedang dipelajari. Namun, hasil ini tidak dapat diterapkan pada algoritma dengan ruang hipotesis yang dimensi VC-nya takterbatas. Dengan kata lain, hasil ini tidak dapat diterapkan ketika informasi yang dipelajari mempunyai kompleksitas yang terlalu besar untuk diukur. Beberapa algoritma pembelajaran mesin yang paling sederhana—misalnya, untuk regresi—memiliki ruang hipotesis dengan dimensi VC yang tidak terbatas. Contoh lainnya adalah algoritma pembelajaran bahasa yang dapat menghasilkan kalimat dengan panjang yang berubah-ubah.
Analisis stabilitas dikembangkan pada tahun 2000-an untuk teori pembelajaran komputasi dan merupakan metode alternatif untuk memperoleh batasan generalisasi. Stabilitas suatu algoritma adalah properti dari proses pembelajaran, bukan properti langsung dari ruang hipotesis , dan dapat dinilai dalam algoritma yang memiliki ruang hipotesis dengan dimensi VC tidak terbatas atau tidak terdefinisi seperti tetangga terdekat. Algoritme pembelajaran yang stabil adalah algoritma yang fungsi pembelajarannya tidak banyak berubah ketika data latihnya sedikit dimodifikasi, misalnya dengan mengabaikan satu contoh. Ukuran kesalahan Leave one out digunakan dalam algoritma Cross Validation Leave One Out (CVloo) untuk mengevaluasi stabilitas algoritma pembelajaran sehubungan dengan fungsi kerugian. Dengan demikian, analisis stabilitas adalah penerapan analisis sensitivitas pada pembelajaran mesin.
Ringkasan hasil klasik
- Awal tahun 1900an - Stabilitas dalam teori pembelajaran pertama kali dijelaskan dalam istilah kontinuitas peta pembelajaran , ditelusuri ke Andrey Nikolayevich Tikhonov[butuh rujukan].
- 1979 - Devroye dan Wagner mengamati bahwa perilaku algoritma yang dibiarkan keluar berhubungan dengan sensitivitasnya terhadap perubahan kecil dalam sampel. [1]
- 1999 - Kearns dan Ron menemukan hubungan antara dimensi VC terbatas dan stabilitas. [2]
- 2002 - Dalam sebuah makalah penting, Bousquet dan Elisseeff mengusulkan gagasan stabilitas hipotesis seragam dari algoritma pembelajaran dan menunjukkan bahwa hal itu menyiratkan kesalahan generalisasi yang rendah. Stabilitas hipotesis seragam, bagaimanapun, adalah kondisi kuat yang tidak berlaku untuk kelas algoritma yang besar, termasuk algoritma ERM dengan ruang hipotesis hanya dua fungsi. [3]
- 2002 - Kutin dan Niyogi memperluas hasil Bousquet dan Elisseeff dengan memberikan batasan generalisasi untuk beberapa bentuk stabilitas yang lebih lemah yang mereka sebut stabilitas hampir di semua tempat . Selanjutnya, mereka mengambil langkah awal dalam membangun hubungan antara stabilitas dan konsistensi dalam algoritma ERM dalam pengaturan Mungkin Kurang Lebih Benar (PAC). [4]
- 2004 - Poggio dkk. membuktikan hubungan umum antara stabilitas dan konsistensi ERM. Mereka mengusulkan bentuk statistik dari stabilitas tinggalkan satu-keluar yang mereka sebut stabilitas CVEEEloo, dan menunjukkan bahwa itu a) cukup untuk generalisasi dalam kelas kerugian yang dibatasi, dan b) perlu dan cukup untuk konsistensi (dan dengan demikian generalisasi) algoritma ERM untuk fungsi kerugian tertentu seperti kerugian kuadrat, nilai absolut, dan kerugian klasifikasi biner. [5]
- 2010 - Shalev Shwartz dkk. memperhatikan masalah dengan hasil asli Vapnik karena hubungan kompleks antara ruang hipotesis dan kelas kerugian. Mereka mendiskusikan gagasan stabilitas yang mencakup kelas kerugian yang berbeda dan jenis pembelajaran yang berbeda, diawasi dan tidak diawasi. [6]
- 2016 - Moritz Hardt dkk. membuktikan stabilitas penurunan gradien dengan asumsi hipotesis tertentu dan berapa kali setiap instance digunakan untuk memperbarui model. [7]
Definisi awal
Kita mendefinisikan beberapa istilah yang terkait dengan rangkaian pelatihan algoritma pembelajaran, sehingga kita kemudian dapat mendefinisikan stabilitas dalam berbagai cara dan menyajikan teorema dari lapangan.
Sebuah algoritma pembelajaran mesin, juga dikenal sebagai peta pembelajaran , memetakan sebuah himpunan data latih, yang merupakan himpunan dari contoh yang berlabel , ke suatu fungsi dari ke , di mana Dan berada di ruang yang sama dengan contoh latih. Fungsinya dipilih dari ruang hipotesis fungsi yang disebut .
Himpunan data latih yang mana suatu algoritma dilatih didefinisikan sebagai
dan ukurannya di dalam
diambil iid dari distribusi yang tidak diketahui D.
Sedemikian sehingga peta pembelajaran didefinisikan sebagai pemetaan dari ke dalam , memetakan himpunan data latih ke suatu fungsi dari ke . Di sini, kita hanya mempertimbangkan algoritma deterministik dimana simetris terhadap , yaitu tidak bergantung pada urutan elemen dalam data latih. Selanjutnya, kita asumsikan bahwa semua fungsi dapat diukur dan semua himpunan dapat dihitung.
Kerugian dari sebuah hipotesis sehubungan dengan sebuah contoh kemudian didefinisikan sebagai .
Kesalahan empiris dari adalah .
Kesalahan sebenarnya dari adalah
Diberikan satu set pelatihan S berukuran m, kita akan membangun, untuk semua i = 1.... ,m, himpunan data latih yang dimodifikasi sebagai berikut:
- Dengan menghapus elemen ke-i
- Dengan mengganti elemen ke-i
Definisi stabilitas
Stabilitas Hipotesis
Sebuah algoritma memiliki stabilitas hipotesis β sehubungan dengan fungsi kerugian V jika hal berikut berlaku:
Stabilitas Hipotesis titik demi titik (Point-wise Hypothesis Stability)
Sebuah algoritma memiliki stabilitas hipotesis titik demi titik β sehubungan dengan fungsi kerugian V jika hal berikut ini berlaku:
Stabilitas Kesalahan (Error stability)
Sebuah algoritma memiliki stabilitas kesalahan β sehubungan dengan fungsi kerugian V jika hal berikut berlaku:
Stabilitas Seragam
Sebuah algoritma memiliki stabilitas seragam β terhadap fungsi kerugian V jika hal berikut berlaku:
Versi probabilistik dari stabilitas seragam β adalah:
Suatu algoritma dikatakan stabil jika nilainya berkurang sebagai .
Stabilitas leave-one-out cross-validation (CVloo)
Sebuah algoritma memiliki stabilitas CVloo dinotasioan dengan β sehubungan dengan fungsi kerugian V jika hal berikut berlaku:
Definisi Stabilitas (CVloo) ekuivalen dengan stabilitas hipotesis Pointwise yang terlihat sebelumnya.
Stabilitas kesalahan expected-leave-one-out ( )
Sebuah algoritma memiliki stabilitas jika untuk setiap n terdapat a dan sebuah sedemikian sehingga:
, dengan Dan akan menjadi nol untuk
Teorema klasik
Dari Bousquet dan Elisseeff (02) :
Untuk algoritma pembelajaran simetris dengan kerugian yang terbatas, jika algoritma tersebut memiliki Stabilitas Seragam dengan definisi probabilistik di atas, maka algoritma tersebut berhasil menggeneralisasi.
Stabilitas Seragam adalah sebuah kondisi kuat yang tidak dipenuhi oleh semua algoritma, tetapi yang mengejutkan, dipenuhi oleh jumlah yang besar dan dengan kelas yang penting dalam algoritma regularisasi. Batasan generalisasi diberikan dalam artikel.
Dari Mukherjee dkk. (06) :
- Untuk algoritme pembelajaran simetris dengan kerugian terbatas, jika algoritma memiliki kedua stabilitas, yaitu Leave-one-out cross-validation (CVloo) dan Expected-leave-one-out error ( ) seperti yang didefinisikan di atas, maka algoritma tersebut berhasil menggeneralisasi.
- Tidak ada kondisi saja yang cukup untuk melakukan generalisasi. Namun, keduanya bersama-sama memastikan generalisasi (meskipun hal sebaliknya tidak benar).
- Khusus untuk algoritma ERM (katakanlah untuk kerugian kuadrat), Stabilitas Leave-one-out cross-validation (CVloo) diperlukan dan cukup untuk konsistensi dan generalisasi.
Ini merupakan hasil penting untuk landasan teori pembelajaran, karena menunjukkan bahwa dua sifat algoritma yang sebelumnya tidak berhubungan, stabilitas dan konsistensi, setara untuk ERM (dan fungsi kerugian tertentu). Batasan generalisasi diberikan dalam artikel.
Algoritma yang stabil
Ini adalah daftar algoritma yang terbukti stabil, dan artikel yang menyediakan batasan generalisasi terkait.
- Regresi linier [8]
- k-NN classifier dengan fungsi kerugian {0-1}. [1]
- Klasifikasi Support Vector Machine (SVM) dengan kernel yang dibatasi dan regularisatornya merupakan norma dalam sebuah Reproducing Kernel Hilbert Space. Sebuah konstanta regularisasi yang besar menghasilkan stabilitas yang baik. [3]
- Soft margin SVM classification. [3]
- Regresi teregularisasi Least Squares. [3]
- Algoritma entropi relatif minimum untuk klasifikasi. [3]
- Sebuah versi dalam bagging regularizers dengan nomor jumlah regresi yang meningkat seiring dengan . [9]
- Klasifikasi SVM multi-kelas. [9]
- Semua algoritma pembelajaran dengan regularisasi Tikhonov memenuhi kriteria Stabilitas Seragam, sehingga dengan demikian, dapat menggeneralisasi. [10]
Referensi
- ^ a b L. Devroye and Wagner, Distribution-free performance bounds for potential function rules, IEEE Trans. Inf. Theory 25(5) (1979) 601–604.
- ^ M. Kearns and D. Ron, Algorithmic stability and sanity-check bounds for leave-one-out cross-validation, Neural Comput. 11(6) (1999) 1427–1453.
- ^ a b c d e O. Bousquet and A. Elisseeff. Stability and generalization. J. Mach. Learn. Res., 2:499–526, 2002.
- ^ S. Kutin and P. Niyogi, Almost-everywhere algorithmic stability and generalization error, Technical Report TR-2002-03, University of Chicago (2002).
- ^ S. Mukherjee, P. Niyogi, T. Poggio, and R. M. Rifkin. Learning theory: stability is sufficient for generalization and necessary and sufficient for consistency of empirical risk minimization. Adv. Comput. Math., 25(1-3):161–193, 2006.
- ^ Shalev Shwartz, S., Shamir, O., Srebro, N., Sridharan, K., Learnability, Stability and Uniform Convergence, Journal of Machine Learning Research, 11(Oct):2635-2670, 2010.
- ^ Moritz Hardt, Benjamin Recht, Yoram Singer, Train faster, generalize better: Stability of stochastic gradient descent, ICML 2016.
- ^ Elisseeff, A. A study about algorithmic stability and their relation to generalization performances. Technical report. (2000)
- ^ a b Rifkin, R. Everything Old is New Again: A fresh look at historical approaches in machine learning. Ph.D. Thesis, MIT, 2002
- ^ Rosasco, L. and Poggio, T. Stability of Tikhonov Regularization, 2009
Bacaan lebih lanjut
- S.Kutin and P.Niyogi.Almost-everywhere algorithmic stability and generalization error. In Proc. of UAI 18, 2002
- S. Rakhlin, S. Mukherjee, and T. Poggio. Stability results in learning theory. Analysis and Applications, 3(4):397–419, 2005
- V.N. Vapnik. The Nature of Statistical Learning Theory. Springer, 1995
- Vapnik, V., Statistical Learning Theory. Wiley, New York, 1998
- Poggio, T., Rifkin, R., Mukherjee, S. and Niyogi, P., "Learning Theory: general conditions for predictivity", Nature, Vol. 428, 419-422, 2004
- Andre Elisseeff, Theodoros Evgeniou, Massimiliano Pontil, Stability of Randomized Learning Algorithms, Journal of Machine Learning Research 6, 55–79, 2010
- Elisseeff, A. Pontil, M., Leave-one-out Error and Stability of Learning Algorithms with Applications, NATO SCIENCE SERIES SUB SERIES III COMPUTER AND SYSTEMS SCIENCES, 2003, VOL 190, pages 111-130
- Shalev Shwartz, S., Shamir, O., Srebro, N., Sridharan, K., Learnability, Stability and Uniform Convergence, Journal of Machine Learning Research, 11(Oct):2635-2670, 2010