Algoritma bias: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
MondBriller (bicara | kontrib)
←Membuat halaman berisi '{{short description|Technological phenomenon with social implications}} {{Under construction}} thumb|upright=1.4|Sebuah flow chart menunjukkan keputusan yang dibuat oleh [[mesin rekomendasi, {{Circa|2001}}<ref>{{Cite web|url=https://worldwide.espacenet.com/publicationDetails/biblio?CC=us&NR=7113917&KC=&FT=E&locale=en_EP|title=Patent #US2001021914|last=Jacobi|first=Jennifer|date=13 September 2001|website=Espacenet|a...'
Tag: tanpa kategori [ * ]
 
MondBriller (bicara | kontrib)
menambah definisi
Baris 1:
{{short description|Technological phenomenon with social implications}}
{{Under construction}}
[[File:02-Sandvig-Seeing-the-Sort-2014-WEB.png|thumb|upright=1.4|Sebuah flow chart menunjukkan keputusan yang dibuat oleh [[mesin rekomendasi]], {{Circa|2001}}<ref>{{Cite web|url=https://worldwide.espacenet.com/publicationDetails/biblio?CC=us&NR=7113917&KC=&FT=E&locale=en_EP|title=Patent #US2001021914|last=Jacobi|first=Jennifer|date=13 September 2001|website=Espacenet|access-date=4 July 2018}}</ref>]]
 
'''Algoritma bias''' menggambarkan kesalahan[[galat]] sistematis dan berulang dalam [[Sistemsistem Komputerkomputer]] yang menciptakan hasil “[[#Mendefinisikan keadilan|tidak adil]]”, seperti “mengistimewakan” satu kategori di atas kategori lainnya dengan cara yang berbeda dari fungsi yang dimaksudkan dari algoritma.
 
Banyak faktor dapat menyebabkan bias, seperti desain algoritma atau penggunaan yang tidak disengaja atau tidak terduga; serta keputusan tentang cara data dikodekan, dikumpulkan, dipilih, atau digunakan untuk melatih algoritma. Sebagai contoh, hasil [[mesin pencari]] dan [[Media sosial|platform media sosial]] telah diamati memiliki algoritma bias. Bias ini dapat berdampak dari pelanggaran privasi yang tidak disengaja hingga memperkuat [[Bias|bias sosial]] terkait ras, gender, orientasi seksual, dan etnisitas. Studi tentang bias algoritmik terutama berfokus pada algoritma yang mencerminkan diskriminasi yang "sistematis dan tidak adil".<ref>{{Cite journal|last=Marabelli|first=Marco|date=2024|title=AI, Ethics, and Discrimination in Business|url=https://link.springer.com/book/10.1007/978-3-031-53919-0|journal=Palgrave Studies in Equity, Diversity, Inclusion, and Indigenization in Business|language=en|doi=10.1007/978-3-031-53919-0|issn=2731-7307}}</ref> Peraturan Perlindungan Data Umum Uni Eropa yang diusulkan pada tahun 2018 dan Undang-Undang Kecerdasan Buatan yang diusulkan pada tahun 2021 dan disetujui pada tahun 2024 adalah beberapa contoh undang-undang baru yang baru saja mulai menangani bias ini.
 
Semakin banyak algoritma yang dapat mengontrol perilaku, politik, institusi, dan masyarakat, sosiolog mulai khawatir tentang bagaimana hasil yang tidak terduga dan manipulasi data dapat memengaruhi dunia fisik. Sebagai akibat dari fenomena psikologis yang dikenal sebagai bias otomatisasi, algoritma dapat secara keliru menunjukkan otoritas yang lebih besar daripada keahlian manusia. Ini terjadi karena algoritma umumnya dianggap netral dan bebas bias. Dalam beberapa situasi, ketergantungan pada algoritma dapat berfungsi sebagai pengganti orang yang bertanggung jawab atas hasil yang dihasilkan. Ada kemungkinan bias masuk ke dalam sistem algoritmik karena ekspektasi sosial, budaya, atau institusional yang sudah ada sebelumnya; cara fitur dan label dipilih; kendala teknis dalam desain; atau penggunaan dalam situasi yang tidak terduga atau oleh audiens yang tidak diperhitungkan saat desain perangkat lunak dibuat.<ref>{{Cite journal|last=Suresh|first=Harini|last2=Guttag|first2=John|date=2021-11-04|title=A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle|url=https://dl.acm.org/doi/10.1145/3465416.3483305|journal=Proceedings of the 1st ACM Conference on Equity and Access in Algorithms, Mechanisms, and Optimization|series=EAAMO '21|location=New York, NY, USA|publisher=Association for Computing Machinery|pages=1–9|doi=10.1145/3465416.3483305|isbn=978-1-4503-8553-4}}</ref>
 
Dalam berbagai situasi, mulai dari hasil pemilu hingga penyebaran u[[Ujaran kebencian di dunia maya|jaran kebencian secara daring]], algoritma bias telah disebutkan. Selain itu, bias ini muncul di bidang peradilan pidana, layanan kesehatan, dan perekrutan, memperparah ketidaksetaraan rasial, sosial-ekonomi, dan gender yang sudah ada. Beberapa kasus penangkapan salah pria kulit hitam telah dikaitkan dengan teknologi pengenalan wajah yang kurang akurat untuk mengidentifikasi wajah berkulit gelap. Masalah ini berasal dari kumpulan data yang tidak seimbang. Karena sifat algoritma yang rahasia dan biasanya dianggap sebagai rahasia dagang, sulit untuk memahami, meneliti, dan mengungkap biasnya. Bahkan jika transparansi penuh diberikan, kompleksitas algoritma tertentu membuatnya sulit dipahami. Selain itu, algoritma memiliki kemampuan untuk mengubah atau merespons masukan atau keluaran dengan cara yang mudah direplikasi atau tidak dapat diprediksi. Bahkan antara pengguna layanan yang sama, seringkali tidak ada satu "algoritma" tunggal yang dapat diperiksa, melainkan jaringan program dan input data yang saling terkait.
 
== Daftar Referensi ==
<references />