Algoritma bias: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
MondBriller (bicara | kontrib)
Tidak ada ringkasan suntingan
MondBriller (bicara | kontrib)
Tidak ada ringkasan suntingan
Baris 27:
 
GDPR juga membahas bias algoritmik sistem pemprofilan dan metode statistik yang dapat digunakan untuk membersihkannya, secara langsung dalam [[Resital|recital]] 71,<ref name=":4">{{Cite journal|last=Veale|first=Michael|last2=Edwards|first2=Lilian|date=2018|title=Clarity, Surprises, and Further Questions in the Article 29 Working Party Draft Guidance on Automated Decision-Making and Profiling|url=http://discovery.ucl.ac.uk/10046182/1/Veale%201-s2.0-S026736491730376X-main%281%29.pdf|journal=Computer Law & Security Review|volume=34|doi=10.1016/j.clsr.2017.12.002}}</ref> yang menyatakan:<blockquote>Pengendali harus menerapkan prosedur teknis dan organisasi yang sesuai untuk pemprofilan, dan menggunakan prosedur matematis atau statistik yang sesuai untuk mencegah dampak diskriminatif terhadap individu berdasarkan asal ras atau etnis, opini politik, agama atau keyakinan, keanggotaan serikat pekerja, status genetik atau kesehatan, atau orientasi seksual, atau yang mengakibatkan tindakan yang memiliki dampak tersebut.</blockquote>Sifat tidak mengikat dari recital 71 sama dengan hak yang tidak mengikat untuk mendapatkan penjelasan.<ref>{{Cite journal|last=Wachter|first=Sandra|last2=Mittelstadt|first2=Brent|last3=Floridi|first3=Luciano|date=2017-05-01|title=Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation|url=https://academic.oup.com/idpl/article/7/2/76/3860948|journal=International Data Privacy Law|volume=7|issue=2|pages=76–99|doi=10.1093/idpl/ipx005|issn=2044-3994}}</ref> Meskipun Kelompok Kerja Pasal 29, yang memberikan rekomendasi tentang bagaimana menggunakan hukum perlindungan data,<ref name=":4" /> menganggap hal ini sebagai keharusan, aspek praktisnya masih tidak jelas. Ada pendapat bahwa Penilaian Dampak Perlindungan Data untuk pemprofilan data berisiko tinggi, bersama dengan langkah-langkah pencegahan lainnya untuk perlindungan data, mungkin merupakan pendekatan yang lebih baik untuk memecahkan masalah diskriminasi algoritmik karena membatasi tindakan algoritma yang digunakan, daripada mengharuskan pelanggan mengajukan keluhan atau meminta perubahan.<ref>{{Cite journal|last=Edwards|first=Lilian|last2=Veale|first2=Michael|date=2017|title=Slave to the Algorithm? Why a Right to an Explanation Is Probably Not the Remedy You Are Looking For|journal=Duke Law & Technology Review|volume=16|ssrn=2972855}}</ref>
 
=== India ===
Sebuah rancangan Undang-Undang Perlindungan Data Pribadi dirilis pada 31 Juli 2018.<ref>{{Cite web|last=Rai|first=Saritha|date=2018-07-31|title=India Weighs Comprehensive Data Privacy Bill, Similar to EU's GDPR|url=https://www.insurancejournal.com/news/international/2018/07/31/496489.htm|website=Insurance Journal|language=en-US|access-date=2024-12-12}}</ref> Konsep untuk penyimpanan, pemrosesan, dan pengiriman data diusulkan dalam rancangan tersebut. Rancangan ini mencakup ketentuan untuk "kerugian yang diakibatkan oleh pemrosesan atau jenis pemrosesan yang dilakukan oleh pihak yang bertanggung jawab", meskipun tidak menggunakan istilah algoritma. Kerugian yang dapat disebabkan oleh penggunaan data yang tidak tepat disebut sebagai "penolakan atau pencabutan layanan, manfaat, atau barang yang diakibatkan oleh keputusan evaluatif tentang data subjek" atau "perlakuan diskriminatif". Selain itu, ketentuan khusus untuk individu dengan "status interseks" juga dimasukkan dalam rancangan ini.<ref>{{Cite journal|date=2018|title=The Personal Data Protection Bill, 2018|url=https://meity.gov.in/writereaddata/files/Personal_Data_Protection_Bill,2018.pdf|journal=Ministry of Electronics & Information Technology, Government of India}}</ref>
 
== Daftar Referensi ==