Radikalisasi algoritmik: Perbedaan antara revisi
Konten dihapus Konten ditambahkan
k dalam konteks ini, konfirmasi diri tidak memerlukan laman baru |
|||
(Satu revisi perantara oleh satu pengguna lainnya tidak ditampilkan) | |||
Baris 1:
[[Berkas:YouTube results screenshot.jpg|jmpl|[[YouTube]] menjadi salah satu media sosial terjadinya fenomena radikalisasi algoritmik]]
'''Radikalisasi algoritmik''' adalah sebuah fenomena sosial yang terjadi di dalam pelantar [[media sosial]] (seperti [[Facebook]] dan [[YouTube]]), di mana para penggunanya digiring ke suatu pemahaman, pandangan dan pemikiran (politik, ideologi dan nilai sosial) yang ekstrim serta radikal melalui rekomendasi konten yang diatur oleh sistem algoritma pada suatu pelantar aplikasi tersebut.<ref name=":0">{{Cite web |last=Kartono|first=Munir |title=Ketika Algoritma Meradikalisasi Manusia |url=https://ruangobrol.id/analisa/ro6171e816e1464f0954/peran-algoritma-dalam-meradikalisasi-manusia |website=ruangobrol.id |language=id |access-date=2024-12-09}}</ref> Algoritme merekam interaksi pengguna, mulai dari tanda suka atau tidak suka hingga jumlah waktu yang dihabiskan dalam bermedia sosial, untuk menghasilkan sebuah [[ruang gema]]. Dengan ruang gema ini, pengguna didorong untuk menjadi lebih terpolarisasi melalui preferensi di media dan terus mengalami [[
Radikalisasi algoritmik telah menjadi sebuah fenomena yang kontroversial karena seringkali perusahaan media sosial memiliki kepentingan untuk mempertahankan ruang gema.<ref>{{Cite web|title=How Can Social Media Firms Tackle Hate Speech?|url=https://knowledge.wharton.upenn.edu/podcast/knowledge-at-wharton-podcast/can-social-media-firms-tackle-hate-speech/|website=Knowledge at Wharton|language=en-US|access-date=2024-12-10}}</ref> Sejauh mana algoritma pemberi rekomendasi konten benar-benar bertanggung jawab atas radikalisasi masih menjadi kontroversi. Banyak studi telah menemukan hasil yang kontradiktif mengenai apakah algoritma telah mempromosikan konten ekstremis atau tidak.<ref>{{Cite journal|last=Whittaker|first=Joe|last2=Looney|first2=Seán|last3=Reed|first3=Alastair|last4=Votta|first4=Fabio|date=2021-06-30|title=Recommender systems and the amplification of extremist content|url=https://doi.org/10.14763/2021.2.1565|journal=Internet Policy Review|volume=10|issue=2|doi=10.14763/2021.2.1565|issn=2197-6775}}</ref>
Baris 10:
== Dampak ==
Fenomena radikalisasi algoritmik telah dimanfaatkan oleh berbagai kelompok teroris ekstremis, termasuk organisasi [[jihadis]] seperti [[ISIS]]. Kelompok-kelompok ekstrem ini telah memanfaatkan media sosial untuk menyebarkan propaganda sekaligus merekrut anggotanya.<ref name=":0" /> Algoritma yang digunakan pada pelantar seperti X (dahulu [[Twitter]]), [[Facebook]], dan [[
Contoh kasusnya adalah rencana serangan teroris yang berujung penangkapan terhadap beberapa remaja di [[Wina]], [[Austria]] pada tahun 2024. Para remaja ini berencana akan melakukan serangan teroris di konser [[Taylor Swift]].<ref>{{Cite web|last=antaranews.com|date=2024-08-22|title=Taylor Swift buka suara terkait teror konser di Wina|url=https://www.antaranews.com/berita/4278323/taylor-swift-buka-suara-terkait-teror-konser-di-wina|website=Antara News|language=id|access-date=2024-12-14}}</ref> Hasil penyelidikan mengungkapkan bahwa beberapa tersangka telah teradikalisasi secara daring, dan
== Solusi ==
|