Radikalisasi algoritmik: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
Tidak ada ringkasan suntingan
Baris 8:
Mekanisme utama dalam radikalisasi algoritmik adalah dengan cara menciptakan ruang gema. [[Ruang gema]] adalah suatu keadaan ketika pengguna media sosial menemukan sebuah keyakinan yang diyakini atau dapat memperkuat pikiran mereka, kemudian disebarkan secara berulang-ulang dalam sebuah komunitas tertutup.<ref>{{Cite journal|last=Barberá|first=Pablo|last2=Jost|first2=John T.|last3=Nagler|first3=Jonathan|last4=Tucker|first4=Joshua A.|last5=Bonneau|first5=Richard|date=2015-08-21|title=Tweeting From Left to Right|url=https://doi.org/10.1177/0956797615594620|journal=Psychological Science|volume=26|issue=10|pages=1531–1542|doi=10.1177/0956797615594620|issn=0956-7976}}</ref><ref name=":1" /> Misalnya, jika seorang pengguna media sosial sering mencari atau berinteraksi dengan konten yang terkait dengan suatu ideologi politik tertentu, maka algoritma akan terus merekomendasikan konten terkait ideologi tersebut terus-menerus dan secara bertahap akan mempersempit cakupan informasi pengguna. Ruang gema pada pelantar media sosial bekerja dengan cara mempelajari minat dan kesukaan pengguna untuk mengubah pengalaman mereka di umpan mereka agar tetap terlibat dalam sebuah topik.<ref name=":0" /> Ruang gema menyebarkan informasi tanpa keyakinan yang berlawanan dan mungkin dapat menyebabkan [[bias konfirmasi]]. Menurut [[teori polarisasi kelompok]], ruang gema berpotensi membawa pengguna atau kelompok ke dalam sikap radikal yang lebih ekstrem.<ref>{{Cite journal|last=Lyn|first=Cody-Ann|title=The case of echo chambers: Examining the effect of social media echo chamber policy on user engagement|url=https://doi.org/10.31274/td-20240617-164|publisher=Iowa State University}}</ref>
 
Mekanisme lainnya adalah dengan efek lubang kelinci. Efek lubang kelinci terjadi ketika pengguna media sosial secara bertahap digiringdirekomendasikan dari[[Media arus utama|konten arus utama]] ataudengan umumtopik keyang sama terus-menerus oleh algoritma, hingga akhirnya disuguhi konten yang lebih ekstrem.<ref>{{Cite journal|last=Sutton|first=Robbie M.|last2=Douglas|first2=Karen M.|date=2022-12|title=Rabbit Hole Syndrome: Inadvertent, accelerating, and entrenched commitment to conspiracy beliefs|url=https://doi.org/10.1016/j.copsyc.2022.101462|journal=Current Opinion in Psychology|volume=48|pages=101462|doi=10.1016/j.copsyc.2022.101462|issn=2352-250X}}</ref> Algoritma mencoba untuk mempertahankan keterlibatan pengguna, mulai dari merekomendasikan konten dengan bumbu provokatif, kemudian secara terang-terangan menyarankan konten yang lebih radikal karena algoritma melihat minat pengguna yang berkelanjutan terkait konten tersebut.<ref name=":0" /> Misalnya, seorang pengguna yang menonton video tentang tokoh politik pada awalnya akan direkomendasikan potongan berita utama terkait tokoh tersebut. Namun, ketika pengguna ini berinteraksi dengan konten yang lebih partisan, algoritma akan mulai menyarankan video dengan sudut pandang yang lebih ekstrem dari sumber yang kurang kredibel.
 
== Contoh kasus ==
=== Radikalisasi Islamis ===