Radikalisasi algoritmik: Perbedaan antara revisi
Konten dihapus Konten ditambahkan
Tidak ada ringkasan suntingan |
|||
Baris 1:
{{inuse}}
[[Berkas:YouTube results screenshot.jpg|jmpl|YouTube adalah salah satu media dalam fenomena radikalisasi algoritmik]]
'''Radikalisasi algoritmik''' adalah sebuah fenomena sosial yang terjadi di dalam pelantar digital seperti [[internet]] dan [[media sosial]] (seperti [[Facebook]] atau [[YouTube]]), di mana para penggunanya digiring ke suatu pemahaman, pandangan dan pemikiran (politik, ideologi dan nilai sosial) yang ekstrim serta radikal melalui rekomendasi konten yang diatur oleh sistem algoritma pada suatu pelantar aplikasi tersebut.<ref name=":0">{{Cite web |last=Kartono|first=Munir |title=Ketika Algoritma Meradikalisasi Manusia |url=https://ruangobrol.id/analisa/ro6171e816e1464f0954/peran-algoritma-dalam-meradikalisasi-manusia |website=ruangobrol.id |language=id |access-date=2024-12-09}}</ref> Algoritme merekam interaksi pengguna, mulai dari tanda suka atau tidak suka hingga jumlah waktu yang dihabiskan dalam bermedia sosial, untuk menghasilkan sebuah [[ruang gema]]. Dengan ruang gema ini, pengguna didorong untuk menjadi lebih terpolarisasi melalui preferensi di media dan [[konfirmasi diri]].<ref name=":1">{{Cite web|date=2020-11-18|title=What is a Social Media Echo Chamber? {{!}} Stan Richards School of Advertising|url=https://advertising.utexas.edu/news/what-social-media-echo-chamber|website=advertising.utexas.edu|language=en|access-date=2024-12-10}}</ref>
Radikalisasi algoritmik telah menjadi sebuah fenomena yang kontroversial karena seringkali perusahaan media sosial memiliki kepentingan untuk mempertahankan ruang gema.<ref>{{Cite web|title=How Can Social Media Firms Tackle Hate Speech?|url=https://knowledge.wharton.upenn.edu/podcast/knowledge-at-wharton-podcast/can-social-media-firms-tackle-hate-speech/|website=Knowledge at Wharton|language=en-US|access-date=2024-12-10}}</ref> Sejauh mana algoritma pemberi rekomendasi konten benar-benar bertanggung jawab atas radikalisasi masih menjadi kontroversi. Banyak studi telah menemukan hasil yang kontradiktif mengenai apakah algoritma telah mempromosikan konten ekstremis atau tidak.<ref>{{Cite journal|last=Whittaker|first=Joe|last2=Looney|first2=Seán|last3=Reed|first3=Alastair|last4=Votta|first4=Fabio|date=2021-06-30|title=Recommender systems and the amplification of extremist content|url=https://doi.org/10.14763/2021.2.1565|journal=Internet Policy Review|volume=10|issue=2|doi=10.14763/2021.2.1565|issn=2197-6775}}</ref>
== Mekanisme ==
Mekanisme utama dalam radikalisasi algoritmik adalah dengan cara menciptakan ruang gema. [[Ruang gema]] adalah suatu keadaan ketika pengguna media sosial menemukan sebuah keyakinan yang diyakini atau dapat memperkuat pikiran mereka, kemudian disebarkan secara berulang-ulang dalam sebuah komunitas tertutup.<ref>{{Cite journal|last=Barberá|first=Pablo|last2=Jost|first2=John T.|last3=Nagler|first3=Jonathan|last4=Tucker|first4=Joshua A.|last5=Bonneau|first5=Richard|date=2015-08-21|title=Tweeting From Left to Right|url=https://doi.org/10.1177/0956797615594620|journal=Psychological Science|volume=26|issue=10|pages=1531–1542|doi=10.1177/0956797615594620|issn=0956-7976}}</ref><ref name=":1" /> Misalnya, jika seorang pengguna media sosial sering mencari atau berinteraksi dengan konten yang terkait dengan suatu ideologi politik tertentu, maka algoritma akan terus merekomendasikan konten terkait ideologi tersebut terus-menerus dan secara bertahap akan mempersempit cakupan informasi pengguna. Ruang gema pada pelantar media sosial bekerja dengan cara mempelajari minat dan kesukaan pengguna untuk mengubah pengalaman mereka di umpan mereka agar tetap terlibat dalam sebuah topik.<ref name=":0" /> Ruang gema menyebarkan informasi tanpa keyakinan yang berlawanan dan mungkin dapat menyebabkan [[bias konfirmasi]]. Menurut [[teori polarisasi kelompok]], ruang gema berpotensi membawa pengguna atau kelompok ke dalam sikap radikal yang lebih ekstrem.<ref>{{Cite journal|last=Lyn|first=Cody-Ann|title=The case of echo chambers: Examining the effect of social media echo chamber policy on user engagement|url=https://doi.org/10.31274/td-20240617-164|publisher=Iowa State University}}</ref>
Mekanisme lainnya adalah dengan efek lubang kelinci. Efek lubang kelinci terjadi ketika pengguna media sosial secara bertahap digiring dari konten arus utama atau umum ke konten yang lebih ekstrem. Algoritma mencoba untuk mempertahankan keterlibatan pengguna, mulai dari merekomendasikan konten dengan bumbu provokatif, kemudian secara terang-terangan menyarankan konten yang lebih radikal karena algoritma melihat minat pengguna yang berkelanjutan terkait konten tersebut.
== Contoh kasus ==
|