Radikalisasi algoritmik
Radikalisasi algoritmik adalah sebuah fenomena sosial yang terjadi di dalam pelantar media sosial (seperti Facebook dan YouTube), di mana para penggunanya digiring ke suatu pemahaman, pandangan dan pemikiran (politik, ideologi dan nilai sosial) yang ekstrim serta radikal melalui rekomendasi konten yang diatur oleh sistem algoritma pada suatu pelantar aplikasi tersebut.[1] Algoritme merekam interaksi pengguna, mulai dari tanda suka atau tidak suka hingga jumlah waktu yang dihabiskan dalam bermedia sosial, untuk menghasilkan sebuah ruang gema. Dengan ruang gema ini, pengguna didorong untuk menjadi lebih terpolarisasi melalui preferensi di media dan konfirmasi diri.[2]
Radikalisasi algoritmik telah menjadi sebuah fenomena yang kontroversial karena seringkali perusahaan media sosial memiliki kepentingan untuk mempertahankan ruang gema.[3] Sejauh mana algoritma pemberi rekomendasi konten benar-benar bertanggung jawab atas radikalisasi masih menjadi kontroversi. Banyak studi telah menemukan hasil yang kontradiktif mengenai apakah algoritma telah mempromosikan konten ekstremis atau tidak.[4]
Mekanisme
Mekanisme utama dalam radikalisasi algoritmik adalah dengan cara menciptakan ruang gema. Ruang gema adalah suatu keadaan ketika pengguna media sosial menemukan sebuah keyakinan yang diyakini atau dapat memperkuat pikiran mereka, kemudian algoritma akan menyebarkannya secara berulang-ulang dalam sebuah komunitas tertutup.[5][2] Misalnya, jika seorang pengguna media sosial sering mencari atau berinteraksi dengan konten yang terkait dengan suatu ideologi politik tertentu, maka algoritma akan terus merekomendasikan konten terkait ideologi tersebut terus-menerus dan secara bertahap akan mempersempit cakupan informasi pengguna. Ruang gema pada pelantar media sosial bekerja dengan cara mempelajari minat dan kesukaan pengguna untuk mengubah pengalaman mereka di umpan mereka agar tetap terlibat dalam sebuah topik.[1] Ruang gema menyebarkan informasi tanpa keyakinan yang berlawanan dan mungkin dapat menyebabkan bias konfirmasi. Menurut teori polarisasi kelompok, ruang gema berpotensi membawa pengguna atau kelompok ke dalam sikap radikal yang lebih ekstrem.[6]
Mekanisme lainnya adalah dengan efek lubang kelinci. Efek lubang kelinci terjadi ketika pengguna media sosial secara bertahap direkomendasikan konten arus utama dengan topik yang sama terus-menerus oleh algoritma, hingga akhirnya disuguhi konten yang lebih ekstrem.[7] Algoritma mencoba untuk mempertahankan keterlibatan pengguna, mulai dari merekomendasikan konten dengan bumbu provokatif, kemudian secara terang-terangan menyarankan konten yang lebih radikal karena algoritma melihat minat pengguna yang berkelanjutan terkait konten tersebut.[1] Misalnya, seorang pengguna yang menonton video tentang tokoh politik pada awalnya akan direkomendasikan potongan berita utama terkait tokoh tersebut. Namun, ketika pengguna ini berinteraksi dengan konten yang lebih partisan, algoritma akan mulai menyarankan video dengan sudut pandang yang lebih ekstrem dari sumber yang kurang kredibel.
Dampak
Fenomena radikalisasi algoritmik telah dimanfaatkan oleh berbagai kelompok teroris ekstremis, termasuk organisasi jihadis seperti ISIS. Kelompok-kelompok ekstrem ini telah memanfaatkan media sosial untuk menyebarkan propaganda sekaligus merekrut anggotanya.[1] Algoritma yang digunakan pada pelantar seperti X (dahulu Twitter) dan Facebook dengan tidak sengaja telah memperkuat eksistensi konten seperti ini dengan cara merekomendasikannya kepada pengguna yang menunjukkan ketertarikan terhadap topik terkait konten tersebut.[8]
Contoh kasusnya adalah rencana serangan teroris yang berujung penangkapan terhadap beberapa remaja di Wina, Austria pada tahun 2024. Para remaja ini berencana akan melakukan serangan teroris di konser Taylor Swift.[9] Hasil penyelidikan mengungkapkan bahwa beberapa tersangka telah teradikalisasi secara daring, dan TikTok menjadi salah satu pelantar yang digunakan untuk menyebarkan konten ekstremis dengan memengaruhi keyakinan dan tindakan mereka.[10]
Solusi
Fenomena radikalisasi algoritmik adalah tantangan kompleks yang membutuhkan pendekatan multiaspek dengan melibatkan kebijakan pemerintah, teknologi, dan pendidikan. Langkah yang dapat diambil adalah dengan meningkatkan transparansi algoritma yang digunakan perusahaan media sosial. Pemerintah atau lembaga regulator dapat membuat peraturan yang mewajibkan pelantar media sosial untuk lebih transparan mengenai cara kerja algoritma mereka.[11] Hal ini akan memungkinkan peneliti, akademisi, dan masyarakat umum untuk lebih memahami bagaimana cara konten di media sosial direkomendasikan. Perusahaan media sosial juga dapat melakukan upaya memoderasi terhadap konten buatan penggunanya dan membuat sistem yang dapat mengidentifikasi, melacak, dan menghapus konten radikal serta memblokir pengguna yang terlibat dengan cepat.[12]
Kesadaran dan wawasan dari pengguna media sosial dalam menyaring fakta dari konten yang dikonsumsi juga merupakan langkah pencegahan radikalisasi algoritmik paling ampuh. Kesadaran dan wawasan ini dapat diperoleh lewat literasi digital atau sosialisasi melalui berbagai media untuk menjelaskan cara menyaring sumber informasi, mengenali tanda-tanda berita palsu, serta melindungi diri dari manipulasi informasi kepada masyarakat umum.[13]
Referensi
- ^ a b c d Kartono, Munir. "Ketika Algoritma Meradikalisasi Manusia". ruangobrol.id. Diakses tanggal 2024-12-09.
- ^ a b "What is a Social Media Echo Chamber? | Stan Richards School of Advertising". advertising.utexas.edu (dalam bahasa Inggris). 2020-11-18. Diakses tanggal 2024-12-10.
- ^ "How Can Social Media Firms Tackle Hate Speech?". Knowledge at Wharton (dalam bahasa Inggris). Diakses tanggal 2024-12-10.
- ^ Whittaker, Joe; Looney, Seán; Reed, Alastair; Votta, Fabio (2021-06-30). "Recommender systems and the amplification of extremist content". Internet Policy Review. 10 (2). doi:10.14763/2021.2.1565. ISSN 2197-6775.
- ^ Barberá, Pablo; Jost, John T.; Nagler, Jonathan; Tucker, Joshua A.; Bonneau, Richard (2015-08-21). "Tweeting From Left to Right". Psychological Science. 26 (10): 1531–1542. doi:10.1177/0956797615594620. ISSN 0956-7976.
- ^ Lyn, Cody-Ann. "The case of echo chambers: Examining the effect of social media echo chamber policy on user engagement". Iowa State University.
- ^ Sutton, Robbie M.; Douglas, Karen M. (2022-12). "Rabbit Hole Syndrome: Inadvertent, accelerating, and entrenched commitment to conspiracy beliefs". Current Opinion in Psychology. 48: 101462. doi:10.1016/j.copsyc.2022.101462. ISSN 2352-250X.
- ^ Tejeda, Gaby (2024-08-09). "TikTok Jihad: Terrorists Leverage Modern Tools to Recruit and Radicalize". The Soufan Center (dalam bahasa Inggris). Diakses tanggal 2024-12-14.
- ^ antaranews.com (2024-08-22). "Taylor Swift buka suara terkait teror konser di Wina". Antara News. Diakses tanggal 2024-12-14.
- ^ Tejeda, Gaby (2024-08-09). "TikTok Jihad: Terrorists Leverage Modern Tools to Recruit and Radicalize". The Soufan Center (dalam bahasa Inggris). Diakses tanggal 2024-12-14.
- ^ Whittaker, Joe; Looney, Seán; Reed, Alastair; Votta, Fabio (2021-06-30). "Recommender systems and the amplification of extremist content". Internet Policy Review. 10 (2). ISSN 2197-6775.
- ^ "Addressing Algorithms in Disinformation". crestresearch.ac.uk (dalam bahasa Inggris). Diakses tanggal 2024-12-14.
- ^ Fajriyah, Lailatul (2024-11-25). "Radikalisasi di Balik Layar: Melawan Tantangan Algoritma yang Menjerumus pada Ekstremisme". Harakatuna.com (dalam bahasa Inggris). Diakses tanggal 2024-12-14.