Radikalisasi algoritmik: Perbedaan antara revisi
Konten dihapus Konten ditambahkan
Tidak ada ringkasan suntingan |
|||
(9 revisi perantara oleh pengguna yang sama tidak ditampilkan) | |||
Baris 1:
[[Berkas:YouTube results screenshot.jpg|jmpl|[[YouTube]]
'''Radikalisasi algoritmik''' adalah sebuah fenomena sosial yang terjadi di dalam pelantar
▲[[Berkas:YouTube results screenshot.jpg|jmpl|YouTube adalah salah satu media dalam fenomena radikalisasi algoritmik]]
▲'''Radikalisasi algoritmik''' adalah sebuah fenomena sosial yang terjadi di dalam pelantar digital seperti [[internet]] dan [[media sosial]] (seperti [[Facebook]] atau [[YouTube]]), di mana para penggunanya digiring ke suatu pemahaman, pandangan dan pemikiran (politik, ideologi dan nilai sosial) yang ekstrim serta radikal melalui rekomendasi konten yang diatur oleh sistem algoritma pada suatu pelantar aplikasi tersebut.<ref name=":0">{{Cite web |last=Kartono|first=Munir |title=Ketika Algoritma Meradikalisasi Manusia |url=https://ruangobrol.id/analisa/ro6171e816e1464f0954/peran-algoritma-dalam-meradikalisasi-manusia |website=ruangobrol.id |language=id |access-date=2024-12-09}}</ref> Algoritme merekam interaksi pengguna, mulai dari tanda suka atau tidak suka hingga jumlah waktu yang dihabiskan dalam bermedia sosial, untuk menghasilkan sebuah [[ruang gema]]. Dengan ruang gema ini, pengguna didorong untuk menjadi lebih terpolarisasi melalui preferensi di media dan [[konfirmasi diri]].<ref name=":1">{{Cite web|date=2020-11-18|title=What is a Social Media Echo Chamber? {{!}} Stan Richards School of Advertising|url=https://advertising.utexas.edu/news/what-social-media-echo-chamber|website=advertising.utexas.edu|language=en|access-date=2024-12-10}}</ref>
Radikalisasi algoritmik telah menjadi sebuah fenomena yang kontroversial karena seringkali perusahaan media sosial memiliki kepentingan untuk mempertahankan ruang gema.<ref>{{Cite web|title=How Can Social Media Firms Tackle Hate Speech?|url=https://knowledge.wharton.upenn.edu/podcast/knowledge-at-wharton-podcast/can-social-media-firms-tackle-hate-speech/|website=Knowledge at Wharton|language=en-US|access-date=2024-12-10}}</ref> Sejauh mana algoritma pemberi rekomendasi konten benar-benar bertanggung jawab atas radikalisasi masih menjadi kontroversi. Banyak studi telah menemukan hasil yang kontradiktif mengenai apakah algoritma telah mempromosikan konten ekstremis atau tidak.<ref>{{Cite journal|last=Whittaker|first=Joe|last2=Looney|first2=Seán|last3=Reed|first3=Alastair|last4=Votta|first4=Fabio|date=2021-06-30|title=Recommender systems and the amplification of extremist content|url=https://doi.org/10.14763/2021.2.1565|journal=Internet Policy Review|volume=10|issue=2|doi=10.14763/2021.2.1565|issn=2197-6775}}</ref>
== Mekanisme ==
Mekanisme utama dalam radikalisasi algoritmik adalah dengan cara menciptakan ruang gema. [[Ruang gema]] adalah suatu keadaan ketika pengguna media sosial menemukan sebuah keyakinan yang diyakini atau dapat memperkuat pikiran mereka, kemudian
Mekanisme lainnya adalah dengan efek lubang kelinci. Efek lubang kelinci terjadi ketika pengguna media sosial secara bertahap
== Dampak ==
Fenomena radikalisasi algoritmik telah dimanfaatkan oleh berbagai kelompok teroris ekstremis, termasuk organisasi [[jihadis]] seperti [[ISIS]]. Kelompok-kelompok ekstrem ini telah memanfaatkan media sosial untuk menyebarkan propaganda sekaligus merekrut anggotanya.<ref name=":0" /> Algoritma yang digunakan pada pelantar seperti X (dahulu [[Twitter]]) dan [[Facebook]] dengan tidak sengaja telah memperkuat eksistensi konten seperti ini dengan cara merekomendasikannya kepada pengguna yang menunjukkan ketertarikan terhadap topik terkait konten tersebut.<ref>{{Cite web|last=Tejeda|first=Gaby|date=2024-08-09|title=TikTok Jihad: Terrorists Leverage Modern Tools to Recruit and Radicalize|url=https://thesoufancenter.org/intelbrief-2024-august-9/|website=The Soufan Center|language=en-US|access-date=2024-12-14}}</ref>
Contoh kasusnya adalah rencana serangan teroris yang berujung penangkapan terhadap beberapa remaja di [[Wina]], [[Austria]] pada tahun 2024. Para remaja ini berencana akan melakukan serangan teroris di konser [[Taylor Swift]].<ref>{{Cite web|last=antaranews.com|date=2024-08-22|title=Taylor Swift buka suara terkait teror konser di Wina|url=https://www.antaranews.com/berita/4278323/taylor-swift-buka-suara-terkait-teror-konser-di-wina|website=Antara News|language=id|access-date=2024-12-14}}</ref> Hasil penyelidikan mengungkapkan bahwa beberapa tersangka telah teradikalisasi secara daring, dan [[TikTok]] menjadi salah satu pelantar yang digunakan untuk menyebarkan konten ekstremis dengan memengaruhi keyakinan dan tindakan mereka.<ref>{{Cite web|last=Tejeda|first=Gaby|date=2024-08-09|title=TikTok Jihad: Terrorists Leverage Modern Tools to Recruit and Radicalize|url=https://thesoufancenter.org/intelbrief-2024-august-9/|website=The Soufan Center|language=en-US|access-date=2024-12-14}}</ref>
== Solusi ==
Fenomena radikalisasi algoritmik adalah tantangan kompleks yang membutuhkan pendekatan multiaspek dengan melibatkan kebijakan pemerintah, teknologi, dan pendidikan. Langkah yang dapat diambil adalah dengan meningkatkan transparansi algoritma yang digunakan perusahaan media sosial. Pemerintah atau lembaga regulator dapat membuat peraturan yang mewajibkan pelantar media sosial untuk lebih transparan mengenai cara kerja algoritma mereka.<ref>{{Cite journal|last=Whittaker|first=Joe|last2=Looney|first2=Seán|last3=Reed|first3=Alastair|last4=Votta|first4=Fabio|date=2021-06-30|title=Recommender systems and the amplification of extremist content|url=https://policyreview.info/articles/analysis/recommender-systems-and-amplification-extremist-content|journal=Internet Policy Review|volume=10|issue=2|issn=2197-6775}}</ref> Hal ini akan memungkinkan [[peneliti]], [[akademisi]], dan masyarakat umum untuk lebih memahami bagaimana cara konten di media sosial direkomendasikan. Perusahaan media sosial juga dapat melakukan upaya memoderasi terhadap konten buatan penggunanya dan membuat sistem yang dapat mengidentifikasi, melacak, dan menghapus konten radikal serta memblokir pengguna yang terlibat dengan cepat.<ref>{{Cite web|title=Addressing Algorithms in Disinformation|url=https://crestresearch.ac.uk/comment/addressing-algorithms-in-disinformation/|website=crestresearch.ac.uk|language=en-GB|access-date=2024-12-14}}</ref>
Kesadaran dan wawasan dari pengguna media sosial dalam menyaring fakta dari konten yang dikonsumsi juga merupakan langkah pencegahan radikalisasi algoritmik paling ampuh. Kesadaran dan wawasan ini dapat diperoleh lewat [[literasi digital]] atau sosialisasi melalui berbagai media untuk menjelaskan cara menyaring sumber informasi, mengenali tanda-tanda [[berita palsu]], serta melindungi diri dari [[manipulasi informasi]] kepada masyarakat umum.<ref>{{Cite web|last=Fajriyah|first=Lailatul|date=2024-11-25|title=Radikalisasi di Balik Layar: Melawan Tantangan Algoritma yang Menjerumus pada Ekstremisme|url=https://www.harakatuna.com/radikalisasi-di-balik-layar-melawan-tantangan-algoritma-yang-menjerumus-pada-ekstremisme.html|website=Harakatuna.com|language=en-US|access-date=2024-12-14}}</ref>
== Referensi ==
{{Reflist}}
Baris 19 ⟶ 23:
[[Kategori:Ekstrimisme]]
[[Kategori:Media sosial]]
[[Kategori:Bias media]]
|