Misinformasi oleh kecerdasan buatan: Perbedaan antara revisi
Konten dihapus Konten ditambahkan
Menambahkan halaman |
Tidak ada ringkasan suntingan |
||
Baris 1:
{{Peserta Tantangan Menulis SM4P}}
'''[[Kecerdasan buatan|Intelegensia Artifisial]] (AI)''' bukanlah solusi mutlak dalam memerangi misinformasi; justru sebaliknya, teknologi AI dapat dieksploitasi untuk menciptakan dan menyebarkannya.<ref>{{Cite web|title=Truth, Lies, and Automation|url=https://cset.georgetown.edu/publication/truth-lies-and-automation/|website=Center for Security and Emerging Technology|language=en-US|doi=10.51593/2021ca003|access-date=2024-12-20}}</ref> Sebagai contoh, ''Large Language Models'' (LLM) - algoritma pembelajaran mesin yang dilatih dengan sejumlah besar teks tulisan manusia untuk memahami, memprediksi, dan menghasilkan bahasa manusia - kini umum digunakan untuk menghasilkan teks yang sangat mirip dengan tulisan manusia. Konten yang dihasilkan AI menggunakan LLM semakin sulit dibedakan dari informasi yang dibuat manusia, dan dalam beberapa kasus bahkan dianggap lebih kredibel.<ref>{{Cite journal|last=Kreps|first=Sarah E.|last2=McCain|first2=Miles|last3=Brundage|first3=Miles|date=2020|title=All the News that’s Fit to Fabricate: AI-Generated Text as a Tool of Media Misinformation|url=https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3525002|journal=SSRN Electronic Journal|doi=10.2139/ssrn.3525002|issn=1556-5068}}</ref> Buchanan dkk. juga mendemonstrasikan kemampuan LLM dalam menciptakan pesan misinformasi berkualitas sedang hingga tinggi dengan sedikit campur tangan manusia. Mereka juga menemukan bahwa misinformasi yang dihasilkan AI dapat menyesuaikan bahasa untuk kelompok tertentu dan terkadang menggunakan stereotip dan bahasa rasis pada topik tertentu.<ref>{{Cite web|title=Truth, Lies, and Automation|url=https://cset.georgetown.edu/publication/truth-lies-and-automation/|website=Center for Security and Emerging Technology|language=en-US|doi=10.51593/2021ca003|access-date=2024-12-20}}</ref>
|