Pemalsuan dalam: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
Bebasnama (bicara | kontrib)
Tag: Suntingan perangkat seluler Suntingan peramban seluler
Bebasnama (bicara | kontrib)
Tag: Suntingan perangkat seluler Suntingan peramban seluler
Baris 16:
Pada bulan Mei 2019, [[Ketua Dewan Perwakilan Rakyat Amerika Serikat|pembicara Dewan Perwakilan Rakyat Amerika Serikat]] [[Nancy Pelosi]] menjadi subjek dari dua [[video viral]], salah satunya memiliki kecepatan melambat hingga 75 persen,<ref>{{Cite web|url=https://www.washingtonpost.com/technology/2019/05/23/faked-pelosi-videos-slowed-make-her-appear-drunk-spread-across-social-media|title=Faked Pelosi videos, slowed to make her appear drunk, spread across social media|website=Washington Post|language=en|access-date=1 July 2019}}</ref> dan yang lainnya menyunting bagian-bagian pidatonya pada konferensi pers. Untuk segmen [[Fox News Channel|Fox News,]] ''[[Lou Dobbs Malam ini|Lou Dobbs Tonight]]'', yang keduanya dimaksudkan untuk membuat Pelosi tampak seolah-olah sedang mengutarakan pidatonya. Presiden [[Donald Trump]] membagikan video terakhir di Twitter, dengan judul video "''PELOSI STAMMERS THROUGH NEWS CONFERENCE''".<ref>{{Cite web|url=https://gizmodo.com/bullshit-viral-videos-of-nancy-pelosi-show-fake-content-1835000766|title=Bullshit Viral Videos of Nancy Pelosi Show Fake Content Doesn't Have to Be a Deepfake|last=Novak|first=Matt|website=Gizmodo|access-date=1 July 2019}}</ref> Video-video ini disebut sebagai pemalsuan dalam oleh banyak saluran berita utama, yang membuat pemalsuan dalam menjadi perhatian [[Komite Intelijen Rumah|Komite Intelijen Dalam Negeri]] Amerika Serikat. Namun, ketua komite tersebut, [[Adam Schiff]], mengklarifikasi dalam sebuah wawancara dengan [[CNN]] bahwa video yang melambat itu sebenarnya bukan suatu kesalahan besar, sebaliknya menyebutnya sebagai video "palsu murahan" dan menggambarkannya sebagai video yang "sangat mudah dibuat, sangat sederhana untuk dibuat, konten asli baru saja dirawat".<ref>{{Cite web|url=https://www.cnn.com/2019/06/04/politics/house-intelligence-committee-deepfakes-threats-hearing/index.html|title=Congress to investigate deepfakes as doctored Pelosi video causes stir|last=O'Sullivan|first=Donie|website=CNN|access-date=2 July 2019}}</ref>
 
== Perangkat lunak ''deepfake''pemalsuan dalam ==
Perangkat lunak ini menggunakan AI-Framework [[TensorFlow]] dari [[Google]], yang antara lain sudah digunakan untuk program [[DeepDream]]. [[SelebritiSelebritas|Pesohor]] adalah subjek utama dari video palsu tersebut, tetapi orang-orang lain juga muncul.<ref name=":2">{{Citation|last=Britta Bauchmüller|title="Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!|publisher=Berliner-Kurier.de|url=https://www.berliner-kurier.de/ratgeber/digital/-fake-app--mit-diesem-programm-kann-jeder-im-porno-landen---ob-er-will-oder-nicht--29578018}}</ref><ref>{{Citation|last=Eike Kühl|title=Künstliche Intelligenz: Auf Fake News folgt Fake Porn|publisher=Die Zeit|date=2018-01-26|issn=0044-2070|url=http://www.zeit.de/digital/internet/2018-01/kuenstliche-intelligenz-deepfakes-porno-face-swap}}</ref><ref>{{Citation|last=heise online|url=https://www.heise.de/newsticker/meldung/Deepfakes-Neuronale-Netzwerke-erschaffen-Fake-Porn-und-Hitler-Parodien-3951035.html|title=Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien}}</ref> Pada Agustus 2018, para peneliti di [[Universitas California, Berkeley|University of California, Berkeley]] menerbitkan sebuah makalah yang memperkenalkan aplikasi tarian palsu yang dapat menciptakan kesan kemampuan menari ahli menggunakan AI.<ref>{{Cite news|url=https://www.businessinsider.com.au/artificial-intelligence-ai-deepfake-dancing-2018-8|title=An AI program will soon be here to help your deepfake dancing – just don't call it deepfake|last=Farquhar|first=Peter|date=2018-08-27|work=Business Insider Australia|access-date=2018-08-27|language=en|archive-date=2019-04-10|archive-url=https://web.archive.org/web/20190410050633/https://www.businessinsider.com.au/artificial-intelligence-ai-deepfake-dancing-2018-8|dead-url=yes}}</ref><ref>{{Cite news|url=https://www.theverge.com/2018/8/26/17778792/deepfakes-video-dancing-ai-synthesis|title=Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted|work=The Verge|access-date=2018-08-27}}</ref>
 
Ada juga alternatif sumber terbuka untuk program FakeApp asli, seperti DeepFaceLab,<ref>{{Cite web|url=https://github.com/iperov/DeepFaceLab|title=DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab|date=19 June 2019|publisher=}}</ref> FaceSwap (saat ini di-host di [[GitHub]])<ref>{{Cite web|url=https://github.com/|title=Build software better, together|website=GitHub}}</ref> dan myFakeApp (saat ini di-host di [[Bitbucket]]).<ref>{{Cite web|url=https://bitbucket.org/radeksissues/myfakeapp/src|title=Bitbucket|website=bitbucket.org}}</ref><ref>{{Cite web|url=https://www.duo.uio.no/bitstream/handle/10852/66387/Master-s-thesis-Tormod-Dag-Fikse.pdf|title=Imagining Deceptive Deepfakes|last=Fiske|first=Tormod|website=www.duo.uio.no|format=PDF|access-date=2019-06-19}}</ref>