Masalah pengendalian kecerdasan buatan: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
HsfBot (bicara | kontrib)
k clean up
Wagino Bot (bicara | kontrib)
 
Baris 1:
{{Yatim|Oktober 2022}}
{{perhatian ahli}}
Dalam [[kecerdasan buatan]] (AI) dan [[filsafat]], '''masalah pengendalian kecerdasan buatan''' adalah permasalahan tentang bagaimana membangun agen [[kecerdasan super]] yang tunduk pada penciptanya. Menghindari pembuatan kecerdasan super yang akan merugikan penciptanya secara tidak sengaja. Kajian tentang masalah ini dimotivasi oleh gagasan bahwa umat manusia harus menyelesaikan masalah pengendalian AI sebelum kecerdasan super dibuat, karena kecerdasan super yang dirancang dengan buruk mungkin secara rasional memutuskan untuk mengambil kendali atas lingkungannya dan menentang kontrol atau modifikasi penciptanya setelah diluncurkan.<ref name="superintelligence">{{cite book|last1=Bostrom|first1=Nick|author-link=Nick Bostrom|title=Superintelligence: Paths, Dangers, Strategies|date=2014|isbn=978-0199678112|edition=First|title-link=Superintelligence: Paths, Dangers, Strategies}}</ref> Beberapa ahli berpendapat bahwa solusi untuk masalah kontrol ini bisa meningkatkan teknologi rekayasa keselamatan AI.<ref>{{cite journal | last1 = Yampolskiy | first1 = Roman | author-link = Roman Yampolskiy | year = 2012 | title = Leakproofing the Singularity Artificial Intelligence Confinement Problem | journal = Journal of Consciousness Studies | volume = 19 | issue = 1–2| pages = 194–214 }}</ref> Solusi dari masalah ini mungkin juga bisa diterapkan dalam AI non-kecerdasan super yang sudah ada.<ref name=bbc-google>{{cite news|title=Google developing kill switch for AI|url=https://www.bbc.com/news/technology-36472140|access-date=12 June 2016|work=BBC News|date=8 June 2016|archive-date=11 June 2016|archive-url=https://web.archive.org/web/20160611042244/http://www.bbc.com/news/technology-36472140|url-status=live}}</ref>