Masalah pengendalian kecerdasan buatan: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
Wagino Bot (bicara | kontrib)
 
(3 revisi perantara oleh 3 pengguna tidak ditampilkan)
Baris 1:
{{Yatim|Oktober 2022}}
{{perhatian ahli}}
Dalam [[kecerdasan buatan]] (AI) dan [[filsafat]], '''masalah pengendalian kecerdasan buatan''' adalah masalahpermasalahan tentang bagaimana membangun agen [[kecerdasan super]] yang tunduk pada penciptanya, dan. menghindariMenghindari pembuatan kecerdasan super yang akan merugikan penciptanya secara tidak sengaja. Kajian tentang masalah ini dimotivasi oleh gagasan bahwa umat manusia harus menyelesaikan masalah kontrolpengendalian AI sebelum kecerdasan super dibuat, karena kecerdasan super yang dirancang dengan buruk mungkin secara rasional memutuskan untuk mengambil kendali atas lingkungannya dan menentang kontrol atau modifikasi penciptanya setelah diluncurkan.<ref name="superintelligence">{{cite book|last1=Bostrom|first1=Nick|author-link=Nick Bostrom|title=Superintelligence: Paths, Dangers, Strategies|date=2014|isbn=978-0199678112|edition=First|title-link=Superintelligence: Paths, Dangers, Strategies}}</ref> Beberapa ahli berpendapat bahwa solusi untuk masalah kontrol ini bisa meningkatkan teknologi rekayasa keselamatan AI.<ref>{{cite journal | last1 = Yampolskiy | first1 = Roman | author-link = Roman Yampolskiy | year = 2012 | title = Leakproofing the Singularity Artificial Intelligence Confinement Problem | journal = Journal of Consciousness Studies | volume = 19 | issue = 1–2| pages = 194–214 }}</ref> Solusi dari masalah ini mungkin juga bisa diterapkan dalam AI non-kecerdasan super yang sudah ada.<ref name=bbc-google>{{cite news|title=Google developing kill switch for AI|url=https://www.bbc.com/news/technology-36472140|access-date=12 June 2016|work=BBC News|date=8 June 2016|archive-date=11 June 2016|archive-url=https://web.archive.org/web/20160611042244/http://www.bbc.com/news/technology-36472140|url-status=live}}</ref>
 
Salah satu pendekatan utama untuk mengatasi masalah kontrol ini adalah ''upaya penyelarasan'' (''alignment''), yang bertujuan menyelaraskan visi sistem AI dengan nilai-nilai yang dianut manusia. Selain penyelarasan sistem AI, kontrol kemampuan juga bisa digunakan untuk mengurangi risiko dari sistem AI yang merugikan manusia atau mendapatkan kendali. Pengendalian kapabilitas atau kontrol kemampuan umumnya dianggap kurang untuk memecahkan masalah kontrol AI. Pengendalian kemampuan lebih sering dianggap sebagai tambahan dari upaya penyelarasan AI.<ref name="superintelligence"/>
Baris 15 ⟶ 16:
{{Reflist}}
 
{{filsafat-stub}}
{{teknologi-stub}}
[[Kategori:Kecerdasan buatan]]
 
 
[[en:AI control problem]]
{{filsafat-stub}}
{{teknologi-stub}}