Masalah pengendalian kecerdasan buatan: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
←Membuat halaman berisi 'Dalam kecerdasan buatan (AI) dan filsafat, '''masalah pengendalian kecerdasan buatan''' adalah masalah bagaimana membangun agen kecerdasan super yang akan...'
 
Baris 1:
{{perhatian ahli}}
Dalam [[kecerdasan buatan]] (AI) dan [[filsafat]], '''masalah pengendalian kecerdasan buatan''' adalah masalah bagaimana membangun agen [[kecerdasan super]] yang akan membantu penciptanya, dan menghindari pembuatan kecerdasan super yang akan merugikan penciptanya secara tidak sengaja. Kajian tentang masalah ini dimotivasi oleh gagasan bahwa umat manusia harus menyelesaikan masalah kontrol sebelum kecerdasan super dibuat, karena kecerdasan super yang dirancang dengan buruk mungkin secara rasional memutuskan untuk mengambil kendali atas lingkungannya dan menentang kontrol atau modifikasi penciptanya setelah diluncurkan.<ref name="superintelligence">{{cite book|last1=Bostrom|first1=Nick|author-link=Nick Bostrom|title=Superintelligence: Paths, Dangers, Strategies|date=2014|isbn=978-0199678112|edition=First|title-link=Superintelligence: Paths, Dangers, Strategies}}</ref> Beberapa ahli berpendapat bahwa solusi untuk masalah kontrol ini bisa meningkatkan teknologi rekayasa keselamatan AI.<ref>{{cite journal | last1 = Yampolskiy | first1 = Roman | author-link = Roman Yampolskiy | year = 2012 | title = Leakproofing the Singularity Artificial Intelligence Confinement Problem | journal = Journal of Consciousness Studies | volume = 19 | issue = 1–2| pages = 194–214 }}</ref> Solusi dari masalah ini mungkin juga bisa diterapkan dalam AI non-kecerdasan super yang sudah ada.<ref name=bbc-google>{{cite news|title=Google developing kill switch for AI|url=https://www.bbc.com/news/technology-36472140|access-date=12 June 2016|work=BBC News|date=8 June 2016|archive-date=11 June 2016|archive-url=https://web.archive.org/web/20160611042244/http://www.bbc.com/news/technology-36472140|url-status=live}}</ref>