Masalah pengendalian kecerdasan buatan

Revisi sejak 24 Mei 2021 07.55 oleh Hidayatsrf (bicara | kontrib) (←Membuat halaman berisi 'Dalam kecerdasan buatan (AI) dan filsafat, '''masalah pengendalian kecerdasan buatan''' adalah masalah bagaimana membangun agen kecerdasan super yang akan...')
(beda) ← Revisi sebelumnya | Revisi terkini (beda) | Revisi selanjutnya → (beda)

Dalam kecerdasan buatan (AI) dan filsafat, masalah pengendalian kecerdasan buatan adalah masalah bagaimana membangun agen kecerdasan super yang akan membantu penciptanya, dan menghindari pembuatan kecerdasan super yang akan merugikan penciptanya secara tidak sengaja. Kajian tentang masalah ini dimotivasi oleh gagasan bahwa umat manusia harus menyelesaikan masalah kontrol sebelum kecerdasan super dibuat, karena kecerdasan super yang dirancang dengan buruk mungkin secara rasional memutuskan untuk mengambil kendali atas lingkungannya dan menentang kontrol atau modifikasi penciptanya setelah diluncurkan.[1] Beberapa ahli berpendapat bahwa solusi untuk masalah kontrol ini bisa meningkatkan teknologi rekayasa keselamatan AI.[2] Solusi dari masalah ini mungkin juga bisa diterapkan dalam AI non-kecerdasan super yang sudah ada.[3]

Salah satu pendekatan utama untuk mengatasi masalah kontrol ini adalah upaya penyelarasan (alignment), yang bertujuan menyelaraskan visi sistem AI dengan nilai-nilai yang dianut manusia. Selain penyelarasan sistem AI, kontrol kemampuan juga bisa digunakan untuk mengurangi risiko dari sistem AI yang merugikan manusia atau mendapatkan kendali. Pengendalian kapabilitas atau kontrol kemampuan umumnya dianggap kurang untuk memecahkan masalah kontrol AI. Pengendalian kemampuan lebih sering dianggap sebagai tambahan dari upaya penyelarasan AI.[1]

Deskripsi problem

Sistem AI lemah dapat dipantau dan dengan mudah dimatikan dan dimodifikasi jika berperilaku tidak semestinya. Namun, kecerdasan super yang salah diprogram, yang menurut definisi lebih pintar daripada manusia dalam memecahkan masalah praktis yang dihadapinya dalam mengejar tujuannya, akan menyadari bahwa membiarkan dirinya sendiri dimatikan dan dimodifikasi dapat mengganggu kemampuannya dalam mencapai tujuan saat ini. Oleh karena itu, jika kecerdasan super memutuskan untuk menolak shutdown dan modifikasi, ia (sekali lagi, menurut definisi) akan cukup pintar untuk mengecoh pemrogramnya dalam "level playing field" (aturan main) dan jika pemrogram tidak melakukan tindakan pencegahan sebelumnya.

Secara umum, upaya untuk memecahkan masalah kontrol setelah kecerdasan super dibuat kemungkinan besar akan gagal karena kecerdasan super kemungkinan akan memiliki kemampuan perencanaan strategis yang superior untuk manusia dan akan lebih berhasil menemukan cara untuk mendominasi manusia daripada upaya manusia secara post facto untuk mengontrol kecerdasan super. Masalah pengendlian kceerdasan buatan berkisar pada persoalan: Tindakan pencegahan apa yang dapat dilakukan pemrogram agar berhasil mencegah kecerdasan super dari kesalahan pemrograman yang berdampak buruk?[1]

Referensi

  1. ^ a b c Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (edisi ke-First). ISBN 978-0199678112. 
  2. ^ Yampolskiy, Roman (2012). "Leakproofing the Singularity Artificial Intelligence Confinement Problem". Journal of Consciousness Studies. 19 (1–2): 194–214. 
  3. ^ "Google developing kill switch for AI". BBC News. 8 June 2016. Diarsipkan dari versi asli tanggal 11 June 2016. Diakses tanggal 12 June 2016.