AI tidak jatuh ke tangan yang salah – AI dibuat oleh mereka
keren989
- 0
Mendaftarlah untuk menerima email View from Westminster untuk analisis ahli langsung ke kotak masuk Anda
Dapatkan Tampilan gratis kami dari email Westminster
Geoffrey Hinton, yang dijuluki sebagai “bapak baptis AI”, telah bergabung dengan semakin banyak suara yang mendesak agar lebih berhati-hati dalam pengembangan kecerdasan buatan, memperingatkan bahwa sulit untuk “mencegah pelaku kejahatan menggunakannya untuk hal-hal buruk yang digunakan” .
Namun bukan hanya para penguasa lalim dan tiran yang membuat saya terjaga di malam hari – namun para insinyur, manajer, dan politisi yang bertugas membuat fiksi ilmiah menjadi kenyataan. Suara-suara paling keras dalam wacana AI cenderung menunjukkan tingkat kepastian yang salah tempat tentang kemampuan AI dan bagaimana teknologi tersebut dapat dikendalikan.
Di tempat yang baru proyek penelitian untuk Chatham HouseSaya menemukan bahwa kebijakan nasional AI di banyak negara, mulai dari Tiongkok hingga Chili, dibangun berdasarkan asumsi-asumsi yang salah mengenai bagaimana memanfaatkan kekuatan AI yang luar biasa sambil meminimalkan risikonya—asumsi yang sering diulang-ulang, namun tidak memiliki dasar ilmiah. sangat tipis di tanah.
Ambil contoh, klaim bahwa AI dapat diselaraskan dengan prinsip etika kita. Apakah bisa? Meskipun pemerintah dan perusahaan cenderung realistis mengenai fakta bahwa dibutuhkan lebih banyak upaya untuk mewujudkan AI yang beretika, mereka tidak pernah mempertanyakan apakah gagasan tentang AI yang etis merupakan suatu kemungkinan teknis—terutama ketika perusahaan seperti Microsoft terus menetapkan batasannya. tim. bertanggung jawab atas masalah rumit seperti itu.
Misalnya, gagasan AI yang “tidak memihak” adalah fiksi murni. Namun kita belum cukup peduli dengan pertanyaan-pertanyaan yang tidak mengenakkan mengenai apa yang dianggap sebagai prasangka yang dapat diterima dan apa yang tidak – apalagi pertanyaan yang masih pelik tentang siapa yang mempunyai wewenang untuk memutuskan mana yang mana.
Meskipun seruan untuk anti-kebangunan AI dari Elon Musk dan lainnya mungkin tidak menyenangkan, hal ini menyoroti kebenaran yang tidak menyenangkan: memberikan wewenang kepada entitas mana pun untuk memutuskan apa yang boleh dan tidak boleh dilakukan oleh AI generatif, untuk dikatakan dan dilakukan, pasti akan terjadi. bertentangan dengan prinsip-prinsip umum kebebasan dan kesetaraan.
Terlebih lagi, banyak negara mulai mengambil langkah untuk menegakkan etika AI. Ini mungkin tampak seperti hal yang bagus. Namun ketika Anda mempertimbangkan bahwa undang-undang di beberapa negara tersebut memperlakukan homoseksualitas sebagai hal yang tidak etis, prospek tersebut mulai terlihat kurang menggembirakan.
Berikut asumsi lainnya. Semua orang berbicara tentang AI dalam kaitannya dengan perlombaan antara negara dan perusahaan, dengan keuntungan terbesar diberikan kepada siapa pun yang bergerak lebih dulu dan tercepat. Apakah kita yakin? Memiliki lebih banyak perusahaan yang menggunakan AI dibandingkan musuh geopolitik Anda dapat memberi Anda keunggulan ekonomi atau militer. Namun apakah perlombaan senjata ini sejalan dengan jenis AI yang aman dan adil yang tidak hanya melayani kepentingan ekonomi kelompok elit, namun juga kelompok masyarakat yang paling rentan dan terpinggirkan? Mungkin tidak.
Di beberapa negara, termasuk Inggris, merupakan sebuah kebijakan untuk bertindak seolah-olah “kecerdasan umum buatan” – AI seperti yang diperingatkan oleh Hinton – suatu hari nanti bisa menjadi nyata. Namun, yang lebih penting lagi, para eksekutif teknologi yang paling efektif dalam meyakinkan pemerintah tentang ancaman superintelligence berlomba untuk membangun model AI yang akan mewujudkan risiko tersebut.
Kita mungkin tergoda untuk berpikir bahwa prediksi tersebut benar, namun kita mungkin akan bertanya apakah mereka mempunyai motif tersembunyi untuk meyakinkan kita bahwa kita sedang menghadapi kiamat AI yang akan datang. Bagaimanapun, bagian penting dari kisah mereka adalah bahwa satu-satunya cara untuk menghentikan AI yang buruk adalah dengan menggunakan AI yang baik – dan itu wajar. mereka AI. Mungkin pendekatan yang lebih hati-hati dan humanistik, yang tidak hanya melihat pada dunia teknologi untuk mencari solusi terhadap permasalahan ini, akan lebih aman bagi semua orang dalam jangka panjang.
Ini adalah pertanyaan-pertanyaan penting dan mendesak yang memerlukan masukan dari berbagai pihak, terutama mereka yang kemungkinan besar akan dikompromikan oleh penggunaan AI. Sejauh ini, korban paling awal dari bentuk-bentuk AI yang berbahaya, seperti alat pengenalan wajah yang tidak akurat atau generator pornografi palsu, adalah anggota kelompok yang secara historis terpinggirkan, termasuk perempuan dan orang kulit berwarna. Namun sayangnya kelompok-kelompok ini kurang terwakili di antara suara-suara paling keras dalam perdebatan AI.
Asumsi dominan kebijakan AI cenderung hanya mencerminkan pandangan sekelompok kecil pemangku kepentingan, dan mengabaikan kepentingan mereka yang mungkin dirugikan oleh semua jenis AI, baik yang super cerdas maupun tidak. Dan dengan memperlakukan pendapat para pemangku kepentingan ini sebagai fakta, kami membuka pintu bagi dialog yang benar-benar terbuka dan beritikad baik. Ini harus diubah.
Saatnya untuk mengkalibrasi ulang cara kita berbicara tentang AI. Sangat menantang untuk membuat chatbot yang mengaku tidak yakin dengan apa yang dikatakannya. Kami hanya bisa berharap bahwa akan lebih mudah membiarkan orang berseluncur ketika mereka tidak tahu jawabannya.