Alasan sebenarnya Google dan OpenAI memperingatkan bahwa AI sama buruknya dengan perang nuklir atau pandemi dalam sebuah pernyataan baru
keren989
- 0
Mendaftarlah untuk menerima email View from Westminster untuk analisis ahli langsung ke kotak masuk Anda
Dapatkan Tampilan gratis kami dari email Westminster
Ini adalah 22 kata yang mungkin membuat takut orang-orang yang membacanya, baik dalam kesederhanaan maupun maknanya secara umum: “Memitigasi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko lain terhadap skala sosial seperti pandemi dan perang nuklir. ”
Demikian pernyataan dari organisasi nirlaba yang berbasis di San Francisco, Center for AI Safety, yang ditandatangani oleh kepala eksekutif Google DeepMind dan pencipta ChatGPT OpenAI, serta tokoh-tokoh besar lainnya dalam penelitian kecerdasan buatan.
Fakta bahwa pernyataan tersebut ditandatangani oleh begitu banyak peneliti dan perusahaan AI terkemuka menunjukkan bahwa pernyataan tersebut harus diperhatikan. Namun hal ini juga berarti bahwa hal ini perlu diselidiki secara menyeluruh: mengapa mereka mengatakan hal ini, dan mengapa sekarang? Jawabannya mungkin bisa menghilangkan sebagian ketakutan Anda (walaupun tidak semua).
Menulis pernyataan seperti ini berfungsi sebagai kampanye pemasaran terbalik: produk kita begitu kuat dan baru, sehingga dapat melenyapkan dunia. Kebanyakan produk teknologi hanya menjanjikan perubahan dalam hidup kita; orang-orang ini bisa mengakhirinya. Jadi pernyataan tentang bahaya juga merupakan pernyataan yang menyoroti seberapa banyak Google, OpenAI, dan banyak lagi yang berpikir mereka bisa tawarkan.
Peringatan bahwa AI bisa sama buruknya dengan pandemi juga mempunyai dampak yang aneh, yaitu membuat bahaya kecerdasan buatan muncul secara alami di dunia, seperti mutasi sebuah virus. Namun setiap AI yang berbahaya adalah produk pilihan yang disengaja oleh pengembangnya – dan dalam banyak kasus oleh perusahaan yang menandatangani deklarasi baru tersebut.
Untuk siapa pernyataan itu? Dengan siapa perusahaan-perusahaan ini berbicara? Bagaimanapun, merekalah yang menciptakan produk-produk yang dapat memusnahkan kehidupan di bumi. Bunyinya seperti dirampok oleh pencuri tentang kunci rumah Anda tidaklah cukup.
Hal ini tidak berarti bahwa peringatan tersebut tidak benar, atau tidak seharusnya diindahkan; bahayanya memang sangat nyata. Tapi itu berarti kita harus mengajukan beberapa pertanyaan lagi kepada mereka yang memperingatkan kita tentang hal ini, terutama ketika mereka adalah perusahaan yang pertama kali menciptakan teknologi yang tampaknya apokaliptik ini.
AI belum terasa begitu menghancurkan dunia. Kata-kata buruk dari pernyataan tersebut mungkin mengejutkan bagi mereka yang telah menggunakan sistem AI yang lebih mudah diakses, seperti ChatGPT. Percakapan dengan chatbot tersebut dan orang lain bisa jadi lucu, mengejutkan, menyenangkan, dan terkadang menakutkan – namun sulit untuk melihat bagaimana chatbot yang sebagian besar cerdas namun bodoh dapat menghancurkan dunia.
Hal ini mungkin juga mengejutkan bagi mereka yang telah membaca tentang cara-cara yang sangat penting dimana AI telah digunakan untuk membantu menyelamatkan kita, bukan membunuh kita. Baru minggu lalu, para ilmuwan mengumumkan bahwa mereka menggunakan kecerdasan buatan untuk menemukan antibiotik baru yang dapat membunuh bakteri super, dan itu hanyalah permulaan.
Namun, dengan berfokus pada “risiko kepunahan” dan “risiko pada skala sosial” yang ditimbulkan oleh AI, para pendukung AI dapat mengalihkan fokus dari kelemahan AI yang sebenarnya ada dan pertanyaan etis yang melingkupinya. Intensitas pernyataan tersebut, yang mengacu pada perang nuklir dan pandemi, membuat kita merasa seolah-olah berada pada titik yang setara dengan jatuh ke dalam tempat perlindungan bom atau lockdown. Mereka bilang tidak ada ateis di dalam rubah; kita juga dapat mengatakan bahwa tidak ada ahli etika di tempat perlindungan dampak buruk.
Namun, jika AI mirip dengan perang nuklir, maka kita lebih dekat dengan terbentuknya Proyek Manhattan dibandingkan dengan Perang Dingin. Kita tidak perlu menangis seolah-olah bahaya ada di sini dan tidak ada yang bisa kita lakukan selain “menguranginya”. Masih ada waktu untuk memutuskan seperti apa teknologi ini, seberapa hebatnya, dan siapa yang akan menjadi yang terdepan dalam kekuatan tersebut.
Pernyataan seperti ini mencerminkan fakta bahwa sistem yang kita miliki saat ini masih jauh dari sistem yang mungkin kita miliki di masa depan: upaya yang dilakukan oleh perusahaan-perusahaan yang mengingatkan kita akan permasalahan ini sangatlah luas dan bisa jauh lebih transformatif dibandingkan hanya sekedar mengobrol dengan perusahaan. robot. Semua ini terjadi secara rahasia, dan terselubung dalam misteri dan sensasi pemasaran, namun yang dapat kita ketahui adalah bahwa kita mungkin hanya tinggal beberapa tahun lagi dari sistem yang lebih kuat dan lebih jahat.
Saat ini dunia sedang berjuang untuk membedakan antara gambar palsu dan gambar asli; Perkembangan AI dalam waktu dekat akan membuat kita sulit membedakan antara orang palsu dan orang asli. Setidaknya menurut beberapa pihak di industri ini, AI akan berkembang dengan sangat cepat sehingga mungkin hanya perlu waktu beberapa tahun sebelum peringatan tersebut tidak lagi terlalu mengkhawatirkan dan menjadi lebih menakutkan secara nyata.
Pernyataan tersebut benar dalam mengidentifikasi risiko-risiko tersebut, dan bersikeras untuk menghindarinya. Namun hal ini lebih dari sedikit membantu bagi perusahaan-perusahaan yang menandatanganinya untuk menjadikan risiko-risiko tersebut tampak tak terelakkan dan wajar, seolah-olah mereka tidak memilih untuk membangun dan mengambil keuntungan dari teknologi yang sangat mereka khawatirkan.
Perusahaan-perusahaan itulah, bukan kecerdasan buatan, yang memiliki kekuatan untuk menentukan seperti apa masa depan kita – dan apakah hal tersebut akan mencakup “kepunahan” kita.