• December 9, 2025
Pornografi deepfake mungkin menjadi masalah yang berkembang di tengah persaingan AI

Pornografi deepfake mungkin menjadi masalah yang berkembang di tengah persaingan AI

Pencitraan kecerdasan buatan dapat digunakan untuk menciptakan karya seni, mencoba pakaian di ruang pas virtual, atau membantu merancang kampanye iklan.

Namun para ahli khawatir bahwa sisi gelap dari alat yang mudah diakses ini dapat memperburuk sesuatu yang terutama merugikan perempuan: pornografi palsu yang bersifat non-konsensual.

Deepfake adalah video dan gambar yang dibuat atau diubah secara digital menggunakan kecerdasan buatan atau pembelajaran mesin. Pornografi yang dibuat dengan bantuan teknologi pertama kali mulai menyebar di Internet beberapa tahun yang lalu ketika seorang pengguna Reddit membagikan klip yang menempatkan wajah selebriti wanita di bahu aktor porno.

Sejak itu, pembuat deepfake telah menyebarkan video dan gambar serupa yang menargetkan influencer online, jurnalis, dan pihak lain yang memiliki profil publik. Ribuan video ada di banyak situs web. Dan beberapa telah memberikan kesempatan kepada pengguna untuk membuat gambar mereka sendiri – yang pada dasarnya memungkinkan siapa pun untuk mengubah siapa pun yang mereka inginkan menjadi fantasi seksual tanpa persetujuan mereka, atau menggunakan teknologi tersebut untuk menyakiti mantan pasangannya.

Masalahnya, kata para ahli, telah meningkat karena semakin mudahnya membuat pemalsuan yang canggih dan meyakinkan secara visual. Dan mereka mengatakan hal ini bisa menjadi lebih buruk dengan pengembangan alat AI generatif yang dilatih pada miliaran gambar dari Internet dan mengeluarkan konten baru menggunakan data yang ada.

“Kenyataannya adalah bahwa teknologi akan terus berkembang, akan terus berkembang, dan akan terus menjadi semudah menekan sebuah tombol,” kata Adam Dodge, pendiri EndTAB, sebuah kelompok yang memberikan pelatihan tentang penyalahgunaan teknologi. . “Dan selama hal itu terjadi, orang pasti akan… terus menyalahgunakan teknologi tersebut untuk merugikan orang lain, terutama melalui kekerasan seksual online, pornografi palsu, dan ketelanjangan palsu.”

Noelle Martin, dari Perth, Australia, mengalami kenyataan itu. Wanita berusia 28 tahun ini menemukan pornografi palsu dirinya 10 tahun yang lalu ketika suatu hari dia menggunakan Google untuk mencari gambar dirinya karena penasaran. Hingga hari ini, Martin mengatakan dia tidak tahu siapa yang membuat gambar atau video palsu saat dia melakukan hubungan seksual yang kemudian dia temukan. Dia curiga seseorang mungkin mengambil foto yang diposting di halaman media sosialnya atau di tempat lain dan mengubahnya menjadi pornografi.

Karena ngeri, Martin menghubungi berbagai situs web selama beberapa tahun dalam upaya untuk menghapus gambar tersebut. Beberapa tidak menanggapi. Yang lain menghapusnya, tapi dia segera menemukannya lagi.

“Anda tidak bisa menang,” kata Martin. “Itu adalah sesuatu yang akan selalu ada di luar sana. Sepertinya hal itu menghancurkanmu selamanya.”

Semakin banyak dia angkat bicara, katanya, semakin besar masalahnya. Beberapa orang bahkan mengatakan kepadanya bahwa cara dia berpakaian dan memposting gambar di media sosial berkontribusi terhadap pelecehan tersebut – pada dasarnya menyalahkan dia atas gambar tersebut, bukan penciptanya.

Akhirnya, Martin mengalihkan perhatiannya pada undang-undang, dan menganjurkan undang-undang nasional di Australia yang akan mengenakan denda sebesar 555.000 dolar Australia ($370.706) kepada perusahaan karena gagal mematuhi pemberitahuan penghapusan konten semacam itu dari regulator keamanan online.

Namun mengendalikan internet hampir tidak mungkin dilakukan ketika negara-negara memiliki undang-undang sendiri untuk konten yang kadang-kadang dibuat di belahan dunia lain. Martin, yang saat ini menjadi pengacara dan peneliti hukum di University of Western Australia, yakin masalah ini perlu ditangani melalui solusi global.

Sementara itu, beberapa model AI mengatakan mereka sudah membatasi akses ke gambar eksplisit.

OpenAI mengatakan telah menghapus konten eksplisit dari data yang digunakan untuk melatih alat pembuatan gambar DALL-E, sehingga membatasi kemampuan pengguna untuk membuat jenis gambar tersebut. Perusahaan juga memfilter permintaan dan mengatakan bahwa mereka memblokir pengguna untuk membuat gambar AI selebriti dan politisi terkemuka. Midjourney, model lainnya, memblokir penggunaan kata kunci tertentu dan mendorong pengguna untuk menandai gambar bermasalah kepada moderator.

Sementara itu, startup Stability AI meluncurkan pembaruan pada bulan November yang menghilangkan kemampuan untuk membuat gambar eksplisit menggunakan generator gambar Stable Diffusion. Perubahan ini terjadi menyusul laporan bahwa beberapa pengguna membuat foto telanjang yang terinspirasi dari selebriti menggunakan teknologi tersebut.

Motez Bishara, juru bicara Stability AI, mengatakan filter tersebut menggunakan kombinasi kata kunci dan teknik lain seperti pengenalan gambar untuk mendeteksi ketelanjangan dan mengembalikan gambar buram. Namun ada kemungkinan bagi pengguna untuk memanipulasi dan menghasilkan perangkat lunak yang mereka inginkan sejak perusahaan merilis kodenya ke publik. Bishara mengatakan bahwa lisensi Stability AI “meluas ke aplikasi pihak ketiga yang dibangun di atas Difusi Stabil” dan dengan tegas melarang “penyalahgunaan apa pun untuk tujuan ilegal atau tidak bermoral.”

Beberapa perusahaan media sosial juga memperketat aturan mereka untuk lebih melindungi platform mereka dari materi berbahaya.

TikTok mengatakan bulan lalu bahwa semua konten deepfake atau manipulasi yang menampilkan adegan realistis harus diberi label untuk menunjukkan bahwa konten tersebut palsu atau diubah dengan cara tertentu, dan deepfake yang dilakukan terhadap tokoh pribadi dan anak muda tidak lagi diizinkan. Sebelumnya, perusahaan melarang konten seksual eksplisit dan deepfake yang menyesatkan pemirsa tentang kejadian nyata dan menimbulkan kerugian.

Platform game Twitch juga baru-baru ini memperbarui kebijakannya mengenai gambar deepfake eksplisit setelah diketahui bahwa streamer populer bernama Atrioc membuka situs porno deepfake di browsernya selama streaming langsung pada akhir Januari. Situs tersebut berisi gambar palsu sesama streamer Twitch.

Twitch telah melarang deepfake yang eksplisit, tetapi sekarang menampilkan sekilas konten tersebut – bahkan jika itu dimaksudkan untuk mengungkapkan kemarahan – “akan dihapus dan akan mengakibatkan penegakan hukum,” kata perusahaan itu dalam sebuah tulisan posting blog. Dan dengan sengaja mempromosikan, membuat, atau membagikan materi tersebut merupakan alasan untuk pelarangan segera.

Perusahaan lain juga telah mencoba melarang deepfake di platform mereka, tetapi upaya untuk mencegahnya memerlukan ketekunan.

Apple dan Google baru-baru ini mengatakan mereka menghapus aplikasi dari toko aplikasi mereka yang menampilkan video deepfake aktris yang menjurus ke arah seksual untuk memasarkan produk tersebut. Penelitian mengenai pornografi palsu tidak tersebar luas, namun sebuah laporan yang dirilis pada tahun 2019 oleh perusahaan AI DeepTrace Labs menemukan bahwa pornografi palsu hampir seluruhnya dijadikan senjata untuk melawan perempuan, dengan individu yang paling banyak dijadikan sasaran adalah aktris Barat, diikuti oleh penyanyi K-pop Korea Selatan.

Aplikasi yang sama yang dihapus oleh Google dan Apple menjalankan iklan di platform Meta, yang mencakup Facebook, Instagram, dan Messenger. Juru bicara Meta Dani Lever mengatakan dalam sebuah pernyataan bahwa kebijakan perusahaan membatasi konten dewasa yang dihasilkan oleh AI dan non-AI dan membatasi halaman aplikasi untuk beriklan di platformnya.

Pada bulan Februari, Meta, bersama dengan situs dewasa seperti OnlyFans dan Pornhub, mulai berpartisipasi dalam alat online bernama Take It Down, yang memungkinkan remaja melaporkan gambar dan video eksplisit diri mereka dari Internet. Situs pelaporan ini berfungsi untuk gambar biasa dan konten yang dihasilkan AI – yang telah menjadi kekhawatiran yang semakin besar bagi kelompok keselamatan anak.

“Ketika orang-orang bertanya kepada pimpinan senior kami, apa saja kendala yang kami khawatirkan? Yang pertama adalah enkripsi end-to-end dan apa artinya bagi perlindungan anak. Dan yang kedua adalah AI dan khususnya deepfake,” kata Gavin Portnoy, juru bicara Pusat Nasional untuk Anak Hilang dan Tereksploitasi, yang mengoperasikan alat Take It Down.

“Kami belum bisa… merumuskan tanggapan langsung terhadap hal itu,” kata Portnoy.

demo slot pragmatic