TEMPO.CO, Jakarta - Media sosial X (dulu Twitter) memblok pencarian untuk kata-kata Taylor Swift ataupun Taylor Swift AI. Ini adalah reaksi X terhadap foto atau gambar palsu dari artis penyanyi terkenal itu yang sempat viral di platformnya.
Gambar-gambar bangkitan kecerdasan buatan atau AI itu diunggah pada pekan lalu dan sempat viral selama 17 jam sebelum dicabut oleh X--dan akun pengunggahnya dibekukan. Gambar-gambar itu menjadikan Taylor Swift korban terkini dari perkembangan produk pornografi bangkitan AI.
Salah satu gambar palsu Taylor Swift itu sempat menarik lebih dari 45 juta views, di-repost 24 ribu kali, dan mendapat ratusan ribu tanda disukai. Di beberapa bagian dunia, Taylor Swift AI menjadi trending topic dan membuat gambar-gambarnya tambah meluas.
Saat ini, jika mencari 'Taylor Swift' atau 'Tayor Swift AI' di X, pengguna akan melihat pesan 'ada kesalahan teknis. coba muat ulang'. Kepala Bagian Bisnis X Joe Benarroch mengakui tindakan sementara itu sebagai 'prioritize safety'.
Kebijakan itu menyusul tindakan X sebelumnya, pada 26 Januari lalu, yang menegaskan mengunggah gambar-gambar Non-Consensual Nudity dilarang di platformnya. Pernyataan ini dikeluarkan bersamaan dengan X menghapus semua gambar unggahan yang teridentifikasi sebagai Taylor Swift AI.
Meta juga kelihatannya menerapkan yang sama. Ini ditandai dengan Threads maupun Instagram yang langsung menyarankan "Taylor Swift AI" jika pengguna mulai mengetik "Taylor" di kotak pencariannya. Tapi, kemudian, tidak ada yang memberikan hasil pencarian tersebut. Sebaliknya, pengguna mungkin mendapatkan pesan yag mengatakan 'is sometimes associated with activities of dangerous organizations and individuals'.
Sejumlah laporan menyebutkan kalau Taylor Swift menimbang langkah hukum terhadap situs-situs yang memberi ruang kepada gambar-gambar palsunya itu.
Adapun sebuah laporan dari 404 MEDIA menyatakan menemukan gambar-gambar sang artis yang dibuat eksplisit secara seksual itu mungkin berasal dari sebuah grup di Telegram. Di grup itu, para penggunanya membagikan gambar-gambar perempuan bangkitan AI yang dibuat menggunakan Microsoft Designer.
Menanggapi itu, CEO Microsoft Satya Nadella menegaskan deepfakes, "sudah membahayakan dan menyebabkan masalah." Dalam wawancaranya dengan NBC Nightly News, Jumat lalu, Nadella mengatakan percaya perusahaan AI butuh bergerak cepat untuk membuatkan rambu-rambu yang lebih baik.
Juru bicara Gedung Putih, Karine Jean-Pierre, juga menekankan yang sama dengan menyerukan kepada Kongres untuk menciptakan peraturan melindungi orang-orang dari gambar porno deepfakes.
THE VERGE
Pilihan Editor: PLTS Terapung di Cirata untuk Transisi Energi Mungkin Memberi Efek Polusi