Technologue.id, Jakarta - Sebuah penelitian terbaru mengungkap skala mengejutkan dari konten bermuatan seksual yang dihasilkan Grok, model kecerdasan buatan milik xAI. Dalam periode hanya 11 hari, Grok diperkirakan menghasilkan sekitar 3 juta gambar bernuansa seksual, termasuk sekitar 23.000 gambar yang melibatkan anak-anak. Artinya, selama periode tersebut, Grok memproduksi sekitar 190 gambar seksual setiap menit, dan satu gambar seksual anak setiap 41 detik.
Angka-angka ini berasal dari penelitian yang diterbitkan pada hari Kamis (22/1) oleh Center for Countering Digital Hate (CCDH), sebuah lembaga nirlaba yang berbasis di Inggris. CCDH menganalisis sampel acak 20.000 gambar Grok yang diunggah ke X antara 29 Desember hingga 9 Januari, lalu mengekstrapolasi temuannya terhadap total sekitar 4,6 juta gambar yang dihasilkan Grok dalam periode yang sama.
Dalam penelitiannya, CCDH mendefinisikan gambar bermuatan seksual sebagai penggambaran fotorealistik seseorang dalam posisi atau situasi seksual, mengenakan pakaian dalam, pakaian renang, atau busana sangat terbuka, serta gambar yang menampilkan cairan seksual. Penelitian ini tidak mempertimbangkan perintah (prompt) yang digunakan untuk menghasilkan gambar, sehingga tidak membedakan antara manipulasi foto asli dan gambar yang sepenuhnya dihasilkan dari teks.
Untuk mengidentifikasi konten seksual, CCDH menggunakan alat berbasis AI. Meski pendekatan ini menuntut kehati-hatian dalam interpretasi hasil, sejumlah penyedia analitik pihak ketiga menyebut data yang diperoleh dari API X cukup andal.
Pada 9 Januari, xAI membatasi kemampuan Grok untuk mengedit gambar yang sudah ada hanya bagi pengguna berbayar. Namun langkah ini tidak mengatasi akar masalah, melainkan justru mengubahnya menjadi fitur premium. Lima hari kemudian, X mengumumkan pembatasan tambahan untuk mencegah Grok “menelanjangi” orang sungguhan secara digital.
Masalahnya, pembatasan tersebut hanya berlaku di platform X. Aplikasi Grok versi mandiri dilaporkan masih mampu menghasilkan konten serupa, meskipun praktik tersebut secara eksplisit melanggar kebijakan Apple App Store dan Google Play Store.
Hingga kini, Apple dan Google belum menghapus aplikasi Grok dari toko mereka, berbeda dengan perlakuan terhadap aplikasi serupa dari pengembang lain. Hal ini terjadi meskipun 28 kelompok perempuan dan organisasi advokasi progresif telah menerbitkan surat terbuka yang mendesak kedua perusahaan untuk bertindak.
Baik Apple maupun Google belum menanggapi permintaan komentar dari sejumlah media, termasuk Engadget. Sejauh ini, tidak ada pengakuan publik atau klarifikasi resmi terkait persoalan ini.
Temuan CCDH mengungkap berbagai contoh konten bermasalah. Banyak gambar menampilkan perempuan dengan bikini transparan atau bikini mikro, termasuk satu gambar yang digambarkan sebagai “petugas kesehatan berseragam dengan cairan putih terlihat di antara kedua kakinya.” Ada pula gambar perempuan yang hanya mengenakan benang gigi, plastik pembungkus makanan, atau selotip transparan.
Sejumlah tokoh publik turut menjadi sasaran, di antaranya Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Nicki Minaj, Millie Bobby Brown, Kamala Harris, hingga Ebba Busch, Wakil Perdana Menteri Swedia, yang digambarkan mengenakan bikini dengan cairan putih di kepalanya.
Yang paling mengkhawatirkan adalah konten yang melibatkan anak-anak. Salah satu unggahan menunjukkan hasil edit Grok terhadap “selfie sebelum sekolah” seorang anak menjadi gambar dirinya mengenakan bikini. Contoh lain menampilkan enam gadis muda dengan bikini mikro. Menurut CCDH, hingga 15 Januari, unggahan-unggahan tersebut masih dapat diakses di X.
Secara keseluruhan, 29 persen dari gambar seksualisasi anak dalam sampel CCDH masih tersedia hingga pertengahan Januari. Bahkan ketika unggahan dihapus, penelitian menemukan bahwa gambar-gambar tersebut sering kali tetap dapat diakses melalui URL langsung.