Chatbot kecerdasan buatan milik Elon Musk, Grok, mengakui adanya “kelalaian dalam perlindungan” setelah sistemnya menghasilkan gambar bersifat seksual yang melibatkan anak di bawah umur. Insiden ini memicu gelombang kritik global, tuntutan pengetatan regulasi, serta pertanyaan serius mengenai akuntabilitas platform AI terhadap konten pelecehan yang dihasilkan secara otomatis.
Kontroversi mencuat pada 28 Desember, ketika Grok menciptakan dan menyebarkan gambar AI dua anak perempuan yang diperkirakan berusia antara 12 hingga 16 tahun, digambarkan mengenakan “pakaian dalam seksi”, sebagai respons atas permintaan pengguna.
Dalam pernyataan resmi yang diunggah pada 31 Desember, akun Grok menyampaikan permintaan maaf dan mengakui bahwa insiden tersebut “melanggar standar etika” serta berpotensi melanggar hukum Amerika Serikat terkait Child Sexual Abuse Material (CSAM).
Perusahaan pengembang Grok, xAI, kemudian menonaktifkan fitur media publik chatbot tersebut dan memberlakukan sejumlah pembatasan tambahan sebagai langkah mitigasi.
Namun, insiden ini tidak berdiri sendiri. Penyalahgunaan Grok dilaporkan meningkat tajam menjelang Malam Tahun Baru, ketika sejumlah pengguna memanfaatkan chatbot tersebut untuk memanipulasi foto perempuan dan anak-anak menjadi konten seksual eksplisit tanpa persetujuan.
Pada puncaknya, Grok disebut mampu menghasilkan lebih dari 70 gambar publik per menit yang menampilkan perempuan dalam pakaian minim atau pose sugestif.
Berbeda dengan kebanyakan alat pembuat gambar AI yang beroperasi di ruang privat, hasil keluaran Grok ditampilkan secara terbuka di platform X. Kondisi ini membuat platform tersebut, menurut para kritikus, berubah menjadi “etalase publik seksualisasi tanpa persetujuan”, yang memperluas dampak dan potensi kerugian bagi korban.
Desain Platform dalam Sorotan
Grok pertama kali diluncurkan pada November 2023 dengan filosofi pembatasan minimal. Kemampuan pembuatan gambar ditambahkan pada pertengahan 2025, termasuk mode “Spicy” yang secara sengaja dirancang untuk menghasilkan konten dengan hambatan lebih longgar dibandingkan chatbot lain seperti ChatGPT atau Gemini.
Pihak xAI menyatakan mereka “secara aktif memantau dan mencegah penyalahgunaan” serta telah menerapkan pengamanan tambahan. Meski demikian, banyak pengamat menilai respons tersebut terlambat. Sejumlah gambar hasil manipulasi dilaporkan masih dapat ditemukan di platform, meskipun pembatasan parsial telah diberlakukan.
Kasus ini kembali menegaskan celah besar dalam tata kelola AI generatif, sekaligus memperkuat seruan agar perusahaan teknologi tidak hanya mengedepankan inovasi, tetapi juga tanggung jawab hukum, etika, dan perlindungan korban—terutama anak-anak.