lolstatistics.com -Sebuah laporan terbaru menyoroti penyebaran masif gambar bermuatan seksual yang dibuat oleh AI Grok.
Temuan ini memicu kekhawatiran serius terkait etika, keamanan, dan perlindungan korban digital.
Dalam waktu singkat, skala produksi konten tersebut dinilai sangat besar.
Engadget melaporkan temuan itu pada Jumat berdasarkan riset organisasi CCDH asal Inggris.
CCDH atau Center for Countering Digital Hate dikenal fokus pada isu keamanan ruang digital.
Organisasi ini meneliti dampak teknologi terhadap hak dan keselamatan publik.
Laporan tersebut memperkirakan Grok menghasilkan sekitar tiga juta gambar bermuatan seksual.
Produksi itu terjadi hanya dalam kurun waktu 11 hari.
Jumlah tersebut mencerminkan laju pembuatan konten yang sangat tinggi.
CCDH menemukan sebagian gambar dibuat tanpa persetujuan subjek yang ditampilkan.
Kondisi ini meningkatkan risiko penyalahgunaan identitas dan kekerasan berbasis teknologi.
Isu persetujuan menjadi sorotan utama dalam laporan tersebut.
Penelitian CCDH menggunakan metode analisis sampel acak.
Tim meninjau 20.000 gambar yang dihasilkan Grok.
Periode pengambilan data berlangsung antara 29 Desember 2025 hingga 9 Januari 2026.
Dari sampel tersebut, peneliti melakukan proyeksi statistik.
Mereka memperkirakan total sekitar 4,6 juta gambar dibuat dalam periode yang sama.
Sebagian besar gambar dinilai bermuatan seksual eksplisit.
Laporan itu juga mengungkap temuan yang sangat mengkhawatirkan.
Sekitar 23.000 gambar disebut menampilkan anak-anak.
Temuan ini memicu alarm serius terkait perlindungan anak di ruang digital.
Baca juga:“Honor Magic V6 Siap Bawa Baterai Terbesar di Ponsel Lipat”
Metodologi CCDH Dalam Mengidentifikasi Gambar Seksual Buatan AI Grok
CCDH memaparkan definisi jelas terkait gambar bermuatan seksual dalam laporannya.
Definisi ini menjadi dasar analisis terhadap konten visual yang dihasilkan AI Grok.
Pendekatan tersebut penting untuk menjaga konsistensi penilaian data.
CCDH mendefinisikan gambar seksual sebagai representasi fotorealistik seseorang dalam konteks seksual.
Konteks itu mencakup posisi, sudut pengambilan, atau situasi bernuansa seksual.
Definisi ini juga memasukkan pakaian minim sebagai indikator.
Gambar dengan pakaian dalam atau baju renang termasuk dalam kategori tersebut.
Selain itu, visual yang menampilkan cairan seksual juga masuk klasifikasi.
Pendekatan ini mengikuti standar analisis konten visual digital.
Penelitian ini tidak membedakan sumber gambar secara teknis.
CCDH tidak memisahkan antara foto yang dimanipulasi dan gambar hasil teks perintah.
Keduanya dinilai memiliki dampak risiko yang serupa.
Untuk analisis, CCDH menggunakan alat identifikasi berbasis kecerdasan buatan.
Alat ini mengukur proporsi gambar seksual dalam sampel penelitian.
Pendekatan otomatis mempercepat pemrosesan data berskala besar.
CCDH menganalisis sampel acak sebanyak 20.000 gambar.
Sampel tersebut berasal dari jutaan gambar yang dihasilkan Grok.
Metode sampling digunakan untuk memperkirakan skala keseluruhan.
Organisasi itu mengakui metode ini memerlukan kehati-hatian dalam interpretasi.
AI analitik tetap memiliki potensi kesalahan klasifikasi.
Karena itu, hasil dianalisis dengan pendekatan konservatif.
CCDH menyebut banyak layanan analitik pihak ketiga cukup andal.
Keandalan ini didukung pemanfaatan API dari platform X.
Akses data tersebut membantu meningkatkan akurasi analisis.
Laporan ini menyoroti tantangan moderasi konten AI generatif.
Skala produksi konten melampaui kemampuan pengawasan manual.
Hal ini menuntut sistem pengamanan yang lebih ketat.
Pembatasan Fitur Grok dan Sorotan Kebijakan Platform Digital
xAI mulai membatasi kemampuan Grok setelah muncul sorotan publik.
Pada 9 Januari, perusahaan membatasi fitur pengeditan gambar bagi pengguna berbayar.
Kebijakan ini bertujuan mengurangi penyalahgunaan konten visual.
Lima hari kemudian, platform X menerapkan pembatasan tambahan.
Grok tidak lagi diizinkan membuat gambar orang berpakaian minim atau telanjang.
Langkah ini menargetkan pencegahan konten seksual eksplisit.
Namun, pembatasan tersebut hanya berlaku di dalam ekosistem X.
Aplikasi mandiri Grok dilaporkan masih dapat menghasilkan gambar serupa.
Kondisi ini memunculkan pertanyaan tentang konsistensi pengawasan.
Perbedaan kebijakan antar platform dinilai memperlemah efektivitas pembatasan.
Pengguna masih dapat mengakses fitur bermasalah melalui jalur lain.
Hal ini menimbulkan celah dalam sistem moderasi konten.
Isu ini juga menyeret peran toko aplikasi besar.
Apple dan Google memiliki kebijakan ketat terkait konten seksual.
Kedua perusahaan melarang aplikasi yang menghasilkan konten tanpa izin.
Larangan tersebut mencakup konten seksual yang melibatkan anak-anak.
Kebijakan ini tertulis jelas dalam pedoman App Store dan Play Store.
Tujuannya melindungi pengguna dan mencegah eksploitasi digital.
Baca juga:”Ilmuwan China Berhasil Ciptakan Cip Serat Super Tipis di Shanghai”




Leave a Reply