Dalam sebuah penelitian yang dilakukan oleh Ketua Program Magister Kajian Budaya dan Media di Sekolah Pascasarjana UGM, ditemukan bahwa teknologi digital dan AI memiliki bias yang tidak netral. Teknologi ini dibangun berdasarkan data, desain, dan imajinasi sosial yang cenderung bias maskulin. Bahkan, seringkali dalam penggunaan sehari-hari, asisten AI digenderisasi sebagai figur feminin, dengan nama, suara, dan karakter yang merepresentasikan ketaatan dan pelayanan.
Dikemukakan bahwa logika yang mendasari teknologi telah lama memposisikan perempuan sebagai objek. Oleh karena itu, kekerasan visual digital, seperti morphing, bukan hanya berkembang dari voyeurism, tetapi juga merupakan kelanjutan dari masalah struktural yang sama. Untuk menghentikan siklus ini, Ratna menyarankan agar pengguna media digital meningkatkan kesadaran kolektif. Masyarakat perlu menyadari bahwa tindakan seperti memberi like, mengomentari, atau menyebarkan konten manipulasi AI dapat membuat seseorang menjadi pelaku sekunder.
Ratna juga berharap agar masyarakat lebih kritis dan cerdas dalam menyikapi informasi palsu. Dengan membangun kesadaran kolektif, kita dapat berperan aktif sebagai pengguna teknologi digital dan AI yang kritis. Dengan menyadari bahwa setiap tindakan seperti klik, like, dan share memiliki konsekuensi etis dan politis, kita dapat menjadi bagian dari solusi untuk meminimalisir dampak negatif dari eksploitasi visual yang terjadi secara luas.


