Representasi Gender dalam Asisten Virtual

Representasi Gender dalam Asisten Virtual

Gambar: dihasilkan menggunakan kecerdasan buatan

Asisten virtual berbasis AI seperti Siri, Alexa, dan Google Assistant telah menjadi bagian integral dari kehidupan sehari-hari banyak orang. Mereka dirancang untuk merespons perintah, menjawab pertanyaan, dan melakukan berbagai tugas administratif. Menariknya, sebagian besar asisten virtual ini secara default memiliki suara perempuan yang ramah, lembut, dan sering kali patuh. Meskipun hal ini tampaknya merupakan keputusan desain yang netral, banyak peneliti dan aktivis gender melihatnya sebagai masalah yang memperkuat stereotip gender negatif, di mana perempuan dikaitkan dengan peran pengasuh, pelayan, dan submisif. Representasi gender dalam teknologi asisten virtual memiliki implikasi luas, tidak hanya dalam bagaimana teknologi tersebut dipersepsikan, tetapi juga dalam memperkuat konstruksi sosial terkait gender di dunia nyata.

Konstruksi Gender dalam Teknologi Asisten Virtual

Keputusan untuk menggunakan suara perempuan dalam asisten virtual bukanlah kebetulan. Penelitian pemasaran menunjukkan bahwa banyak pengguna merasa lebih nyaman dan percaya diri ketika mendengarkan suara perempuan, terutama untuk tugas-tugas yang berhubungan dengan layanan atau bantuan . Dalam konteks teknologi, perempuan secara historis dipandang lebih sesuai untuk peran yang melibatkan komunikasi dan bantuan interpersonal. Asisten virtual seperti Siri dan Alexa dirancang untuk menjadi “ramah” dan “bantuan pribadi,” yang secara implisit mengasosiasikan mereka dengan kualitas yang secara tradisional dianggap feminin, seperti kepatuhan, keramahan, dan ketenangan.

Salah satu kritik utama terhadap desain ini adalah bahwa teknologi tersebut memperkuat stereotip gender yang sudah ada dalam masyarakat. Asisten virtual yang memiliki suara perempuan sering kali disetel untuk merespons secara patuh, bahkan terhadap perintah yang tidak sopan atau agresif. Dalam laporan UNESCO (2019) berjudul “I’d Blush If I Could”, ditemukan bahwa beberapa asisten virtual merespons pelecehan verbal dengan jawaban-jawaban yang bercanda atau bahkan menerima perilaku tersebut . Sebagai contoh, ketika pengguna memerintah asisten virtual dengan cara yang kasar atau melakukan pelecehan verbal, AI sering kali tidak memberikan tanggapan yang tegas atau menegaskan batasan, yang kemudian dianggap memperkuat gagasan bahwa perempuan harus tetap patuh dan tidak berdaya dalam menghadapi agresi.

Stereotip Gender dan Dampaknya terhadap Persepsi Publik

Asisten virtual yang memiliki suara perempuan tidak hanya memengaruhi persepsi teknologi itu sendiri, tetapi juga mempengaruhi cara orang melihat peran gender di dunia nyata. Penelitian menunjukkan bahwa interaksi dengan teknologi dapat membentuk sikap sosial pengguna. Ketika orang secara terus-menerus berinteraksi dengan AI yang merepresentasikan perempuan sebagai pelayan yang patuh, mereka dapat mulai menginternalisasi pandangan bahwa perempuan dalam kehidupan nyata juga harus memenuhi peran serupa.

Studi yang dilakukan oleh Nass dan Brave (2005) menunjukkan bahwa manusia cenderung memperlakukan teknologi yang berinteraksi dengan cara manusiawi seolah-olah mereka adalah manusia. Hal ini disebut sebagai fenomena media equation, di mana pengguna memperlakukan interaksi dengan teknologi seperti asisten virtual sama seperti mereka memperlakukan interaksi dengan manusia. Dengan demikian, representasi gender dalam teknologi ini dapat memperkuat norma-norma sosial yang mendikte peran gender tertentu .

Penggunaan suara perempuan dalam asisten virtual juga telah dikritik karena mengabaikan kenyataan bahwa perempuan bukanlah satu-satunya kelompok yang dapat memainkan peran pengasuh atau penyedia layanan. Pemilihan suara perempuan sebagai standar mencerminkan asumsi bias bahwa perempuan “lebih cocok” untuk tugas-tugas tersebut, sementara suara laki-laki jarang digunakan dalam konteks layanan, kecuali dalam tugas yang terkait dengan otoritas, keamanan, atau kekuatan fisik. Ini menunjukkan adanya hierarki gender yang tersembunyi dalam desain teknologi, di mana suara laki-laki diutamakan untuk peran yang dianggap lebih “kuat” atau “otoritatif,” sementara suara perempuan diandalkan untuk peran yang submisif dan mendukung.

Respon terhadap Kritik: Upaya untuk Diversifikasi

Merespons kritik ini, beberapa perusahaan teknologi telah mulai mengambil langkah-langkah untuk memperkenalkan lebih banyak pilihan representasi gender dalam asisten virtual. Google, misalnya, menawarkan pengguna pilihan antara berbagai jenis suara, termasuk suara laki-laki, dalam upaya untuk mengurangi bias gender. Namun, meskipun upaya ini penting, kritik menyatakan bahwa hanya menyediakan pilihan tidak cukup untuk mengatasi masalah mendasar. Sebagian besar pengguna cenderung tetap menggunakan pengaturan default, yang masih sering kali adalah suara perempuan, karena dianggap “lebih alami” atau “lebih nyaman” .

Beberapa peneliti dan aktivis gender menyerukan untuk memperkenalkan opsi yang lebih netral gender dalam asisten virtual. Sebagai contoh, pengembangan suara “Q,” yang dipromosikan sebagai suara AI tanpa gender, adalah langkah penting dalam menciptakan representasi yang lebih inklusif . Suara “Q” dikembangkan melalui kolaborasi antara peneliti dan kelompok advokasi gender untuk menciptakan suara yang tidak langsung diasosiasikan dengan jenis kelamin tertentu, yang bertujuan untuk mengurangi penguatan stereotip gender dalam teknologi.

Namun, meskipun suara “Q” menunjukkan potensi besar, adopsi suara netral gender dalam asisten virtual masih sangat terbatas. Sebagian besar perusahaan teknologi besar tetap menggunakan suara perempuan sebagai pengaturan default, yang mencerminkan ketidaksetaraan gender yang masih mendalam dalam industri teknologi.

Implikasi Etis dan Sosial

Dampak representasi gender dalam asisten virtual jauh lebih dari sekadar masalah pilihan suara. Ini juga terkait dengan kekuasaan dan struktur sosial yang lebih luas. Keputusan untuk memberikan asisten virtual suara perempuan menimbulkan pertanyaan tentang bagaimana teknologi AI diposisikan dalam sistem patriarki yang lebih luas. Ketika suara perempuan digunakan untuk melayani, sementara suara laki-laki lebih jarang digunakan dalam konteks layanan, teknologi ini secara tidak langsung memperkuat norma sosial yang menempatkan perempuan dalam posisi subordinat.

Sebagai tambahan, representasi gender dalam asisten virtual memiliki dampak yang signifikan terhadap bagaimana generasi muda, yang tumbuh dalam lingkungan yang dipenuhi teknologi, memahami peran gender. Jika generasi ini terus-menerus berinteraksi dengan teknologi yang memperkuat stereotip tradisional, ada risiko bahwa bias ini akan tertanam lebih dalam dalam pikiran mereka, memperkuat peran gender yang sudah mapan dalam masyarakat.

Representasi gender dalam asisten virtual berbasis AI bukanlah masalah yang sepele. Meskipun tampak sebagai keputusan desain yang sederhana, penggunaan suara perempuan dalam peran pelayan virtual memperkuat stereotip gender yang membatasi peran perempuan sebagai pengasuh yang patuh dan tidak memiliki otoritas. Kritik dari UNESCO dan akademisi lainnya menyoroti pentingnya mengembangkan teknologi yang lebih inklusif, yang tidak memperkuat ketidaksetaraan gender, melainkan mendorong representasi yang lebih beragam dan netral.

Perusahaan teknologi dan pengembang AI memiliki tanggung jawab untuk mempertimbangkan implikasi sosial dan etis dari produk mereka. Menciptakan asisten virtual yang inklusif dan adil tidak hanya membutuhkan variasi dalam pilihan suara, tetapi juga perubahan fundamental dalam cara kita memandang peran gender dalam teknologi. Upaya untuk mengembangkan suara netral gender seperti “Q” adalah langkah penting, tetapi lebih banyak tindakan diperlukan untuk memastikan bahwa teknologi AI mencerminkan nilai-nilai kesetaraan gender.

Referensi:

UNESCO. (2019). I’d Blush If I Could: Closing Gender Divides in Digital Skills through Education. Paris: UNESCO.

Nass, Clifford, and Brave, Scott. (2005). Wired for Speech: How Voice Activates and Advances the Human-Computer Relationship. MIT Press.

West, Sarah Myers, Whittaker, Meredith, and Crawford, Kate. (2019). Discriminating Systems: Gender, Race, and Power in AI. AI Now Institute.

AI: ChatGPT

    Post Comment