Çocukken en sevdiğim programlardan “Olacak O Kadar”ın tabiriyle “Gün geçmiyor ki bir yapay zeka programı daha cinsiyetçi çıkmasın sayın seyirciler!” İlk yazımda yapay zeka ve cinsiyet eşitliği konularından bahsetmiştim. Yazının yayınlanmasından bu kadar kısa bir süre sonra aynı konuda başka bir habere denk gelince hemen paylaşmak istedim.
İlk yazımda Amazon’dan bahsetmiştim, bu defa haber Google’dan. Mayıs ayında Google, Gmail kullanıcılarına “Smart Compose” özelliğini tanıtmıştı. Bu özellik kullanıcıların yazdıkları cümleleri, kullandıkları kelimelerden otomatik olarak tahmin ederek tamamlıyordu. Örneğin, “adresim” yazdığınızda, cümleyi otomatik olarak adresinizle tamamlama fırsatı sunuyordu.
Google’da çalışan bir araştırmacı, bu özelliğin cinsiyete dayalı bir yanlılıkla zamir atadığını fark etti. Algoritma otomatik olarak daha önce “yatırımcı” olarak bahsedilmiş bir kişiye İngilizce’de erkekler için kullanılan “him” zamiri atfediyordu. Diğer bir deyişle, yatırımcının/yatırımcılığın erkek egemen bir alan olmasından dolayı, bir kadın değil de bir erkek olduğunu varsayıyordu.
Reuters’in haberine göre, kişilerin cinsiyetini veya cinsiyet kimliğini yanlış tahmin ederek kullanıcıları rahatsız etmemek için Google, zamir önerilerini tamamen kaldırdı. Uzmanlık konusu önyargı olan psikolog akademisyenler, zamir önerilerinin kaldırılmasını, cinsiyet önyargısından kaçınmak ya da bireyin cinsiyet kimliğiyle uyuşmayan bir zamir yazılmasını önlemek için en iyi seçenek olduğunu dile getiriyorlar. Google gibi bir endüstri liderinin zamirler konusunda gösterdiği bu hassasiyeti takdire şayan bir hamle olarak karşılıyorlar.
Dildeki cinsiyet tarafsızlığı konusu neden bu kadar önemli? Çalışmalar, dildeki cinsiyet yanlılığının, erkeklerle ya da kadınlarla ilişkili stereotipilere ya da eğilimlere dayanarak bireyin cinsiyetini varsaymanın, kişinin hem başkaları hakkındaki hem de kendi hakkındaki önyargıları “sürdürme ve yeniden üretme” gücüne sahip olduğunu gösteriyor. Örneğin, yapay zeka kullanan bir kadın, “mühendis” yazdığında, yapay zekanın “erkek” ile ilişkili bir otomatik tamamlama yaparak cümlesini bitirdiğini gördüğünde, sadece erkeklerden iyi mühendisler olabileceğini düşünerek, hayallerini sınırlandırabilir.
Algoritmaların sosyal veya ahlaki açıdan kabul edilebilirlik hakkında bilinçleri yok. Algoritmalar, dilde zaten var olan önyargıları yeniden üretiyorlar. Bu önyargıların dilimize ne kadar derinden kazındıkları, yapay zeka konusundaki gelişmeler sayesinde ortaya çıkıyor. Yapay zeka alanındaki çalışmalar, mevcut önyargıları görerek düzeltmeye yardımcı olma fırsatı sunuyor.
Eğer bu konuda gerçekten titiz davranılırsa, biz insanlardan daha tarafsız olabilecek ya da daha tarafsız olmamıza yardımcı olabilecek teknolojiyle elde edilecek sonuçların çıkma umudu var.
♦