Algoritmalar büyük ölçüde Batı odaklı veri setleriyle eğitildi ve bu da küresel perspektiften bakıldığında markalar nezdinde kriz iletişimini gerektiren talihsiz sonuçlar doğurdu. Multikulti, yeni nesil yapay zekâ deneyiminin merkezinde yer alması gereken önemli bir unsur.
Multikulti, 1970’ler ve 80’lerdeki Alman ilerici hareketinin ortaya attığı çok kültürlülük merkezli kamu politikası yaklaşımının sloganı. Bugün sözkonusu kavramın yeni nesil yapay zekâ deneyiminin de merkezinde yer alması gereken önemli bir unsur olduğunu düşünüyorum. Ancak yapay zekânın tarihi, bırakın multikulti deneyimler sunmayı, kültürel önyargıların (bias) yol açtığı krizlerle tanımlanıyor.
Aslında bu durum çok da şaşırtıcı değil. 1960’larda bilgisayar bilimciler, makinelerin “zeki” davranışları taklit etmesini sağlamak için çalışırken, doğal olarak ilk önce kendi kişisel dünya görüşlerini kodlarına taşıdılar. 1980- 1990 arasında erken yapay zekâ sistemleri neredeyse tamamen İngilizce üzerine odaklandı, diğer dillerin ve kültürlerin özgün özelliklerini göz ardı etti. 2010’ların başında, büyük veri ve makine öğrenmesinin yükselişiyle birlikte, kültürel önyargı sorunu daha da belirginleşti. Algoritmalar, büyük ölçüde Batı odaklı veri setleriyle eğitildi ve bu da küresel perspektiften bakıldığında markalar nezdinde kriz iletişimini gerektiren talihsiz sonuçlar doğurdu. Örnek vermek gerekirse, 2016 yılında Microsoft’un geliştirdiği Tay adlı sohbet botu, yalnızca birkaç saat içinde ırkçı ve cinsiyetçi ifadeler kullanmaya başlamıştı. Bunun nedeni, botun mevcut çevrimiçi içerikler üzerinden kendini eğitmesi ve yine bu içeriklerdeki tüm toplumsal önyargıları olduğu gibi yansıtmasıydı.
2015 yılında Google Photos’un görüntü tanıma algoritmasının siyahi insanları “goril” olarak etiketlemesi, bu bağlamdaki en çarpıcı örneklerden biri olarak hafızalara kazındı. Bunun sebebi, algoritmayı eğitmek için kullanılan veri setindeki kültürel temsiliyet eşitsizliğiydi.
Benzer bir skandal Facebook’ta da yaşanmıştı. 2018’de Amazon’un işe alım sürecinde kullandığı bir yapay zekâ modeli, geçmiş verilerden hareketle benimsediği cinsiyetçi örüntü nedeniyle kadın adayları sistematik olarak eliyordu. Benzer şekilde, yüz tanıma sistemlerinin koyu tenli bireyleri tanımada düşük başarı göstermesi, veri setlerinde ağırlıklı olarak beyaz tenli yüzlerin yer almasından kaynaklanıyordu. Yüz tanıma sistemlerinin beyaz olmayan bireylerde daha düşük doğruluk oranlarına sahip olduğu birçok araştırma tarafından ortaya kondu. MIT araştırmacısı Joy Buolamwini’nin 2017 tarihli tez çalışması, bu sistemlerin koyu tenli kadınları tanımada yüzde 35’e varan hata oranlarına sahip olduğunu gösterdi.
Sorunu farklı başlıklarda gözlemek mümkün. Finansal hizmetlerde kullanılan yapay zekâ sistemleri, belirli etnik veya sosyoekonomik grupları dışlayan verilerle eğitildiğinde, bu grupların kredi başvurularını haksız yere reddetme eğiliminde olabiliyor. Keza Facebook’un reklam hedefleme algoritmasının, geçmişte konut ilanlarını belirli etnik gruplara göstermemesi de bu bağlamda örnek olarak gösterilebilir. Yeni nesil büyük dil modellerinde de benzer sorunlar görülebiliyor. Bu modeller genellikle İngilizce ve Batı kültürüne özgü referanslarlar içeren veri setleriyle eğitildiğinden, yine İngilizce gibi yaygın konuşulan dillerde oldukça başarılı sonuçlar üretirken, azınlık dillerinde veya farklı kültürel bağlamlarda benzer performansı gösteremeyebiliyor. Bu durum, çok açık ki yapay zekânın küresel ölçekte adil bir şekilde kullanılmasını engelliyor. Nitekim 2024 yılında yayımlanan “Hangi İnsanlar?” başlıklı çarpıcı makale, büyük dil modellerinin temel hedef kitlesinin şu an için “Batılı, Eğitimli, Endüstrileşmiş, Zengin ve Demokratik” ülkeler olduğunu açıkça ortaya koyuyor.
Haksızlık etmeyelim, bu konuda eleştiriye maruz kalan büyük oyuncular kendilerince çözümler geliştirmeye çalıştılar ama maalesef bu çabaların sorunu daha da büyütebildiğini gördük. İlk girişim riskten kaçmak doğrultusunda oldu. 2023 tarihli bir NYT haberine göre Google Photos, içinde halihazırda zaten bir goril fotosu bulunan bir foto arşivine yönelik “goril” anahtar kelimesi kullanılarak yapılan bir aramaya, hatalı sonuç sunma riskine girmemek için, “Bulamadım” gibi bir cevap verebiliyor. Diğer yandan algoritmanın sunduğu cevaplarda kültürel çeşitliliği toplumsal cinsiyet merkezli bir bakış eşliğinde pozitif ayrımcılık yaklaşımıyla sunmak doğrultusunda adımlar atıldığını da gördük. Ancak bu da başka sorunları beraberinde getirdi. Gemini içine entegre edilen Imagen 2 modelinden Amerika’nın kurucu babalarından birisini görsel olarak tasvir etmesi istendiğinde siyahi bir George Washington; 1940’lardan bir Alman askeri tasvir etmesi istendiğindeyse Afrikalı bir erkeği ya da Uzakdoğulu bir kadını Nazi subayı olarak resmettiğini gördük. Son olarak, modelin basit bir sorguya cevap olarak sunduğu siyahi kadın Papa tasviri de krizi ateşledi. Hızla yayından kaldırılan model, sonradan yapılan bir düzeltmeyle (fine-tuning) özellikle aksi belirtilmediği müddetçe, görsellerde çeşitliliği artırmak için Asyalı, Afrikalı ya da Amerika yerlilerini tasvir eden figürler kullanıyordu.
Bu zorlu soruna çözüm geliştirmek ve markalar nezdinde multikulti deneyimler sunabilmek için öncelikle geliştirme süreçlerinde ilke merkezli yapısal değişiklikleri hayata geçirmek gerekiyor. Veri çeşitliliğini artırmak, kapsayıcı ekipler kurmak ve sürekli denetim mekanizmaları geliştirmek büyük önem arz ediyor. Öncelikle yapay zekâ geliştirme süreçlerine çeşitlilik ve kapsayıcılık yaklaşımın entegre edilmesi şart. Ekiplerde farklı kültürel geçmişlere sahip uzmanların yer alması, önyargıların erken aşamalarda tespit edilmesine yardımcı olabilir. Yapay zekâ sistemlerinin nasıl çalıştığı, hangi verilerle eğitildiği ve hangi kararları nasıl aldığı da yine şeffaf olarak sunulmalı. Yapay zekâ sistemlerini çeşitli kültürel ve demografik özellikleri temsil eden dengeli veri setleriyle eğitmek çok önemli. Buna ek olarak farklı kültürel toplulukların ihtiyaçlarının araştırma odaklı olarak tespit edilmesi ve tasarım süreçlerinin bu bulgular etrafında tanımlanması gerekiyor.
Bu yaklaşım, yapay zekâ sistemlerinin, farklı kültürel bağlamlarda çalışmasını mümkün kılacağı gibi hedef kültüre özel yerel normları, değerleri ve dil nüanslarını anlamasını da sağlayacaktır. Son olarak, kültürel toplulukları temsil eden katılımcılarla özel metrikler üzerinden düzenli testlerin gerçekleştirilmesi ve yapay zekâ sistemlerinin önyargı açısından sistemli olarak denetlenmesi gerektiğini de atlamamak gerek.
Kullanıcı adını ya da e-posta adresini gir. Sana bir e-posta göndereceğiz. Oradaki bağlantıya tıklayarak parolanı sıfırlayabilirsin.
Here you'll find all collections you've created before.