Multikulti bir yapay zekâ mümkün mü?

Algoritmalar büyük ölçüde Batı odaklı veri setleriyle eğitildi ve bu da küresel perspektiften bakıldığında markalar nezdinde kriz iletişimini gerektiren talihsiz sonuçlar doğurdu. Multikulti, yeni nesil yapay zekâ deneyiminin merkezinde yer alması gereken önemli bir unsur.

Kerem Rızvanoglu - Multikulti bir yapay zeka mümkün mü - MediaCat Nisan 2025

Multikulti, 1970’ler ve 80’ler­deki Alman ilerici hare­ketinin ortaya attığı çok kültürlülük merkezli kamu politikası yaklaşımının sloganı. Bugün sözkonusu kavramın yeni nesil yapay zekâ deneyiminin de merkezinde yer alması gereken önemli bir unsur oldu­ğunu düşünüyorum. Ancak yapay zekâ­nın tarihi, bırakın multikulti dene­yimler sunmayı, kültürel önyargıların (bias) yol açtığı krizlerle tanımlanıyor.

Aslında bu durum çok da şaşırtıcı değil. 1960’larda bilgisayar bilimciler, makinelerin “zeki” davranışları taklit etmesini sağlamak için çalışırken, do­ğal olarak ilk önce kendi kişisel dünya görüşlerini kodlarına taşıdılar. 1980- 1990 arasında erken yapay zekâ sis­temleri neredeyse tamamen İngilizce üzerine odaklandı, diğer dillerin ve kültürlerin özgün özelliklerini göz ardı etti. 2010’ların başında, büyük veri ve makine öğrenmesinin yükselişiyle bir­likte, kültürel önyargı sorunu daha da belirginleşti. Algoritmalar, büyük ölçü­de Batı odaklı veri setleriyle eğitildi ve bu da küresel perspektiften bakıldığın­da markalar nezdinde kriz iletişimini gerektiren talihsiz sonuçlar doğurdu. Örnek vermek gerekirse, 2016 yılında Microsoft’un geliştirdiği Tay adlı soh­bet botu, yalnızca birkaç saat içinde ırkçı ve cinsiyetçi ifadeler kullanmaya başlamıştı. Bunun nedeni, botun mev­cut çevrimiçi içerikler üzerinden ken­dini eğitmesi ve yine bu içeriklerdeki tüm toplumsal önyargıları olduğu gibi yansıtmasıydı.

2015 yılında Google Photos’un gö­rüntü tanıma algoritmasının siyahi insanları “goril” olarak etiketlemesi, bu bağlamdaki en çarpıcı örneklerden biri olarak hafızalara kazındı. Bunun sebebi, algoritmayı eğitmek için kulla­nılan veri setindeki kültürel temsiliyet eşitsizliğiydi.

Benzer bir skandal Facebook’ta da yaşanmıştı. 2018’de Amazon’un işe alım sürecinde kullandığı bir yapay zekâ modeli, geçmiş verilerden hare­ketle benimsediği cinsiyetçi örüntü nedeniyle kadın adayları sistematik olarak eliyordu. Benzer şekilde, yüz tanıma sistemlerinin koyu tenli birey­leri tanımada düşük başarı göstermesi, veri setlerinde ağırlıklı olarak beyaz tenli yüzlerin yer almasından kaynak­lanıyordu. Yüz tanıma sistemlerinin beyaz olmayan bireylerde daha düşük doğruluk oranlarına sahip olduğu bir­çok araştırma tarafından ortaya kon­du. MIT araştırmacısı Joy Buolamwi­ni’nin 2017 tarihli tez çalışması, bu sistemlerin koyu tenli kadınları tanı­mada yüzde 35’e varan hata oranlarına sahip olduğunu gösterdi.

Sorunun anatomisi

Sorunu farklı başlıklarda gözlemek mümkün. Finansal hizmetlerde kulla­nılan yapay zekâ sistemleri, belirli et­nik veya sosyoekonomik grupları dışla­yan verilerle eğitildiğinde, bu grupların kredi başvurularını haksız yere reddet­me eğiliminde olabiliyor. Keza Facebo­ok’un reklam hedefleme algoritması­nın, geçmişte konut ilanlarını belirli etnik gruplara göstermemesi de bu bağ­lamda örnek olarak gösterilebilir. Yeni nesil büyük dil modellerinde de benzer sorunlar görülebiliyor. Bu modeller genellikle İngilizce ve Batı kültürüne özgü referanslarlar içeren veri setle­riyle eğitildiğinden, yine İngilizce gibi yaygın konuşulan dillerde oldukça ba­şarılı sonuçlar üretirken, azınlık dille­rinde veya farklı kültürel bağlamlarda benzer performansı gösteremeyebili­yor. Bu durum, çok açık ki yapay zekâ­nın küresel ölçekte adil bir şekilde kul­lanılmasını engelliyor. Nitekim 2024 yılında yayımlanan “Hangi İnsanlar?” başlıklı çarpıcı makale, büyük dil mo­dellerinin temel hedef kitlesinin şu an için “Batılı, Eğitimli, Endüstrileşmiş, Zengin ve Demokratik” ülkeler oldu­ğunu açıkça ortaya koyuyor.

Haksızlık etmeyelim, bu konuda eleştiriye maruz kalan büyük oyuncu­lar kendilerince çözümler geliştirmeye çalıştılar ama maalesef bu çabaların so­runu daha da büyütebildiğini gördük. İlk girişim riskten kaçmak doğrultu­sunda oldu. 2023 tarihli bir NYT ha­berine göre Google Photos, içinde ha­lihazırda zaten bir goril fotosu bulunan bir foto arşivine yönelik “goril” anah­tar kelimesi kullanılarak yapılan bir aramaya, hatalı sonuç sunma riskine girmemek için, “Bulamadım” gibi bir cevap verebiliyor. Diğer yandan algo­ritmanın sunduğu cevaplarda kültürel çeşitliliği toplumsal cinsiyet merkezli bir bakış eşliğinde pozitif ayrımcılık yaklaşımıyla sunmak doğrultusunda adımlar atıldığını da gördük. Ancak bu da başka sorunları beraberinde getirdi. Gemini içine entegre edilen Imagen 2 modelinden Amerika’nın kurucu ba­balarından birisini görsel olarak tasvir etmesi istendiğinde siyahi bir George Washington; 1940’lardan bir Alman askeri tasvir etmesi istendiğindeyse Afrikalı bir erkeği ya da Uzakdoğulu bir kadını Nazi subayı olarak resmettiğini gördük. Son olarak, modelin basit bir sorguya cevap olarak sunduğu siyahi kadın Papa tasviri de krizi ateşledi. Hızla yayından kaldırılan model, son­radan yapılan bir düzeltmeyle (fine-tu­ning) özellikle aksi belirtilmediği müd­detçe, görsellerde çeşitliliği artırmak için Asyalı, Afrikalı ya da Amerika yerli­lerini tasvir eden figürler kullanıyordu.

Yapılması gerekenler

Bu zorlu soruna çözüm geliştirmek ve markalar nezdinde multikulti deneyim­ler sunabilmek için öncelikle geliştirme süreçlerinde ilke merkezli yapısal de­ğişiklikleri hayata geçirmek gerekiyor. Veri çeşitliliğini artırmak, kapsayıcı ekipler kurmak ve sürekli denetim me­kanizmaları geliştirmek büyük önem arz ediyor. Öncelikle yapay zekâ geliş­tirme süreçlerine çeşitlilik ve kapsayı­cılık yaklaşımın entegre edilmesi şart. Ekiplerde farklı kültürel geçmişlere sahip uzmanların yer alması, önyargıla­rın erken aşamalarda tespit edilmesine yardımcı olabilir. Yapay zekâ sistemle­rinin nasıl çalıştığı, hangi verilerle eği­tildiği ve hangi kararları nasıl aldığı da yine şeffaf olarak sunulmalı. Yapay zekâ sistemlerini çeşitli kültürel ve demog­rafik özellikleri temsil eden dengeli veri setleriyle eğitmek çok önemli. Buna ek olarak farklı kültürel toplulukların ihti­yaçlarının araştırma odaklı olarak tespit edilmesi ve tasarım süreçlerinin bu bul­gular etrafında tanımlanması gerekiyor.

Bu yaklaşım, yapay zekâ sistemle­rinin, farklı kültürel bağlamlarda ça­lışmasını mümkün kılacağı gibi hedef kültüre özel yerel normları, değerleri ve dil nüanslarını anlamasını da sağlaya­caktır. Son olarak, kültürel toplulukları temsil eden katılımcılarla özel metrikler üzerinden düzenli testlerin gerçekleşti­rilmesi ve yapay zekâ sistemlerinin ön­yargı açısından sistemli olarak denetlen­mesi gerektiğini de atlamamak gerek.

İlgili İçerikler

Parolanı mı unuttun?

Kullanıcı adını ya da e-posta adresini gir. Sana bir e-posta göndereceğiz. Oradaki bağlantıya tıklayarak parolanı sıfırlayabilirsin.

Your password reset link appears to be invalid or expired.

Giriş

Gizlilik Politikası

Add to Collection

No Collections

Here you'll find all collections you've created before.