MediaCat

AI, medya ve güven krizi

Yapay zekâ destekli medya içeriklerine olan güvensizlik, toplumda giderek artan bir endişe yaratıyor. YZ’nin içerik üretimindeki rolünü, güven sorunlarını ve şeffaflık gereksinimlerini daha yakından inceleyelim.

Yapay zekâ teknolojilerinin medya alanında giderek daha fazla yer bulması, içerik üretiminin hızını ve çeşitliliğini artırsa da toplumda güven sorununu beraberinde getiriyor. Yapay Zekâ Politikaları Derneği (AIPA) tarafından yapılan güncel bir araştırmaya göre, toplumun yüzde 60’ı YZ’nin medya içeriklerinin güvenilirliğini olumsuz etkilediğini düşünüyor. Bu oran, sadece bir teknolojik gelişmeye değil; aynı zamanda bilginin kaynağı, doğruluğu ve etik üretimi konularında ciddi bir toplumsal endişeye işaret ediyor. Bu güvensizlik, özellikle sağlık ve finans gibi yüksek hassasiyet içeren alanlarda daha da belirginleşiyor. Örneğin, bir sağlık makalesi ya da finansal yatırım önerisi eğer bir yapay zekâ tarafından oluşturulmuşsa, okuyucular bu içeriğin doğruluğundan ve tarafsızlığından şüphe duyabiliyor. Çünkü YZ sistemleri, veriye dayalı çalışsalar da kullandıkları veri setlerinin doğruluğu, eğitildikleri modellerin tarafsızlığı ve içerik üretiminde gözetilen etik ilkeler genellikle şeffaf olmamakla itham ediliyor. 

Reklam ve yapay zekâ

Ticaret Bakanlığı’na bağlı Reklam Kurulu’nun son denetim sonuçları da bu konuya parmak basıyor. Kurul, yapay zekâ kullanılarak hazırlanan 138 reklam dosyasından 120’sini mevzuata aykırı bulmuş ve toplamda 12 milyon TL’yi aşkın idari para cezası kesmiş durumda. Bu bulgu, YZ ile oluşturulan içeriklerin yalnızca teknik olarak değil, aynı zamanda etik ve hukuki açılardan da ciddi sorunlar taşıyabildiğini ortaya koyuyor. Özellikle aldatıcı beyanlar, ürün hakkında gerçeği yansıtmayan iddialar ve tüketiciyi yanıltabilecek dil kullanımı gibi konular, yapay zekânın “içerik üreticisi” olarak güvenilirliğini sorgulatıyor. Diğer yandan, YZ ile içerik üretiminde kullanılan metodolojiler de önem taşıyor. Metin üretiminde kullanılan büyük dil modelleri (LLM’ler), milyarlarca kelimeden oluşan veri setlerinden öğrenerek içerik oluşturuyor. Ancak bu verilerin kaynağı, güncelliği ve doğruluğu çoğu zaman net olarak belirtilmiyor. Üstelik modelin eğitildiği içeriklerde önyargılar veya yanlış bilgiler varsa, bu durum doğrudan üretilen içeriklere de yansıyabiliyor. Dolayısıyla yapay zekâ içeriklerinin güvenilirliği yalnızca teknolojik kapasiteyle değil, aynı zamanda eğitim verisinin kalitesi ve şeffaflığıyla da doğrudan ilişkili. 

Toplumda artan güvensizlik ve farkındalık

Dünya genelinde, özellikle Batı ülkelerinde yapılan araştırmalar da toplumun yapay zekâ içeriklerine temkinli yaklaştığını gösteriyor. Örneğin, Reuters Institute’ün 2024 tarihli Dijital Haber Raporu’na göre, kullanıcıların yalnızca yüzde 30’u haber içeriklerinde yapay zekânın güvenilir sonuçlar ürettiğine inanıyor. Bu oran, özellikle ABD ve Avrupa ülkelerinde, dezenformasyon korkusu ve deepfake içeriklerin yayılmasıyla daha da düşüyor. Yapay zekâ tarafından yazılan metinler, oluşturulan görseller veya seslendirmeler, bilhassa haber, sağlık, eğitim ve siyaset gibi “kritik doğruluk” gerektiren alanlarda yüksek risk olarak görülüyor. 

Avrupa Birliği, bu konuda en sistematik adımları atan bölge konumunda. AB Yapay Zekâ Yasası (AI Act), içerik üretiminde yapay zekâ kullanımını açıkça beyan etmeyi zorunlu kılıyor. Eğer bir içerik YZ tarafından üretildiyse, tüketici bunu anlayabilmeli. Bu yasanın en önemli unsurlarından biri, “yüksek riskli kullanım” tanımı altında sağlık, adalet, eğitim ve finans gibi alanlarda yapay zekâ sistemlerine daha sıkı regülasyonlar getirmesi. Ayrıca UNESCO da “yapay zekâ etiği” üzerine hazırladığı küresel rehberde, medya içeriklerinde yapay zekâ kullanımının etik sınırlarını çiziyor ve özellikle kamusal bilgilendirmede insan denetiminin önemini vurguluyor.

Platformların rolü

Google, Meta, OpenAI, Microsoft ve TikTok gibi büyük teknoloji firmaları, yapay zekâ ile üretilen içerikleri otomatik olarak etiketleyen sistemler üzerinde çalışıyor. Örneğin, Google artık YZ tarafından oluşturulan reklam içeriklerinin “AI-generated” ibaresiyle etiketlenmesini zorunlu kılıyor. OpenAI ise oluşturduğu görsel ve ses içeriklerine dijital filigranlar (invisible watermark) ekleyerek içeriklerin kaynağını tespit edilebilir hale getirmeye çalışıyor. Ancak bu tür önlemler henüz küresel çapta standart haline gelmiş değil ve içerik üreticileri kolayca bu mekanizmaları aşabiliyor.

BBC, Reuters, The New York Times gibi uluslararası medya devleri, YZ içeriklerinin kullanımı konusunda iç denetim mekanizmaları ve etik rehberler yayımlıyor. Özellikle yapay zekâ destekli haber yazımı, editoryal onay sürecinden geçmeden yayımlanmıyor. Ancak daha küçük medya organları ve dijital platformlarda bu tür denetimler hâlâ oldukça zayıf. Global düzeyde yapay zekâ ile üretilen içeriklere yönelik güven sorunu artmakta, ancak bu duruma karşı farkındalık ve düzenleme çabaları da hızla gelişiyor. Şeffaflık, etik üretim, insan denetimi ve tüketici bilgilendirmesi gibi prensipler, uluslararası alanda temel standartlar olarak öne çıkıyor. Türkiye’deki gelişmeler bu küresel trendlerle benzerlik gösterse de henüz yasal ve etik altyapı açısından daha yolun başında. Ancak uluslararası düzenlemelerden ilham alarak oluşturulacak ulusal politikalar hem kullanıcı güvenini hem de yapay zekâ destekli medyanın sürdürülebilirliğini artırabilir.

Geleceğe güven inşası

Türkiye Yapay Zekâ İnisiyatifi Kurucusu Halil Aksu, yapay zekâ ile üretilen içeriklerin etik kullanımı ve denetlenebilirliği ile ilgili şu açıklamalarda bulundu: “Yakında gerçek ile yapay arasındaki perdeler kalmayacak. Algoritmanın yetkinlikleri, görselleri ve içerikleri öyle ustaca üretecek ki insan gözü ayırt edemeyecek. İşte tam bu noktada şeffaflık şart: Her yapay üretim dijital bir filigran taşımalı; platformlar, kullanıcılar ve denetçiler kaynağı tek bakışta görebilmeli. Teknolojinin hızına yetişen kanunlar, politikalar ve denetim mekanizmaları kurulmalı, üreteni de paylaşanı da sorumlu kılmalı. Fakat asıl mesele niyet. Dezenformasyon, nefret ve manipülasyon eski insan günahları; yapay zekâ sadece megafon. “Bıçağın şakası olmaz” diye büyüdük, şimdi çocuklarımıza “Yapay zekânın şakası olmaz” demeyi öğretmeliyiz. Etik okuryazarlığı anaokulundan başlayarak müfredata girmeli; dijital etik, trafik kuralları gibi doğal refleks olmalı. Aksi halde yapay zekâ insan kusurlarını çığ gibi büyütür, pazarlamanın en kıymetli sermayesi olan güveni eritir. Geleceğin içeriğine güven inşa etmek, yalnızca kodun değil, kolektif vicdanın da güncellenmesini gerektiriyor.”

Medyada yeni dönem

Solsten Kurucusu Bastian Bergmann ise yapay zekânın medya ve pazarlama alanındaki olanakları ile ilgili şu ifadeleri kullandı: “AI’da, özellikle medya içeriği ve pazarlama konusundaki hızlı gelişmeler, ekiplere “daha azıyla çok daha fazlasını” yapmak için süper güce erişim sağladı. AI’dan yararlanan ekipler, kullanmayan ekiplere göre sürekli olarak daha iyi pazarlama metrikleri gördüklerini bildiriyor. Bununla birlikte, piyasada zaten aşırı bir medya içeriği doygunluğu ve özellikle de düşük kaliteli çok fazla içerik görüyoruz. Bu, yapay zekâ modellerinin mevcut yeteneklerine işaret ediyor. Çoğu zaman yüzde 70-80’i tamamlanmış içerik üretme yeteneğine sahipler ancak içeriğin ulaşması ve etkileşim kurması amaçlanan kitleye göre doğruluk, kalite ve kişiselleştirmeyi kontrol etmek için döngüde bir insan gerekiyor. Özellikle kişiselleştirme ve medya içeriğini belirli kitlelere ve tüketici segmentlerine göre gerçekten uyarlama yeteneği sözkonusu olduğunda, kullanıma hazır yapay zekâ modelleri yetersiz kalır ve gerçek sonuçlar elde eden, hedef kitle tarafından oluşturulan kişiselleştirilmiş içerik hakkında özel veriler ve içgörüler gerektirir. “

İlgili İçerikler

Parolanı mı unuttun?

Kullanıcı adını ya da e-posta adresini gir. Sana bir e-posta göndereceğiz. Oradaki bağlantıya tıklayarak parolanı sıfırlayabilirsin.

Your password reset link appears to be invalid or expired.

Giriş

Gizlilik Politikası

Add to Collection

No Collections

Here you'll find all collections you've created before.