OpenAI’dan Pentagon savunması: “Üç kırmızı çizgimiz var”

Savaş Bakanlığı ile anlaşmaya giden OpenAI, anlaşma maddelerine üç kırmızı çizgi koyduklarını ve bunların güçlü maddelerle korunduğunu söyledi.

OpenAI’ın geliştirdiği modellerin askeri kullanımı için Savaş Bakanlığı (Savunma Bakanlığı) ile anlaşmasının yankıları sürüyor.

Cuma günü Claude’un geliştiricisi Anthropic ile Pentagon arasındaki görüşmelerin başarısızlıkla sonuçlanmasının ardından ABD Başkanı Donald Trump, Anthropic kullanmayı bırakma talimatı verdi. Anthropic, otonom silahlarda veya kitlesel iç gözetimde kullanılması konusunda kırmızı çizgiler çizdiğini söylerken, OpenAI CEO’su Altman da şirketinin aynı kırmızı çizgilere sahip olduğunu belirtti.

Bu durum bazı soruları gündeme getirdi: OpenAI güvenlik önlemleri konusunda dürüst mü?, Anthropic anlaşmaya varamazken aynı kırmızı çizgilere sahip OpenAI nasıl anlaşma yapabildi?

OpenAI yöneticileri sosyal medyada anlaşmayı savunurken, anlaşmanın yaklaşımını özetleyen bir blog yazısı yayınlandı. Yazıda Savunma Bakanlığı ile yapılan sözleşmenin üç kırmızı çizgisi olduğunu belirtildi. Yazıya göre OpenAI teknolojisi; kitlesel iç gözetim amacıyla, otonom silah sistemlerini yönlendirmek için ya da yüksek riskli otomatik karar mekanizmalarında kullanılamayacak.

“Demokrasiye yürekten inanıyoruz”

Şirketten yapılan açıklamada, diğer yapay zekâ geliştirici şirketlerin “ulusal güvenlik uygulamalarında güvenlik önlemlerini azalttığını veya kaldırdığı” belirtirken, OpenAI’ın anlaşmasının kırmızı çizgileri daha kapsamlı, çok katmanlı bir yaklaşımla koruduğu söylendi. “Demokrasiye yürekten inanıyoruz” denilen açıklamada, “Bu teknolojinin önemi göz önüne alındığında, ilerlemenin tek iyi yolunun yapay zeka çalışmaları ile demokratik süreç arasında derin bir işbirliğinden geçtiğine inanıyoruz” ifadeleri kullanıldı.

Amerika Birleşik Devletleri’nin yapay zekâ teknolojisi karşısında en iyi araçlara sahip olmasının istendiği de belirtildi.

Şirket açıklamasında, güvenlik mimarisinin şirketin kontrolünde kalacağı, sistemlerin bulut üzerinden konuşlandırılacağı, yetkilerle donatılmış OpenAI personelinin süreçte yer alacağı ve sözleşmede güçlü koruyucu maddeler bulunduğunun altı çizildi. Olası bir sözleşme ihlalinin fesih hakkı doğurabileceği hatırlatılan OpenAI açıklamasında bunun gerçekleşmesinin beklenmediği ifade edildi.

Şirket blog yazısının devamında sıkça aldıkları soruları yanıtladı. “Bunu neden yapıyorsunuz?” sorusuna verilen yanıtta, “Öncelikle, sistemlerine yapay zekâ teknolojilerini giderek daha fazla entegre eden potansiyel düşmanlardan gelen tehditler karşısında, ABD ordusunu desteklemek için güçlü yapay zekâ modellere ihtiyaç olduğunu düşünüyoruz. İkinci olarak, Pentagon ile ABD yapay zekâ laboratuvarları arasındaki gerginliği azaltmak istedik. İyi bir gelecek, hükümet ve yapay zekâ laboratuvarları arasında gerçek ve derin bir iş birliğini gerektirir. Aynı şartların tüm yapay zekâ laboratuvarlarına sunulmasını ve özellikle hükümetin Anthropic ile sorunları çözmeye çalışmasını istedik” denildi.

Yürütme Emri 12333 hatırlatması

Öte yandan yazı yayınlandıktan sonra, Techdirt’ten Mike Masnick, anlaşmanın “kesinlikle iç gözetime izin verdiğini” iddia etti. Masnick, blog yazısında yer alan bir ifadede özel verilerin toplanmasının Yürütme Emri 12333’e (ve diğer birçok yasaya) uygun olacağını gösterdi. Masnick, Ulusal Güvenlik Ajansı’nın (NSA) yetkilerini artıran bu kararnamenin ulusal güvenlik gerekçesiyle denizaşırı veri akışlarını ve denetimsiz gözetim faaliyetlerini kapsamlı hale getirdiğini hatırlattı.

OpenAI posted the terms of the deal. Reveals that it absolutely does allow for domestic surveillance. EO 12333 is how the NSA hides its domestic surveillance by capturing communications by tapping into lines *outside the US* even if it contains info from/on US persons.

openai.com/index/our-ag…

[image or embed]

— Mike Masnick (@masnick.com) 1 Mart 2026 08:20

Önümüzdeki süreçte yapay zekâ şirketleri ve devletler arasında yapılacak yeni anlaşmalar nasıl gelişmelere sahne olacak hep birlikte göreceğiz.

İlgili İçerikler