OpenAI, geçtiğimiz hafta sonu rakibi Anthropic’in ulusal güvenlik riskleri gerekçesiyle devre dışı bırakılmasının ardından Pentagon ile vardığı sürpriz anlaşmanın detaylarını paylaştı. CEO Sam Altman, sürecin “kesinlikle aceleye getirildiğini” ve kamuoyundaki yansımasının “iyi görünmediğini” itiraf etse de, şirketin yayımladığı blog yazısı savunma sanayii ile kurulan bu yeni ortaklığın sınırlarını çizdi. OpenAI; kitlesel yerli gözetleme, otonom silah sistemleri ve “sosyal kredi” gibi yüksek riskli otomatik karar mekanizmalarında modellerinin kullanılmasını yasaklayan “kırmızı çizgilerini” koruduğunu vurguladı.
Şirket, diğer yapay zekâ firmalarının aksine sadece kullanım politikalarına güvenmediklerini, çok katmanlı bir güvenlik mimarisi uyguladıklarını belirtti. Ulusal güvenlik ortaklıkları başkanı Katrina Mulligan, modellerin doğrudan silahlara veya sensörlere entegre edilmesini önlemek için yalnızca bulut tabanlı API üzerinden erişim sağlandığını açıkladı. Bu sayede OpenAI, modellerin kullanımını gerçek zamanlı izleyebilecek ve yetkili personel aracılığıyla denetim sağlayabilecek. Ancak Techdirt gibi bazı platformlar, anlaşmadaki “12333 sayılı Kararname” atıflarının aslında NSA’in gizli gözetleme faaliyetlerine kapı aralayabileceği konusunda ciddi eleştiriler getirdi.
Anlaşmanın duyurulmasıyla birlikte OpenAI, kullanıcı tarafında büyük bir tepkiyle karşılaştı; öyle ki Anthropic’in uygulaması Claude, hafta sonu boyunca App Store’da ChatGPT’yi geride bıraktı. Altman, bu kararın savunma bakanlığı ile teknoloji sektörü arasındaki gerilimi düşürmek için alındığını savunarak, “Eğer haklıysak ve bu hamle endüstriyi rahatlatırsa dahi görüneceğiz; aksi takdirde aceleci ve dikkatsiz olarak anılmaya devam edeceğiz” dedi. OpenAI, Anthropic’in neden benzer bir uzlaşıya varamadığını bilmediklerini ancak diğer laboratuvarların da benzer güvenli modelleri değerlendirmesini umduklarını ekledi.











