Pentagon ile OpenAI Anlaşması İmzaladı, Anthropic Risk Altına Girdi
Pentagon ve OpenAI Arasında Yeni İş Birliği
ABD Savunma Bakanlığı (Pentagon), yapay zeka (AI) modellerini sınıflandırılmış sistemlerde kullanmak üzere OpenAI ile bir anlaşma imzaladı. Bu gelişme, aynı zamanda OpenAI’nin rakibi olan Anthropic şirketinin tedarik zinciri risk altında olarak belirlenmesiyle bağlantılıdır.
Anthropic’e Yönelik Risk Belirlemesi
ABD hükümeti, beklenmedik bir hamleyle Anthropic’i tedarik zinciri riski olarak tanımladı. Bu karar, şirketin iş süreçlerini olumsuz etkileyebilir ve büyüme potansiyelini kısıtlayabilir. Hükümetin bu adımı, Anthropic’in belirli sözleşmemsel koşulları kabul etmemesiyle ilişkili olduğu belirtiliyor. Anthropic yetkilileri, bu kararın kaldırılması için yasal işlem başlatmayı planladıklarını duyurdu.
OpenAI Anlaşmasının Detayları
OpenAI CEO’su Sam Altman, Pentagon ile yapılan anlaşmanın, Anthropic’in daha önce talep ettiği ve hükümetin kabul edemediği iki önemli sınırlamayı içerdiğini ifade etti. Bu sınırlamalar, askeri teknolojinin kullanımına ilişkin kısıtlamaları kapsıyor. OpenAI, bu sınırlamaların sözleşmede açıkça belirtilmediğini, ancak şirketin anlaşmaya dahil ettiğini bildirdi.
Sınırlamaların Niteliği
Anlaşma kapsamında, Pentagon’un yapay zeka teknolojilerini kullanırken Amerikan vatandaşlarının kitlesel gözetimi ve öngörülebilir ölümcül silahların kullanımı gibi faaliyetlerden kaçınması gerekiyor. OpenAI ayrıca, teknoloji çözümlerinin bu tür kötüye kullanımları engellemek için AI modellerine entegre edileceğini belirtti.
Diğer Şirketlere Çağrı
Altman, Pentagon’un benzer şartları tüm yapay zeka şirketlerine sunmasını önerdi. Bu çağrı, OpenAI’nin Anthropic’e yönelik dolaylı bir eleştirisi olarak yorumlandı. Birçok OpenAI çalışanı daha önce de Anthropic’in pozisyonunu destekleyen açık mektuplar imzalamıştı.
Yeni Kısıtlamalar
OpenAI, anlaşmanın önceki sınıflandırılmış yapay zeka dağıtım anlaşmalarına göre daha fazla güvenlik önlemine sahip olduğunu duyurdu. Bu önlemler arasında kitlesel gözetim ve özerk silahların kullanımının yanı sıra yüksek riskli otomatik karar alma sistemlerinin (sosyal kredi sistemleri gibi) kullanımı da yer alıyor.
Potansiyel Etkileri
Anthropic’in tedarik zinciri riski olarak belirlenmesinin potansiyel etkileri henüz tam olarak netleşmedi. Şirket, Pentagon ile 200 milyon dolarlık bir sözleşmeye sahipti ve bu sözleşmenin iptali şirketi doğrudan etkileyebilir. Ancak, daha büyük risk, diğer şirketlerin Anthropic’in teknolojisini kullanmaktan kaçınması durumunda ortaya çıkabilir.
Trump’ın Yaptırımı
Eski Başkan Donald Trump, sosyal medya platformu Truth Social üzerinden yaptığı açıklamada, tüm federal kurumların Anthropic’in yapay zeka sistemlerini derhal durdurma talimatı aldığını belirtti. Bu uygulamanın altı aylık bir geçiş süreciyle hayata geçirileceği bildirildi.
- Tedarik Zinciri Riski: Anthropic, ABD hükümeti tarafından tedarik zinciri riski olarak belirlendi.
- Sınırlamalar: Pentagon ile OpenAI arasındaki anlaşma, kitlesel gözetim ve özerk silahların kullanımına ilişkin kısıtlamaları içeriyor.
- Çağrı: OpenAI CEO’su Sam Altman, benzer şartların tüm yapay zeka şirketlerine sunulmasını önerdi.

