Yapay Zeka Şirketi Anthropic, Pentagon ile Sözleşme Krizi Yaşıyor
Pentagon ve Yapay Zeka Girişimcisi Arasında Gerilim Tırmanıyor
ABD Savunma Bakanlığı (Pentagon), yapay zeka şirketi Anthropic ile sözleşme konusunda ciddi bir anlaşmazlık yaşıyor. Tartışmanın odağında, Anthropic’in kendi geliştirdiği yapay zeka modellerinin kullanımıyla ilgili getirdiği kısıtlamalar bulunuyor.
Anthropic’in Kısıtlamaları Neler?
Anthropic, Claude adlı yapay zeka modellerinin otonom silah sistemlerinde ve kitlesel gözetim amacıyla kullanılmasını yasaklayan sözleşme şartları getirmişti. Şirket, bu kısıtlamaların, yapay zekanın güvenilirliği ve etik kullanımı açısından kritik öneme sahip olduğunu savunuyor.
Pentagon’un Talepleri
Pentagon ise bu kısıtlamaların kaldırılmasını ve şirketin, askeri amaçlı her türlü kullanım için modellerini sağlayacağını kabul etmesini talep ediyor. Pentagon yetkilileri, Anthropic CEO’su Dario Amodei’nin bu konudaki tutumunu eleştirerek, onu “yalan söyleyen” ve “Tanrı kompleksi olan” biri olarak nitelendirdi.
Yönetici Açıklaması
Anthropic CEO’su Dario Amodei, yaptığı açıklamada şu ifadelere yer verdi: “Sınır teknolojileri, otonom silahları çalıştırmak için yeterince güvenilir değildir ve uygun gözetim olmadan, askerlerimizin her gün gösterdiği kritik yargıyı kullanamayız. Gözetim konusunda ise, güçlü yapay zeka sistemleri şimdi dahi, bireysel olarak önemsiz görünen kamu verilerini bir araya getirerek herhangi bir ABD vatandaşının yaşamına dair kapsamlı bir portre oluşturabilir.”
Tartışmanın Seyri ve Olası Sonuçlar
Pentagon, Anthropic’e sözleşme şartlarını 5:01 p.m. Cuma gününe kadar yerine getirmesini aksi takdirde sözleşmeyi feshetme veya şirketi tedarik zinciri riskine sokma tehdidinde bulundu. Bu durum, daha önce Çin’deki Huawei ve Rusya’daki Kaspersky gibi yabancı şirketlere uygulanan bir yaptırımın, şimdi de yerli bir teknoloji firmasına uygulanması anlamına geliyor.
Savunma Üretim Yasası Tehdidi
Pentagon ayrıca, Soğuk Savaş döneminden kalma Savunma Üretim Yasası’nı (DPA) kullanarak, Anthropic’ten Claude’un kısıtlanmamış bir versiyonunu teslim etmesini talep edebileceğini açıkladı. Bu yasanın kullanımı, normalde yalnızca acil durumlarda geçerli olup, barış zamanında bir teknoloji şirketinin kamulaştırılmasına yakın bir durum yaratabilir.
Diğer Yapay Zeka Şirketlerinin Tepkisi
Bu gelişmelerin ardından, OpenAI CEO’su Sam Altman, çalışanlarına gönderdiği bir notta, ChatGPT’nin askeri kullanıma genişletilmesi konusunda benzer kısıtlamaların getirilmesi gerektiğini belirtti. Ayrıca, Google çalışanlarından oluşan bir grup da Jeff Dean’a mektup yazarak, Gemini yapay zeka modellerinin askeri amaçlı kullanımına yönelik sınırlamalar talep etti.
Uzman Görüşü
Cambridge’in Varoluşsal Risk Çalışması Merkezi Direktörü Seán Ó hÉigeartaigh, bu durumun “gerçekten tırmandırıcı ve emsalsiz” olduğunu ifade ederek, yapay zekanın yüksek riskli durumlarda kullanılmasının tehlikeli bir örnek teşkil edebileceğini vurguladı.
Gelecek Adımlar
Pentagon’un bu talepleri yerine getirmesi veya alternatif bir çözüm bulması bekleniyor. Aksi takdirde, yapay zeka endüstrisinde çalışan teknoloji uzmanları arasında daha geniş çaplı bir protesto dalgasıyla karşılaşılabilir.

