OpenAI ve Google Çalışanları, Anthropic’in Pentagon Davasını Destekledi
Yapay Zeka Uzmanlarından Pentagon’a Açılan Davaya Destek
Anthropic şirketinin, Savunma Bakanlığı’na karşı açtığı davaya OpenAI ve Google‘dan yaklaşık 40 çalışan destek verdi. Bu destek, şirketin tedarik zinciri riskleri olarak belirlenmesiyle ilgili süren tartışmaların bir parçası.
Davaya Neden Dair Endişeler
Jeff Dean gibi önemli isimlerin de imzasını verdiği dilekçe (amicus brief), Trump yönetimi tarafından alınan kararın ve yapay zekanın potansiyel risklerinin altını çiziyor. Anthropic, askeri amaçlarla kullanımının kabul edilebilir sınırları konusunda iki kırmızı çizgiyi savunmuştu: kitlesel iç istihbarat toplaması ve insansız ölümcül silah sistemleri.
Tedarik Zinciri Riski Tasarımı ve Sonuçları
Savunma Bakanlığı’nın Anthropic’i tedarik zinciri riski olarak işaretlemesi, şirketin askeri sözleşmelerde yer almasını engellemenin yanı sıra, Pentagon ile çalışan diğer şirketleri de etkiliyor. Bu durum, bu şirketlerin Claude yapay zeka modelini kullanmaya devam etmek istedikleri takdirde, bu modeli sistemlerinden çıkarmalarını gerektirebiliyor.
Yapay Zekanın Askeri Kullanımı ve Etik Kaygılar
Anthropic’in araçları, sınıflandırılmış istihbarat için onaylanan ilk model olması nedeniyle Pentagon’un çalışmalarına zaten entegre olmuş durumda. Savunma Bakanı Pete Hegseth’in bu tasarımı duyurmasının hemen ardından, ABD ordusunun Claude’u İran lideri Ayetullah Ali Hamaney’nin öldürüldüğü operasyonda kullandığı belirtildi.
Dilekçenin Amacı ve Ele Aldığı Konular
Amicus brief, Anthropic’in tedarik zinciri riskleri olarak belirlenmesinin hatalı bir misilleme olduğunu ve kamu yararına zarar verdiğini savunuyor. Ayrıca, şirketin kırmızı çizgilerinin arkasındaki endişelerin gerçek olduğunun altını çizerek bu konuya dikkat çekilmesini talep ediyor.
Yapay Zeka Sistemlerinin Potansiyel Riskleri
Dilekçeyi hazırlayan grup, kendilerini ABD’deki önde gelen yapay zeka laboratuvarlarında çalışan mühendisler, araştırmacılar ve bilim insanları olarak tanımlıyor. Grup, yapay zekanın kitlesel iç istihbarat toplaması için kullanılan verilerin bir araya getirilmesi durumunda ortaya çıkabilecek riskleri vurguluyor. Ayrıca, özerk ölümcül silah sistemlerinin güvenilirliği konusundaki endişeleri dile getiriyor; bu sistemlerin eğitim aldıkları ortamlardan farklı koşullarda hatalı çalışabileceğine dikkat çekiliyor.
Grup Açıklaması
Gruptan yapılan açıklamada, “Veriler şu anda ayrı siloslarda bulunuyor, ancak yapay zeka kullanılarak birleştirilirse yüz milyonlarca insanın yüz tanıma verilerini konum geçmişi, işlem kayıtları, sosyal grafikler ve davranış kalıplarıyla eşleştirebilir.” denildi.
Önemli Uyarılar
Yapay zekanın potansiyel riskleri konusunda uyarıda bulunan grup, bu teknolojinin yasal ve etik çerçevelerle yönetilmesinin önemini vurguluyor.
Haberin Diğer Kareleri




