OpenAI ve Google Çalışanları, Anthropic’in Pentagon Davasını Destekledi

Yapay Zeka Uzmanlarından Pentagon’a Açılan Davaya Destek

Anthropic şirketinin, Savunma Bakanlığı’na karşı açtığı davaya OpenAI ve Google‘dan yaklaşık 40 çalışan destek verdi. Bu destek, şirketin tedarik zinciri riskleri olarak belirlenmesiyle ilgili süren tartışmaların bir parçası.

Davaya Neden Dair Endişeler

Jeff Dean gibi önemli isimlerin de imzasını verdiği dilekçe (amicus brief), Trump yönetimi tarafından alınan kararın ve yapay zekanın potansiyel risklerinin altını çiziyor. Anthropic, askeri amaçlarla kullanımının kabul edilebilir sınırları konusunda iki kırmızı çizgiyi savunmuştu: kitlesel iç istihbarat toplaması ve insansız ölümcül silah sistemleri.

Tedarik Zinciri Riski Tasarımı ve Sonuçları

Savunma Bakanlığı’nın Anthropic’i tedarik zinciri riski olarak işaretlemesi, şirketin askeri sözleşmelerde yer almasını engellemenin yanı sıra, Pentagon ile çalışan diğer şirketleri de etkiliyor. Bu durum, bu şirketlerin Claude yapay zeka modelini kullanmaya devam etmek istedikleri takdirde, bu modeli sistemlerinden çıkarmalarını gerektirebiliyor.

Yapay Zekanın Askeri Kullanımı ve Etik Kaygılar

Anthropic’in araçları, sınıflandırılmış istihbarat için onaylanan ilk model olması nedeniyle Pentagon’un çalışmalarına zaten entegre olmuş durumda. Savunma Bakanı Pete Hegseth’in bu tasarımı duyurmasının hemen ardından, ABD ordusunun Claude’u İran lideri Ayetullah Ali Hamaney’nin öldürüldüğü operasyonda kullandığı belirtildi.

Dilekçenin Amacı ve Ele Aldığı Konular

Amicus brief, Anthropic’in tedarik zinciri riskleri olarak belirlenmesinin hatalı bir misilleme olduğunu ve kamu yararına zarar verdiğini savunuyor. Ayrıca, şirketin kırmızı çizgilerinin arkasındaki endişelerin gerçek olduğunun altını çizerek bu konuya dikkat çekilmesini talep ediyor.

Yapay Zeka Sistemlerinin Potansiyel Riskleri

Dilekçeyi hazırlayan grup, kendilerini ABD’deki önde gelen yapay zeka laboratuvarlarında çalışan mühendisler, araştırmacılar ve bilim insanları olarak tanımlıyor. Grup, yapay zekanın kitlesel iç istihbarat toplaması için kullanılan verilerin bir araya getirilmesi durumunda ortaya çıkabilecek riskleri vurguluyor. Ayrıca, özerk ölümcül silah sistemlerinin güvenilirliği konusundaki endişeleri dile getiriyor; bu sistemlerin eğitim aldıkları ortamlardan farklı koşullarda hatalı çalışabileceğine dikkat çekiliyor.

Grup Açıklaması

Gruptan yapılan açıklamada, “Veriler şu anda ayrı siloslarda bulunuyor, ancak yapay zeka kullanılarak birleştirilirse yüz milyonlarca insanın yüz tanıma verilerini konum geçmişi, işlem kayıtları, sosyal grafikler ve davranış kalıplarıyla eşleştirebilir.” denildi.

Önemli Uyarılar

Yapay zekanın potansiyel riskleri konusunda uyarıda bulunan grup, bu teknolojinin yasal ve etik çerçevelerle yönetilmesinin önemini vurguluyor.

Haberin Diğer Kareleri

Yapay zeka etiği, Pentagon'a karşı bir duruş, çalışanların sesi
Yapay zeka etiği, Pentagon ve şirketler arasında gerilim

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir