Eski OpenAI Çalışanı, Bağımsız Yapay Zeka Denetimlerini Savunan Enstitü Kurdu
Yapay Zeka Güvenliği İçin Yeni Bir Çağ: Bağımsız Denetim Çağrısı
OpenAI‘de uzun yıllar politika araştırmacısı ve danışman olarak görev yapan Miles Brundage, yapay zeka şirketlerinin kendi geliştirdikleri modelleri kendi denetlemelerinin yanlış sonuçlar doğurabileceği düşüncesiyle yeni bir enstitü kurdu. AI Verification and Evaluation Research Institute (AVERI) olarak adlandırılan bu kuruluş, yapay zeka modellerinin bağımsız denetimlere tabi tutulması gerektiğini savunuyor.
AVERI’nin Amacı ve Çalışma Prensibi
AVERI, yapay zeka denetim standartlarının oluşturulması ve bu konuda politika geliştirmeyi amaçlıyor. Brundage, enstitünün bir düşünce kuruluşu olduğunu ve Fortune 500 şirketlerine müşteri olma gibi bir hedefinin olmadığını vurguladı. “Şirketlerin kendi başlarına bu tür normları belirlemeye çalıştıklarını gördüm. Üçüncü taraf uzmanlarla işbirliği yapmaya zorlayan bir durum yok. Bu durum riskler oluşturuyor,” şeklinde konuştu.
Mevcut Durum ve Riskler
Yapay zeka laboratuvarları, güvenlik ve güvenlik testleri yapıyor ve bu değerlendirmelerin sonuçlarına dair teknik raporlar yayınlıyor. Ancak şu anda, tüketiciler, iş ortakları ve hükümetler, bu testler hakkında yapay zeka laboratuvarlarının söylediklerine güvenmek zorunda kalıyor. Herhangi bir standartlara göre bu değerlendirmelerin yapılması veya raporlanması zorunlu değil.
Diğer Sektörlerden Örnekler ve Yapay Zeka Denetiminin Önemi
Brundage, diğer sektörlerde denetimin, ürünlerin güvenli olduğundan ve titiz bir şekilde test edildiğinden kamuoyuna güvence vermek için kullanıldığını belirtti. Örneğin, bir elektrik süpürgesi satın alırken, piller gibi bileşenlerin bağımsız laboratuvarlar tarafından yangın riskini önlemek için titiz güvenlik standartlarına göre test edildiğini biliyoruz. Yapay zeka denetiminin de benzer bir amaca hizmet etmesi gerektiğine inanılıyor.
Finansman ve Destek
AVERI, 14 personel ve iki yıllık operasyonları karşılamak için 13 milyon dolarlık hedefine ulaşmak için şu ana kadar 7,5 milyon dolar bağış topladı. Bağışçılar arasında Halcyon Futures, Fathom, Coefficient Giving, eski Y Combinator başkanı Geoff Ralston, Craig Falls, Good Forever Foundation, Sympatico Ventures ve AI Underwriting Company gibi kuruluşlar yer alıyor. Ayrıca, önde gelen yapay zeka şirketlerinin mevcut ve eski yönetim kurulu üyelerinden de bağışlar alındı. Brundage, bu kişilerin “nerede sorunlar olduğunu bildiklerini ve daha fazla hesap verebilirlik görmek istediklerini” ifade etti.
Yapay Zeka Denetimini Teşvik Edebilecek Faktörler
Brundage, yapay zeka firmalarını bağımsız denetçiler tutmaya teşvik edebilecek çeşitli mekanizmalar olabileceğini öne sürdü:
- İş Alıcıların Talepleri: Yapay zeka modelleri satın alan büyük işletmeler, modellerin vaat ettiği gibi çalıştığından emin olmak ve gizli riskleri önlemek için denetim talep edebilir.
- Sigorta Şirketlerinin Rolü: İş sürekliliği sigortası sunan sigorta şirketleri, denetimi underwriting koşulu olarak belirleyebilir. Ayrıca, önde gelen yapay zeka şirketlerine (OpenAI, Anthropic, Google gibi) poliçe yazmak için de denetim gerekebilir.
- Yatırımcıların Baskısı: Yatırım firmaları, yaptıkları milyon dolarlık yatırımların karşılığında, yapay zeka ürünlerinin güvenliğini ve güvenliğini bağımsız olarak denetlemelerini talep edebilir.
Brundage, yapay zeka denetiminin hızla gelişen bir alan olacağını ve mevcut kamuoyu denetimi, denetim, güvence ve test firmalarının bu alana girebileceğini veya yeni girişimlerin bu rolü üstlenebileceğini belirtti.

