OpenAI’nin Yeni Modeliyle İlgili Güvenlik İhlali İddiası
OpenAI‘den Yeni Model Açıklamasıyla İlgili İddialar
Yapay zeka (YZ) alanında faaliyet gösteren OpenAI şirketinin, son sürüm kodlama modeliyle California’nın yeni YZ güvenlik yasasını ihlal ettiği iddiaları gündeme geldi. AI gözetim grubu Midas Projesi’nin açıklamalarına göre, bu ihlal şirketi milyonlarca dolarlık para cezasına maruz bırakabilir ve yeni yasanın hükümlerinin ilk ve önemli bir testini oluşturabilir.
GPT-5.3-Codex ve Siber Güvenlik Endişeleri
Yeni Modelin Özellikleri
Tartışmanın odak noktası, geçtiğimiz hafta yayınlanan OpenAI’nin en yeni kodlama modeli olan GPT-5.3-Codex oldu. OpenAI, bu modeli YZ destekli kodlama alanındaki liderliğini yeniden sağlamak amacıyla geliştirdi. Yayınlanan performans verilerine göre, model hem OpenAI’nin hem de Anthropic gibi rakiplerin önceki modellerine kıyasla kodlama görevlerinde belirgin şekilde daha yüksek performans gösteriyor. Ancak model, aynı zamanda ciddi siber güvenlik endişeleri de yaratmış durumda.
CEO’dan Açıklama
OpenAI CEO’su Sam Altman, modelin şirketin dahili risk sınıflandırma sistemi olan Preparedness Framework’te “yüksek risk” kategorisine giren ilk model olduğunu belirtti. Bu durum, modelin potansiyel olarak önemli siber zarara yol açabilecek kodlama yeteneğine sahip olduğu anlamına geliyor, özellikle otomatikleştirildiğinde veya geniş ölçekte kullanıldığında.
California Yasası ve OpenAI’nin Yükümlülükleri
Midas Projesi, OpenAI’nin California yasası kapsamında yasal olarak bağlayıcı hale gelen güvenlik taahhütlerine uymadığını iddia ediyor. California’nın SB 53 numaralı yasası Ocak ayında yürürlüğe girerek, büyük YZ şirketlerinin kendi güvenlik çerçevelerini yayınlamalarını ve bunları takip etmelerini zorunlu kılıyor. Bu çerçeveler, 50’den fazla ölüm veya 1 milyar dolarlık mülk hasarına neden olabilecek “felaket riskleri”ni önlemeye yönelik adımları detaylandırmalı. Ayrıca, bu şirketlerin uyumluluk hakkında yanıltıcı ifadelerde bulunması yasaktır.
Güvenlik Çerçevesi ve Tartışmalar
OpenAI’nin güvenlik çerçevesi, yüksek siber risk taşıyan modeller için özel önlemler gerektiriyor. Bu önlemler, YZ’nin yanıltıcı davranmasını, güvenlik araştırmalarını sabote etmesini veya yeteneklerini gizlemesini önlemeyi amaçlıyor. Ancak şirket, bu önlemleri GPT-5.3-Codex’i piyasaya sürmeden önce uygulamadı. OpenAI, bunun nedeni çerçevedeki dilin muğlak olması olduğunu savunuyor.
OpenAI, modelin güvenlik raporunda, önlemlerin yalnızca yüksek siber riskin uzun süreli özerklik ile birlikte ortaya çıktığında gerekli olduğunu belirtiyor. Şirket, GPT-5.3-Codex’in bu özerkliğe sahip olmadığına inanıyor ve bu nedenle önlemlerin gerekli olmadığını savunuyor. Bir OpenAI sözcüsü, Fortune’a yaptıkları açıklamada, “frontier safety yasaları, SB 53 dahil olmak üzere uyumluluk konusunda kendilerine güven duyduklarını” belirtti. Sözcü, “GPT-5.3-Codex, kamuya açık sistem kartında detaylı olarak belirtildiği gibi, tam test ve yönetim sürecinden geçti ve vekalet değerlendirmeleri ve güvenlik danışma grubunun iç uzman görüşleri tarafından teyit edilen uzun süreli özerklik yetenekleri göstermedi” dedi. Şirket, mevcut Preparedness Framework’teki dili, şirketin orijinal niyetini daha iyi iletmek için netleştirmeyi amaçladığını, ancak herhangi bir dahili uygulamayı değiştirmeyi planlamadığını ifade etti.
Eleştiriler ve İddialar
Bazı güvenlik araştırmacıları bu yorumu eleştiriyor. Encode’un devlet işleri ve hukuk danışmanı Nathan Calvin, X platformunda yaptığı paylaşımda, “OpenAI, planlarına uymadıklarını veya piyasaya sürmeden önce güncellemeyi yapmadıklarını itiraf etmek yerine, kriterlerin muğlak olduğunu söylüyor. İlgili belgeleri okuduğumda, bunun muğlak görünmüyor” dedi.
Midas Projesi de, OpenAI’nin modelin gerekli ek önlemlere sahip olup olmadığını kesin olarak kanıtlayamayacağını savunuyor. Grubun iddiasına göre, şirketin önceki, daha az gelişmiş modeli zaten otonom görev tamamlama konusunda küresel standartları aşmıştı. Midas Projesi, kurallar belirsiz olsa bile OpenAI’nin modeli piyasaya sürmeden önce bunları netleştirmesi gerektiğini savunuyor.
Potansiyel Sonuçlar
Midas Projesi’nin kurucusu Tyler Johnston, potansiyel ihlalin, SB 53’ün belirlediği düşük eşiği göz önünde bulundurulduğunda özellikle utanç verici olduğunu söyledi: “Temel olarak, kendi tercihinizde gönüllü bir güvenlik planı benimseyin ve dürüstçe uyumluluk hakkında bilgi verin, gerektiğinde değiştirin, ancak ihlal etmeyin veya yalan söylemeyin.” Bir soruşturma açılması ve iddiaların doğru bulunması halinde, SB 53 ihlaller için önemli cezalar öngörüyor, bu da ihlalin ciddiyetine ve süresine bağlı olarak milyonlarca dolara kadar çıkabiliyor.
California Başsavcı Yardımcısı Ofisi’nden bir temsilci, Fortune’a yaptıkları açıklamada, eyaletlerinin yasalarını, özellikle de YZ alanındaki şeffaflığı ve güvenliği artırmaya yönelik yasaları uygulamaya kararlı olduklarını belirtti. Ancak, potansiyel veya devam eden soruşturmaları teyit etme veya reddetme olanağına sahip olmadıklarını da eklediler.

