Anthropic’ten Yeni Model, Siber Güvenlik Risklerini Ortaya Çıkardı
Yapay Zeka, Güvenlik Açıklarını Tespit Etmede Yeni Bir Çağ Başlatıyor
Anthropic tarafından geliştirilen yeni yapay zeka modeli Claude Opus 4.6, yazılım güvenliğinde devrim niteliğinde bir yetenek sergiliyor. Model, özellikle siber saldırıların temelini oluşturan güvenlik açıklarını tespit etme konusunda olağanüstü bir başarı gösteriyor. Anthropic’in Frontier Red Team tarafından yapılan testlerde, Opus 4.6, açık kaynaklı yazılım kütüphanelerinde daha önce bilinmeyen 500’den fazla “sıfır gün” (zero-day) güvenlik açığını tespit etti.
Bu güvenlik açıklarının tespiti, modele özel bir talimat verilmeden, kendi başına gerçekleştiği belirtiliyor. Bu durum, dil modellerinin mevcut araçlara ek olarak gerçek bir değer katabileceğini gösterirken, aynı zamanda bu yeteneklerin kötüye kullanılma potansiyelini de beraberinde getiriyor. Aynı beceriler, şirketlerin güvenlik açıklarını bulup düzeltmesine yardımcı olurken, saldırganların da bu açıkları keşfedip istismar etmeleri için kullanılabilir.
Siber Güvenlikte Yeni Bir Rekabet Ortamı
Anthropic’in Frontier Red Team lideri Logan Graham, siber güvenliğin bir saldırı ve savunma rekabeti olduğunu ve savunmacıların bu araçlara öncelikli erişimini sağlamayı amaçladıklarını ifade etti. “Şirket olarak siber güvenliği bir rekabet olarak görüyoruz ve savunmacıların bu araçlara ilk erişimini sağlamak istiyoruz.”
Bu riski yönetmek için Anthropic, Claude’un yanıtlarını oluştururken gerçekleştirdiği dahili faaliyetleri izleyen yeni tespit sistemleri devreye aldı. Şirket, potansiyel kötüye kullanımı gerçek zamanlı olarak işaretlemek için “prob” adı verilen araçlar kullanıyor. Ayrıca, kötü amaçlı olarak tespit edilen trafiği engelleme yeteneğini de genişletiyor. Anthropic, bu yaklaşımın meşru güvenlik araştırmacıları ve savunma çalışmaları için bazı zorluklara neden olabileceğini kabul ederken, bu sorunları çözmek için güvenlik topluluğuyla işbirliği yapmaya hazır olduklarını belirtiyor.
OpenAI’den Daha Temkinli Bir Yaklaşım
OpenAI ve GPT-5.3-Codex
OpenAI ise yeni kodlama modeli GPT-5.3-Codex’in lansmanında daha temkinli bir yaklaşım izledi. Şirket, modelin kodlama performansında bir artış sağladığını belirtirken, bu kazanımlarla birlikte ciddi siber güvenlik risklerinin de ortaya çıktığını vurguladı. OpenAI CEO’su Sam Altman, X platformunda yaptığı paylaşımda, GPT-5.3-Codex’in şirketin dahili hazırlık çerçevesi kapsamında siber güvenlik riski açısından yüksek puan alan ilk model olduğunu ifade etti.
Bu durumun bir sonucu olarak, OpenAI, GPT-5.3-Codex’i daha sıkı kontrollerle piyasaya sürüyor. Model, günlük geliştirme görevleri için ücretli ChatGPT kullanıcılarına sunulsa da, tam API erişimi erteleniyor ve yüksek riskli kullanım durumları kısıtlanıyor. Daha hassas uygulamalar, ek güvenlik önlemleri arkasına alınırken, doğrulanmış güvenlik profesyonelleri için güvenilir erişim programı da uygulanıyor.
Gelişmiş Güvenlik Önlemleri
OpenAI, lansmanı eşlik eden bir blog yazısında, modelin siber saldırıları tam olarak otomatikleştirme potansiyeline henüz sahip olmadığını belirtirken, en kapsamlı siber güvenlik güvenlik yığınına sahip olduklarını ve gelişmiş izleme, güvenlik eğitimi ve tehdit istihbaratından haberdar olunarak oluşturulmuş uygulama mekanizmaları dahil ettiklerini ifade etti.
- Claude Opus 4.6: 500’den fazla sıfır gün güvenlik açığı tespit etti.
- GPT-5.3-Codex: Siber güvenlik riski açısından yüksek puan alan ilk OpenAI modeli.
- Anthropic: Kötüye kullanımı tespit etmek için yeni sistemler ve prob’lar kullanıyor.
- OpenAI: API erişimini erteliyor ve yüksek riskli kullanım durumlarını kısıtlıyor.

