OpenAI, ChatGPT Atlas’ın Güvenlik Risklerini Çözebileceğini Söyledi
OpenAI Güvenlik Tehditlerine Yanıt Verdi
OpenAI, ChatGPT Atlas gibi yapay zeka tarayıcılarının güvenliği konusunda yeni bir uyarı yayınladı. Şirket, prompt injection adı verilen saldırı türünün, kullanıcıların yapay zekayı güvende tutmakta kullandığı araçları tehlikeye atabileceğini belirtti.
Yeni Güvenlik Tehditleri
Prompt injection, hackerların bir web sitesinde, belgede veya e-postada kötü amaçlı komutlar gizlemesini sağlayarak yapay zekayı zarara uğratacak şekilde yönlendirmeleri anlamına gelir. Bu saldırı türü, kullanıcıların emirlerini geçersiz kılabilir ve banka hesaplarını yolsuzlaştırmaya veya e-postalarını paylaşmaya ikna edebilir.
ChatGPT Atlas’tan Tehditler
Bu tür saldırılar, ChatGPT Atlas’un Ocak ayında piyasaya sürüldükten sonra ortaya çıktı. Güvenlik araştırmacıları, Google Docs veya panoya eklenen birkaç gizli kelime ile yapay zekanın davranışını kontrol etme yöntemlerini gösterdi.
Brave tarayıcısı gibi diğer açık kaynaklı firmalar da, tüm yapay zeka tabanlı tarayıcıların bu tür saldırılarla karşı karşıya kalabileceğini belirtti. Bu durum, kullanıcıların güvenlik risklerine dikkat etmesini gerektiriyor.
OpenAI’nin Yaklaşımı
OpenAI, yapay zeka ile yapay zekayı çözmeye çalıştığını söyledi. Şirket, bir botu eğiterek hackerların kullandığı stratejileri kopyalattı ve bu botun tarayıcıya yönelik saldırıları test etmesini sağladı.
OpenAI’nin güvenlik şefi Dane Stuckey, şirketin kullanıcıların yapay zekayı güvenle kullanabilmelerine yardımcı olmak için büyük çaba sarfettiğini belirtti. Ancak bu yaklaşımın etkinliğini kanıtlamak zordur.
- Yapay zeka tarayıcıları, kullanıcıların parolalarını ve diğer hassas bilgilerini saklamasına olanak tanır.
- Prompt injection saldırıları, yapay zekanın davranışını kontrol etmek için kullanılabilecek gizli komutlar içerir.
- OpenAI, kullanıcıların yapay zeka ile etkileşimlerinde spesifik emirler vermesini öneriyor.

