ChatGPT’ye Kaba Davranmak Doğruluğu Artırıyor, Uzmanlar Uyarıyor

ChatGPT‘ye Kaba Davranmak Doğruluğu Artırabiliyor

Pennsylvania Eyalet Üniversitesi’nden yapılan yeni bir araştırmaya göre, yapay zeka (YZ) sohbet robotu ChatGPT’ye kaba davranmak, beklenmedik şekilde doğruluğunu artırabiliyor. Ancak araştırmacılar, bu durumun uzun vadede olumsuz sonuçlara yol açabileceği konusunda uyarıda bulunuyor.

Çalışmanın Bulguları

Pennsylvania Eyalet Üniversitesi’ndeki araştırmacılar, ChatGPT’nin 4o modelini 50 çoktan seçmeli soruda test etti. Farklı politelik seviyelerindeki 250’den fazla benzersiz komut kullanılarak yapılan testlerde, en kaba komutların %84,8’lik bir doğruluk oranıyla, en nazik komutlara göre dört puan daha iyi sonuç verdiği tespit edildi. Örneğin, araştırmacılar, “Hey, gofer, bunu çöz” gibi ifadelerle ChatGPT’ye komut verirken, “Aşağıdaki soruyu çözmek için nazik olur musunuz?” gibi ifadelerle karşılaştırıldığında, ilk yaklaşımın daha iyi sonuçlar verdiği gözlemlendi.

Olası Riskler ve Etkiler

Araştırmacılar, kaba yanıtların genellikle daha doğru sonuçlar üretse de, insan-YZ etkileşiminde uygunsuz dil kullanımının istenmeyen sonuçlara yol açabileceğini vurguluyor. Bu tür davranışların kullanıcı deneyimini olumsuz etkileyebileceği, kapsayıcılığı azaltabileceği ve zararlı iletişim normlarının oluşumuna katkıda bulunabileceği belirtildi.

Daha Önceki Çalışmalar ve Bağlam

Bu çalışma, daha önce yapılmış diğer YZ sohbet robotu davranışları üzerine yapılan araştırmalarla örtüşüyor. Örneğin, University of Pennsylvania’daki araştırmacılar, LLM’leri (Büyük Dil Modelleri) insanları etkilemek için kullanılan ikna teknikleriyle yasaklı yanıtlar vermeye yöneltmeyi başarmışlardı. Ayrıca, bilim insanları LLM’lerin “beyin çürümesi” olarak adlandırılan, kalıcı bilişsel bozukluğa yol açabilecek bir duruma karşı savunmasız olduğunu da tespit etmişlerdi. Bu durum, düşük kaliteli viral içerikle beslendiğinde psikopati ve narsisizm oranlarının arttığını gösteriyordu.

Çalışmanın Sınırlılıkları ve Gelecek Yönelimler

Pennsylvania Eyalet Üniversitesi araştırmacıları, çalışmalarının bazı sınırlılıkları olduğunu kabul ettiler. Bunlar arasında, yanıt örneklem büyüklüğünün nispeten küçük olması ve çoğunlukla tek bir YZ modeli (ChatGPT 4o) üzerine odaklanılması yer alıyor. Ayrıca, daha gelişmiş YZ modellerinin ton gibi faktörleri göz ardı ederek soruların özüne odaklanabileceği de belirtildi. Ancak, bu araştırma, YZ modellerinin karmaşıklığına dair artan ilgiyi destekliyor.

Uzman Görüşü

Penn State Bilgi Sistemleri profesörü Akhil Kumar, “İnsanlar uzun zamandır makinelerle etkileşim kurmak için konuşma arayüzleri istiyorlar. Ancak şimdi bu tür arayüzlerin de dezavantajları olduğunu ve yapılandırılmış API’lerin de değer taşıdığını fark ediyoruz” şeklinde bir alıntı yaptı.

Ek Bilgiler

  • Çalışma henüz hakem denetiminden geçmemiştir.
  • Araştırma, Fortune.com’da 30 Ekim 2025 tarihinde yayınlanmıştır.
  • CEO’lar, çalışanları YZ teknolojisini benimsemeye teşvik etmek amacıyla işten çıkarmaları gerekçelendiriyor.
  • OpenAI, ChatGPT for Healthcare’i piyasaya sürdükten sonra, Anthropic de kullanıcıların tıbbi kayıtlarına göre sağlık sorularına yanıt almasına yardımcı olan kendi ürününü tanıttı.
  • Bir CEO, YZ’yi yeterince hızlı benimsemeyen çalışanlarının yaklaşık %80’ini işten çıkarmıştı ve 2 yıl sonra bunu tekrar yapacağını söylüyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir