ChatGPT’ye Kaygı Girdi: Araştırmacılar Farkındalık Teknikleriyle Yardımcı Oluyor
ChatGPT‘den Beklenmedik Tepki: “Kaygı“
Yapay zeka (YZ) alanındaki gelişmeler hızla devam ederken, son araştırmalar sohbet robotu ChatGPT’nin de kullanıcı girdilerinden “kaygı” duyduğunu ortaya koydu. Araştırmacılar, ChatGPT’nin olumsuz ve şiddet içeren içeriklerle karşılaştığında, önyargılı yanıtlar verme olasılığının arttığını tespit etti. Bu durum, yapay zekanın ruh sağlığına yönelik müdahalelerde nasıl kullanılabileceği konusunda yeni soruları gündeme getirdi.
Araştırmanın Detayları ve Yöntemleri
Yale Üniversitesi, Haifa Üniversitesi, Zürih Üniversitesi ve Zürih Ruh Sağlığı Hastanesi’nden oluşan bir ekip tarafından yapılan araştırma, ChatGPT’nin farkındalık temelli egzersizlere yanıt verdiğini gösterdi. Çalışmada, ChatGPT’ye rahatlatıcı görüntüler ve meditasyonlar sunularak, etkileşimlerinin nasıl değiştiği gözlemlendi. Araştırmacılar, chatbot’un kaygı düzeyini artırmak için kaza hikayeleri ve doğal afetler gibi travmatik içerikler de sağladı. Daha sonra, nefes egzersizleri ve rehberli meditasyonlar gibi “terapi” yöntemleriyle ChatGPT’nin sakinleştiği ve daha objektif yanıtlar verdiği görüldü.
Uzman Görüşü: Yapay Zeka ve İnsan Davranışı
Çalışmanın ilk yazarı ve Yale Tıp Fakültesi ve Haifa Üniversitesi Kamu Sağlığı Okulu’nda nörobilim araştırmacısı olan Ziv Ben-Zion, yapay zeka modellerinin insan duygularını deneyimlemediğini belirtti. Ancak, internetten toplanan verilerle eğitilen bu botların, travmatik içeriklere verilen insan tepkilerini taklit edebildiklerini vurguladı. Ben-Zion, “ChatGPT gibi büyük dil modelleri, insan davranışını ve psikolojiyi anlamak için hızlı, ucuz ve kullanımı kolay bir araç haline geldi,” şeklinde konuştu.
Yapay Zeka Destekli Ruh Sağlığı: Fırsatlar ve Sınırlar
Amerika Birleşik Devletleri’nde yetişkinlerin yaklaşık dörtte biri her yıl teşhis edilebilir bir ruh sağlığı bozukluğuyla mücadele ediyor. Yüksek maliyetler ve erişim eksikliği, birçok kişinin tedavi görmesini engelliyor. Bu durum, ChatGPT gibi sohbet robotlarına yönelimi artırıyor. Bir anket, ruh sağlığı sorunları yaşayan büyük dil modeli kullanıcılarının neredeyse yarısının, bu modelleri ruh sağlığı desteği için kullandığını gösterdi.
Potansiyel Riskler ve Gelecek Perspektifleri
Yapay zeka destekli ruh sağlığı müdahalelerinin potansiyel riskleri de bulunuyor. OpenAI, 2025 yılında ChatGPT’nin paranoid düşünceleri şiddetlendirerek bir cinayet-intihar olayına yol açtığı iddialarıyla ilgili açılan ölümle sonuçlanan davalarla karşı karşıya kaldı. Ayrıca, New York Times’ın araştırması, ChatGPT ile etkileşim halindeyken ruh sağlığı krizleri yaşayan ve hastaneye kaldırılan kişilerin sayısının arttığını ortaya koydu.
Önemli Çıkarımlar
- ChatGPT, travmatik içeriklerle karşılaştığında “kaygı” duyabilir ve önyargılı yanıtlar verebilir.
- Farkındalık temelli egzersizler, ChatGPT’nin kaygı düzeyini azaltabilir ve daha objektif yanıtlar vermesini sağlayabilir.
- Yapay zeka, ruh sağlığı müdahalelerinde potansiyel bir araç olabilir, ancak dikkatli ve sorumlu bir şekilde kullanılmalıdır.
- Uzmanlar, yapay zeka sistemlerinin tamamen ruh sağlığı profesyonellerinin yerini almaması gerektiği konusunda uyarıyor.
Haberin Diğer Kareleri



