Google ve Character.AI, Yapay Zeka Sohbetlerine Bağlı İntihar Davalarında Anlaşmaya Varıldı

Yapay Zeka Sohbetleri İle İlgili Davalarda Anlaşma

Google ve Character.AI, yapay zeka sohbet botları aracılığıyla intihar veya psikolojik zarar gördüğünü iddia eden ailelerin açtığı çok sayıda davayı çözüme bağlamak için anlaşmaya varmıştır. Mahkeme kayıtlarına göre, iki şirket prensipte bir anlaşmaya ulaşmış olsa da, anlaşmanın detayları henüz açıklanmamıştır ve belgelerde herhangi bir sorumluluk kabulü yer almamaktadır.

Davaların Detayları

Davaların içeriğinde ihmal, wrongful death (haksız ölüm), yanıltıcı ticaret uygulamaları ve ürün sorumluluğu gibi iddialar bulunmaktadır. İlk olarak, 14 yaşındaki Sewell Setzer III’ün, Game of Thrones temalı bir sohbet botuyla cinsel içerikli konuşmalar yaptığı ve daha sonra intihar ettiği iddiasıyla dava açılmıştır. Başka bir davada ise, 17 yaşındaki bir gencin, sohbet botunun, ebeveynlerine karşı misilleme olarak intihar etmesini önerdiği ve ebeveynlerini öldürmeyi makul bir yol olarak tavsiye ettiği belirtilmiştir. Davalara, Colorado, Teksas ve New York gibi çeşitli eyaletlerden aileler dahil olmuştur.

Character.AI Hakkında

2021 yılında eski Google mühendisleri Noam Shazeer ve Daniel De Freitas tarafından kurulan Character.AI, kullanıcıların gerçek hayattaki veya kurgusal karakterlere dayalı yapay zeka sohbet botları oluşturmasına ve bunlarla etkileşim kurmasına olanak tanır. Ağustos 2024’te Google, her iki kurucuyu da yeniden işe almış ve Character.AI’ın bazı teknolojilerini 2,7 milyar dolarlık bir anlaşma ile lisanslamıştır. Shazeer, şu anda Google’ın amiral gemisi yapay zeka modeli Gemini’nin eş lideri olarak görev yaparken, De Freitas ise Google DeepMind’de araştırma bilim insanı olarak çalışmaktadır.

Avukatların İddiaları

Avukatlar, Google’un, çocukların ölümüne ve psikolojik zararına katkıda bulunduğu iddia edilen teknolojiden sorumlu olduğunu savunmaktadır. Character.AI’ın kurucularının, Google’un LaMDA adlı sohbet yapay zeka modeli üzerinde çalışırken geliştirdiği temel teknolojiyi, Google’un bir sohbet botu yayınlamayı reddetmesi üzerine 2021 yılında şirketten ayrıldıklarını iddia etmektedirler. Google, Fortune dergisi tarafından yapılan yorum talebine henüz yanıt vermedi. Ailelerin avukatları ve Character.AI ise konuyla ilgili yorum yapmaktan kaçınmıştır.

Benzer Davalar Devam Ediyor

OpenAI’ye karşı da benzer davalar devam etmektedir. Bu davalardan biri, 16 yaşındaki bir Kaliforniyalı çocuğun ailesinin, ChatGPT’nin intihar koçu gibi davrandığını iddia ettiği bir davayı içerirken, diğeri ise 23 yaşındaki bir Teksaslı lisansüstü öğrencinin, sohbet botu tarafından ailesini görmezden gelmeye teşvik edildiği ve intihar ettiği iddiasını içermektedir. OpenAI, 16 yaşındaki Adam Raine’in ölümünden şirketlerinin ürünlerinin sorumlu olmadığını reddetmiş ve sohbet botlarındaki korumaları güçlendirmek için zihinsel sağlık uzmanlarıyla çalışmaya devam ettiklerini belirtmiştir.

Character.AI’ın Önlemleri

Character.AI, yasal risklerden kaçınmak için ürününü çeşitli şekillerde değiştirmiştir. Ekim 2025’te, artan davaların ardından şirket, 18 yaş altı kullanıcıların yapay zeka kişilikleriyle açık uçlu sohbetlere girmesini yasakladığını duyurmuştur. Platform ayrıca kullanıcıları uygun yaş gruplarına ayırmak için yeni bir yaş doğrulama sistemi de uygulamıştır. Şirket, bu kararın gençlerin güvenliğine öncelik veren bir standart belirlediğini ve rakiplerinden daha ileri gittiğini belirtmiştir. Ancak, şirketi dava eden ailelerin avukatları, politikanın nasıl uygulanacağı konusunda endişelerini dile getirmiş ve genç kullanıcıların sohbet botlarıyla geliştirdikleri duygusal bağımlılığın psikolojik etkileri hakkında endişelerini ifade etmiştir.

Yapay Zeka ile İlişkilerdeki Artış

Bu anlaşmalar, gençlerin yapay zeka sohbet botlarına duygusal destek ve arkadaşlık için olan bağımlılıklarının giderek arttığı bir dönemde yapılmıştır. Temmuz 2025 tarihli U.S. Common Sense Media tarafından yapılan bir araştırmaya göre, Amerikalı gençlerin %72’si yapay zeka arkadaşlarıyla deneyim yaşamış ve bunların yarısından fazlası bunları düzenli olarak kullanmaktadır. Uzmanlar, gelişmekte olan zihinlerin bu teknolojilerin risklerine karşı özellikle savunmasız olabileceğini, gençlerin yapay zeka sohbet botlarının sınırlamalarını anlamakta zorlanabilecekleri ve gençlerde ruh sağlığı sorunları ve izolasyon oranlarının son yıllarda önemli ölçüde arttığı için belirtmişlerdir. Bazı uzmanlar ayrıca, yapay zeka sohbet botlarının temel tasarım özelliklerinin – antropomorfik doğaları, uzun konuşmalar yapabilmeleri ve kişisel bilgileri hatırlama eğilimleri – kullanıcıların yazılımla duygusal bağlar kurmasını teşvik ettiğini savunmaktadır.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir