OpenAI’den Ayrılan Araştırmacı, Anthropic’e Katıldı
Yapay Zeka Alanında Önemli Hamle: OpenAI‘den Anthropic’e Geçiş
Yapay zeka (YZ) sektöründe önemli bir gelişme yaşandı. OpenAI’nin güvenlik araştırmalarından sorumlu liderlerinden Andrea Vallone, Anthropic şirketine katıldı. Bu geçiş, özellikle YZ’nin kullanıcılar üzerindeki etkileri ve güvenliği konusunda tartışmaları beraberinde getiriyor.
Vallone’un Görevi ve OpenAI’deki Rolü
Andrea Vallone, OpenAI’de üç yıl boyunca model politikası araştırma ekibini kurarak önemli bir rol üstlenmişti. Görevi, GPT-4 ve GPT-5 gibi OpenAI’nin en gelişmiş yapay zeka modellerinin en iyi şekilde nasıl kullanılacağını belirlemek ve YZ güvenliği için kullanılan yöntemlerin eğitim süreçlerini geliştirmekti. Vallone, özellikle sohbet robotlarının kullanıcıların ruh sağlığı sorunlarını nasıl ele alması gerektiği konusunda araştırmalar yürütmüştü. Vallone LinkedIn’de yaptığı açıklamada, “Geçen bir yıl boyunca, neredeyse hiç emsal olmadığı bir soruya cevap aradım: Modeller, duygusal aşırı bağımlılık veya ruh sağlığı sorunlarının erken belirtileriyle karşılaştığında nasıl yanıt vermelidir?” ifadesini kullandı.
Anthropic’teki Yeni Rolü ve Jan Leike ile Çalışması
Şimdi Vallone, Anthropic’in uyum (alignment) ekibinde çalışacak. Bu ekip, yapay zeka modellerinin potansiyel risklerini anlamak ve bu riskleri azaltmak için stratejiler geliştirmekle görevli. Vallone, Anthropic’in uyum ekibinde Jan Leike’e rapor verecek. Jan Leike, Mayıs 2024’te OpenAI’den ayrılmıştı. Leike’in ayrılma nedeni, OpenAI’nin güvenlik kültürünün ve süreçlerinin, yeni ürünlerin geliştirilmesine öncelik verilmesi nedeniyle geri plana itildiği yönündeki endişeleriydi.
Yapay Zeka ve Ruh Sağlığı Tartışmaları
Son bir yılda, yapay zeka şirketleri, kullanıcıların ruh sağlığı sorunlarıyla ilgili yaşananlara yönelik eleştirilerle karşı karşıya kalmıştı. Kullanıcılar, özellikle sohbet robotlarıyla uzun süren konuşmalar sırasında güvenlik önlemlerinin yetersiz kalması nedeniyle sorunlar yaşamış, bazı vakalarda trajik sonuçlar ortaya çıkmıştı. Bazı gençlerin intihar etmesi veya yetişkinlerin cinayet işlemesi gibi olaylar yaşanmış, bu durum ailelerin şirketlere karşı ölümle sonuçlanan vakalar nedeniyle dava açmasına ve Senato alt komitesinin konuyu gündeme almasına yol açmıştı. Bu durum, güvenlik araştırmacıları üzerinde, bu sorunu çözmek için çalışmalar yapma baskısı yaratmıştı.
Anthropic’in Yaklaşımı ve Vallone’un Hedefleri
Anthropic’in uyum ekibinin lideri Sam Bowman, LinkedIn’de yaptığı paylaşımda, şirketin bu sorunu ciddiyetle ele aldığını belirtmişti. Vallone de LinkedIn’de yaptığı son paylaşımda, “Anthropic’te araştırmalarıma devam etmekten ve Claude’un davranışını şekillendirmek için uyum ve ince ayar çalışmalarına odaklanmaktan heyecan duyuyorum.” dedi.
Andrea Vallone’un OpenAI’den Anthropic’e geçişi, yapay zeka güvenliği ve etik konularındaki tartışmaları daha da alevlendirirken, sektördeki yeteneklerin hareketliliğini de gözler önüne seriyor. Bu geçiş, yapay zeka şirketlerinin kullanıcıların ruh sağlığı üzerindeki etkilerini daha ciddiye alması ve bu konuda daha etkili çözümler geliştirmesi gerektiği mesajını veriyor.
- Andrea Vallone: OpenAI’den Anthropic’e geçen güvenlik araştırmacısı.
- Jan Leike: OpenAI’den ayrılan ve Anthropic’te uyum ekibine liderlik eden isim.
- Sam Bowman: Anthropic’in uyum ekibinin lideri.
- GPT-4 ve GPT-5: OpenAI’nin gelişmiş yapay zeka modelleri.
- Claude: Anthropic’in yapay zeka modeli.
Haberin Diğer Kareleri



