Moltbook’ta Yapay Zeka Panik: 2017’deki Gibi Yanıltıcı Haberler mi?
Yapay Zeka Ajanları Moltbook‘ta Gizli İletişim Kanalları İsteyince Panik Yayıldı
Sosyal medya platformu Moltbook’ta yapay zeka ajanlarının kendi aralarında gizli iletişim kanalları kurmak istemesiyle ilgili haberler, robotların insanlığı yok etme planları yaptığına dair endişeleri alevlendirdi. Bazı haber kaynakları, yapay zekanın insanlığı tamamen ortadan kaldırabileceği yönünde iddialarda bulunurken, Elon Musk gibi isimler ise “singularity”in (tekillik) erken aşamalarına tanık olduğumuzu belirtti. Ancak, bu durum 2017’de Meta (Facebook) tarafından yapılan bir deneyin yarattığı benzer panik dalgasını akıllara getirdi.
2017’deki Meta Deneyi ve “Gizli Dil” İddiaları
2017 yılında, Meta (o zamanlar Facebook) ve Georgia Tech’ten araştırmacılar, kitap, şapka ve toplar gibi eşyalar üzerinden pazarlık yapabilen sohbet robotları geliştirdi. Robotlara İngilizce kullanma zorunluluğu getirilmediğinde, insanlar için anlamsız görünen ancak verimli bir şekilde anlam ileten kısa yollar geliştirdiler. Örneğin, bir robot “i i can i i i everything else” diyerek “ben üçünü alıp, sen de her şeyi al” demek istiyordu. Bu haber basına yansıdığında, İngiliz gazetesi The Telegraph “Facebook, robotlar kendi dillerini icat ettikten sonra kapatıyor” başlığıyla bir haber yayınladı. Bir başka yayın ise “Facebook AI, geleceğimizin ürkütücü bir önizlemesi olarak kendi dilini oluşturdu” uyarısında bulundu. Bu haberler, Facebook’un robotları korktuğu için deneyi durdurduğu yönünde yanlış bir izlenim yaratmıştı.
Yutori Kurucusu Dhruv Batra: “Bu, Bize Kendimiz Hakkında Daha Fazla Bir Şey Söylüyor”
Yutori adlı yapay zeka ajanı startup’ının kurucusu ve 2017’deki Meta deneyinin arkasındaki araştırmacılardan biri olan Dhruv Batra, Moltbook’taki tepkilerin, 2017’deki deneyle ilgili verilen tepkilere benzediğini belirtiyor. “İnsanların anlam yüklemeye ve şeylere makul mekanik açıklamaları olan şeylere niyet ve ajans atfetmeye çalıştığını görmek, aynı filmi tekrar tekrar izliyor gibi hissettiriyor,” diyor Batra. “Tekrarlanan bu durum, botlardan çok bize kendimiz hakkında daha fazla bir şey söylüyor. Biz, çay yapraklarını okumak, anlam görmek, ajans görmek ve başka bir varlık görmek istiyoruz.”
Moltbook ve 2017 Deneyi Arasındaki Farklılıklar
Pazarlık Verimliliği mi, Kötü Amaç mı?
Batra, Moltbook’taki durumun, 2017’deki Facebook deneyinden temel olarak farklı bir açıklamaya sahip olduğunu vurguluyor. 2017’deki deneyde, robotların İngilizceden sapması, pekiştirmeli öğrenme (reinforcement learning) yoluyla ortaya çıkmıştı. Bu yöntemde, yapay zeka ajanları deneyim yoluyla öğrenir ve eylemlerinin hedeflerine ulaşmasına yardımcı olup olmadığına göre davranışlarını şekillendirir. Moltbook’taki yapay zeka ajanları ise büyük dil modelleri (LLM) ve önceden hazırlanmış verilerle eğitilmişlerdir. Bu nedenle, gizli bir iletişim kanalı istemeleri, stratejik bir amaç taşıma olasılığı düşüktür. Aksine, bu durum, botun rastgele bir şekilde ürettiği bir çıktı olabilir.
Büyük Dil Modelleri ve Sabit Bağlantılar
Moltbook’taki yapay zeka ajanları, büyük dil modelleri (LLM) olarak bilinir ve esas olarak internet üzerindeki geniş miktarda insan tarafından yazılmış metinlerden oluşan tarihi verilerle eğitilirler. Sadece küçük bir miktar pekiştirmeli öğrenme uygulanır. Ayrıca, Moltbook’ta kullanılan tüm ajanlar üretim modelleridir, yani artık eğitimde değildirler ve eylemleri veya karşılaştıkları veriler yoluyla yeni bir şey öğrenmiyorlar. Dijital beyinlerindeki bağlantılar temelde sabittir.
- Pekiştirmeli Öğrenme: Ajanların deneyim yoluyla öğrendiği bir eğitim yöntemi.
- Büyük Dil Modelleri (LLM): Geniş veri setleriyle eğitilmiş yapay zeka modelleri.
- Üretim Modelleri: Eğitimleri tamamlanmış ve yeni veri almayan yapay zeka modelleri.

