Yapay Zeka Girişimi Adaption Labs, 50 Milyon Dolarlık Finansman Elde Etti

Yapay Zeka Alanında Yeni Bir Hamle: Adaption Labs Doğdu

Yapay zeka araştırmacısı ve savunucusu Sara Hooker, daha az işlem gücü kullanan ve daha uygun maliyetli yapay zeka sistemleri geliştirmeye odaklanan yeni girişimi Adaption Labs için 50 milyon dolarlık tohum finansmanı sağladı. Hooker, daha önce Cohere’de araştırma başkan yardımcısı ve Google DeepMind’de görev yapmış deneyimli bir isim.

Adaption Labs’ın Vizyonu ve Hedefleri

Hooker ve kurucu ortak Sudip Roy, mevcut önde gelen yapay zeka modellerine kıyasla daha az işlem gücü kullanan ve daha düşük maliyetle çalışabilen yapay zeka sistemleri oluşturmayı hedefliyor. Ayrıca, Adaption Labs, mevcut sistemlere göre daha uyumlu ve çeşitli teknikler kullanan modeller geliştirmeyi amaçlıyor. Bu kapsamda, sistemler bireysel görevlere daha kolay uyum sağlayabilecek.

Finansman ve Yatırımcılar

Finansman turu, Emergence Capital Partners liderliğinde gerçekleştirildi ve Mozilla Ventures, Fifty Years, Threshold Ventures, Alpha Intelligence Capital, e14 Fund ve Neo gibi yatırımcıların katılımıyla sağlandı. Adaption Labs, San Francisco merkezli olmasına rağmen, finansman sonrası değerlemesi hakkında bilgi paylaşmadı.

Sektördeki Büyük Rekabet ve Yeni Yaklaşımlar

Hooker, Fortune dergisine yaptığı açıklamada, modellerin pahalı yeniden eğitim veya ince ayar gerektirmeden sürekli olarak öğrenmesini sağlayacak modeller oluşturmak istediğini belirtti. Bu durum, yapay zeka modellerini belirli kullanım durumlarına uyarlamak için çoğu şirketin şu anda kullandığı kapsamlı komut ve bağlam mühendisliğinin ortadan kalkmasına yardımcı olabilir. Sürekli öğrenme, yapay zeka alanındaki önemli zorluklardan biri olarak kabul ediliyor.

Büyüklüğün Sınırları

Adaption Labs, yapay zeka endüstrisindeki genel kanıya karşı önemli bir adım atıyor; bu kanıya göre daha yetenekli yapay zeka modelleri oluşturmanın en iyi yolu, temel LLM’leri daha da büyütmek ve daha fazla veri üzerinde eğitmek. Teknoloji devleri milyarlarca doları daha büyük eğitim süreçlerine yatırırken, Hooker bu yaklaşımın azalan getirilerle sonuçlandığını savunuyor. Hooker, yapay zeka endüstrisinin bir dönüm noktasında olduğunu ve iyileştirmelerin artık yalnızca daha büyük modeller oluşturmakla değil, aynı zamanda görevlere daha kolay ve daha ucuza uyum sağlayabilen sistemler oluşturmakla geleceğini belirtiyor.

Diğer Girişimler ve Sürekli Öğrenme Arayışı

Adaption Labs, sürekli öğrenmeyi hedefleyen yeni nesil yapay zeka laboratuvarlarından biri. Jerry Tworek, OpenAI’den ayrıldıktan sonra Core Automation adlı yeni bir şirket kurdu ve sürekli öğrenmeyi amaçlayan yeni yapay zeka yöntemlerini kullanacağını belirtti. David Silver, Google DeepMind’den ayrıldıktan sonra Ineffable Intelligence adlı, pekiştirmeli öğrenmeye odaklanan bir şirket kurdu. Bu yaklaşım da sürekli öğrenme yeteneğine sahip yapay zeka modellerine yol açabilir.

Adaption Labs’ın Üç Temel Sütunu

  • Uyarlanabilir Veri: Yapay zeka sistemlerinin, bir sorunu çözmek için ihtiyaç duydukları veriyi anında oluşturması ve değiştirmesi.
  • Uyarlanabilir Zeka: Problem zorluğuna göre hesaplama miktarını otomatik olarak ayarlama.
  • Uyarlanabilir Arayüzler: Kullanıcıların sistemle etkileşiminden öğrenme.

Hooker’ın Eleştirileri ve Araştırmaları

Hooker, Google’daki günlerinden beri yapay zeka çevrelerinde, “sadece ölçek önemlidir” dogmasına karşı bir figür olarak tanınıyor. 2020 yılında yayınladığı “The Hardware Lottery” adlı makalede, yapay zeka fikirlerinin genellikle mevcut donanıma uygun olup olmamasına bağlı olarak başarılı veya başarısız olduğunu savunmuş. Daha yakın zamanda, “On the Slow Death of Scaling” adlı bir araştırma makalesi yayınlayarak, daha iyi eğitim tekniklerine sahip daha küçük modellerin çok daha büyük olanları geride bırakabileceğini iddia etti. Cohere’de, 3.000 bilgisayar bilimcisi ve 119 ülkeden oluşan bir işbirliği olan Aya projesini destekledi; bu proje, önde gelen yapay zeka modellerinin iyi performans göstermediği onlarca dili nispeten kompakt modellerle donattı. Bu çalışma, yaratıcı veri kürasyonu ve eğitim yaklaşımlarının ham ölçeği telafi edebileceğini gösterdi.

Gradient-Free Öğrenme ve Yeni Yöntemler

Günümüzdeki yapay zeka modelleri, milyarlarca dijital nöron içeren çok büyük sinir ağlarıdır. Geleneksel sinir ağı eğitimi, gradient descent adı verilen bir teknik kullanır; bu teknik, bir dağdaki en düşük noktayı bulmaya çalışan şahsi gözü bağlı bir yürüyücünün adımlarını takip etmeye benzer. Model, her bir nöronun diğerlerinden gelen girdileri ne kadar vurgulayacağını belirleyen ağırlık adı verilen milyarlarca iç ayarı küçük miktarlarda değiştirir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir