Microsoft, Online İçeriğin Doğrulanması için Yapay Zeka Planı Duyurdu

Microsoft‘un Dijital İçerik Doğrulama Çözümü: Yapay Zeka Etiketleri ve Dijital Parmak İzkalarıyla Güvenilirliği Artırma

Sosyal medya akışlarında, gerçekçi görünse de bir şeyler yanlış gibi hissettiren içeriklerle sıkça karşılaşıyoruz. Değiştirilmiş protesto görüntüleri, siyasi anlatıları destekleyen videolar veya sorgulanmadan yayılan yapay zeka ses kayıtları… Yapay zeka kaynaklı yanıltma artık günlük hayatımızın bir parçası haline geldi. Microsoft, online içeriğin nereden geldiğini ve değiştirilip değiştirilmediğini belirlemeye yardımcı olacak teknik bir plan sundu.

Yapay Zeka İçeriği Neden Daha İkna Edici Hale Geldi?

Günümüzde yapay zeka araçları, hiperrealistik görüntüler oluşturabiliyor, sesleri taklit edebiliyor ve gerçek zamanlı olarak yanıt veren etkileşimli deepfake’ler üretebiliyor. Eskiden bir stüdyo veya istihbarat ajansının gerektirdiği şeyler artık bir tarayıcı penceresiyle mümkün hale geldi. Bu durum, açıkça sahte içerikleri tespit etmekten ziyade, manipüle edilmiş içeriğin günlük akışımıza karıştığı bir dijital dünyada gezinmeyi gerektiriyor.

İzleyiciler içeriğin yapay zeka tarafından oluşturulduğunu bilseler bile genellikle etkileşimde bulunuyorlar. Sadece etiketler inancı veya paylaşımı otomatik olarak durdurmuyor. Bu nedenle Microsoft, daha yapılandırılmış bir çözüm öneriyor.

Microsoft’un Yapay Zeka İçerik Doğrulama Sistemi Nasıl Çalışıyor?

Microsoft’un yaklaşımını anlamak için, ünlü bir tablonun orijinalliğinin doğrulanma sürecini düşünün. Bir sahip, eserin tarihçesini dikkatlice belgeliyor ve mülkiyet değişikliklerini kaydettiği gibi not ediyor. Uzmanlar, makinaların tespit edebileceği ancak izleyicilerin göremeyeceği bir filigran ekleyebilir veya fırça darbelerine dayalı matematiksel bir imza oluşturabilirler. Microsoft da aynı disiplini dijital içeriğe uygulamak istiyor.

Şirketin araştırma ekibi, metadata takibi, görünmez filigranlar ve kriptografik imzalar dahil olmak üzere 60 farklı araç kombinasyonunu değerlendirdi. Araştırmacılar ayrıca sistemleri, gizli metadata silme, ince piksel değişiklikleri veya kasıtlı müdahaleler gibi gerçek dünya senaryolarına karşı stres testine tabi tuttu. Sistem, içeriğin kökenini ve herhangi bir değişikliği göstermeye odaklanıyor; doğruluğu belirlemeye değil.

Doğrulama Araçları Ne Kanıtlayabilir, Ne Kanıtlayamaz?

Bu araçlara güvenmeden önce sınırlarını anlamak önemlidir. Doğrulama sistemleri içeriğin değiştirilip değiştirilmediğini işaretleyebilir, ancak doğruluğu veya bağlamı değerlendiremezler. İçeriğin anlamını belirleyemezler. Örneğin, bir video etiketinde yapay zeka tarafından oluşturulan unsurlar içerdiği belirtilebilir; ancak daha geniş anlatının yanıltıcı olup olmadığı açıklanmaz.

Uzmanlar, yaygınlaşması halinde aldatmayı büyük ölçekte azaltabileceğine inanıyorlar. Yüksek vasıflı aktörler ve bazı hükümetler yine de önlemlerin üstesinden gelebilir. Ancak tutarlı doğrulama standartları, manipüle edilmiş gönderilerin önemli bir bölümünü azaltabilir.

Yapay Zeka Etiketleri Sosyal Platformlar İçin Bir İş Dilemması Yaratıyor

İşte gerilimin yoğunlaştığı nokta. Platformlar etkileşimden beslenirler; bu etkileşim genellikle öfke veya şok üzerine kuruludur. Yapay zeka tarafından oluşturulan içerik ise her ikisini de tetikleyebilir. Açık yapay zeka etiketleri tıklamaları, paylaşımları veya izleme süresini azaltırsa şirketler zor bir seçimle karşı karşıya kalırlar. Şeffaflık, iş teşvikleriyle çelişebilir.

U.S. Düzenlemeleri ve Uygulama Zorlukları

Büyük platformların denetimleri zaten yapay zeka tarafından oluşturulan gönderilerin tutarsız bir şekilde etiketlendiğini gösteriyor. Bazı gönderiler etiketlenirken, birçok gönderi ifşa edilmeden geçiyor. Şimdi ise ABD düzenlemeleri devreye giriyor. Kaliforniya’nın Yapay Zeka Şeffaflığı Yasası, yapay zeka tarafından oluşturulan materyallerin daha açık bir şekilde açıklanmasını gerektirecek ve diğer eyaletler benzer kuralları değerlendiriyor. Ancak uygulama önemlidir; şirketler doğrulama araçlarını aceleyle geliştirirse veya tutarsız bir şekilde uygularsa kamuoyu güveni daha da azalabilir.

Yanlış Yapay Zeka Etiketleri Riski

Araştırmacılar ayrıca “sosyoteknik saldırılar” konusunda uyarıyor. Örneğin, gergin bir siyasi olayın gerçek fotoğrafının yalnızca küçük bir bölümü değiştirilir ve zayıf bir tespit sistemi tüm görüntüyü yapay zeka tarafından oluşturulmuş olarak işaretler.

Haberin Diğer Kareleri

Yapay zeka ile içerik doğruluğu, güven yeniden inşa ediliyor
Yapay zeka ile içerik doğrulama: Güvenilir bilgiye ulaşmak artık mümkün
Yapay zeka ile dezenformasyonla mücadele başlıyor

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir