Meta’nın gizli yapay zeka deneyi ortaya çıktı! ABD’de görülen dava kafaları karıştırdı

Tamamlandı: mail sari / [email protected] | Fotoğraf: Istock
Yaratılış Tarihi: 02 Mayıs 2025 09:13
Yapay zeka teknolojilerinin yükselişi ile, bu sistemlerin nasıl geliştirildiği ve hangi verilerin eğitildiği bir tartışma meselesi haline gelmiştir. Meta’nın dilbilimsel “Lama” modelinde açıldıysa, şirket tarafından uygulanan tartışmalı “ablasyon” teknikleri ve korsan içeriğinin etkisi.
Yapay zeka teknolojilerinin günlük yaşamdan işe, bu sistemlerin nasıl geliştirildiği, hangi verilerin eğitildiği ve onlara ait olanların giderek daha fazla tartışıldığı birçok alanın etkisini arttırdığı bir dönemde.
Şirketler rekabet avantajı sağlamak için kullandıkları veri kaynaklarını korurken, içerik üreticileri ve avukatlar bu teknolojilerin yarattığı değerin arkasındaki yaratıcı çalışmanın göz ardı edilip edilmediğini merak ediyor.
Geliştirilen dilsel modeller romanlardan akademik kaynaklara kadar geniş bir içerik yelpazesi tarafından beslenirken, insanlara benzer yanıtlar üretmeye başlarlar, Bu süreçte, telif hakkı, etik, şeffaflık ve adil tazminat gibi temel konular yeniye geri dönmektedir.
İşte bu tartışmaların merkezinde olağanüstü bir durum, varış noktası ‘Lama’ Büyük dilsel model üzerine bazı deneysel çalışmalarını açıkladı. Mahkeme mahkemeleri, meta bıçak modelleri tarafından uygulanan tartışmalı “ablasyon” tekniklerini ve korsan içeriğinin yapay zekanın başarısını nasıl etkilediğini ortaya koymaktadır.
Amerika Birleşik Devletleri’nde Kaddrey / mal davası Halka açıklanan belgeler arasında meta yapay zeka modelleri geliştirmek için “ablasyon” adı verilen deneyler yer almaktadır. Ablasyon, yapay zeka arayışında bir sistemin belirli bileşenlerini kaldırarak bu bileşenlerin modelin performansı üzerindeki etkisini ölçmeyi amaçlayan bir analiz yöntemidir.
Bu bağlamda, Meta kasten bazı yapay zeka eğitim verileri yayınladı ve Korsan Kitap Arşivi Libgen’den içerik ekledi. İki farklı deneyde, her şeyden önce bilim, teknoloji ve anlatı kitapları; İkincisi, sadece kurgusal kitaplar kullanılmıştır.
Her iki senaryoda da performansta önemli bir artış oldu
Hedefin dahili belgelerindeki verilere göre, her iki senaryoda da Llama modellerinin performansı önemli bir şekilde iyileşmiştir. Örneğin, yapay zeka modellerinin bilgi ve mantıksal becerilerini ölçen Booiq testinde, eğitim verilerine bilimsel ve hayali içeriğin yüzde 4,5’i eklenir ve sadece kurgusal kitaplar eklendiğinde yüzde 6 performansta bir artış kaydedilmiştir.
Başka bir test, SIQA ile karşılaştırma, bu artış yüzde 5,5’e yükseldi. Princeton Üniversitesi’nden Peter Henderson, bu sonuçları sosyal medyada gösteren bazı grafikleri paylaşıyor.
Yapay zeka araştırmacısı Nick Vincent, bu durumun Meta’nın eğitim verilerine değer verebileceğini ve içeriğin performans açısından ne kadar önemli olduğunu bildiğini söyledi. Vincent, Diyerek şöyle devam etti: “Bu sonuçların halka açık olarak duyurulması, araziyi içerik üreticilerinin hakları talep etmeye hazırlayabilir” Dedi.

Telif hakkı vakaları daha karmaşık olabilir
Meta, bu deneylerin sonuçlarını halka açıklamasa da, eğitim verilerinin dahili belgelerdeki modelin başarısına katkısının açıkça ölçüldüğü açıktır. Bununla birlikte, bu, teknolojinin devleri tarafından zaten ele alınan telif hakkı vakalarını yapabilir.
Çünkü şirketlerin yapay zeka sistemlerini eğitmek için kullandıkları içeriğe değer vermeleri, bu içeriğin sahiplerinin ifadelerine yol açabilir. Vincent, “Bu değerli tahminlerin yayınlanması, telif hakkı durumunda ana teknolojik şirketlerin savunmalarını zayıflatabilir” dedi.
Hedef için bir sözcü, dava hakkında bir beyanda ilan edildi, “Llam modelleri, insanların ve şirketlerin onları daha yenilikçi ve yaratıcı hale getirmelerine yardımcı oluyor. Kendimizi şiddetle savunacağız ve tüm insanlıktan yararlanmak için yapay üretim zekasının gelişimini koruyacağız” Dedi.

Eğitim verilerinde gizlilik eğilimi
Ayrılmış ablasyon deneylerinin sürdürülmesi, son yıllarda sektörde gözlenen daha geniş bir eğilimin bir parçasıdır. 2017 yılında Google, yapay zekanın üretken devrimini başlatan araştırmalarında kullanılan verileri, bugün ayrıntılı olarak açıklıyor, şirketler bu bilgilerin halka duyurulmasından kaçınıyor.
Örneğin Meta, bu yıl Nisan ayında açıklanan Lama 4 modeli için yayınladığı model sekmesinde yalnızca genel veri kaynaklarından bahsetti; Ablasyon deneyleri veya kullanılan kitabın içeriği hakkında bilgi yoktu.

“Ödeme iki kez yapılmalı”
Prurita adı verilen içeriği telafi etme girişiminin CEO’su Bill Gross, Bill Gross gibi şirketlerin veri kaynaklarını açıklamamasının hayal kırıklığına uğradığını söyledi. Gross, içerik üreticilerinin iki kez ödenmesi gerektiğini iddia ediyor: “Her şeyden önce veri modellerini eğitiyor ve ikincisi model bu içeriği bir soruyu cevaplamak için kullandığında.”
Dahası, Gross’a göre, performansın yüzde 5’i de artar, yapay zeka dünyasında bile çok önemlidir: “Yapay zeka önemlidir. Bir fark yaratmak kolay değildir”.
Meta, 2021’de Kral -Facebook ile ortaya çıkan teknolojik bir toplumdur. Kurucu Mark Zuckerberg, şirketin adını “hedef” ile sanal dünya ve artırılmış gerçeklik gibi yeni teknolojilere odaklanma vizyonuyla ilişkilendirmiştir.
Meta, Facebook, Instagram, Whatsapp, popüler sosyal medya platformları olarak.
Şirket, kullanıcılarına daha etkileşimli ve entegre bir dijital deneyim sağlamayı hedeflerken, Metaverse konsepte önemli yatırımlar yapıyor. Bu alan, kullanıcıların sanal ortamlarda etkileşime girebilecekleri, sosyal aktivitelere katılabileceği ve katılabileceği bir dünya olarak tanımlanır.
Meta ayrıca yapay zekanın araştırma ve geliştirilmesine önem vermektedir. Bu bağlamda, Llam gibi güçlü dilsel modeller üzerinde çalışmalar yaparak doğal dilin detaylandırılmasında ve yapay zeka uygulamalarında öncü olmayı amaçlamaktadır. Ancak, şirketin verilerinin kullanımı ve gizliliğin kullanımı hakkındaki tartışmalar zaman zaman eleştiri yapmak hedeftir.
“Meta’nın iş içeriden gelen gizli uzmanları tamamlandı.