Bist 100
8.991,6 0%
DOLAR
31,96 -0,29%
EURO
34,49 -0,2%
ALTIN
2.322,44 -0,7%

Yandex'in Yeni Yöntemleri ile Dil Modellerini Sıkıştırma Dönemi Başlıyor

Yandex, büyük dil modellerinde devrim yaratan iki yeni sıkıştırma yöntemi geliştirdi. Verimlilik ve tasarruf ön planda.

Yayın Tarihi: 23.07.2024 13:38
Güncelleme Tarihi: 23.07.2024 13:38

Yandex'in Yeni Yöntemleri ile Dil Modellerini Sıkıştırma Dönemi Başlıyor

Yandex'in Yenilikçi Sıkıştırma Yöntemleri

Yandex, IST Austria, NeuralMagic ve KAUST araştırmacıları ile işbirliği yaparak büyük dil modelleri için iki devrim niteliğinde sıkıştırma yöntemi geliştirdi. Bu yenilikler, Dil Modelleri için Eklemeli Niceleme (AQLM) ve PV-Tuning adıyla anılmakta.

Yanıt Kalitesinde Yüzde 95 Koruma

Şirketten gelen bilgilere göre, bu yöntemler model boyutunu 8 kat azaltırken yanıt kalitesini ise yüzde 95 oranında koruma avantajı sunuyor. Geliştirilen bu sistemler, kaynak verimliliğini artırarak büyük dil modellerinin daha etkili çalıştırılmasına olanak tanıyor.

Donanım Maliyetlerinde Kayda Değer Azalma

AQLM, sıkıştırma süreçlerinde kullanılan geleneksel eklemeli niceleme yöntemlerini temel alıyor. Bu sayede, aşırı sıkıştırma altında model doğruluğu korunarak kullanıcılar ev bilgisayarları gibi günlük cihazlarda bu modelleri kullanabiliyor. PV-Tuning ise sıkıştırma sırasında oluşabilecek hataları gideriyor. Birlikte kullanıldıklarında, sınırlı bilgi işlem kaynaklarında yüksek kaliteli yanıtlar alınabiliyor.

Açık Kaynak Modeller Üzerinde Denemeler

Bu yöntemlerin doğruluğu, LLama 2, Mistral ve Mixtral gibi popüler açık kaynak modeller üzerinde test edildi. Araştırmacılar, sıkıştırılmış modellerin yanıt kalitesini WikiText2 ve C4 gibi İngilizce veri setleri üzerinde başarıyla değerlendirdi.

Çevrimdışı Gerçek Zamanlı Uygulamalar

AQLM ve PV-Tuning, akıllı telefonlar ve hoparlörler gibi düşük işlem gücüne sahip cihazlarda çevrimdışı dil işleme yeteneklerini sağlıyor. Kullanıcılar, gelişmiş dil modelleri sayesinde metin oluşturma, sesli yardım ve gerçek zamanlı çeviriler gibi özellikleri internetsiz olarak da deneyimleyebiliyor.

Geliştiriciler için Erişilebilir Araçlar

Bu çalışmalar, dünya genelindeki geliştiricilerin GitHub üzerinden AQLM ve PV-Tuning yöntemlerine erişebilmesiyle destekleniyor. Ayrıca, bu sıkıştırma yöntemleri ile birlikte eğitilmiş popüler açık kaynaklı modellerin de indirilmesi mümkün hale geliyor.