MIT, KAUST, ISTA ve Yandex iş birliğiyle geliştirilen HIGGS yöntemi, büyük dil modellerini (LLM) kalite kaybı olmadan sıkıştırmayı mümkün kılıyor.
Bu yöntem, güçlü sunuculara veya özel donanımlara ihtiyaç duymadığından mobil cihazlarda dahi kolayca uygulanabiliyor.
HIGGS, popüler LLaMA ve DeepSeek modellerinin yanı sıra Qwen serisi modellerin sıkıştırılmasında başarıyla kullanıldı.
Yöntemin en büyük avantajlarından biri, model boyutunu küçültme yönünde önemli bir iyileşme sağlarken kaliteden ödün vermemesi ve geniş cihaz yelpazesine erişimi artırmasıdır
HIGGS, LLaMA 3.1 ve 3.2 gibi modeller üzerinde test edildi ve diğer sıkıştırma yöntemlerine kıyasla daha iyi bir kalite-boyut oranı sağladı.
Geliştiriciler ve araştırmacılar bu yöntemi Hugging Face üzerinde erişebiliyor veya arXiv üzerinde yayınlanan araştırma makalesini inceleyebiliyor.



Comments are closed