Google, Perşembe günü Gemma 3 Yapay Zeka Ailesi (AI) modellerindeki en son açık kaynak modeli olan Gemma 3N’nin tam sürümünü yayınladı. İlk olarak Mayıs ayında açıklanan yeni mannequin, cihaz içi kullanım durumları için tasarlandı ve optimize edildi ve birkaç yeni mimariye dayalı iyileştirme içeriyor. İlginç bir şekilde, büyük dil modeli (LLM) sadece 2GB RAM’de yerel olarak çalıştırılabilir. Bu, AI özellikli işleme gücü ile birlikte gelmesi koşuluyla, modelin bir akıllı telefonda bile dağıtılabileceği ve çalıştırılabileceği anlamına gelir.
Gemma 3n multimodal bir yapay zeka modeli
Bir Blog yazısıMountain View tabanlı teknoloji devi, Gemma 3N’nin tam versiyonunun piyasaya sürüldüğünü duyurdu. Mannequin, Gemma 3 ve Gemmasign modellerinin lansmanını takip ediyor ve Gemmaverse’e katılıyor. Açık kaynaklı bir mannequin olduğundan, şirket mannequin ağırlıklarını ve yemek kitabını topluluğa sağlamıştır. Modelin kendisi, hem akademik hem de ticari kullanımlara izin veren izin veren bir Gemma lisansı altında kullanılabilir.
Gemma 3n çok modlu bir AI modelidir. Görüntü, ses, video ve metin girişlerini yerel olarak destekler. Ancak, yalnızca metin çıkışları oluşturabilir. Aynı zamanda çok dilli bir modeldir ve metin için 140 dili ve giriş çok modlu olduğunda 35 dil destekler.
Google, Gemma 3N’nin Matryoshka transformatörü veya matformer mimarisi üzerine inşa edilen bir “ilk mobil mimariye” sahip olduğunu söylüyor. Birinin diğerine uyduğu Rus yuvalama bebeklerinin adını taşıyan iç içe bir transformatördür. Bu mimari, farklı parametre boyutlarına sahip AI modellerini eğitmenin benzersiz bir yolunu sunar.
Gemma 3n iki boyutta gelir – E2B ve E4B – Etkili parametreler için kısa. Bu, beş milyar ve sekiz milyar parametre büyüklüğüne rağmen, aktif parametreler sadece iki ve dört milyar.
Bu, hızlı belleğe (VRAM) yüklenmesi gereken sadece en önemli parametrelerin gerekli olduğu, katman başına yerleştirme (PLE) adı verilen bir teknik kullanılarak elde edilir. Geri kalanı ekstra katman gömleklerinde kalır ve CPU tarafından ele alınabilir.
Bu nedenle, matformer sistemi ile E4b varyantı E2B modelini yuva eder ve daha büyük mannequin eğitildiğinde, aynı anda daha küçük modeli eğitir. Bu, kullanıcılara daha gelişmiş işlemler için E4B kullanma veya daha hızlı çıkışlar için E2B’yi işleme veya çıktı kalitesinde fark edilebilir farklılıklar bulamadan kolaylaştırır.
Google ayrıca kullanıcıların belirli dahili parçaları değiştirerek özel büyüklükteki modeller oluşturmasına izin veriyor. Bunun için şirket, geliştiricilerin özel mannequin boyutlarını bulmalarına yardımcı olmak için farklı kombinasyonları take a look at etmelerini sağlayacak Matformer Lab aracını yayınlıyor.
Şu anda Gemma 3N, Google’ın üzerinden indirilebilir Sarılma Yüz Listesi Ve kaggle liste. Kullanıcılar Gemma 3N’yi denemek için Google AI Studio’yu da ziyaret edebilir. Özellikle, Gemma modelleri doğrudan AI stüdyosundan Cloud Run’a dağıtılabilir.