IBM lance des modèles d'embedding multilingues open-source
IBM publie deux nouveaux modèles d'embedding multilingues sous licence Apache 2.0 : granite-embedding-311m-multilingual-r2 (311M paramètres) et granite-embedding-97m-multilingual-r2 (97M paramètres). Ces modèles couvrent 200+ langues, gèrent un contexte de 32K tokens et incluent la récupération de code dans 9 langages de programmation.
« granite-embedding-97m-multilingual-r2 — A 97M-parameter compact model with 384-dimensional embeddings that delivers strong retrieval quality for its size. » — Hugging Face Blog
Que faut-il retenir ?
- Le modèle granite-embedding-311m-multilingual-r2 a 311M paramètres et un score de 65.2 sur MTEB Multilingual Retrieval.
- Le modèle granite-embedding-97m-multilingual-r2 a 97M paramètres et un score de 60.3 sur MTEB Multilingual Retrieval.
- Les modèles supportent 200+ langues avec un focus sur 52 langues pour une meilleure qualité de récupération.
- Les modèles gèrent un contexte de 32 768 tokens, une augmentation de 64x par rapport à la version R1.
Pourquoi cette nouvelle compte-t-elle ?
Ces modèles d'embedding multilingues sous licence Apache 2.0 permettent une intégration facile dans les frameworks existants comme LangChain et LlamaIndex. Ils offrent une solution performante pour la récupération d'informations multilingues et le traitement de code, ce qui est crucial pour les applications internationales et les équipes distribuées.
32 768 tokens de contexte, une augmentation de 64x par rapport à la version R1.
Public concerné : développeurs, entreprises
Quels sont les avantages des modèles Granite Embedding Multilingual R2 ?
Les modèles Granite Embedding Multilingual R2 offrent une couverture de 200+ langues, un contexte étendu de 32K tokens et une intégration facile avec les frameworks populaires comme LangChain et LlamaIndex, le tout sous licence Apache 2.0.
Commentaires (0)
💡 Aucun lien externe ni code HTML accepté. Soyez respectueux. Les commentaires sont modérés avant publication.
Aucun commentaire pour le moment. Soyez le premier !