Qwen 3
La sortie de mai 2025 d Alibaba — première famille ouverte avec raisonnement hybride (chaîne de pensée activable), Apache 2.0 à travers toutes les tailles.
Nous améliorons nos opérations pour mieux vous servir. Les commandes sont expédiées normalement depuis Laval, QC. Questions? Contactez-nous
Bitcoin accepté au paiement | Expédié depuis Laval, QC, Canada | Soutien expert depuis 2016
La sortie de mai 2025 d Alibaba — première famille ouverte avec raisonnement hybride (chaîne de pensée activable), Apache 2.0 à travers toutes les tailles.
La sortie MoE-et-multimodale de Meta d avril 2025, avec en tête la fenêtre de contexte 10M de Scout et le modèle de frontière Behemoth pré-annoncé.
La famille Gemma de Google DeepMind de mars 2025 — capacité vision (4B+), contexte 128K, avec variantes officielles 4-bits conscientes de la quantification.
Le modèle 24B de Mistral AI de janvier 2025 — Apache 2.0, compétitif avec Llama 3.3 70B, tient sur un seul GPU 24 Go.
Le modèle de raisonnement de DeepSeek de janvier 2025 — qualité chaîne de pensée de frontière, plus six distills sous licence MIT de 1,5B à 70B.
Le MoE à l échelle frontière de DeepSeek de décembre 2024 — 671B total, 37B actifs, entraîné pour ~5,6 M$ en compute.
Phi-4 de Microsoft Research de décembre 2024 — un modèle dense 14B sous licence MIT qui cogne bien au-dessus de sa catégorie en maths et raisonnement.
Un seul modèle 70B publié en décembre 2024, comblant la majeure partie de l écart avec Llama 3.1 405B par post-entraînement amélioré seul.
La sortie Llama de Meta de septembre 2024 a ajouté les tailles edge (1B/3B) et les premiers modèles de vision Llama à poids ouverts (11B/90B).
La famille Qwen de septembre 2024 d Alibaba s étend de 0,5B à 72B, plus des spécialistes coding et math — majoritairement Apache 2.0.
La famille LLM ouverte phare de Meta de 2024 — 8B, 70B et 405B paramètres avec contexte 128K. Le 405B a été le premier modèle ouvert à une véritable échelle de frontière.
La famille de modèles ouverts et légers de Google DeepMind lancée en juin 2024 — 2B, 9B et 27B avec attention locale/globale entrelacée.
Nous utilisons des témoins (cookies) pour améliorer votre expérience et analyser le trafic du site. Politique de confidentialité
Choisissez les témoins que vous autorisez. Les témoins essentiels sont nécessaires au fonctionnement du site et ne peuvent pas être désactivés.
Nécessaires au fonctionnement de base du site, au panier d’achat et à la sécurité. Toujours actifs.
Nous aident à comprendre comment les visiteurs utilisent notre site afin d’améliorer votre expérience. Inclut Google Analytics.
Utilisés pour diffuser des publicités pertinentes et suivre la performance des campagnes.