Qwen 3
La sortie de mai 2025 d Alibaba — première famille ouverte avec raisonnement hybride (chaîne de pensée activable), Apache 2.0 à travers toutes les tailles.
Nous améliorons nos opérations pour mieux vous servir. Les commandes sont expédiées normalement depuis Laval, QC. Questions? Contactez-nous
Bitcoin accepté au paiement | Expédié depuis Laval, QC, Canada | Soutien expert depuis 2016
La sortie de mai 2025 d Alibaba — première famille ouverte avec raisonnement hybride (chaîne de pensée activable), Apache 2.0 à travers toutes les tailles.
La sortie MoE-et-multimodale de Meta d avril 2025, avec en tête la fenêtre de contexte 10M de Scout et le modèle de frontière Behemoth pré-annoncé.
La famille Gemma de Google DeepMind de mars 2025 — capacité vision (4B+), contexte 128K, avec variantes officielles 4-bits conscientes de la quantification.
Le modèle 24B de Mistral AI de janvier 2025 — Apache 2.0, compétitif avec Llama 3.3 70B, tient sur un seul GPU 24 Go.
Le modèle de raisonnement de DeepSeek de janvier 2025 — qualité chaîne de pensée de frontière, plus six distills sous licence MIT de 1,5B à 70B.
Le MoE à l échelle frontière de DeepSeek de décembre 2024 — 671B total, 37B actifs, entraîné pour ~5,6 M$ en compute.
Phi-4 de Microsoft Research de décembre 2024 — un modèle dense 14B sous licence MIT qui cogne bien au-dessus de sa catégorie en maths et raisonnement.
Un seul modèle 70B publié en décembre 2024, comblant la majeure partie de l écart avec Llama 3.1 405B par post-entraînement amélioré seul.
Le navire-amiral MMDiT de Stability AI d octobre 2024 — variantes 2B (Medium) et 8B (Large) avec adhérence aux prompts dramatiquement améliorée sur SDXL.
La sortie Llama de Meta de septembre 2024 a ajouté les tailles edge (1B/3B) et les premiers modèles de vision Llama à poids ouverts (11B/90B).
La famille Qwen de septembre 2024 d Alibaba s étend de 0,5B à 72B, plus des spécialistes coding et math — majoritairement Apache 2.0.
La variante FLUX Apache 2.0 de Black Forest Labs d août 2024 — 12B distillé en 1-4 étapes pour une génération d images rapide et commercialement ouverte.
Le navire-amiral de Black Forest Labs d août 2024 — un transformer flow-matching rectifié 12B qui a fixé la nouvelle barre de qualité pour la génération d images ouverte.
La famille LLM ouverte phare de Meta de 2024 — 8B, 70B et 405B paramètres avec contexte 128K. Le 405B a été le premier modèle ouvert à une véritable échelle de frontière.
La famille de modèles ouverts et légers de Google DeepMind lancée en juin 2024 — 2B, 9B et 27B avec attention locale/globale entrelacée.
Le navire-amiral RAG-natif de Cohere d avril 2024 — 104B dense, citations ancrées et usage d outils de première classe, CC-BY-NC 4.0.
Le modèle mixture-of-experts de Mistral AI de décembre 2023 — 8 experts, 2 actifs par token, Apache 2.0, tournant à la vitesse de Llama-13B avec la qualité de Llama-70B.
Le modèle ASR ouvert d OpenAI de novembre 2023 — 1,55B paramètres, sous licence MIT, la référence ouverte pour la reconnaissance vocale multilingue.
Le début de Mistral AI en septembre 2023 — un modèle 7B Apache-2.0 qui a popularisé la Grouped-Query et la Sliding Window Attention.
Le SDXL de Stability AI de juillet 2023 — ~3,5B paramètres, 1024×1024 natif, licence CreativeML-OpenRAIL-M, colonne vertébrale de l écosystème ouvert de génération d images.
Nous utilisons des témoins (cookies) pour améliorer votre expérience et analyser le trafic du site. Politique de confidentialité
Choisissez les témoins que vous autorisez. Les témoins essentiels sont nécessaires au fonctionnement du site et ne peuvent pas être désactivés.
Nécessaires au fonctionnement de base du site, au panier d’achat et à la sécurité. Toujours actifs.
Nous aident à comprendre comment les visiteurs utilisent notre site afin d’améliorer votre expérience. Inclut Google Analytics.
Utilisés pour diffuser des publicités pertinentes et suivre la performance des campagnes.