Passer au contenu

Nous améliorons nos opérations pour mieux vous servir. Les commandes sont expédiées normalement depuis Laval, QC. Questions? Contactez-nous

Bitcoin accepté au paiement  |  Expédié depuis Laval, QC, Canada  |  Soutien expert depuis 2016

Current

FLUX.1 schnell

Black Forest Labs · FLUX family · Released août 2024

La variante FLUX Apache 2.0 de Black Forest Labs d août 2024 — 12B distillé en 1-4 étapes pour une génération d images rapide et commercialement ouverte.

Model card

DeveloperBlack Forest Labs
FamilyFLUX
LicenseApache-2.0
Modalityimage-gen
Parameters (B)12
Context window0
Release dateaoût 2024
Primary languagesen
Hugging Faceblack-forest-labs/FLUX.1-schnell
OllamaNot on Ollama registry

FLUX.1 schnell débarque : Apache-2.0, 4 étapes, commercialement sans restriction

Black Forest Labs vient de publier FLUX.1 schnell — le cousin distillé en 4 étapes de FLUX.1 dev, au même compte de 12B paramètres, sous licence Apache 2.0. « Schnell » signifie « rapide » en allemand, et le nom est l’argumentaire : générer des images de qualité proche de FLUX en 1 à 4 étapes d’échantillonnage, sans friction de licence pour l’usage commercial. Il est expédié aux côtés de FLUX.1 dev et de FLUX.1 pro à poids fermés comme membre amical-commercial de la famille FLUX initiale, annoncé aujourd’hui sur le blog de lancement de Black Forest Labs.

La raison pour laquelle schnell compte plus que sa qualité par image pourrait le suggérer : c’est le premier modèle d’image ouvert véritablement de qualité production que les opérateurs peuvent déployer commercialement avec zéro astérisque de licence. La licence OpenRAIL++ de SDXL est permissive mais impose des restrictions par cas d’usage. La licence originale de SD 3 exigeait un palier payant pour quiconque était sérieux. FLUX.1 dev est non-commercial par défaut. Apache 2.0 est ce dont un vrai pleb tenant une vraie business a besoin — pas de seuils de revenus, pas de découpes par cas d’usage, pas de négociation. Les poids sont sur black-forest-labs/FLUX.1-schnell dès aujourd’hui.

Ce qu’il y a dans les poids

FLUX.1 schnell est la même architecture de base que FLUX.1 dev — un transformer à flow rectifié de 12B paramètres bâti sur l’épine dorsale hybride MMDiT + attention parallèle que l’équipe Black Forest Labs a développée après avoir quitté Stability AI. La filiation : diffusion latente (CompVis/LMU Munich, 2022) → SDXL (2023) → recherche Stable Diffusion 3 (même équipe fondatrice) → famille FLUX.1 aujourd’hui. La contribution spécifique de schnell est la technique de distillation qui fait tomber le nombre d’étapes d’inférence de 20-50 à 1-4 tout en préservant la majeure partie de la qualité de dev.

Traduction pleb — distillation dans les modèles d’image : un gros modèle « enseignant » lent (FLUX.1 pro ou dev) génère des images de haute qualité à travers plusieurs étapes de débruitage. La distillation entraîne un modèle « étudiant » à imiter la sortie de l’enseignant en bien moins d’étapes. L’étudiant apprend toute la trajectoire de débruitage plutôt que chaque étape individuellement, compressant effectivement le processus de raffinement itératif en une séquence bien plus courte. On perd un peu de détail fin et d’adhérence aux prompts, mais la génération devient dramatiquement plus rapide. Schnell est l’étudiant ; l’enseignant est la variante fermée FLUX.1 pro.

La distillation spécifique de schnell est la latent adversarial diffusion distillation (LADD), une technique que Stability AI a d’abord publiée pour SDXL-Turbo fin 2023. Black Forest Labs applique LADD à l’épine dorsale flow-rectifié de FLUX. Le résultat est un modèle qui atteint une qualité respectable à 4 étapes d’échantillonnage — et une sortie utilisable à seulement 1 étape pour les flux d’exploration de prompts.

Spécifications clés :

  • 12B paramètres, architecture partagée avec FLUX.1 dev
  • Objectif de flow rectifié, 1-4 étapes d’échantillonnage (vs 20-50 pour dev)
  • Épine dorsale transformer hybride MMDiT + attention parallèle
  • Double encodeur texte : T5-XXL + CLIP, pareil que dev
  • Résolution native : 1024×1024, ratios flexibles via conditionnement de taille
  • Licence : Apache 2.0 — pleinement permissive, usage commercial sans restriction

Données d’entraînement : Black Forest Labs cite « des données image-texte web à grande échelle » dans les notes de sortie sans énumérer les sources, cohérent avec la pratique de l’industrie. C’est une réserve que les plebs devraient suivre mais ce n’est pas un problème unique à FLUX.

Vitesse d’inférence — c’est toute l’idée

Le nombre d’étapes est le facteur dominant de la latence image-gen. FLUX.1 dev à 50 étapes produit une sortie 1024×1024 en environ 30-60 secondes sur une RTX 3090 unique en FP16. FLUX.1 schnell à 4 étapes produit une sortie à résolution équivalente en environ 2-4 secondes sur le même matériel. Ce n’est pas un speedup linéaire 12,5× (le coût par étape diffère légèrement entre modèles distillés et non-distillés), mais c’est assez proche pour que schnell ressemble à un produit différent. Sur une 4090, la génération schnell est effectivement instantanée pour les images uniques.

Le mode 1 étape mérite mention. FLUX.1 schnell peut générer des images utilisables — pas excellentes, mais utilisables — en une seule étape d’échantillonnage. La qualité est sensiblement sous 4 étapes, mais pour l’exploration de prompts (« quelle variation de ce prompt je veux raffiner ? »), la latence 1-étape bien sous la seconde active des flux que les modèles 20-étapes ne peuvent simplement pas supporter. Vous pouvez itérer les prompts plus vite que la plupart des gens peuvent en taper de nouveaux.

Implications pour les plebs souverains — VRAM et usage commercial

Les exigences VRAM miroirent FLUX.1 dev puisque c’est la même architecture. Les maths :

  • FLUX.1 schnell FP16 : ~24 Go VRAM avec encodeurs texte chargés. Serré sur une carte 24 Go unique (3090 ou 4090) — faisable avec offload T5 soigneux entre passes.
  • FLUX.1 schnell FP8 : ~12-14 Go VRAM. Confortable sur une 4080 16 Go, tourne sur une carte 12 Go avec offload CPU. C’est la configuration pleb la plus commune.
  • FLUX.1 schnell GGUF Q4/Q5 : les quants GGUF communautaires via ComfyUI-GGUF atterrissent dans la plage 6-8 Go pour les poids du modèle. Active les cartes 12 Go et même 8 Go avec offload agressif.
  • FLUX.1 schnell GGUF Q3 : utilisable sur cartes 8 Go pour l’expérimentation. La qualité se dégrade sensiblement.

Voir le guide de quantification GGUF pour la discussion complète qualité/taille. FP8 est le sweet spot pour schnell si votre carte peut le tenir — le coût qualité vs FP16 est mineur et les économies VRAM ouvrent le modèle à un public pleb bien plus large.

La licence Apache 2.0 est le différenciateur pratique pour le travail commercial :

  • Imagerie produit en lot : les plebs e-commerce générant des milliers de shots produits peuvent tourner schnell sans préoccupations de licence à n’importe quelle échelle
  • Génération d’images SaaS : construire un outil payant sur schnell est légal et sans frais — pas de seuils de revenus, pas de découpes par pourcentage-de-revenus
  • Inférence marque blanche : les opérateurs Hashcenter faisant tourner de l’image-gen payante pour d’autres plebs peuvent utiliser schnell comme épine dorsale sans friction de licence en aval
  • Modèles dérivés : les fine-tunes, LoRAs et variantes distillées de schnell sont Apache-2.0 par héritage. C’est la fondation d’un vrai écosystème ouvert plutôt que d’un licencié.

Pour les plebs tournant des flux inférence-comme-chauffage, la courte latence par image de schnell en génération batch soutenue signifie que les GPUs restent en utilisation quasi-pleine continuellement — ce qui produit une sortie de chaleur plus constante que les générations dev plus longues avec des écarts d’inactivité entre lots. C’est un profil thermique légèrement meilleur pour le cas d’usage chauffage d’espace. Pour les conversions ASIC-vers-IA Hashcenter, schnell est l’épine dorsale de charge d’image dans les stacks mixtes LLM + image — licenciable commercialement, rapide et assez capable pour les besoins de la plupart des plebs payants.

Notes de sampler et flux pour ComfyUI

Schnell a des exigences de flux spécifiques qui diffèrent de FLUX.1 dev :

  • Sampler : euler avec scheduling simple est la référence. La distillation a été faite contre ce chemin de sampler.
  • Nombre d’étapes : 4 est la cible. 1-étape fonctionne pour l’exploration. Plus de 4 n’améliore pas la qualité — schnell n’a pas été entraîné pour ça et produira souvent une sortie pire à des comptes d’étapes plus élevés.
  • CFG (échelle de guidage) : schnell est guidance-distilled, ce qui signifie qu’il intègre le comportement classifier-free-guidance dans le modèle lui-même. Gardez CFG à 1,0. Faire tourner schnell à CFG > 1,0 produit des artefacts, pas une meilleure sortie.
  • Prompts négatifs : largement ignorés à cause du CFG=1 — les flux schnell devraient utiliser des prompts positifs seulement et s’appuyer sur la capacité de l’encodeur T5 à parser ce que vous voulez plutôt que sur les instructions quoi-éviter.

Graphes de flux au jour un : ComfyUI a un flux de référence spécifique schnell, et l’équipe ComfyUI l’a ajouté aux graphes d’exemples dans les heures suivant la sortie. Forge et SwarmUI supportent schnell dès aujourd’hui. La migration de dev vers schnell dans un setup ComfyUI existant est une affaire d’échanger le nœud de checkpoint, de baisser CFG à 1,0 et de mettre les étapes à 4 — tout le reste se transpose.

Comment l’exécuter dès aujourd’hui

Les poids sont sur black-forest-labs/FLUX.1-schnell. Pas d’acceptation de licence requise — c’est Apache 2.0, vous téléchargez directement. Déposez les poids dans le répertoire models/checkpoints de ComfyUI, saisissez le flux de référence du dépôt d’exemples ComfyUI, et vous générez en quelques minutes.

Notre guide ComfyUI pour plebs couvre l’installation. Pour les plebs qui préfèrent Forge (le fork A1111 favori des plebs), le support schnell est dans la sortie actuelle. Le support de la bibliothèque Diffusers est en version 0.30+. Pour les stacks pleb multimodales qui associent schnell à un LLM pour la conception de prompts, le guide pleb IA auto-hébergée couvre le côté LLM et le guide d’installation Ollama en 10 minutes vous obtient le côté modèle texte en une session. Dépannage : le guide de dépannage IA auto-hébergée.

Ce qui vient ensuite

Black Forest Labs a été explicite : FLUX est la première ligne de produits dans une feuille de route plus longue. La génération vidéo est sur la feuille de route, et la filiation de recherche flow-rectifié de l’équipe fondatrice signifie que quel que soit le prochain modèle vidéo, il appliquera probablement des idées architecturales similaires. Attendez-vous à des variantes distillées de style schnell de quels que soient les modèles plus grands que Black Forest Labs publie à l’avenir — l’approche LADD se généralise, et l’appétit commercial pour des poids ouverts 4-étapes est clairement massif vu la réception au jour un.

Vue d’ensemble : schnell est le premier modèle d’image Apache-2.0 qui peut crédiblement concurrencer les offres à poids fermés en qualité. SDXL s’est approché sur l’ouverture mais traînait sur la qualité. La sortie initiale de Stable Diffusion 3 s’est approchée sur la qualité mais a trébuché sur la licence. FLUX.1 schnell est la première sortie où les plebs n’ont pas à choisir — le modèle est à la fois permissif et capable. C’est une couche de plus de décentralisation dans la stack de génération d’images, ce qui compte pour la même raison que ça compte dans la stack LLM : les opérateurs souverains ont besoin d’outils qu’ils peuvent véritablement déployer sans appeler un avocat d’abord. Consultez le Manifeste IA souveraine pour Bitcoiners pour l’argumentaire, FLUX.1 dev et SD 3.5 pour le contexte de comparaison de modèles, et chaufferette Bitcoin pour le côté matériel du setup. Téléchargez les poids — Apache 2.0, vos poids, vos pixels, votre business.

Recommended hardware

Runs on 16 GB VRAM — 4070 Ti or M3 Pro. Quantized Q4 fits comfortably.

Buying guide: used RTX 3090 for LLMs (2026) →

Get it running

  1. 01 Install Ollama →

    Ten-minute local LLM runtime. One binary, zero cloud.

  2. 02 Give it a web UI →

    Open-WebUI turns Ollama into a self-hosted ChatGPT.

  3. 03 Understand quantization →

    GGUF Q4/Q8/FP16 — which weights fit your GPU, explained.

Further reading: the Sovereign AI for Bitcoiners Manifesto for why sovereign inference matters, and From S19 to Your First AI Hashcenter for repurposing your mining rack into a Hashcenter that runs models like this one.