Passer au contenu

Nous améliorons nos opérations pour mieux vous servir. Les commandes sont expédiées normalement depuis Laval, QC. Questions? Contactez-nous

Bitcoin accepté au paiement  |  Expédié depuis Laval, QC, Canada  |  Soutien expert depuis 2016

Non classifié(e)

RTX 3090 usagée pour LLM en 2026 : toujours reine ?

· D-Central Technologies · ⏱ 16 min de lecture

Dernière mise à jour:

Résumé — Pour le pleb qui fait tourner des LLM sous 70B paramètres en quantifications Q4–Q5, une RTX 3090 usagée à ~600–800 $ reste le meilleur rapport $/VRAM du marché grand public en 2026. La 4090 l’emporte de ~30–50 % en tok/s brut sur les plus petits modèles; la 5090 domine les charges de pointe mais coûte environ 3× une 3090 usagée. Sous Llama 3.1 70B, la 3090 reste la reine. Au-dessus, il vous faut une paire de 3090, une 4090, ou — si le budget suit — une 5090. Crédit à qui de droit : l’architecture Ampere de NVIDIA tient encore six ans plus tard, et la pile d’inférence open source (llama.cpp, Ollama, vLLM) a extrait de ces 24 Go plus que quiconque ne s’y attendait.

La question atterrit dans notre boîte chaque semaine. Pleb a un cabanon, un service 240 V qu’il a tiré pour un S19, un bon tas d’instincts de mineur Bitcoin, et maintenant il veut faire tourner ses propres LLM. Le monde de l’IA auto-hébergée se noie dans les conseils « achète une H100 », ce qui est inutile à quelqu’un qui a payé 2 400 $ pour un mineur et considérait ça comme une folie. Voici donc la réponse honnête, bâtie pour le pleb qui connaît déjà les watts, les ampères et la thermique — simplement pas les tokens par seconde.

Nous l’abordons comme on aborderait une hashboard usagée : spécifications, alternatives comparables, une liste d’achat et quand passer son chemin.

L’avantage injuste de la 3090 — 24 Go de VRAM

Si vous débutez en matériel LLM, oubliez tout ce que vous savez sur « plus vite = mieux ». Pour l’inférence, la VRAM est reine. Voyez-la comme la RAM de votre nœud Bitcoin : si votre chainstate ne tient pas en mémoire, votre nœud rame. Si les poids de votre LLM ne tiennent pas en VRAM, soit le modèle ne charge pas du tout, soit il déborde en RAM système et ralentit au point de vous faire remettre vos choix de vie en question.

Les modèles open source modernes se mesurent en milliards de paramètres. Chaque paramètre non quantifié (FP16) prend 2 octets. Llama 3.1 70B en FP16 réclame ~140 Go de mémoire. Aucun GPU grand public n’a ça. On quantifie donc — on comprime les poids à 4 ou 5 bits par paramètre — et soudain le modèle 70B tient dans ~40 Go. Ça ne tient toujours pas sur une seule 3090. Sur deux, par contre ? Confortable. On y revient dans un instant.

Les spécifications de la 3090 qui comptent encore :

Spécification RTX 3090
VRAM 24 Go GDDR6X
Bande passante mémoire 936 Go/s
Bus mémoire 384 bits
Cœurs CUDA 10 496
Cœurs Tensor 328 (3e génération)
TDP 350 W
Architecture Ampere (GA102)
PCIe 4.0 x16
Sortie Septembre 2020

La manchette, ce sont ces 24 Go. Deuxième place : 936 Go/s de bande passante — la vitesse d’inférence sur les grands modèles est bien plus liée à la bande passante mémoire qu’au calcul brut, et la bande passante de la 3090 bat encore toute carte grand public livrée par NVIDIA avant la 4090. Troisième point à noter : Ampere a un support bf16 complet et des cœurs Tensor INT8 natifs, ce qui veut dire que llama.cpp et vLLM peuvent réellement exploiter le silicium. Les cartes de l’ère Pascal (P40, P100) ne peuvent pas en dire autant.

Sur les compromis de quantification — un court apprêt pleb pour que la suite ait du sens :

  • FP16 / BF16 : pleine précision. 2 octets par paramètre. Meilleure qualité, plus grand impact VRAM.
  • Q8 : quantification 8 bits. ~1 octet par paramètre. Pratiquement indiscernable du FP16 dans la plupart des tests.
  • Q5_K_M : 5 bits, le « sweet spot » communautaire. ~0,6 octet/param. Perte de qualité faible.
  • Q4_K_M : 4 bits. ~0,5 octet/param. La valeur par défaut de la plupart des montages locaux. Baisse de qualité perceptible mais tolérable.
  • Q3 et en deçà : on entre dans le territoire « ça tourne, mais c’est plus bête ».

Un Llama 3.1 70B en Q4_K_M a besoin de ~43 Go au total (poids + cache KV + surcoût). Deux 3090 s’en occupent. Une seule 3090 le fait passer de justesse en Q2 avec une minuscule fenêtre de contexte, et à ce stade vous avez tellement dégradé le modèle que ce n’est plus vraiment Llama 70B — c’est une version lobotomisée.

Pour le récapitulatif complet sur le fonctionnement de la quantification GGUF et pourquoi Q4_K_M est devenu le standard, voyez La quantification expliquée : GGUF Q4, Q8, FP16.

Ce que la 3090 fait vraiment tourner

Les chiffres ci-dessous sont des plages typiques de bancs d’essai communautaires sur une seule 3090, sauf indication contraire. Ils varient avec la longueur du prompt, la taille de lot, le runner (llama.cpp vs vLLM vs Ollama), les réglages de cache KV et selon que vous avez ajusté --n-gpu-layers. Traitez-les comme des ordres de grandeur, pas comme parole d’Évangile.

Modèle Params Quant. VRAM utilisée Tok/s (3090) Notes
Llama 3.1 8B 8B Q4_K_M ~6 Go 90–120 Vif. Laisse beaucoup de VRAM pour un gros contexte.
Llama 3.1 8B 8B Q8 ~9 Go 70–90 Choix qualité pour un 8B.
Llama 3.1 70B 70B Q4_K_M ~43 Go 15–22 (double 3090) Le cas d’usage classique en double 3090.
Llama 3.1 70B 70B Q3_K_S ~31 Go 10–14 (double 3090) Ça rentre, mais Q4 est le meilleur plancher.
Gemma 3 27B 27B Q5_K_M ~20 Go 28–38 Le champion à poids ouverts de Google tient confortablement.
Qwen 2.5 32B 32B Q4_K_M ~20 Go 25–34 Le modèle d’Alibaba à l’aise avec le code.
DeepSeek R1 Distill 32B 32B Q4_K_M ~21 Go 22–30 Modèle de raisonnement; les tok/s baissent avec de longues traces de réflexion.
Phi-4 14B 14B Q5_K_M ~11 Go 55–75 Le petit-mais-puissant de Microsoft.
Mistral Small 3 24B Q4_K_M ~15 Go 35–48 Généraliste à faible latence.
SDXL image FP16 ~10 Go ~2 img/s (1024×1024, 30 étapes) Le cheval de bataille de Stability AI.
FLUX.1-dev image FP8 ~16 Go ~1 img / 8–10 s Le fleuron de Black Forest Labs; tient en FP8.
Whisper Large v3 ASR FP16 ~4 Go Temps réel × ~25 Le speech-to-text d’OpenAI; transcrire des heures en minutes.

Quelques observations sautent aux yeux. Un : un modèle 8B file. Si vous bâtissez un assistant de code qui doit simplement répondre vite, vous êtes surspécifié avec une 3090 et vous ne remarqueriez jamais une 4090. Deux : le plafond de 24 Go est exactement assez haut pour accueillir Gemma 3 27B et Qwen 32B à des quantifications utiles, ce qui explique pourquoi ces modèles sont devenus les choix par défaut « une carte, du travail sérieux ». Trois : FLUX.1-dev en FP8 tient. C’était un rêve il y a peu.

Crédit à qui de droit sur ce tableau : llama.cpp (Georgi Gerganov et 900+ contributeurs) est ce qui rend ces chiffres atteignables sur une carte grand public. Ollama a posé une UX propre par-dessus. vLLM (Sky Computing Lab de Berkeley) est ce qu’il vous faut pour servir du multi-utilisateur. Rien de cela n’était possible en 2022. La 3090 a bien vieilli parce que le logiciel a bien vieilli autour d’elle.

Nouveau sur l’un de ces outils ? Commencez par Installer Ollama en 10 minutes et Open WebUI : l’expérience ChatGPT, auto-hébergée.

3090 vs 4090 vs 5090 — face à face

Comparaison honnête. Aucune démolition — les trois sont de bonnes cartes pour différents budgets.

Spécification RTX 3090 (usagée) RTX 4090 (usagée/neuve) RTX 5090 (neuve)
Prix typique (2026) 600–850 $ 1 400–1 800 $ 2 200–2 800 $
VRAM 24 Go GDDR6X 24 Go GDDR6X 32 Go GDDR7
Bande passante mémoire 936 Go/s 1 008 Go/s 1 792 Go/s
Cœurs Tensor 3e gén. (Ampere) 4e gén. (Ada, FP8) 5e gén. (Blackwell, FP4)
TDP 350 W 450 W 575 W
Tok/s : Llama 3.1 8B Q4 90–120 130–180 200–280
Tok/s : Llama 3.1 70B Q4 15–22 (double) 22–32 (double) 28–40 (simple, 32 Go juste assez en Q3)
$/Go de VRAM ~30 $ ~65 $ ~78 $
$/tok/s (8B Q4) ~6 $ ~10 $ ~10 $

Lecture honnête :

  • La 4090 est ~30–50 % plus rapide sur les plus petits modèles. Si vous servez à fort volume du 8B, ou si vous accordez de la valeur à la latence brute pour un assistant de code mono-utilisateur, c’est la meilleure carte. Vous la payez le double.
  • La 5090 est la seule des trois à accueillir Llama 3.1 70B à n’importe quelle quantification sur une seule carte, et elle prend en charge le FP4, ce qui compte pour des modèles de pointe comme FLUX.1 et les travaux de diffusion plus récents. Elle vaut aussi presque le triple d’une 3090 usagée.
  • La 3090 usagée reste intouchable au $/VRAM. Si votre charge est « je veux faire tourner un modèle de classe 30B en Q5 ou un 70B en Q4 sur deux cartes », vous payez moins par gigaoctet utile qu’avec toute autre option que NVIDIA vend.

Il n’y a pas de perdant ici. Il n’y a que « quelle est ta charge réelle, et combien paies-tu du watt d’électricité ? »

3090 vs cartes retirées de datacenter — P40, P100, A4000, A5000

C’est là que les instincts du pleb Bitcoin paient. Vous savez acheter des ASIC usagés avec confiance — le même état d’esprit s’applique aux GPU ex-entreprise. Les retraits de baies décommissionnées sont une voie budgétaire légitime, avec des nuances.

Carte VRAM Arch. TDP Prix usagé typique Format Note tok/s
Tesla P40 24 Go GDDR5 Pascal 250 W 150–250 $ Ventilation passive (mod. ventilo requis) ~30–40 % d’une 3090 sur même modèle
Tesla P100 16 Go HBM2 Pascal 250 W 120–180 $ Passive FP16 correct, limité par le plafond de 16 Go
RTX A4000 16 Go GDDR6 Ampere 140 W 550–700 $ Blower simple slot ~60 % d’une 3090
RTX A5000 24 Go GDDR6 Ampere 230 W 800–1 100 $ Blower double slot ~85 % d’une 3090

P40 — la carte 24 Go d’entrée de gamme. Elle fait tourner llama.cpp et Ollama sans souci. Mais : pas de bf16, pas de FP8, pas d’accélération cœur-Tensor dans la plupart des chemins d’inférence, refroidissement passif qui demande une turbine sanglée sur le carter. C’est un projet. La barre latérale de r/LocalLLaMA a toute une section sur le mod ventilo. Si vous êtes déjà à l’aise avec dissipateurs et câblage 240 V, une P40 à 200 $ est une façon légitime de tremper l’orteil. Ne comptez pas qu’elle tienne la cadence d’une 3090.

P100 — curieuse bête. 16 Go de HBM2 lui donnent une bande passante mémoire déraisonnable pour l’époque, donc elle n’est pas lente. Mais 16 Go vous plafonnent confortablement aux modèles 13B. C’est un choix de spécialité pour qui veut faire des expériences d’entraînement FP16 à bas prix.

A4000 — de l’Ampere poste de travail dans un blower simple slot. Si vous montez en baie dans un bureau silencieux, c’est le choix sensé. 16 Go est un vrai plafond — pas de Gemma 27B, pas de modèles 32B à des quantifications utiles.

A5000 — concurrente directe de la 3090. Mêmes 24 Go, même génération Ampere, refroidissement blower, TDP 230 W, mémoire ECC. Pour un montage en baie façon Hashcenter où le bruit et le flux d’air comptent, l’A5000 est sincèrement la meilleure carte. Vous payez 200–300 $ de plus et renoncez à ~15 % de tok/s en échange d’un refroidissement et d’une fiabilité de niveau entreprise.

Matrice de recommandation :

Vous êtes… Choix
Budget serré, à l’aise avec ventilos et risers P40 (24 Go pour 200 $)
Bureau/baie, sensible au bruit A5000 (24 Go blower)
Cabanon en 240 V, cadre ouvert, perf/$ maxi 3090 (encore reine)
Besoin de 16 Go max et silence absolu en simple slot A4000
Envie de bricoler l’entraînement FP16 à petit budget P100

Acheter une 3090 usagée — liste pleb

Les marchés de GPU d’occasion en 2026 sont corrects, mais il faut acheter comme on achèterait un S19 usagé. Voici la liste complète.

Où chercher :

  • eBay — le plus large choix; favorisez les vendeurs avec politique de retour et « cueillette locale disponible » (moins de cas de dommages à l’expédition).
  • Facebook Marketplace / Craigslist / Kijiji — meilleurs prix, testez avant de payer, apportez un portable avec une image de référence et nvidia-smi sur une clé USB live.
  • r/hardwareswap — réputation communautaire, système de confirmation, généralement honnête. Lisez les fils de confirmation du vendeur.
  • Petites annonces locales — l’or pour l’inspection en main.

À éviter à moins d’un prix en conséquence :

  • Cartes ex-minage sans preuve d’entretien. Non pas parce que le minage détruit les cartes (le mythe est exagéré — 24/7 à charge stable est souvent plus doux que les cycles de jeu), mais parce qu’une carte qui a tourné en milieu poussiéreux sans entretien du filtre peut avoir de la poussière agglomérée sur les dissipateurs de VRAM et des pads thermiques desséchés. Si le vendeur vous montre une photo de démontage propre et un reçu de repâte, c’est correct. S’il se montre fuyant, passez votre chemin.

Signaux d’alarme à l’inspection :

  • Roulements qui cliquettent — faites tourner les ventilos à la main. Grincement ou jeu = remplacement de ventilo (20 $ + un après-midi).
  • Contacts corrodés — les broches du connecteur PCIe doivent être d’un or brillant. Tâches vertes ou sombres = dégâts d’humidité.
  • Pâte thermique jaune/sombrepâte thermique vieille, cyclée thermiquement à mort. Prévoyez un repâtage.
  • Doigts PCIe tordus — ça tourne, peut-être. Ou ça ne se logera pas correctement sur votre carte mère.
  • Vis de backplate manquantes — la carte a été ouverte. Demandez pourquoi. Repâtée ? Pads refondus ? Peut-être correct, peut-être une récupération.
  • Founders Edition avec un cliquetis près du VRM — problème connu sur certaines FE; dégradation de pads thermiques sur les modules mémoire.

Rodage avant de faire confiance :

Ne sautez pas cette étape. Avant de bâtir un rig autour d’une carte usagée, prouvez qu’elle est stable au moins quatre heures sous charge réelle.

# 1. Sanité rapide — nvidia-smi doit afficher la carte aux fréquences attendues
nvidia-smi

# 2. Stress mémoire — vérifie la VRAM
# Utilisez gpu_burn ou memtest_vulkan
./gpu_burn 3600   # 1 heure
# ou
memtest_vulkan   # balayage VRAM complet

# 3. Charge d'inférence réelle — celle qui compte
ollama run llama3.1:70b-instruct-q4_K_M --verbose
# puis dans un autre terminal, bouclez des prompts pendant une heure

# 4. llama-bench pour des chiffres reproductibles
llama-bench -m /chemin/vers/Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf -p 512 -n 128 -r 10

Surveillez : température au-dessus de 85 °C soutenue, consommation qui grimpe au-delà de 370 W (doit plafonner à 350), tok/s qui baissent au fil du temps (étranglement thermique), erreurs mémoire dans dmesg, artefacts visuels dans le texte de sortie (extrêmement rare, mais possible sur de la VRAM endommagée).

Statut de garantie (2026) :

  • EVGA : fermée depuis 2022; toutes les garanties sont mortes.
  • Gigabyte : la plupart des garanties de 3 ans ont expiré en 2023–2024. Vérifiez le code-date de la carte.
  • MSI : même histoire.
  • ASUS ROG : certaines garanties prolongées restent valides si vous êtes le propriétaire d’origine avec reçu. Rare sur le marché d’occasion.
  • Founders Edition : la garantie directe NVIDIA est largement écoulée.

Conclusion : prévoyez le prix comme s’il s’agissait de matériel sans garantie. C’est le bon modèle mental.

Quoi payer en 2026 :

  • Carte fatiguée / ex-minage, sans accessoires : 550–650 $
  • État propre, boîte d’origine, pas de papiers : 700–800 $
  • Neuve-comme-neuve, boîte, peu d’heures, propriétaire d’origine avec reçu : 800–900 $
  • 3090 Ti (même génération, plus rapide, compatible NVLink) : ajoutez 150–250 $ aux chiffres ci-dessus

Ne payez pas les prix de détail de 2020. Ne lowballez pas non plus une carte propre jusqu’à la mort. Le marché a trouvé son niveau.

Bâtir un Hashcenter multi-3090

Voici le montage de rêve du pleb — et si vous opérez déjà du matériel de minage, vous avez 80 % de l’infrastructure.

Le rig 4× 3090 à cadre ouvert :

  • 96 Go combinés de VRAM — Llama 3.1 70B en Q5 confortable, distillations DeepSeek V3, Qwen 72B en Q4, Command R+ en Q4, fine-tuning de classe pointe avec QLoRA.
  • 1 400 W de tirage GPU total à pleine charge — vous êtes en territoire 240 V, que vous avez déjà.
  • À peu près l’encombrement de deux S19 sur un cadre aluminium à ciel ouvert.
  • Mêmes instincts de refroidissement — flux d’air, ambiance, équilibre admission/extraction. Un cabanon qui a géré du minage gère cela.

Liste d’achats matérielle :

  • Carte mère : une carte serveur usagée avec 4+ slots PCIe x16. ASUS WS C621E, Supermicro série X11, ou une carte EPYC comme la Asrock Rack ROMED8-2T. 300–600 $ d’occasion sur eBay. Astuce pleb : guettez les annonces « labo décommissionné ».
  • Risers PCIe : des câbles notés 4.0 x16, pas les risers de minage bon marché (ceux-ci sont 1.0 x1 pour une raison — ça marchait pour les ASIC parce que les ASIC n’ont pas besoin de bande passante). Marques LinkUp ou C-Payne. 60–120 $ par carte.
  • Alimentation : un PSU serveur avec une plaque de sortie (PSU HP/Dell de 1 200–1 600 W sur eBay à 40–80 $) par paire de cartes, ou deux alimentations ATX de qualité (Seasonic Prime, Corsair AX) avec un câble de synchronisation double PSU.
  • Cadre : cadre de minage aluminium, taille 6 GPU (80 $). Vous utiliserez 4 emplacements et garderez de la place pour le flux d’air.
  • CPU + RAM : modeste. Un Xeon usagé avec 64 Go ECC suffit largement. L’inférence touche à peine le CPU.

Pile logicielle :

  • Ollama : gère le multi-GPU automatiquement dans les versions récentes (0.4+). Mettez OLLAMA_NUM_GPU ou laissez la détection automatique. L’option la plus facile.
  • llama.cpp : utilisez --tensor-split 1,1,1,1 pour répartir également sur 4 cartes, ou pondérez le split vers votre carte principale si vous voulez en réserver une pour d’autres charges.
  • vLLM : pour servir du multi-utilisateur, vLLM avec parallélisme tensoriel (--tensor-parallel-size 4) est la bonne réponse. Débit supérieur à llama.cpp pour les requêtes concurrentes.

Pour la marche à suivre complète « cabanon-vers-serveur » — câblage, bruit, récupération de chaleur, tout le reste — voyez Du S19 à votre premier Hashcenter IA. Et si utiliser la chaleur résiduelle de manière productive vous intrigue, Chauffer à l’inférence couvre les calculs.

Quand NE PAS choisir une 3090

La section honnête. La 3090 n’est pas faite pour tout le monde.

Vous avez besoin de plus de 24 Go de VRAM par carte. Si votre cible est Llama 3.1 70B en Q6+ sur un seul GPU, du fine-tuning à paramètres complets de classe pointe, ou de l’inférence par lots avec d’énormes caches KV, il vous faut plus de mémoire par carte. Ce qui veut dire :

  • RTX 5090 (32 Go) — palier grand public, capable au niveau pointe
  • RTX 6000 Ada (48 Go) — poste de travail, 5 000 $+ d’occasion
  • H100 80 Go / MI300X 192 Go — datacenter seulement, budgets Hashcenter seulement

Vous avez besoin de NVLink. Le NVLink grand public Ampere a été retiré à partir de la 4090. La 3090 prend techniquement en charge le NVLink via un pont, mais pas la 3090 Ti, et les ponts eux-mêmes sont rares et surévalués sur le marché d’occasion. Pour l’inférence, le NVLink n’a le plus souvent aucune importance (le parallélisme tensoriel sur PCIe 4.0 x16 suffit). Pour l’entraînement avec grande mémoire d’activation, cela peut compter — mais si vous faites de l’entraînement sérieux, vous êtes de toute façon au-delà du palier grand public.

Vous avez besoin d’un format baie avec blower. La 3090 est une carte 3 slots à ventilation axiale ouverte. Dans une baie fermée, elle se cuit elle-même. Prenez une A5000 ou une A4000 pour le travail en baie. L’A5000 est sincèrement la bonne carte ici; on l’a dit plus haut et on le redit.

Vous avez besoin d’un idle sous 10 W. Un Mac Studio M3 Ultra ou un M4 Max avec 96–192 Go de mémoire unifiée idle à quelques watts et peut faire tourner des modèles étonnamment grands — l’architecture à mémoire unifiée est légitimement une philosophie de conception différente, et Apple mérite du crédit pour ça. Vous renoncez à des tok/s (la bande passante mémoire d’Apple est inférieure à celle d’une 3090) et à l’écosystème (CUDA domine encore), mais pour un pleb qui lance un LLM quelques fois par jour et veut que la facture d’électricité reste invisible, c’est une vraie réponse. Pas un remplacement de la 3090 pour gros utilisateurs, mais bon à savoir.

Vous achetez neuf en 2026. La 3090 est strictement un jeu de marché d’occasion à présent. Si vous entrez en magasin avec un budget neuf, la 4090 est le meilleur achat neuf — plus efficace, support FP8, garantie intacte. La 3090 gagne sa place sur le prix et la disponibilité, pas sur le fait d’être la carte la plus récente ou la plus rapide.

Pour clôturer

Pour Llama 3.1 70B et tout ce qui se situe en dessous — soit 95 % de ce qu’un pleb auto-hébergé fait réellement tourner — la RTX 3090 usagée à 600–800 $ reste la référence. Crédit à NVIDIA pour avoir bâti Ampere pour durer, et crédit à l’équipe d’inférence open source (llama.cpp, Ollama, vLLM et la communauté de la quantification GGUF) d’avoir transformé une carte de jeu de 2020 en standard 2026 de l’IA auto-hébergée.

Le rig à double 3090 est le « sweet spot » de l’IA souveraine : 48 Go combinés de VRAM, environ 1 300 W à la prise quand les deux travaillent, et une couverture confortable de chaque charge LLM open source significative, des assistants de code aux modèles de raisonnement de classe 70B. Si vous avez le cabanon, le disjoncteur et une connaissance pratique des risers PCIe, vous avez la structure d’un Hashcenter IA auto-hébergé qui vous servira des années.

Pour le pourquoi-ça-compte, lisez le Manifeste pour une IA souveraine des Bitcoiners. Pour la voie pratique de démarrage, le Guide du pleb pour l’IA auto-hébergée parcourt la pile complète. Et quand vous comparerez les runners pour votre nouveau rig, LM Studio vs Ollama vs llama.cpp est l’arrêt suivant.

Le verdict tient : en 2026, la RTX 3090 usagée est encore le roi pleb des LLM locaux. Longue vie à sa règne.


Pour aller plus loin (externe) :

Mining Profitability Calculator Calculate your mining revenue, electricity costs, and net profit with live Bitcoin data.
Try the Calculator

D-Central Technologies

Bitcoin Mining Experts Since 2016

Réparation ASIC Bitaxe Pioneer Open-Source Mining Chaufferettes Home Mining

D-Central Technologies est une entreprise canadienne de minage Bitcoin qui rend la technologie minière de niveau institutionnel accessible aux mineurs à domicile. Plus de 2 500 mineurs réparés, 350+ produits expédiés du Canada.

About D-Central →

Articles connexes

Start Mining Smarter

Whether you are heating your home with sats, building a Bitaxe, or scaling up — D-Central has the hardware, repairs, and expertise you need.

Start Mining Smarter

Whether you are heating your home with sats, building a Bitaxe, or scaling up — D-Central has the hardware, repairs, and expertise you need.

Start Mining Smarter

Whether you are heating your home with sats, building a Bitaxe, or scaling up — D-Central has the hardware, repairs, and expertise you need.

Start Mining Smarter

Whether you are heating your home with sats, building a Bitaxe, or scaling up — D-Central has the hardware, repairs, and expertise you need.

Browse Products Talk to a Mining Expert