Passer au contenu

Nous améliorons nos opérations pour mieux vous servir. Les commandes sont expédiées normalement depuis Laval, QC. Questions? Contactez-nous

Bitcoin accepté au paiement  |  Expédié depuis Laval, QC, Canada  |  Soutien expert depuis 2016

Current

RTX 3090

NVIDIA · triple-slot · Released septembre 2020

Le fleuron NVIDIA 2020 reste le point idéal pour les plebs : 24 Go de GDDR6X pour 600–800 $ en occasion, fait tourner confortablement des modèles 32B en Q4.

Hardware spec sheet

VendorNVIDIA
CategoryGPU
VRAM / memory24 GB
Memory bandwidth936 GB/s
FP16 TFLOPS35.6
INT8 TOPS284
TDP350 W
ArchitectureAmpere
Form factortriple-slot
Release dateseptembre 2020
Street price (USD)600-800 (used)
120V note350 W s'insèrent confortablement sur un circuit 120V/15A avec une alimentation de 850 W ou plus ; deux RTX 3090 sur un même circuit 120V reste marginal, préférez le 240V.

La RTX 3090 est la championne du marché de l’occasion pour l’inférence locale. Lancée en septembre 2020 comme produit phare de l’architecture NVIDIA Ampere, elle embarque 24 Go de GDDR6X sur un bus 384 bits offrant 936 Go/s de bande passante mémoire — la statistique qui compte réellement pour l’inférence LLM. Ampere descend de Turing (série RTX 20) et la lignée des tensor cores remonte à Volta (V100).

À qui elle s’adresse : aux amateurs et prosumers qui souhaitent faire tourner des modèles de 7B à 32B localement sans contracter une deuxième hypothèque. À environ 600–800 $ sur le marché de l’occasion en 2026, c’est la recommandation de référence pour un premier rig LLM sérieux.

Les modèles qu’elle fait tourner confortablement : Llama 3 8B en pleine précision FP16, distillations de Llama 3 70B en Q4, Qwen 2.5 32B en Q5_K_M, Mistral Small en Q8. Tout jusqu’à environ 40B paramètres en Q4.

Notes Hashcenter : refroidisseur triple-slot, TDP de 350 W, alimentation 3× 8 broches. Le niveau sonore est moyen — acceptable dans un bureau à domicile, bruyant en rack. Pour un Hashcenter silencieux, optez pour les variantes à soufflante (RTX A5000 si le budget le permet). 350 W s’insèrent confortablement sur un circuit 120V/15A avec une alimentation de 850 W ou plus ; deux RTX 3090 sur un même circuit 120V reste marginal, préférez le 240V. Chapeau à NVIDIA pour avoir construit la carte que les plebs pouvaient réellement se permettre sur le marché de l’occasion.

Lecture complémentaire : Cette carte est un composant essentiel d’un AI Hashcenter de calibre pleb. Associez-la à l’argument de souveraineté développé dans le Manifeste de l’IA souveraine pour les Bitcoiners, ou examinez comment la même enveloppe 120V alimente un chauffage d’appoint Bitcoin dans notre catalogue de minage. Vous souhaitez exécuter les deux charges de travail sur un même rig ? Consultez Chauffer votre maison grâce à l’inférence.

Get it running

  1. 01 Install Ollama →

    Ten-minute local LLM runtime. One binary, zero cloud.

  2. 02 Give it a UI →

    Open-WebUI turns Ollama into a self-hosted ChatGPT.

  3. 03 Which runner? →

    LM Studio vs Ollama vs llama.cpp — pick the right runtime for your rig.

Further reading: Heating your home with inference for turning this card into a winter-heat source, and the Sovereign AI for Bitcoiners Manifesto for the bigger picture on owner-operated AI.