Tesla P40
NVIDIA · blower (passive) · Released septembre 2016
Le choix pleb à budget serré : 24 Go de VRAM ère Pascal pour 150–250 $ en occasion. Lent selon les standards 2026 mais imbattable en $/Go.
Hardware spec sheet
| Vendor | NVIDIA |
|---|---|
| Category | GPU |
| VRAM / memory | 24 GB |
| Memory bandwidth | 347 GB/s |
| FP16 TFLOPS | 12 |
| INT8 TOPS | 47 |
| TDP | 250 W |
| Architecture | Pascal |
| Form factor | blower (passive) |
| Release date | septembre 2016 |
| Street price (USD) | 150-250 (used) |
| 120V note | TDP de 250 W sur connecteur EPS 8 broches (pas PCIe) — requiert un adaptateur. Quatre P40 sur 120V/15A tiennent confortablement. |
La Tesla P40 est la carte datacenter de 2016 sur architecture Pascal devenue une légende du marché de l’occasion pour les plebs LLM à budget serré. 24 Go de GDDR5 sur un bus 384 bits donnent 347 Go/s — environ un tiers d’une 3090 — mais à 150–250 $ sur le marché de l’occasion, c’est le meilleur rapport $/Go de VRAM disponible. Pascal descend directement de Maxwell (époque GTX 980) et précède les tensor cores de première génération de Volta, donc l’inférence est du pur calcul FP32/FP16 sans accélération tensorielle.
À qui elle s’adresse : aux plebs qui privilégient le budget pour bâtir leur premier rig LLM, ou à toute personne empilant de la VRAM (deux P40 = 48 Go pour 400 $). Acceptable pour les charges de travail en arrière-plan ou par lots où le tok/s n’est pas critique.
Les modèles qu’elle fait tourner confortablement : Llama 3 8B en Q8, distillations de Llama 3 70B en Q4 (lent mais fonctionnel), Mixtral 8x7B en Q4. Attendez-vous à 5–10 tok/s sur les modèles de classe 70B — correct pour le chat, pénible pour les agents.
Notes Hashcenter : soufflante passive — conçue pour le flux d’air serveur, nécessite un carénage de ventilateur dans un boîtier tour. TDP de 250 W sur un connecteur EPS 8 broches (pas PCIe) — requiert un adaptateur. Aucune sortie vidéo, fonctionnement en headless uniquement. Le format monoslot à soufflante la rend excellente pour les builds rack à 4 GPU. Chapeau à NVIDIA pour avoir construit la carte et au marché secondaire pour l’avoir rendue abordable aux plebs.
Lecture complémentaire : Cette carte est un composant essentiel d’un AI Hashcenter de calibre pleb. Associez-la à l’argument de souveraineté développé dans le Manifeste de l’IA souveraine pour les Bitcoiners, ou examinez comment la même enveloppe 120V alimente un chauffage d’appoint Bitcoin dans notre catalogue de minage. Vous souhaitez exécuter les deux charges de travail sur un même rig ? Consultez Chauffer votre maison grâce à l’inférence.
Models that run on this hardware
Get it running
-
01
Install Ollama →
Ten-minute local LLM runtime. One binary, zero cloud.
-
02
Give it a UI →
Open-WebUI turns Ollama into a self-hosted ChatGPT.
-
03
Which runner? →
LM Studio vs Ollama vs llama.cpp — pick the right runtime for your rig.
Further reading: Heating your home with inference for turning this card into a winter-heat source, and the Sovereign AI for Bitcoiners Manifesto for the bigger picture on owner-operated AI.
