Apple Mac Studio (M3 Ultra)
Apple · desktop appliance · Released mars 2025
L'appareil d'inférence d'Apple Silicon : jusqu'à 192 Go de mémoire unifiée à 800 Go/s, fait tourner des modèles 70B+ dans un boîtier de la taille d'une tasse à café.
Hardware spec sheet
| Vendor | Apple |
|---|---|
| Category | Appliance |
| VRAM / memory | 128 GB |
| Memory bandwidth | 800 GB/s |
| FP16 TFLOPS | — |
| INT8 TOPS | — |
| TDP | 295 W |
| Architecture | Apple Silicon M3 Ultra |
| Form factor | desktop appliance |
| Release date | mars 2025 |
| Street price (USD) | 3999-7999 MSRP |
| 120V note | Fonctionne sur n'importe quelle prise normale — Apple a rendu ce Hashcenter convivial par défaut. |
Apple a lancé le Mac Studio M3 Ultra en mars 2025 — l’appareil d’inférence qui a discrètement changé la donne pour les plebs qui veulent faire tourner des modèles de classe frontière sans monter de rig. Le M3 Ultra, ce sont deux dies M3 Max fusionnés via l’interconnexion UltraFusion, donnant jusqu’à 192 Go de mémoire unifiée LPDDR5 à environ 800 Go/s. Apple Silicon descend des SoC A-series iPhone/iPad (le M1 de 2020 était essentiellement un A14 agrandi), et l’architecture à mémoire unifiée remonte au virage d’Apple, en 2020, loin d’Intel.
À qui il s’adresse : aux professionnels, développeurs et plebs qui valorisent le silence, la simplicité et la capacité de faire tourner des modèles 70B+ sans homelab. Ce n’est pas le meilleur tok/s par dollar, mais c’est l’appareil unique le plus capable.
Les modèles qu’il fait tourner confortablement : avec 128 Go de mémoire unifiée, Llama 3 70B en FP16, Qwen 2.5 72B en Q8, distillations DeepSeek-R1. Avec 192 Go, Mixtral 8x22B en Q6 et distillations Llama 3 405B en Q4. MLX (le framework d’inférence d’Apple) continue de s’améliorer — chapeau à l’équipe MLX d’Apple et aux contributeurs du backend Metal de llama.cpp pour rendre tout cela utilisable.
Notes Hashcenter : TDP système de 295 W, complètement silencieux sous charge d’inférence typique, format appareil de bureau (environ la taille d’une pile de sous-verres). Fonctionne sur n’importe quelle prise normale — Apple a rendu ce Hashcenter convivial par défaut. Prix entre 3999 $ (96 Go) et 7999 $+ (192 Go). Il se tient sur les épaules de l’écosystème ARM, de TSMC et de plus d’une décennie d’efforts Silicon chez Apple.
Lecture complémentaire : Cet appareil est un composant essentiel d’un AI Hashcenter de calibre pleb. Associez-le à l’argument de souveraineté développé dans le Manifeste de l’IA souveraine pour les Bitcoiners, ou examinez comment la même enveloppe 120V alimente un chauffage d’appoint Bitcoin dans notre catalogue de minage. Vous souhaitez exécuter les deux charges de travail sur un même rig ? Consultez Chauffer votre maison grâce à l’inférence.
Models that run on this hardware
Get it running
-
01
Install Ollama →
Ten-minute local LLM runtime. One binary, zero cloud.
-
02
Give it a UI →
Open-WebUI turns Ollama into a self-hosted ChatGPT.
-
03
Which runner? →
LM Studio vs Ollama vs llama.cpp — pick the right runtime for your rig.
Further reading: Heating your home with inference for turning this card into a winter-heat source, and the Sovereign AI for Bitcoiners Manifesto for the bigger picture on owner-operated AI.
