Passer au contenu

Nous améliorons nos opérations pour mieux vous servir. Les commandes sont expédiées normalement depuis Laval, QC. Questions? Contactez-nous

Bitcoin accepté au paiement  |  Expédié depuis Laval, QC, Canada  |  Soutien expert depuis 2016

Current

AMD Strix Halo (Ryzen AI Max+ 395)

AMD · laptop/mini-PC · Released janvier 2025

L'APU mobile/mini-PC d'AMD avec jusqu'à 128 Go de LPDDR5X unifié — la réponse d'AMD à l'approche mémoire unifiée d'Apple.

Hardware spec sheet

VendorAMD
CategoryAPU
VRAM / memory128 GB
Memory bandwidth256 GB/s
FP16 TFLOPS
INT8 TOPS
TDP120 W
ArchitectureZen 5 + RDNA 3.5
Form factorlaptop/mini-PC
Release datejanvier 2025
Street price (USD)2000+ (system)
120V noteTient dans une enveloppe laptop/mini de moins de 200 W (TDP configurable 45–120 W). Fonctionne sur USB-C PD ou adaptateurs barrel standards.

AMD Strix Halo (nom commercial Ryzen AI Max+ 395) a été lancé en 2025 comme la réponse d’AMD à la stratégie d’inférence à mémoire unifiée d’Apple. Un CPU Zen 5 combiné à un iGPU RDNA 3.5 de 40 CU et à un NPU XDNA 2, partageant jusqu’à 128 Go de LPDDR5X-8000 soudée à 256 Go/s. Le parcours d’AMD se tient ici sur des décennies de travail x86 plus le lignage Radeon RDNA (RDNA 1 sur la 5700 XT en 2019) et le lignage NPU issu du rachat de Xilinx par l’équipe XDNA.

À qui il s’adresse : aux plebs qui veulent un seul boîtier capable de gérer développement, inférence et informatique générale sans le bruit de ventilateur d’un rig GPU. Format mini-PC (Framework Desktop, variantes HP ZBook) et ordinateurs portables haut de gamme (ASUS ROG Flow, Razer Blade).

Les modèles qu’il fait tourner confortablement : avec 128 Go unifiés, Llama 3 70B en Q8, Mixtral 8x22B en Q4, Qwen 2.5 72B en Q5_K_M. ROCm et le backend Vulkan de llama.cpp sont les exécuteurs pratiques sous Linux ; DirectML et ONNX Runtime sous Windows. Attendez-vous à 5–15 tok/s sur les modèles de classe 70B — plus lent qu’une 4090, mais le plafond de VRAM est environ 5× plus haut.

Notes Hashcenter : tient dans une enveloppe laptop/mini de moins de 200 W (TDP configurable 45–120 W). Complètement silencieux ou quasi silencieux dans la plupart des châssis. Fonctionne sur USB-C PD ou adaptateurs barrel standards. Chapeau à AMD pour avoir apporté l’inférence à mémoire unifiée à l’écosystème x86/Linux, et aux communautés ROCm et llama.cpp pour avoir rendu la pile logicielle utilisable.

Lecture complémentaire : Cet appareil est un composant essentiel d’un AI Hashcenter de calibre pleb. Associez-le à l’argument de souveraineté développé dans le Manifeste de l’IA souveraine pour les Bitcoiners, ou examinez comment la même enveloppe 120V alimente un chauffage d’appoint Bitcoin dans notre catalogue de minage. Vous souhaitez exécuter les deux charges de travail sur un même rig ? Consultez Chauffer votre maison grâce à l’inférence.

Get it running

  1. 01 Install Ollama →

    Ten-minute local LLM runtime. One binary, zero cloud.

  2. 02 Give it a UI →

    Open-WebUI turns Ollama into a self-hosted ChatGPT.

  3. 03 Which runner? →

    LM Studio vs Ollama vs llama.cpp — pick the right runtime for your rig.

Further reading: Heating your home with inference for turning this card into a winter-heat source, and the Sovereign AI for Bitcoiners Manifesto for the bigger picture on owner-operated AI.