Difficile de dire à quel point cela affectera leur résultat net, mais le nouveau processeur "Halo Strix" d'AMD est désormais le meilleur système pour quiconque souhaitant exécuter un LLM local.
On peut en obtenir un avec 128 Go de RAM pour environ 1,5 k$ au total et il fera fonctionner des modèles moyens/grands comme gpt-oss 120B parfaitement.
Pour référence, une seule Nvidia 5090 ( sans le reste du PC) coûte entre 2 et 3 k$ et ne peut pas faire fonctionner ce modèle complet.
Un Mac mini avec 64 Go de RAM coûte 2000 $ et ne peut également pas faire fonctionner ce modèle complet.
Un Mac Studio avec 128 Go de RAM peut le faire fonctionner mais coûte 3,7 k $
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Difficile de dire à quel point cela affectera leur résultat net, mais le nouveau processeur "Halo Strix" d'AMD est désormais le meilleur système pour quiconque souhaitant exécuter un LLM local.
On peut en obtenir un avec 128 Go de RAM pour environ 1,5 k$ au total et il fera fonctionner des modèles moyens/grands comme gpt-oss 120B parfaitement.
Pour référence, une seule Nvidia 5090 ( sans le reste du PC) coûte entre 2 et 3 k$ et ne peut pas faire fonctionner ce modèle complet.
Un Mac mini avec 64 Go de RAM coûte 2000 $ et ne peut également pas faire fonctionner ce modèle complet.
Un Mac Studio avec 128 Go de RAM peut le faire fonctionner mais coûte 3,7 k $