独立個人党のオルタ黙示録:なんでも何が正しいのか自分で考えてみよう-世界暴政化の策謀を絵本で理解-「百聞は絵本にしかず」
不気味ですね
I Bought NVIDIA’s $4,699 ‘Personal AI Supercomputer’ … and Then Lost All Optimism For NVIDIA 05/03/2026 // Mike Adams
https://www.naturalnews.com/2026-05-03-i-bought-nvidias-personal-ai-supercomputer.html
私を売った約束
NVIDIA が CES 2025 で Project DIGITS を立ち上げたとき、私は本当に興奮しました。その約束は明確でした。GB10 Grace Blackwell チップ、128 GB のユニファイドメモリ、1 PFLOP の FP4 コンピューティング、およびデュアル 200 GbE ネットワーキング ポートを搭載した 4,699 ドルのデスクトップ AI スーパーコンピューターです。私はこれを、クラウドに依存せずに大規模な言語モデルをローカルで実行するためのチケット、つまり真の分散型 AI 開発のためのツールだと考えました。当時私が報告したように、これは AI を民主化し、スーパーコンピューティングのパワーを机の上に置くことを想定していました[1]。
注文して待ちました。 DGX Spark が到着したとき、私は独自の AI インフラストラクチャを構築するために使用したすべての本格的なハードウェアに対して感じてきたのと同じ期待を持って箱を開けました。しかし、私がその中に見つけたのは革命ではありませんでした。それは、すべての見出し番号に壊滅的な星印が付いているマシンでした。ネットワークが定格速度を発揮できません。主要な NVFP4 ソフトウェア スタックが運用パスでクラッシュします。また、メモリ帯域幅は上限が高く、大規模なモデルのデコードがひどく遅くなります。私はこのマシンのテストに数週間を費やしましたが、NVIDIA が未完成のプラットフォームを出荷し、早期採用者がそれをデバッグすることを期待しているとの結論に達しました。
ネットワーキングの悪夢: 200 Gbps の嘘
ConnectX-7 NIC を搭載したデュアル QSFPポートにより、2つの Sparkをリンクし、最大405Bパラメータのモデルを実行できるはずでした。実際には、インターフェイスは200 Gbpsで接続を開始しますが、実際のスループットは約13 Gbpsに制限されます。これは、約束よりも1桁低い値です。根本的な原因は PCIeの電力バジェットのバグです。NVIDIA 独自の電源を使用している場合でも、ドライバーがスロットの電力不足を検出し、ドライバー自体をスロットルします。 「mlx5_pcie_event: PCIeスロットの電力不足 (27W) が検出されました」というカーネルメッセージが繰り返し表示されます。これはドライバーに嘘をついているファームウェアです。
状況はさらに悪化します。そのバグがなくても、ポートあたり 200 Gbpsを主張するには、ほとんどのユーザーが設定したことのないマルチホストPCIeアグリゲーションが必要です。 GB10 SoCは物理的に、単一デバイスにPCIe Gen5 x4 (約 100 Gbps) を超える性能を提供することはできません。 200 Gbpsに到達するには、両方の RoCE ツインを明示的にバインドする必要があります。また、3つのSparkをデイジーチェーン接続しようとすると、帯域幅がペアあたり約100 Gbpsに半分になり、高価な切り替えが必要になります。 ServeTheHome が説明したように、アーキテクチャは単純な x8リンクではなく、2つの別個の x4接続です[2]。これは荒削りではなく、マーキーネットワーキング機能を提供するという根本的な失敗です。
NVFP4: 動作しない機能
1 PFLOP ヘッドライン番号は、NVIDIA 独自の4ビット浮動小数点形式であるNVFP4に依存しています。これは、出荷時のソフトウェアスタックで最も顕著に壊れている機能です。 9つのSparkに約38,000 ドルを投資したある顧客は、NVIDIA のマーケティングで約束されたソフトウェアが使用可能な状態にないため、ロードマップを公に要求しました。バグの対象範囲は広範囲に及びます。ARM64 GB10では、Qwen3.5 NVFP4モデルがCUDA不正な命令エラーでクラッシュします。 Nemotron-3-Nanoは、バッチサイズが1を超える場合、CUDA グラフのキャプチャ中にcudaErrorIllegal命令をトリガーします。また、MoE モデルでは、ワークスペースバッファーがより厳格なアライメント要件を満たしていないため、不整合アドレスエラーが発生します。
さらに悪いことに、しばらくの間、SM121アーキテクチャ ガードがvLLM のビルド システムから完全に欠落していました。これは、すべてのNVFP4、CUTLASS、および MLAカーネルがコンパイル時に警告なくスキップされていることを意味しています。ユーザーは知らないうちにフォールバックパスを実行していました。これは「早期導入者の痛み」ではありません。ヴェイパーウェアの販売です。以前にも未完成のソフトウェアを見たことがありますが、NVIDIA は発売から1年かけてこれらの問題を解決してきました。以前にも述べたように、AI ハードウェアの良さは、それを実行するソフトウェアの良さによって決まります[3]。
メモリ帯域幅の罠
128 GBのユニファイドメモリがSparkの最大のセールスポイントですが、273 GB/秒のLPDDR5X帯域幅はCPUとGPUの間で共有されます。帯域幅に制限があるトークン生成の場合、これはアーキテクチャ上の厳しい上限です。 GPT-OSS 20Bでは、Sparkは49.7 tok/sデコードに達します。 1つの RTX 5090は 205 tok/sに達します。同じような価格のMac Studio M4 Maxは、およそ2倍の帯域幅を備えています。 Sparkの唯一の本当の利点は、コンピューティングに依存するプレフィルです。そのため、実際のセットアップで最も効率的なのは、Exo Labsが構築してベンチマークを行ったハイブリッドクラスターである Mac Studioと組み合わせることです。しかし、それはその箱があなたに売られた方法ではありません。
これはファームウェアで修正できるバグではありません。これは、NVIDIA のマーケティングが「128 GB ユニファイドメモリ」という見出しの下に隠した設計上の決定です。大規模なモデルをローカルで実行する場合、メモリ帯域幅がボトルネックになります。私は自分でワークステーションクラスターを構築したことがありますが、GPUに十分な速度を供給できない場合、生のメモリ数は重要ではないことを知っています。 Sparkでは、大容量メモリか許容可能な速度のどちらかを選択する必要がありますが、両方を備えることはできません。
価値と現実: 4,700 ドルで他に何が得られるのか
2026年2月には、価格が 3,999 ドルから 4,699 ドルに跳ね上がりました。その価格では、AMD Strix Halo (128 GB統合、~273 GB/秒) を搭載した Framework Desktopの価格は2,348ドルで、大規模モデルでも同等のトークン生成速度を実現します。 2,000 ドル未満の中古3x RTX 3090ビルドでは、適合するモデルのデコード速度が3倍になります。そして、3,999ドルの Mac Studio M4 Maxは2倍のメモリ帯域幅を備えています。 Sparkの唯一の防御可能なニッチは、高速プレフィルを備えた CUDA-on-ARM 開発です。ただし、決して提供されない可能性のあるソフトウェア修正を待つ必要があります。
John Carmack 自身がSpark のベンチマークを行ったところ、定格の240 Wをはるかに下回る約 100 W のシステム電力しか消費しておらず、それに応じてパフォーマンスも低下していることがわかりました。一方、文書化された問題には、電源装置の故障、ファームウェア更新後のユニットのブリック、到着時の完全なネットワークスタック障害などが含まれます。あるフォーラムユーザーの言葉によれば、Sparkは「おそらくあと1年間のファームウェアとソフトウェアの作業により有意義に改良されるであろう初期世代の開発プラットフォーム」です。しかし、私は NVIDIA の欠陥のあるハードウェアのベータ テストに 4,699 ドルを支払いません。
NVIDIA は未完成のプラットフォームを出荷し、早期採用者がそれをデバッグすることを期待していたと思います。到着した修正 (ホットプラグ サポート、Wi-Fi 検出、メモリレポート) は一か八かの機能であり、27 Wパワースロットルのようなアーキテクチャ上のバグに対する解決策ではありません。購入を検討している場合は、目を開いて参加してください。プラットフォームのベータテスターになるために 4,700 ドルを支払っているのですが、そのプラットフォームでは、マーケティング上の主な 3 つの主張がどれも精査に耐えられません。
私は自分のものを返却し、今後は NVIDIA以外のハードウェアを使い続けるつもりです。 DGX Sparkは魅力的なコンセプトですが、現状ではその約束を果たしていません。分散型 AI 開発はこれ以上のものに値します。
NVIDIA をやめた理由
私は以前はジェンスン・ファン[Jensen Huang] (彼は台湾出身で、私は数年間住んでいました) のファンでしたが、今では彼を、期日通りに出荷されず、スペック通りに動作せず、単純にお金の価値もない幻想的な製品を宣伝する販売上の誇大宣伝者だと考えることが増えています。現在、NVIDIA の株価をつり上げるためのヴェイパーウェアのガスライティングのように見えます。
AMDのStrix Haloプラットフォームは、NVIDIAハードウェアとほぼ同じ速度で LLM 推論モデル (非常に大規模なものであっても) を実行しますが、価格は通常の半分以下です。また、消費電力も大幅に削減されます。 Apple Macハードウェアは、はるかに高速なユニファイドRAMを備えており、顧客からの注文の急増により待ち時間が長くなり、AI プロジェクトでの人気が高まっています。
その一方で、NVIDIAは革新的なチップセットを約束し続けていますが、期日通りに出荷されることはなく、実際に出荷される場合でもドライバーのサポートや保証サポートがまったくありません。ほんの数か月前、彼らは5090カードの価格を2倍にし、意味のある正当な理由もなく約2500ドルから5000ドルに値上げしました。彼らはただ、顧客がそれで済ませるからといって、ただ価格をつり上げていただけなのです。
先ほども言いましたが、私はかつてNVIDIAのファンでした。しかし、彼らの中で何かが変わりました。品質管理を放棄したようです。彼らは、より高品質の製品ではなく、より高い株価に執着するようになりました。彼らは顧客を見捨て、可能な限り価格をつり上げました。 NVIDIA 製品を使用すると、自分を嫌う企業と戦っているような気分になります。
だからこそ、私はNVIDIAとは終わりました。これからは NVIDIA を捨てて他のところを探すつもりです。 Intel、AMD、Apple、TensTorrent・・・私は、品質、保証、顧客を実際に気にしている会社にAIビジネスを持ち込みます。
References