テック速報 海外の話題

Tinybox|オフラインで120Bパラメータを動かすAIデバイスがHNで282pt──$12Kから$10Mの3ラインナップ

2026.03.22|テック速報|Hacker News 282pt・166コメント

George Hotz率いるtinygradが、オフラインで120Bパラメータモデルを動かせるAIデバイス「Tinybox」を発表した。価格は$12,000から。Hacker Newsでは282ポイント・166コメントを集め、ローカルAI推論の現実解として注目されている。

Tinyboxとは|オフラインで120Bパラメータを動かすAIデバイス

Tinyboxはtinygrad社が開発したローカルAI推論専用のハードウェアだ。クラウドに一切依存せず、120Bパラメータ規模の大規模言語モデルを手元で実行できる。GPUにはAMD RDNA5を採用しており、tinygrad独自のドライバスタックで動作する。

tinygrad創業者のGeorge Hotz(geohot)は過去にAMDのGPUドライバ品質を公に批判していた経緯がある。それにもかかわらず最新製品でAMD RDNA5を全面採用した点は、AMDのエコシステムがローカルAI用途で実用水準に達したことを示唆している。公式サイトでは「No cloud. No API keys. Just your hardware.」というメッセージを掲げており、プライバシーとオーナーシップを重視する設計思想が明確だ。

3つのラインナップ──$12K / $65K / $10M

Tinyboxシリーズは用途と予算に応じた3モデル構成になっている。

モデル 価格 主な特徴
tinybox $12,000 120Bパラメータモデルをオフライン実行。個人・小規模チーム向け
tinybox pro $65,000 より大規模なモデルに対応。研究機関・企業向け
exabox $10,000,000 720x RDNA5 AT0 XL搭載。VRAM 25,920GB、システムRAM 23,040GB。データセンター級

$12Kのtinyboxから$10Mのexaboxまで、価格レンジは3桁以上の開きがある。個人開発者がローカルLLMを試す入口から、企業が自社コロケーション環境で大規模推論を回す用途まで、一つのエコシステムでカバーする狙いだ。exaboxのVRAM 25,920GBという数字は、現行のNVIDIA H100(80GB)約324枚分に相当する規模であり、オンプレミスAIインフラとして異次元のスペックといえる。

Hacker Newsコミュニティの反応

Hacker Newsでは282ポイント・166コメントと活発な議論が展開された。肯定的な意見と慎重な見方の両方が目立つ。

肯定派の声

バランスの取れた構成と筐体デザインを評価する声が多く寄せられた。

"Good argument that the future of AI is in locally-trained models for everyone" ──ローカルAIの未来を支持する意見。

"$65K is more than we can afford but we are definitely eventually in the market for something we can run in our own colo" ──自社コロケーションでの運用を検討するユーザーも。

慎重派・その他の声

"What's the most effective ~$5k setup today?" ──$12Kは高いとして、より安価な自作構成を模索する議論も活発だった。

$12K→$65K→$10Mという価格の跳ね上がり方にユーモアを感じるコメントや、George Hotzの政治的発言への懸念を示す声もあった。

全体として、ローカルAI推論へのニーズの高さと、「クラウド依存からの脱却」という方向性への共感が読み取れる。一方で$12Kという価格が個人にとってはまだ高いハードルであることも浮き彫りになった。

Aitly編集部の見解

Tinyboxの最大の意義は、120Bパラメータ規模のモデルをオフラインで実用的に動かせるハードウェアが「製品」として市場に出てきた点にある。これまでローカルLLMといえば、自作PCにGPUを複数枚積んで環境構築に苦労するのが常だった。Tinyboxはそのハードルを「箱を買って電源を入れる」レベルまで下げようとしている。

AMD RDNA5の採用も注目すべきポイントだ。AI推論市場はNVIDIAのCUDAエコシステムが圧倒的だが、tinygradが独自ドライバスタックでAMD GPUを実用化できているなら、NVIDIA一強の構図に風穴を開ける可能性がある。$12Kという価格は個人には高額だが、企業がAPI利用料を年間で計算すれば十分にペイするレンジだ。クラウドAIのコスト上昇とプライバシー規制の強化が進む中、「自分のハードウェアで動かす」選択肢の需要は今後も拡大するだろう。

ソース:tinygrad公式サイト|Hacker News(282pt / 166コメント)

  • この記事を書いた人

Aitly編集部

AIツール比較メディア「Aitly」の編集部。ChatGPT・Claude・Geminiをはじめ、主要AIツールを実際に使い込んだうえで比較検証しています。スペック表だけではわからない「実際どうなの?」を、独自テストと料金分析でお届けします。

-テック速報, 海外の話題
-, ,