AIツール使い方

CanIRun.aiの使い方|自分のPCでローカルAIが動くか一発チェック【無料】

「自分のPCでローカルAIが動くか」をブラウザから30秒で判定できる無料ツール「CanIRun.ai」が、2026年3月中旬からネット上で大きな話題を集めている。GIGAZINEが3月16日に紹介記事を公開したのをきっかけに、はてなブックマークのITカテゴリでホットエントリ入りし、SNS上でも「これを待っていた」「GPU買い替えの判断に使える」と反響が広がっている。

Qwen 3.5シリーズのリリースやNVIDIA Rubinの発表など、ローカルAI市場が急速に活性化する中で登場したこのツールは、「AIを自分のPCで動かしたい」と考えるユーザーにとって入り口となる存在だ。この記事では、CanIRun.aiの機能と使い方に加え、なぜ今ローカルLLMが注目されているのか、その背景を解説する。

この記事でわかること

  • CanIRun.aiが話題になった経緯と反響
  • ツールの機能と使い方(S〜Fランク判定・GPU比較)
  • ローカルLLMが2026年に急成長している背景
  • Qwen 3.5・Llama 3.2などの最新モデル動向
  • クラウドAI vs ローカルAIのコスト比較
  • LM Studio・Ollamaなどの実行環境との連携

CanIRun.aiが話題に|GIGAZINEで紹介、はてブでホットエントリ入り

テックメディアとSNSで一斉に拡散

GIGAZINEは2026年3月16日、「自分のPCで実行可能なローカルAIが一発で分かる便利サイト『CanIRun.ai』」と題した記事を公開した。WebGPU APIによるハードウェア自動検出、S〜Fの6段階ランク判定、GPU間のトークン/秒比較といった機能を詳しく紹介し、「RTX 5070TiではLlama 3.1 8BがSランク、Llama 3.3 70BはFランク」という具体的な検証結果も報じている。

この記事ははてなブックマークのITカテゴリでホットエントリ入りし、「ローカルLLMに興味はあったが何から始めればいいかわからなかった」「GPU買い替えの参考になる」といったコメントが多数寄せられた。ローカルAIへの潜在的な関心の高さが可視化された形だ。

話題の拡散と時を同じくして、Reddit r/LocalLLaMAではQwen 3.5シリーズが大きな盛り上がりを見せている。特にQwen 3.5-122B-A10B(MoEモデル)の投稿は283アップボート、Distilledモデル群の投稿は1,216アップボートを獲得し、ローカルLLMコミュニティ全体が活性化している状況だ。こうした文脈の中で「自分のPCで動くか」を簡単に確認できるCanIRun.aiが注目を集めたのは、必然的な流れと言える。

CanIRun.aiとは|主な機能と仕組み

ブラウザでアクセスするだけでGPU・CPU・RAMを自動検出する

CanIRun.aiは、開発者midudev氏が公開した無料のWebアプリケーションだ。サイトにアクセスするとWebGPU APIを使ってPCのハードウェア情報(GPU、CPU、RAM)をブラウザ内で自動検出する。データはサーバーに送信されず、すべてクライアント側で処理が完結するため、プライバシーの懸念もない。

対応モデルは30以上。Llama 3.2、Qwen 3.5、DeepSeek R1、Gemma 3、Phi 4、Mistral Smallなど、主要なオープンソースLLMをカバーしている。各モデルの動作可否がS〜Fの6段階で表示されるため、「自分のPCではどのモデルまで動かせるか」が一目でわかる仕組みだ。

PCスペックを自動検出し、ローカル実行可能なAIモデルをS〜Fランクで判定する無料Webツール。GPU比較機能でグラボ買い替えの検討にも活用できる。開発者はmidudev氏。

完全無料 インストール不要 30+モデル対応 WebGPU API

CanIRun.aiの使い方|3ステップで判定完了

1

canirun.aiにアクセス

ブラウザで canirun.ai を開く。Chrome、Edge、Firefoxなど主要ブラウザに対応している。

2

ハードウェアの自動検出を許可

ページ読み込みと同時にWebGPU APIがGPU・CPU・RAM情報を検出する。ブラウザが許可を求めた場合は「許可」を選択。

3

モデル一覧でランクを確認

30以上のAIモデルがS〜Fのランク付きで表示される。グリッド表示とリスト表示の切り替えも可能。

S〜Fランク判定の見方|どのランクなら快適に使えるか

Sランクは「非常に快適」、Cランク以下は実用に注意

ランク 意味 実用性
S 非常に快適に実行可能 高速なレスポンス、常用に最適
A 快適に実行可能 十分な速度、日常利用に問題なし
B 実行可能(やや遅い) 待ち時間あるが実用的
C 動作するが遅い 短いタスクなら可、常用は厳しい
D 動作困難 実用的ではない
F 実行不可 スペック不足

B以上のランクが付いたモデルなら実用的にローカル実行できる。GIGAZINEの検証によれば、RTX 5070Ti搭載PCの場合、Llama 3.1 8BはSランクで快適に動作するが、Llama 3.3 70BはFランク(スペック不足)という結果だった。「自分のGPUでどのクラスのモデルまで動かせるか」を把握するうえで、このランク表示は非常にわかりやすい。

GPU比較機能の活用法|グラボ買い替えの判断材料に

異なるGPU間の処理速度をトークン/秒で比較できる

CanIRun.aiにはGPU比較ページが用意されている。比較したいGPUを選択すると、各モデルに対する「1秒あたりの処理トークン数(tokens/sec)」が表示される。GIGAZINEの報道によれば、RTX 5090はRTX 5070Tiの約2倍の処理速度を出しており、動作可能なモデルの範囲も大幅に広がることが確認できる。

「今のGPUでは動かないモデルが、買い替え後に動くようになるか」を事前にシミュレーションできるため、数万円〜十数万円のグラボ投資の判断材料として有用だ。特にNVIDIA RTX 50シリーズの購入を検討しているユーザーにとって、実際のローカルLLMパフォーマンスを比較できるこの機能は重宝するだろう。

なぜ今「ローカルAI」が注目されるのか

プライバシー・コスト・自由度の3つが追い風

CanIRun.aiがこれほど反響を呼んだ背景には、ローカルAIへの関心が2026年に入って急速に高まっている事情がある。その理由は大きく4つに整理できる。

1. プライバシーの確保

クラウドAIに送信したプロンプトがモデル学習に使われる懸念がある。ローカル実行なら、機密情報を含むドキュメントの処理も安心だ。企業の社内利用でも「データが外部に出ない」ことは重要な要件になっている。

2. コスト削減

ChatGPT PlusやClaude Proの月額料金は2,000〜3,000円。ヘビーユーザーならAPI利用料が月数万円に達することもある。ローカルLLMは初期のハードウェア投資のみで、ランニングコストは電気代だけだ。

3. オフライン利用

インターネット接続なしでAIを使えることは、セキュリティ要件が厳しい環境や、出先での作業で大きなメリットになる。サーバー障害に左右されない点も強みだ。

4. カスタマイズ性

ローカルLLMはファインチューニングやLoRA適用が自由にできる。特定業務に特化したモデルを作りたい開発者・企業にとって、クラウドAPIでは実現できない柔軟性がある。

Reddit r/LocalLLaMAの購読者数は2026年3月時点で大幅に増加しており、コミュニティの盛り上がりがそのまま市場の成長を反映している。新モデルのリリースが相次ぎ、「クラウドAIに匹敵する品質のモデルが自分のPCで動く」という状況が現実になりつつある。

最新モデル動向|Qwen 3.5・Llama 3.2・DeepSeek R1

Qwen 3.5シリーズがローカルLLMの勢力図を変える

CanIRun.aiが話題になったタイミングは、ローカルLLM界に大きなモデルリリースが相次いだ時期と重なる。中でも注目度が高いのがAlibaba Cloud発のQwen 3.5シリーズだ。

Qwen 3.5-122B-A10Bは、122Bパラメータのうち10BのみをアクティブにするMoE(Mixture of Experts)アーキテクチャを採用している。Reddit r/LocalLLaMAでは283アップボートを獲得し、「巨大モデルの知識量を持ちながら10Bクラスのリソースで動く」点が高く評価された。さらに、Distilled(蒸留)モデル群は1,216アップボートと爆発的な支持を集め、コーディング特化のOmniCoder-9Bなども話題に上っている。

モデル 開発元 特徴 注目度
Qwen 3.5-122B-A10B Alibaba Cloud MoEで10Bアクティブ。大規模モデルの品質を少ないVRAMで実現 Reddit 283↑
Qwen 3.5 Distilled Alibaba Cloud 蒸留版。0.8B〜32Bの幅広いサイズ展開 Reddit 1,216↑
Llama 3.2(8B/3B/1B) Meta 軽量モデルに強み。モバイル/エッジ向けもあり 定番
DeepSeek R1 DeepSeek 推論特化。数学・コーディングで高い性能 定番
Gemma 3(27B/9B) Google 多言語対応。日本語での品質も高い 定番

CanIRun.aiはこれらの最新モデルにも対応しており、新しいモデルがリリースされるたびに「自分のPCで動くのか」を即座に確認できる。モデルリリースのペースが加速する中、こうした互換性チェックツールの重要性はますます高まっている。

クラウドAI vs ローカルAI|コスト比較

ヘビーユーザーほどローカルAIのコストメリットが大きい

ローカルAIへの移行を検討する際、最も気になるのがコスト面だ。クラウドAIとローカルAIの主な費用を比較すると、利用頻度が高いユーザーほどローカルAIにコストメリットがあることがわかる。

項目 クラウドAI ローカルAI
初期費用 0円 5〜30万円(GPU含むPC)
月額費用 2,000〜3,000円/サービス 電気代のみ(数百円)
API利用(大量処理) 月数千〜数万円 0円(電気代除く)
12か月総コスト目安 2.4〜36万円+ 5〜30万円(初期投資)
モデル品質(2026年時点) 最高水準(GPT-4o, Claude等) 8B〜27Bクラスで実用レベル

ChatGPT PlusとClaude Proを併用している場合、月額だけで5,000円以上かかる。さらにAPI利用が加わると、年間で10万円を超えることも珍しくない。一方、ローカルAIは初期投資こそ必要だが、GPUは3〜5年使えるため、ヘビーユーザーなら1〜2年で元が取れる計算になる。

もちろん、GPT-4oやClaude 3.5 Sonnetクラスの性能をローカルで完全に再現するのは難しい。現実的なアプローチは「日常的なタスクはローカルLLMで処理し、高度な推論が必要な場面だけクラウドAIを使う」というハイブリッド運用だ。

実行環境ガイド|LM Studio・Ollama・ComfyUI

CanIRun.aiで動くモデルがわかったら、次は実行環境の選択

CanIRun.aiはあくまで「動作判定ツール」であり、モデルを実行する機能は持っていない。実際にローカルLLMを動かすには、別途実行環境が必要になる。代表的なツールを整理した。

LM Studio

GUIベースで最も初心者に優しいツール。モデルのダウンロード、チャットUI、APIサーバー機能が統合されている。Windows/Mac/Linux対応。Hugging Faceから直接モデルを検索・ダウンロードできる手軽さが魅力だ。

Ollama

CLIベースで軽量・高速。ollama run llama3.2 のようなコマンド一発でモデルを起動できる。OpenAI互換APIを自動で立てるため、既存ツールとの連携が容易。開発者に人気が高い。

ComfyUI

画像生成AI(Stable Diffusion等)向けのノードベースUI。テキスト生成LLMとは用途が異なるが、ローカルAIの文脈で合わせて押さえておきたいツールだ。CanIRun.aiのGPU判定は画像生成用途の参考にもなる。

Aitly編集部のアドバイス

CanIRun.aiでBランク以上のモデルが見つかったら、まずLM StudioかOllamaをインストールしよう。「CanIRun.aiでスペック確認 → 実行環境セットアップ → モデルダウンロード」の3ステップで、ローカルAI環境が整う。LM Studioは初心者向け、Ollamaは開発者向けという使い分けがおすすめだ。

主要モデルの必要スペック早見表

軽量モデルならノートPCでも動く、70B以上はハイエンドGPU必須

モデル パラメータ数 推奨VRAM 最低RAM 向いている用途
Qwen 3.5 0.8B 0.8B 2GB 8GB テスト・学習用
Llama 3.2 8B 8B 6GB 16GB 日常的なチャット・要約
Qwen 3.5 9B 9B 8GB 16GB コーディング・文章作成
Phi 4 14B 14B 12GB 16GB 推論・分析
Gemma 3 27B 27B 16GB 32GB 高品質チャット・翻訳
Qwen 3.5-122B-A10B 122B(10B稼働) 8GB 16GB 高品質推論(MoE)
Llama 3.3 70B 70B 48GB 64GB プロ用途・研究

※ 推奨VRAMはQ4量子化(4bit)での目安。フル精度(FP16)では約2倍のVRAMが必要。

Apple SiliconでのローカルLLM実行

M2以降の統合メモリがVRAM代わりに機能する

ローカルLLMはNVIDIA GPU搭載のWindows PCだけのものではない。Apple Silicon(M2/M3/M4)搭載のMacでも、統合メモリ(Unified Memory)がVRAMの代わりとして機能するため、ローカルLLMの実行が可能だ。CanIRun.aiはMacのスペックも検出できる。

Mac構成 統合メモリ 動作目安
M2 MacBook Air(16GB) 16GB 8Bクラスまで。Llama 3.2 8B、Qwen 3.5 9Bが動作
M3 Pro MacBook Pro(36GB) 36GB 27Bクラスまで快適。Gemma 3 27Bも実行可能
M4 Max Mac Studio(128GB) 128GB 70Bクラスも実行可能。速度はRTX系GPUに劣る

Apple Siliconの強みは、大容量の統合メモリを比較的手頃な価格で確保できる点にある。M3 Pro 36GBモデルなら、NVIDIA GPUで同等のVRAMを用意するよりも安く済むケースがある。一方、純粋な推論速度ではNVIDIA CUDAコアに軍配が上がるため、「とにかく速度が欲しい」ならNVIDIA GPU、「静音性と汎用性を重視」ならMacという選び分けになるだろう。

GPU市場の動向|NVIDIA Rubin発表とRTX 50シリーズ

GTC 2026でRubinアーキテクチャ発表、ローカルAI需要がGPU市場を牽引

NVIDIAはGTC 2026で次世代アーキテクチャ「Rubin」を発表した。データセンター向けが中心の発表だったが、AI処理性能の飛躍的な向上が示唆されており、将来的にコンシューマ向けGPUにも技術が波及することが期待されている。

現行のRTX 50シリーズ(Blackwellアーキテクチャ)は、ローカルLLMユーザーにとって魅力的な選択肢だ。RTX 5090はVRAM 32GBを搭載し、27B〜70Bクラスのモデルも視野に入る。RTX 5070TiはVRAM 16GBで、コストパフォーマンスに優れた中核的なグレードとなっている。CanIRun.aiのGPU比較機能を使えば、これらのGPU間の実際のパフォーマンス差を具体的な数字で把握できる。

ローカルAI需要の高まりは、GPU市場にも影響を与えている。従来はゲーミング用途が主だったコンシューマGPU市場に、AI推論という新たな需要が加わった形だ。「自分のPCでAIを動かす」という体験が一般化すれば、VRAM容量を重視したGPU選びが今後の主流になる可能性がある。

入門(5〜10万円)

8Bモデルを快適に動かす

GPU: RTX 4060(8GB)
RAM: 16GB
ストレージ: SSD 256GB以上
対応モデル: Llama 3.2 8B, Qwen 3.5 9B

本格利用(15〜25万円)

14B〜27Bモデルに対応

GPU: RTX 5070Ti(16GB)
RAM: 32GB
ストレージ: SSD 512GB以上
対応モデル: Phi 4 14B, Gemma 3 27B

ハイエンド(30万円〜)

70B級モデルも実行可能

GPU: RTX 5090(32GB)
RAM: 64GB
ストレージ: SSD 1TB以上
対応モデル: Llama 3.3 70B, DeepSeek R1

よくある質問

WebGPU APIを使ってブラウザ内でハードウェア情報を検出する仕組みで、PCのスペック情報をサーバーに送信しない。すべてクライアント側で完結するため、プライバシー上の問題はない。

CPUのみのPCでも判定可能だ。ただし、GPU非搭載の場合はQwen 3.5 0.8Bなどの超軽量モデルしか動作しない。ローカルLLMを実用的に使うにはGPU(VRAM 6GB以上)が推奨される。

CanIRun.aiの判定はハードウェアスペックに基づく理論値だ。実際の動作速度はOS、他のアプリの使用状況、量子化設定などに影響される。目安としては信頼できるが、実際に試して微調整することをおすすめする。

CanIRun.aiは「どのモデルが動くか」を判定するツール、LM StudioやOllamaは「実際にモデルを動かす」ツールだ。まずCanIRun.aiで動作可能なモデルを確認し、その後LM StudioやOllamaでモデルをダウンロード・実行するという流れになる。

MoE(Mixture of Experts)アーキテクチャでは、推論時に全パラメータではなく一部のエキスパートのみが稼働する。Qwen 3.5-122B-A10Bの場合、122Bのパラメータのうち推論時にアクティブになるのは約10B分のため、VRAM使用量は10Bクラスのモデルに近い。ただし、モデルファイル全体のダウンロードサイズは大きくなる。

まとめ

CanIRun.aiは、ローカルAIへの「最初の一歩」を大きく簡単にするツールだ。ブラウザからアクセスするだけでPCスペックを自動検出し、30以上のモデルの動作可否をS〜Fの6段階で判定してくれる。GIGAZINEの紹介記事をきっかけにはてなブックマークでホットエントリ入りしたことは、ローカルAIへの関心が「一部のマニア層」から「一般ユーザー層」に広がりつつあることを示している。

Qwen 3.5シリーズのような高品質なオープンソースモデルが次々と登場し、LM StudioやOllamaといった実行環境も成熟してきた。NVIDIA RTX 50シリーズの登場でハードウェア面の選択肢も広がっている。「自分のPCでAIを動かす」ことが、かつてないほど現実的になった2026年。まずはCanIRun.aiで自分のPCの実力を確認してみてほしい。

あなたのPCでローカルAIは動く?

CanIRun.aiで30秒チェック(無料・インストール不要)

CanIRun.aiを開く ↗

参考リンク

  • この記事を書いた人

Aitly編集部

AIツール比較メディア「Aitly」の編集部。ChatGPT・Claude・Geminiをはじめ、主要AIツールを実際に使い込んだうえで比較検証しています。スペック表だけではわからない「実際どうなの?」を、独自テストと料金分析でお届けします。

-AIツール使い方
-, , ,