ローカルLLM
「LM Link」登場──Tailscale×LM Studio連携で、自宅のローカルLLMをどこからでも呼び出せる時代に
この記事のポイント
- LM StudioとTailscaleが連携した新機能「LM Link」がプレビュー公開
- 自宅GPU搭載マシンのローカルLLMを、外出先のノートPCからセキュアに呼び出せる
- WireGuardベースのエンドツーエンド暗号化で、プロンプトや推論結果が第三者に見えない設計
- 無料枠は2ユーザー・各5台まで。ポート開放やVPN設定は不要
LM Linkとは何か──ローカルLLMの「場所の制約」を取り払う
LM Linkは、LM Studioに統合された新機能で、自宅や職場のGPU搭載マシンで動作するローカルLLMを、外出先や別の端末からリモートで利用できるようにするものだ。すまほん!!が2026年3月16日に報じた。
ローカルLLMの最大の弱点は「モデルを動かしているマシンの前にいないと使えない」ことだった。LM Linkはこの制約を解消する。VPNサービス「Tailscale」のメッシュネットワーク技術を基盤に、デバイス間でエンドツーエンド暗号化された接続を自動確立し、リモートマシン上のモデルをあたかもローカルで動いているかのように扱える。
技術的な仕組み──tsnetとWireGuardが支える安全な接続
LM Linkの中核を担うのは、LM Studioに組み込まれたTailscaleのGoライブラリ「tsnet」だ。Tailscale公式ブログによると、tsnetはユーザースペースで動作するため、OSカーネルのソケットやルーティングテーブルに手を加える必要がない。既存のTailscale VPNを利用中でも干渉せずに共存できる設計だ。
通信はWireGuardプロトコルをベースとしたメッシュVPN上で行われ、デバイス同士が認証されると、ネットワーク環境を問わずピアツーピアの暗号化接続が確立される。公開インターネットへのポート開放や手動のポートフォワーディングは一切不要だ。
セットアップは数クリック──GUIでもCLIでも設定可能
LM Linkのセットアップは極めてシンプルだ。GUIの場合、LM Studioのデスクトップアプリで「Add a remote machine」をクリックするだけで接続設定が始まる。ターミナル派には、lms login でログイン後、lms link enable を実行する方法が用意されている。
認証が完了すると、デバイス同士が自動的に検出され、ネットワーク環境に関係なく暗号化接続が確立される。リモートマシンにロードされたモデルはLM Studioのモデルローダーに表示され、ローカルモデルと同じ操作感で利用できる。LM Studioのローカルサーバー API(localhost:1234)を通じてアクセスするため、Codex、Claude Code、OpenCodeなど既存の開発ツールとも設定変更なしで連携が可能だ。
ユースケース──誰がどう使うのか
LM Linkの最も分かりやすい活用シーンは、自宅のGPU搭載デスクトップで大型モデルを動かしておき、外出先の軽量ノートPCからアクセスするパターンだ。70Bパラメータ級のモデルはノートPCでは到底動かせないが、LM Linkを使えば自宅マシンの推論能力をそのまま持ち出せる。
チームでの利用も想定されている。社内の高性能GPUサーバーにモデルを配置し、複数メンバーがリモートからアクセスすることで、GPUリソースを効率的に共有できる。さらにCI/CDパイプラインからのテスト実行や、規制産業でのオンプレミスLLM運用など、データを外部に出せない環境でも活用できる点が強みだ。
クラウドAI APIとの使い分け
ChatGPTやClaude APIなどのクラウドAIサービスは手軽で高性能だが、プロンプトや応答データがクラウド事業者のサーバーを経由する。機密性の高い業務データや個人情報を扱う場合、これがボトルネックになることがある。LM Linkなら推論処理は自分のマシン上で完結し、通信経路もエンドツーエンドで暗号化されるため、データの外部流出リスクを構造的に排除できる。
一方で、ローカルLLMはクラウドの最新モデル(GPT-4oやClaude 3.5 Sonnetなど)と比較すると推論品質で劣る場面もある。「機密データの処理はLM Linkでローカル推論、汎用的な質問はクラウドAPI」という使い分けが現実的な落としどころだろう。コスト面でも、GPU電気代だけで済むローカル推論は、APIの従量課金が積み上がる大量処理シーンで優位性がある。
セキュリティ設計──「誰にも見えない」を実現する仕組み
LM Linkのセキュリティ設計は、プライバシーを最優先にしている。Tailscale公式ブログの説明では、プロンプト、推論結果、モデル一覧、ハードウェア情報といったすべてのデータが「TailscaleやLM Studioのバックエンドからも見えない仕組み」で処理される。バックエンドが関与するのはデバイスの検出(ディスカバリー)とキープアライブのみで、推論トラフィック自体は完全にピアツーピアで流れる。
WireGuardベースの暗号化はVPN業界で広く信頼されているプロトコルだ。ポート開放が不要なため、家庭用ルーターの設定ミスによるセキュリティホールも発生しない。ただし、サーバー側のマシン自体のセキュリティ(OSアップデート、不正アクセス防止)は利用者自身の責任となる点は留意が必要だ。
料金と対応環境
LM Link / LM Studio の料金体系
Personal / Business
無料
個人利用も業務利用も無料
LM Link無料枠
2ユーザー / 各5台
合計10台まで接続可能
Enterprise
要問合せ
大規模チーム向け拡張機能
LM Studio自体は個人・業務ともに無料。LM Linkは現在プレビュー段階で段階的にアクセスを開放中。
ローカルLLMの「リモート化」という新潮流
LM Linkの登場は、ローカルLLMの使い方が新しいフェーズに入ったことを示している。これまでローカルLLMは「プライバシーは守れるが、使える場所が限られる」という制約があった。LM Linkはこの制約を技術的に解消し、クラウドAIの利便性とローカルAIのプライバシーを両立させた。
「パーソナルAIクラウド」とも呼べるこの仕組みは、自宅のGPUリソースをクラウドのように使えるという点で、AIインフラの民主化を一歩進めるものだ。クラウドAI APIの従量課金に疑問を持つ開発者や、データの外部送信を避けたい企業にとって、LM Linkは現実的な選択肢になるだろう。今後、同様のリモートアクセス機能が他のローカルLLMツール(Ollama等)にも広がっていく可能性は高い。
Aitly編集部の注目ポイント
LM Linkの本質は「ローカルLLMのクラウド化」だ。自前のGPUで動くモデルを、VPNの安全な通信路を通じてどこからでも使える。クラウドAI APIに月額料金を払い続けるか、初期投資でGPUを買って自分のモデルを運用するか。LM Linkの登場でこの選択がより現実味を帯びてきた。特に個人開発者やスタートアップにとって、GPU 1台あれば「自分専用のAI APIサーバー」を無料で構築できるインパクトは大きい。