ローカルAI演算環境 | 法人レンタル

Llama 405Bが、あなたのデスクで動く。

API従量課金ゼロ。データは1バイトも外に出ない。Mac Studio M3 Ultraの512GBユニファイドメモリで、大規模言語モデルを完全ローカル実行。月額レンタルで届きます。

月額 ¥150,000〜(税別)
月額15万円〜の固定費|使い放題、従量課金なし
届いたその日から開発スタート|AI開発環境をご用意
動産保険・NDA対応|返却時データ消去証明書発行

構成を選択

ご希望の構成を選択して「カートに追加」ボタンを押してください

¥150,000(税込)

Shopify決済で安全にお支払いいただけます

または

複数台ご検討の方、カスタム構成をご希望の方はこちら

活用シーン

この1台で、何ができるか

AIエージェントを24時間稼働

Dify、LangChain、CrewAI — エージェントをローカルLLMで回す。70Bモデルをメモリに常駐させてAPI呼び出しゼロの低レイテンシ応答。クラウドAPIに月30〜50万円払っていた企業が、月額15万円のこの1台に置き換えている。

  • 複数エージェント同時実行
  • APIコスト0円
  • 24時間無人稼働

405Bモデルもローカルで推論

512GB構成ならLlama 3.1 405B(量子化版)もDeepSeek-R1も動く。自社データでLoRAファインチューニングしても、データは1ビットも外に出ない。Ollamaで起動、モデル切り替えは1コマンド。

  • 405Bモデル対応
  • データ外部送信なし
  • モデル切り替え自由

RAG・社内AIをオンプレで構築

社内文書をベクトルDBに格納、LLMと組み合わせたRAGをローカルで動かす。PoCで検証してそのまま本番に移行。機密文書を扱う企業こそ、この環境が要る。

  • 機密データ対応
  • PoC→本番シームレス
  • 自由な環境構築
TREND

なぜ今、ローカルAIなのか

クラウドAPI依存からローカルAI基盤へ。理由はシンプル — 速い、安い、漏れない。

APIコスト削減の大波

OpenAI・Claude APIの従量課金が月30〜50万円に膨らむ企業が続出。シリコンバレーではMac StudioにオープンソースLLMを載せ、APIコストを大幅にカットする動きが加速している。固定費で回し放題のローカルAIが、スタートアップから大企業まで標準になりつつある。

AIエージェント時代のデータ主権

AIエージェントがSlack・メール・社内文書に直接アクセスして業務を自動化する時代。機密データがクラウドAPIを経由するリスクを避けるため、ローカルでLLMを動かす「データ主権」の考え方が世界で急速に広がっている。

Mac Studioスタックという選択肢

1台で足りなければ追加レンタル。exo等のクラスタリングツールで複数台のメモリをプール化できる。GPU1枚ずつ増設するサーバーと違い、512GB単位でスケール。必要な台数だけ、使いたい期間だけ。

ハードウェア仕様

製品スペック

Mac Studio M3 Ultraの詳細仕様

項目 仕様
チップ Apple M3 Ultra
CPU / GPU 28コアCPU / 60コアGPU(256GB構成)・32コアCPU / 80コアGPU(512GB構成)
メモリ 256GB / 512GB ユニファイドメモリ
ストレージ 4TB SSD
Neural Engine 32コア
前面ポート Thunderbolt 5 ×2、SDXCカードスロット
背面ポート Thunderbolt 5 ×4、USB-A ×2、HDMI、10Gb Ethernet、3.5mmヘッドフォンジャック
外部ディスプレイ 最大8台
OS macOS最新版

※ 仕様は予告なく変更される場合があります

FAQ

よくある質問

レンタルに関するご質問にお答えします

なぜGPUサーバーではなくMac Studioなのですか?

メモリの優位性: NVIDIA H100のVRAMは80GB。大規模モデルはVRAM不足でスワップが発生し速度が低下します。Mac StudioのUnified Memoryは最大512GBをGPU/CPUで共有でき、大規模モデルをメモリに丸ごと常駐できます。

コスト: H100搭載サーバーは1,000万円超。Mac Studioは150万円前後でメモリ単価が圧倒的に低いです。

設置: オフィスのデスクに置ける19.4cm四方のコンパクト筐体。静音設計でデータセンター不要です。

レンタルと購入、どちらが得ですか?

レンタルが有利なケース: PoC・検証フェーズ、部門予算での導入、まずは試したい場合。初期費用0円、月額15〜25万円の経費(OPEX)計上で部門決裁が通りやすく、不要になれば返却できます。

購入が有利なケース: 1年以上の長期利用が確定している場合。ただし90〜165万円の資産計上(CAPEX)で設備投資として役員承認が必要です。

おすすめ: まず3ヶ月レンタル(約45万円)で検証し、効果を確認してから購入判断するのが最も合理的です。

どんなモデルが動作しますか?

256GBメモリ構成: Llama 3.1 8B/70B、Qwen 2.5 7B/72B、DeepSeek-Coder-V2、ELYZAなどの日本語対応モデルが快適に動作します。70Bクラスのモデルを常駐させながら他の開発作業も並行可能です。

512GBメモリ構成: Llama 3.1 405B(量子化版)、DeepSeek-R1などの超大規模モデルに対応。複数の70Bモデルを同時に実行することもできます。

ご要望のモデルは事前にセットアップしてお届けします。

セットアップは必要ですか?

お申し込み時にご要望をお伝えいただければ、Ollama、Docker、Python等のAI開発環境やモデルのセットアップに対応いたします。届いた日からすぐに開発を開始できます。

レンタル期間・配送・支払いについて教えてください

期間: 最短2週間からレンタル可能。月単位での延長も柔軟に対応します。3ヶ月以上のご契約で10%割引が適用されます。

配送: 日本全国対応。ヤマト運輸による往復配送で、配送料は料金に含まれています。最短3営業日でお届けします。

支払い: 請求書払い(月末締め翌月末払い)に対応しています。

返却時のデータはどうなりますか?

返却時にはクリーンインストール(工場出荷状態への初期化)を実施し、データ消去証明書を発行いたします。NDA(秘密保持契約)の締結にも対応しています。

故障した場合はどうなりますか?

動産総合保険に加入済みのため、通常使用での故障は無償対応いたします。故障時は代替機を速やかに配送し、業務への影響を最小限に抑えます。

まず試してから検討したいのですが?

リモートレンタル(14日間トライアル)をご用意しています。M3 Ultra・96GBメモリの実機にTailscale SSH+画面共有でリモートアクセスし、ご自身のワークロードで性能を検証できます。¥39,800(税込)で14日間利用可能です。リモートレンタルトライアルの詳細はこちら

上記以外のご質問がありましたら、お気軽にお問い合わせください。

お問い合わせ

まずは3ヶ月、試してみませんか?

構成の相談から導入スケジュールまで、1営業日以内にご連絡します。レンタルなら初期費用0円、部門予算で始められます。

※ 最短3営業日でお届け可能です