Llama 405Bが、あなたのデスクで動く。
API従量課金ゼロ。データは1バイトも外に出ない。Mac Studio M3 Ultraの512GBユニファイドメモリで、大規模言語モデルを完全ローカル実行。月額レンタルで届きます。
構成を選択
ご希望の構成を選択して「カートに追加」ボタンを押してください
複数台ご検討の方、カスタム構成をご希望の方はこちら
この1台で、何ができるか
AIエージェントを24時間稼働
Dify、LangChain、CrewAI — エージェントをローカルLLMで回す。70Bモデルをメモリに常駐させてAPI呼び出しゼロの低レイテンシ応答。クラウドAPIに月30〜50万円払っていた企業が、月額15万円のこの1台に置き換えている。
- 複数エージェント同時実行
- APIコスト0円
- 24時間無人稼働
405Bモデルもローカルで推論
512GB構成ならLlama 3.1 405B(量子化版)もDeepSeek-R1も動く。自社データでLoRAファインチューニングしても、データは1ビットも外に出ない。Ollamaで起動、モデル切り替えは1コマンド。
- 405Bモデル対応
- データ外部送信なし
- モデル切り替え自由
RAG・社内AIをオンプレで構築
社内文書をベクトルDBに格納、LLMと組み合わせたRAGをローカルで動かす。PoCで検証してそのまま本番に移行。機密文書を扱う企業こそ、この環境が要る。
- 機密データ対応
- PoC→本番シームレス
- 自由な環境構築
なぜ今、ローカルAIなのか
クラウドAPI依存からローカルAI基盤へ。理由はシンプル — 速い、安い、漏れない。
APIコスト削減の大波
OpenAI・Claude APIの従量課金が月30〜50万円に膨らむ企業が続出。シリコンバレーではMac StudioにオープンソースLLMを載せ、APIコストを大幅にカットする動きが加速している。固定費で回し放題のローカルAIが、スタートアップから大企業まで標準になりつつある。
AIエージェント時代のデータ主権
AIエージェントがSlack・メール・社内文書に直接アクセスして業務を自動化する時代。機密データがクラウドAPIを経由するリスクを避けるため、ローカルでLLMを動かす「データ主権」の考え方が世界で急速に広がっている。
Mac Studioスタックという選択肢
1台で足りなければ追加レンタル。exo等のクラスタリングツールで複数台のメモリをプール化できる。GPU1枚ずつ増設するサーバーと違い、512GB単位でスケール。必要な台数だけ、使いたい期間だけ。
製品スペック
Mac Studio M3 Ultraの詳細仕様
| 項目 | 仕様 |
|---|---|
| チップ | Apple M3 Ultra |
| CPU / GPU | 28コアCPU / 60コアGPU(256GB構成)・32コアCPU / 80コアGPU(512GB構成) |
| メモリ | 256GB / 512GB ユニファイドメモリ |
| ストレージ | 4TB SSD |
| Neural Engine | 32コア |
| 前面ポート | Thunderbolt 5 ×2、SDXCカードスロット |
| 背面ポート | Thunderbolt 5 ×4、USB-A ×2、HDMI、10Gb Ethernet、3.5mmヘッドフォンジャック |
| 外部ディスプレイ | 最大8台 |
| OS | macOS最新版 |
※ 仕様は予告なく変更される場合があります
よくある質問
レンタルに関するご質問にお答えします
なぜGPUサーバーではなくMac Studioなのですか?
メモリの優位性: NVIDIA H100のVRAMは80GB。大規模モデルはVRAM不足でスワップが発生し速度が低下します。Mac StudioのUnified Memoryは最大512GBをGPU/CPUで共有でき、大規模モデルをメモリに丸ごと常駐できます。
コスト: H100搭載サーバーは1,000万円超。Mac Studioは150万円前後でメモリ単価が圧倒的に低いです。
設置: オフィスのデスクに置ける19.4cm四方のコンパクト筐体。静音設計でデータセンター不要です。
レンタルと購入、どちらが得ですか?
レンタルが有利なケース: PoC・検証フェーズ、部門予算での導入、まずは試したい場合。初期費用0円、月額15〜25万円の経費(OPEX)計上で部門決裁が通りやすく、不要になれば返却できます。
購入が有利なケース: 1年以上の長期利用が確定している場合。ただし90〜165万円の資産計上(CAPEX)で設備投資として役員承認が必要です。
おすすめ: まず3ヶ月レンタル(約45万円)で検証し、効果を確認してから購入判断するのが最も合理的です。
どんなモデルが動作しますか?
256GBメモリ構成: Llama 3.1 8B/70B、Qwen 2.5 7B/72B、DeepSeek-Coder-V2、ELYZAなどの日本語対応モデルが快適に動作します。70Bクラスのモデルを常駐させながら他の開発作業も並行可能です。
512GBメモリ構成: Llama 3.1 405B(量子化版)、DeepSeek-R1などの超大規模モデルに対応。複数の70Bモデルを同時に実行することもできます。
ご要望のモデルは事前にセットアップしてお届けします。
セットアップは必要ですか?
お申し込み時にご要望をお伝えいただければ、Ollama、Docker、Python等のAI開発環境やモデルのセットアップに対応いたします。届いた日からすぐに開発を開始できます。
レンタル期間・配送・支払いについて教えてください
期間: 最短2週間からレンタル可能。月単位での延長も柔軟に対応します。3ヶ月以上のご契約で10%割引が適用されます。
配送: 日本全国対応。ヤマト運輸による往復配送で、配送料は料金に含まれています。最短3営業日でお届けします。
支払い: 請求書払い(月末締め翌月末払い)に対応しています。
返却時のデータはどうなりますか?
返却時にはクリーンインストール(工場出荷状態への初期化)を実施し、データ消去証明書を発行いたします。NDA(秘密保持契約)の締結にも対応しています。
故障した場合はどうなりますか?
動産総合保険に加入済みのため、通常使用での故障は無償対応いたします。故障時は代替機を速やかに配送し、業務への影響を最小限に抑えます。
まず試してから検討したいのですが?
リモートレンタル(14日間トライアル)をご用意しています。M3 Ultra・96GBメモリの実機にTailscale SSH+画面共有でリモートアクセスし、ご自身のワークロードで性能を検証できます。¥39,800(税込)で14日間利用可能です。リモートレンタルトライアルの詳細はこちら
上記以外のご質問がありましたら、お気軽にお問い合わせください。
お問い合わせまずは3ヶ月、試してみませんか?
構成の相談から導入スケジュールまで、1営業日以内にご連絡します。レンタルなら初期費用0円、部門予算で始められます。
※ 最短3営業日でお届け可能です