オールインワン
オンプレミスLLMプラットフォーム
Edgestar
- 70Bクラスの
学習可能 - ニーズに
合わせて最適化
可能
LLM導入の課題
DXの加速に伴い、大規模言語モデル (LLM) は、
業務効率とUXを向上させるための重要なツールとして急速に普及しつつあります。
しかし、導入は簡単ではなく、その過程で下記のような課題に直面します。
-
- セキュリティ
- 機密情報が多くて、
AWSなどのクラウドAIが
利用できない
-
- 運用コスト
- 機械学習を行うのに
毎回料金がかかる上に
従量課金が不安
-
- 導入コスト
- H100などの最新モデルは
料金が高くて手が出ない
-
- 運用保守
- 高性能GPUサーバーを
導入したいが
運用保守までできない
Edgestarを導入することでこれらの課題は解決できます。
セキュアな環境でAIの推論・学習まで
1台で行えるGPUサーバー
-
- ソフトウェアとハードウェアの
統合ソリューション - Advantechのサーバー、NVIDIAのGPU、PhisonのaiDAPTIV+を組み合わせ、Edgestarをソフトウェアとハードウェアが一体となった高効率な統合ソリューションとして開発しました。
これによりLLMを安心して導入・活用いただけます。
- ソフトウェアとハードウェアの
-
- LLM FINE-TUNINGを
全面サポート - 自社のニーズに合わせてLLMモデルを調整(ファインチューニング)できるようサポートします。これにより、モデルの精度や活用効果を高めつつ、コストを抑えて効率的な運用が可能になります。技術的なハードルもクリアできるため、LLMの導入をスムーズに進められます。
- LLM FINE-TUNINGを
-
- 豊富なLLM開発リソース
で導入をサポート - オープンソースモデルをシームレスに統合し、目的に合わせて調整・カスタマイズできるよう、豊富なLLMアプリケーション開発リソースを備えています。導入から活用までをスピーディーに進められるよう、専門の技術サポートも充実しています。
- 豊富なLLM開発リソース
Features
特長
-
- 01
-
NVIDIA Blackwell アークテクチャ搭載
最新のGPU性能で、高速かつ効率的なAI逓用を実現
-
- 02
-
導入の柔軟性
2モデル構成。ビジネスニーズに合わせ選択可能
-
- 03
-
AI SSD による効率的学習
PHISON社製のAI SSD搭載で、70Bパラメータを超える大規模AI学習も実行可能(Edgestar Basic)
LINE UPラインアップ
| Edgestar Lite | Edgestar Basic | |
|---|---|---|
![]() |
![]() |
|
| ポジショニング | 軽量な推論とテストに最適なエントリーレベルシングルGPUソリューション | 中規模の推論とフルパラメータファインチューニングのニーズに対応するマルチGPUソリューション |
| GPU | NVIDIA RTA PRO 6000 Blackwell Max-Q × 1 |
NVIDIA RTA PRO 6000 Blackwell Max-Q × 2 |
| VRAM | 96GB | 192GB |
| ユースケース | モデル検証 小規模な推論タスク |
マルチモデル展開 マルチエージェントアプリケーション |
| 拡張性 | シングルマシン展開 | 追加GPUを1基搭載可能 (計算能力を増強) |
NVIDIA RTX 6000 Blackwell Max-Q を搭載
-
第5世代 Tensorコア
FP4とDLSS 4による最大限のAIパフォーマンス
-
新しいストリーミング マルチプロセッサー
RTXニューラル シェーダー向けに最適化
-
第5世代レイトレーシングコア
RTX Mega Geometry向けに構築
-
96GBのGPUメモリ
新たに改良されたGDDR7メモリにより帯域幅と容量が大幅に増大し、アプリケーションの高速化と、より大規模で複雑なデータセットの処理が可能になります。96GBのGPUメモリにより、大規模な3DおよびAIプロジェクトに取り組み、大規模なVR環境を模索し、より大きなマルチアプリワークフローを実現できます。
-
第9世代のNVENC
第9世代のNVIDIA NVENCエンジンは、ビデオのエンコードを大幅に高速化し、プロフェッショナルビデオアプリケーションの映像画質を向上させます。4:2:2 H.264およびHEVCエンコーディングの新しいサポートを追加し、NVENCおよびAV1エンコーディングの品質を向上させます。
-
第6世代 NVDEC
第6世代のNVIDIA NVDECエンジンは、最大2倍のH.264デコードスループットを実現し、4:2:2 H.264およびHEVCデコードをサポートしています。プロの編集者は、高品質のビデオ再生、ビデオデータの取り込みの高速化、高度なAIを活用したビデオ編機能などを使用できるようになりました。
-
マルチインスタンス GPU
マルチインスタンスGPU (MIG) は、最大4つの完全に分離されたインスタンスの作成を可能にすることで、RTX PRO 6000 Max-Q のパフォーマンスと価値を拡張します。各MIGインスタンスは独自の広帯域幅メモリ、キャッシュ、および計算コアを持ち、サービス品質 (QoS) を保証し、すべてのユーザーに高速コンピューティングリソースを提供します。
-
PCIe 第5世代
PCI Express Gen 5 のサポートにより、PCIe Gen 4と比較して帯域幅が2倍のなるため、CPUメモリからのデータ転送速度が向上し、AI、データサイエンス、3Dモデリングなどのデータ集約型タスクでパフォーマンスが高速化します。
-
Max-Q
RTX PRO 6000 Max-Qは、300Wという消費電力でありながら、超高効率設計によって、高密度のワークステーション性能を再定義します。電力とスペースの効率を最適化することで、1つのシステムに最大4つのGPUを搭載可能にし、AIトレーニング、3Dレンダリング、複雑なシミュレーションにおける比類なきスケーラビリティを提供します。
競合ソリューション比較-大規模学習における比較
「Edgestar Basic」は、PHISON社のAI SSD搭載により、LLM 70B以上の学習プロセスにおけるコスト効率を大幅に向上させます。
セキュアなオンプレミス環境において、大規模な計算能力を戦略的な価格でご提供。貴社のAIプロジェクトを成功に導くソリューションです。
| Edgestar Basic | クラウドGPU | 他社オンプレサーバー | ||||
|---|---|---|---|---|---|---|
| 導入コスト |
|
初期費用型 |
|
従量課金型 (継続利用で高額化) |
|
初期費用型 (GPU追加による拡大、高額化) |
| セキュリティ |
|
完全オンプレ |
|
ネット接続必須 責任共有型 |
|
完全オンプレ |
| レイテンシー (速度/遅延) |
|
ローカルアクセスに よる低遅延 |
|
ネットワークに依存 |
|
ローカルアクセスによる低遅延 |
| スケーラビリティ |
|
100B以上は ハードウェア制約あり |
|
柔軟な拡大が可能 (拡大により高額化) |
|
GPU追加による拡張で高額化 |
Usecase
Spec
製品仕様
| Edgestar Lite | |
|---|---|
| モジュール | IPC-730 |
| CPU | インテル®Core™i7 14700 |
| メモリ | 128GB |
| ストレージ | 2T(SSD) |
| GPU | RTX PRO 6000 Blackwell Max-Q × 1 |
| 電源 | 850W |
| OS | Ubuntu Pro 22.04 |
| 外形寸法 | W365mm H206mm D450mm |
| 重量 | 11.2kg |
| Edgestar Basic | |
|---|---|
| モジュール | SKY-602E3 |
| CPU | AMD EPYC 8124P |
| メモリ | 256GB |
| ストレージ | 4T(SSD) |
| GPU | RTX PRO 6000 Blackwell Max-Q × 2 |
| 電源 | 1200W |
| OS | Ubuntu Pro 22.04 |
| 外形寸法 | W216mm H170mm D425mm |
| 重量 | 20kg |

