オールインワン
オンプレミスLLMプラットフォーム
Edgestar
- 20クライアント
同時接続 - 70Bクラスの
学習可能 - ニーズに
合わせて最適化
可能



LLM導入の課題
DXの加速に伴い、大規模言語モデル (LLM) は、
業務効率とUXを向上させるための重要なツールとして急速に普及しつつあります。
しかし、導入は簡単ではなく、その過程で下記のような課題に直面します。
-
- セキュリティ
- 機密情報が多くて、
AWSなどのクラウドAIが
利用できない
-
- 運用コスト
- 機械学習を行うのに
毎回料金がかかる上に
従量課金が不安
-
- 導入コスト
- H100などの最新モデルは
料金が高くて手が出ない
-
- 運用保守
- 高性能GPUサーバーを
導入したいが
運用保守までできない
Edgestarを導入することでこれらの課題は解決できます。
セキュアな環境でAIの推論・学習まで
1台で行えるGPUサーバー
-
- ソフトウェアとハードウェアの
統合ソリューション - Advantechのサーバー、NVIDIAのGPU、PhisonのaiDAPTIV+を組み合わせ、Edgestarをソフトウェアとハードウェアが一体となった高効率な統合ソリューションとして開発しました。
これによりLLMを安心して導入・活用いただけます。
- ソフトウェアとハードウェアの
-
- LLM FINE-TUNINGを
全面サポート - 自社のニーズに合わせてLLMモデルを調整(ファインチューニング)できるようサポートします。これにより、モデルの精度や活用効果を高めつつ、コストを抑えて効率的な運用が可能になります。技術的なハードルもクリアできるため、LLMの導入をスムーズに進められます。
- LLM FINE-TUNINGを
-
- 豊富なLLM開発リソース
で導入をサポート - オープンソースモデルをシームレスに統合し、目的に合わせて調整・カスタマイズできるよう、豊富なLLMアプリケーション開発リソースを備えています。導入から活用までをスピーディーに進められるよう、専門の技術サポートも充実しています。
- 豊富なLLM開発リソース
Features
特長
-
- 01
-
PHISON開発のAI SSDを搭載することで、
通常なら不可能な、70Bクラスの学習まで実行可能
-
- 02
-
H100など最新型のGPU複数搭載サーバーの
半額以下で同時接続20クライアント環境を提供可能
-
- 03
-
幅広いビジネスアプリケーションをサポートし、
お客様が特定の業務ニーズにわせて最適化可能

AI Agent Library
豊富なAIエージェントライブラリ
LLM(大規模言語モデル)を導入する主な目的は、AIを活用してDXを進め、意思決定をより効率的にし、業務プロセスを改善することです。 このとき重要な役割を果たすのが「AIエージェント」です。AIエージェントは、LLMだけでは対応しきれない部分を補い、その力を最大限に引き出す"橋渡し役"として機能します。
-
議事録作成
-
タスクオートメータ
-
コンプライアンスチェッカー
-
カスタマーサポート
-
ナレッジベース
-
SQLクエリ
-
コンテンツ生成
-
自動翻訳
-
ウェブ検索
-
トレンドアナライザー
Usecase
Spec
製品仕様
Edgestar
- OS
- : Ubuntu 22.04
- Fine-Tuning Toolkit
- : PHISON aiDAPTIV Middleware
- AI Agent Library
- : Edgestar AI Agent Library
GPU Server | |
---|---|
CPU | AMD®EPYC™Embedded 8004Series |
メモリ | 128GB DDR4 |
OS ストレージ | 4TB SATA SSD |
通信インターフェース | 2×10GbE(Intel X710-AT2) |
電源 | 1200W AC100-240V |
温度 | 0℃ - 40℃ |
サイズ | 216×170×425mm |
設置形式 | Desktop / Wall / Rack Mount |
GPU | |
---|---|
モデル | 4×NVIDIA® RTX 4000 Ada |
CUDA Cores | 16,384 per GPU |
メモリ | 20GB GDDR6 per GPU |
メモリ帯域幅 | 768GB/s per GPU |
ディスプレイ出力 | 4×DisplayPort 1.4a per GPU |
AI SSD | |
---|---|
モデル | 2×AI100E M.2 2280 Industrial SSD |
容量 | 2048GB |
インターフェース | PCIe Gen4 ×4(NVMe1.4) |
耐久性 | 100DWPD 224,000TBW |