オールインワン
オンプレミスLLMプラットフォーム

Edgestar

  • 20クライアント
    同時接続
  • 70Bクラスの
    学習可能
  • ニーズに
    合わせて最適化
    可能
Edgestar プラットフォーム図

LLM導入の課題

DXの加速に伴い、大規模言語モデル (LLM) は、
業務効率とUXを向上させるための重要なツールとして急速に普及しつつあります。
しかし、導入は簡単ではなく、その過程で下記のような課題に直面します。

  • セキュリティ
    機密情報が多くて、
    AWSなどのクラウドAIが
    利用できない
  • 運用コスト
    機械学習を行うのに
    毎回料金がかかる上に
    従量課金が不安
  • 導入コスト
    H100などの最新モデルは
    料金が高くて手が出ない
  • 運用保守
    高性能GPUサーバーを
    導入したいが
    運用保守までできない

Edgestarを導入することでこれらの課題は解決できます。

セキュアな環境でAIの推論・学習まで
1台で行えるGPUサーバー

  • ソフトウェアとハードウェアの
    統合ソリューション
    Advantechのサーバー、NVIDIAのGPU、PhisonのaiDAPTIV+を組み合わせ、Edgestarをソフトウェアとハードウェアが一体となった高効率な統合ソリューションとして開発しました。
    これによりLLMを安心して導入・活用いただけます。
  • LLM FINE-TUNINGを
    全面サポート
    自社のニーズに合わせてLLMモデルを調整(ファインチューニング)できるようサポートします。これにより、モデルの精度や活用効果を高めつつ、コストを抑えて効率的な運用が可能になります。技術的なハードルもクリアできるため、LLMの導入をスムーズに進められます。
  • 豊富なLLM開発リソース
    で導入をサポート
    オープンソースモデルをシームレスに統合し、目的に合わせて調整・カスタマイズできるよう、豊富なLLMアプリケーション開発リソースを備えています。導入から活用までをスピーディーに進められるよう、専門の技術サポートも充実しています。

Features

特長

  • 01

    PHISON開発のAI SSDを搭載することで、

    通常なら不可能な、70Bクラスの学習まで実行可能

  • 02

    H100など最新型のGPU複数搭載サーバーの

    半額以下で同時接続20クライアント環境を提供可能

  • 03

    幅広いビジネスアプリケーションをサポートし、

    お客様が特定の業務ニーズにわせて最適化可能

AI Agent Library

豊富なAIエージェントライブラリ

LLM(大規模言語モデル)を導入する主な目的は、AIを活用してDXを進め、意思決定をより効率的にし、業務プロセスを改善することです。 このとき重要な役割を果たすのが「AIエージェント」です。AIエージェントは、LLMだけでは対応しきれない部分を補い、その力を最大限に引き出す"橋渡し役"として機能します。

  • 議事録作成

    議事録作成

  • タスクオートメータ

    タスクオートメータ

  • コンプライアンスチェッカー

    コンプライアンスチェッカー

  • カスタマーサポート

    カスタマーサポート

  • ナレッジベース

    ナレッジベース

  • SQLクエリ

    SQLクエリ

  • コンテンツ生成

    コンテンツ生成

  • 自動翻訳

    自動翻訳

  • ウェブ検索

    ウェブ検索

  • トレンドアナライザー

    トレンドアナライザー

Usecase

企業内部のナレッジベース:
「データオーシャン」から「ワンクリック検索」まで

マッキンゼーのレポートによると、社内従業員は 1 日あたり平均 1.8 時間を情報の検索と収集に費やしています。 従来の知識管理システムは、大量のデータを効果的に処理できないことが多く、情報検索の効率が低くなります。 LLM のサポートにより、企業の内部知識ベースはインテリジェントな検索とリアルタイムの情報抽出を実現し、面倒なデータ収集プロセスを簡単なワンクリック検索に変えることができます。これにより、従業員の作業効率が大幅に向上するだけでなく、企業が重要な情報を迅速に入手し、瞬時の意思決定を行うのにも役立ちます。

スマート アシスタント:
顧客サービスはもはや「同じ」ではなくなります

従来のカスタマー サービス システムでは、パーソナライズされたニーズに対応できないことが多く、その結果、カスタマー サービスの品質にばらつきが生じます。統計によると、カスタマー サービス スタッフは、反復的な問題の処理に平均して 50% 以上の時間を費やしています。 LLM の導入により、顧客サービス システムはインテリジェントな会話を行い、一般的な問題を迅速に解決し、よりパーソナライズされたサービスを提供できるようになります。これにより、顧客サービスの効率が向上するだけでなく、顧客満足度も向上し、顧客サービス スタッフはより複雑な問題の解決により多くの時間を費やすことができます。

業務効率の向上:
営業担当者は「業務」に集中できる

LLM技術の導入により、顧客リストの作成が自動で完了し、データ収集・分析の効率も大幅に向上しました。さらに、LLM はパーソナライズされたマーケティングおよび販売コンテンツを生成できるため、企業およびマーケティング担当者は新規顧客の開拓と戦略の策定にさらに集中できるようになり、それによって業績と市場拡大の効率が向上します。 インテリジェントな言語モデルの時代では、企業は技術革新だけでなく、実際の問題を実際に解決できるソリューションも必要としています。 Edgestar は、企業が内部プロセスを最適化し、顧客サービスの品質を向上させ、正確なマーケティングを推進できるように、高度にカスタマイズされたサービスを提供します。反復的なタスクの処理であっても、大量のデータの管理であっても、このプラットフォームは、企業が AI の波の中で着実に前進するのに役立つ効率的なソリューションを提供します。

Spec

製品仕様

Edgestar

OS
: Ubuntu 22.04
Fine-Tuning Toolkit
: PHISON aiDAPTIV Middleware
AI Agent Library
: Edgestar AI Agent Library
GPU Server
CPU AMD®EPYC™Embedded 8004Series
メモリ 128GB DDR4
OS ストレージ 4TB SATA SSD
通信インターフェース 2×10GbE(Intel X710-AT2)
電源 1200W AC100-240V
温度 0℃ - 40℃
サイズ 216×170×425mm
設置形式 Desktop / Wall / Rack Mount
GPU
モデル 4×NVIDIA® RTX 4000 Ada
CUDA Cores 16,384 per GPU
メモリ 20GB GDDR6 per GPU
メモリ帯域幅 768GB/s per GPU
ディスプレイ出力 4×DisplayPort 1.4a per GPU
AI SSD
モデル 2×AI100E M.2 2280 Industrial SSD
容量 2048GB
インターフェース PCIe Gen4 ×4(NVMe1.4)
耐久性 100DWPD 224,000TBW

製品に関するお問い合わせはこちら