エッジにおけるAI推論アクセラレーションの限界を突破
高いTOPS、低レイテンシ、優れた面積・電力効率、スケーラビリティなど、EdgeCortixはAI推論アクセラレーションに必要な全てを実現します。
ソフトウェアファーストのアプローチをエッジAI推論へ
CPUやGPUなどの汎用プロセッシングコアは、ほとんどのアプリケーションで開発者に柔 軟性をもたらします。しかし、これらの汎用コアは、ディープニューラルネットワークに見 られるワークロードとうまくマッチングしません。そこでEdgeCortixは、エッジAI処理をゼ ロから再定義するというミッションのもとスタートしました。
フルスタックのAI推論ソフトウェア開発環境、ランタイム再構成可能なエッジAI推論IP、ボードやシステム用のエッジAIチップを含むEdgeCortixテクノロジーにより、設計者はクラウドレベルのAIパフォーマンスをエッジに展開できます。下記のアプリケーションや他のアプリケーションに対して何ができるかをお考えください
より優れたエッジAIハードウェア・IP・ソフトウェア技術が必要とされる時代が到来
EdgeCortix MERA:モデリングとコプロセッサコア管理のためのソフトウェアフレームワーク
フルスタックのAI推論アプリケーションの場合、MERAコンパイラとソフトウェアフレームワークは、AIモデルをエッジAIコプロセッサとホストCPUのコードに変換します。
- PyTorch、TensorFlow、TensorFlow Lite、および ONNX のネイティブサポート
- ユーザー定義およびコミュニティAI推論モデルのINT8量子化
- 事前トレーニング済みのセグメンテーション、検出、点群、その他のアプリケーション
Dynamic Neural Accelerator IP: AI向けのランタイムで再構成可能なニューラルネットワークIP
Dynamic Neural Accelerator IPは、モジュール式で完全にランタイムで再構成可能なAI推論プロセッシングコアです。
- 従来のGPUベースのハードウェアに対して、推論/秒/Wが16倍
- 3種類の演算ユニットで1024~32768 MACのスケーリングが可能
- ダイナミックなグループ化により、80%以上の利用率でワークロードを処理
EdgeCortix SAKURA-I: ボードやシステムに搭載可能な高速かつ効率的なAI推論アクセラレーション用のASIC
SAKURA-I Edge AIコプロセッサは、ホストシステムに簡単に接続できる高性能なAI推論エンジンの先進的な設計を取り入れています。
- TSMC 12nm FinFETプロセスで設計、40 TOPS @ 800 MHz、TDP 10W
- 防衛・産業用途に必要な長寿命化を実現
- PCIe Gen 3 interfaceは、最大5台まで接続して200TOPSを実現可能
ソフトバンクの先端技術研究所 所長である湧川隆次は、次のように述べています。 「ネットワークインフラの性能向上と省電力化は、将来にかけて大きな課題です。EdgeCortixは、これらの課題を同時に解決するために必要なIPと技術に関する専門知識の両方を提供するパートナーとして期待しています。私たちは、今後も質が高いネットワークを提供するため、EdgeCortixと協力して、さらなる性能向上と省電力を実現する最適なアクセラレーターの研究を進めていきます」