ベリシリコンが画期的なNN圧縮技術を活用して、演算能力を0.5~72TeraOPSまで拡張可能なVIP8000 NNプロセッサーを実現し、深層ニューラル・ネットワーク処理におけるリーダーシップを拡大

主な特徴:


  • 0.5~72TeraOPSの性能により、エッジにある常時接続のIoTクライアントからサーバーASICまで、拡張可能
  • 14nmプロセス技術で1ワット当たり10TeraOPS以上を実現
  • 完全にプログラム可能なプロセッサーがOpenCLとOpenVXに加え、広範なNNフレームワーク(TensorFlow、Caffe、AndroidNN、ONNX、NNEF)に対応
  • i8、i16、fp16、fp32推論をネイティブに高速化し、幅広いNNネットワーク・トポロジーにさまざまな精度で対応
  • 階層的圧縮、ソフトウエアのタイリング/キャッシング、プルーニング、フェッチ・スキッピング、レイヤー・マージング技術により、メモリー帯域要件を飛躍的に低減
  • 2017年に新たに10社がVIP8000 IPのライセンスを取得

独ニュルンベルク--(BUSINESS WIRE)--(ビジネスワイヤ) -- ベリシリコン・ホールディングス(ベリシリコン)は本日、汎用性に優れ、高度な拡張性を持つ当社のニューラル・ネットワーク推論エンンジン・ファミリー「VIP8000」が、重要なマイルストーンを達成したとを発表しました。

ジョン・ペディー・リサーチ社長のジョン・ペディー博士は、次のように述べています。「パソコンの登場以来、コンピューター業界で起こった最大の出来事は人工知能(AI)と機械学習です。これらは私たちの生活を本当の意味で変革し、力をもたらし、改善するでしょう。IBMやグーグルの巨大なマシンや、ベリシリコンのニューラル・ネットワーク・プロセッサーを使って製造された極小のチップによって、実現することになります。2020年には、AIアシスタントなしに、これまでどうやって生活してきたのだろうと、思うようになるはずです。」

組み込みプロセッサーにとって、機械学習とニューラル・ネットワーク処理は次の大きな市場機会となります。インターナショナル・データ・コーポレーション(IDC)はAIと機械学習に対する支出が、2016年の80億ドルから2020年には470億ドルへと増加すると予測しています。ベリシリコンはNN推論IPの最新世代を発表して、この分野における成長を推進する企業としての地位を確立します。業界有数の最高性能を誇るVivante VIP8000プロセッサーは、常時接続のバッテリー駆動型IoTクライアントからAIサーバーファームまで、その対象用途を拡大し続けています。

ベリシリコンがVIP8000に行った最新のアップデートは、ニューラル・ネットワーク・モデルによる推論を効率化して高速化すると同時に、DSP、GPU、CPUを用いたハイブリッド・プロセッサーによる代替手段と比べて、必要なメモリー帯域を大幅に削減できるように特別設計されています。完全にプログラム可能なVIP8000の性能とメモリー効率は、専用の固定関数ロジックと同じレベルに達し、カスタマイズ性に加え、OpenCL、OpenVX、そして広範なNNフレームワーク(TensorFlow、Caffe、AndroidNN、ONNX、NNEFなど)における完全なプログラム可能性を備えているため、将来も使い続けることができます。VIP8000のNNアーキテクチャーは、幅広いAIワークロードに対応しつつ、プロセッサーが処理するデータのメモリー管理を最適化できます。

ベリシリコンのNNエンジンは、DSP、GPU、CPUを使った従来のハイブリッド・システムすべてを凌駕しています。業界での実績もあり、そのまま利用できるIPコアとして18カ月以上にわたってライセンシーに出荷されています。2017年だけを見ても、大手ASIC開発企業10社が、競合するIPソリューションとSoCの厳格なベンチマークテストを行った後、VIPを選定しました。ベリシリコンは広範なエンドユーザーに、先進運転支援システム(ADAS)や自律走行車、セキュリティー監視、ホーム・エンターテインメント、イメージング、サーバー向け専用ASICなどの用途向けに、ライセンス供与を成功させてきました。

VIP8000 NNプロセッサーは、業界最高レベルの性能とエネルギー効率を達成している市場で最も拡張性に優れたプラットフォームです。このNNエンジンの演算性能は0.5~72TeraOPSで、14nmプロセスを用いた最近のIP実装によれば、1ワット当たり10TeraOPS以上の電力効率を実現できます。新しい階層的圧縮、ソフトウエアのタイリング/キャッシング、プルーニング、フェッチ・スキッピング、そして特許申請中のレイヤー・マージング技術により、その他のプロセッサー・アーキテクチャーと比べて、VIP8000のメモリー帯域要件をさらに低減することに成功しています。

ベリシリコンの最高戦略責任者、エグゼクティブバイスプレジデント、知的財産部門担当ゼネラルマネジャーのウェイジン・ダイは、次のように述べています。「AIはあらゆる場所で使われています。VIP8000ファミリーは特許申請中のニューラル・ネットワーク圧縮技術により、組み込み製品でAIの導入を加速できる性能を提供します。当社は組み込み製品からエッジサーバー製品まで、一流企業のお客さまと深く関わっています。こうした課題に対応するためのアプリケーションやアルゴリズムは、急進展を遂げています。当社は、AI技術をベリシリコンの広範なIPポートフォリオと組み合わせ、当社のお客さまに画期的なソリューションを提供しています。AIは効率的に価値を実現する必要があります。」

ベリシリコンは、幅広いNNフレームワークとネットワーク(TensorFlow、Caffe、AndroidNN、Amazon Machine Learning、ONNX、NNEF、AlexNet、VGG16、GoogLeNet、Yolo、Faster R-CNN、MobileNet、SqueezeNet、ResNet、RNN、LSTM等)に対応するほか、多数のソフトウエアおよびハードウエア・ソリューションの提供を通じて、開発者が高性能ニューラル・ネットワーク・モデルと機械学習ベースのアプリケーションを開発できるようにしています。

ベリシリコンがEmbedded World 2018に出展

VIP8000 NNと、ベリシリコンの関連IP、NNエコシステムのソリューション開発パートナー、カスタムシリコン、先進的パッケージング(SiP)ターンキー・サービスの詳細については、ドイツ・ニュルンベルクで2月27日~3月1日に開催されるEmbedded World 2018ホール4A(4A-360)までお越しください。

詳しい情報については、press@verisilicon.comへお問い合わせください。

本記者発表文の公式バージョンはオリジナル言語版です。翻訳言語版は、読者の便宜を図る目的で提供されたものであり、法的効力を持ちません。翻訳言語版を資料としてご利用になる際には、法的効力を有する唯一のバージョンであるオリジナル言語版と照らし合わせて頂くようお願い致します。


Contacts

VeriSilicon Holdings Co., Ltd.
Miya Kong, +86 21 51311118
press@verisilicon.com

情報提供元:
記事名:「ニューラル・ネットワーク推論エンジンのIPコアが1ワット当たり10 TeraOPS以上を実現