ニュース
» 2019年06月10日 13時30分 公開

視覚認識の性能が向上:高性能なディープニューラルネットのフレームワークを開発、ノースカロライナ州立大

ノースカロライナ州立大学の研究チームが、ディープニューラルネットワーク(DNN)を構築するための新しいフレームワークを開発した。標準的なベンチマークテストで性能を検証したところ、視覚認識の性能がこれまでのフレームワークを上回った。

[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 ノースカロライナ州立大学の研究チームが、多層のニューラルネットワークからなるディープニューラルネットワーク(DNN)を構築するための新しいフレームワークを開発した。文法に基づくネットワーク(grammar-guided network)ジェネレーターを使用するものだ。

 新しいフレームワークで構築したDNN「AOGNet(And-Or Grammar Network)」は、視覚認識タスクの実験テストにおいて、既存の最先端のフレームワーク、例えば広く使われている「ResNet」や「DenseNet」などで構築したネットワークを上回るパフォーマンスを発揮した。

AOGNetの概念図 3種類のノードを組み合わせてディープニューラルネットワークを作り上げた(出典:ノースカロライナ州立大学

 ノースカロライナ州立大学電気コンピュータ工学部で助教授を務めるティアンフ・ウー氏は、研究チームの中心メンバーの一人だ。同氏は次のように述べている。「AOGNetは、われわれがテストしたどのネットワークよりも予測精度が高い。さらに解釈可能性が高いため、ユーザーはシステムがどのように結論に到達するか確認できる」

 新フレームワークは、システムアーキテクチャに関する構成的文法のアプローチを採用しており、従来のネットワークシステムのベストプラクティスを利用して、生データから有用な情報を効果的に抽出する。

 「階層型で構成的な文法が、従来のシステムアーキテクチャのアプローチを統合する、シンプルで洗練された方法を提供することが分かった。これは、われわれの知る限りでは、文法をネットワーク生成に利用する初めての取り組みだ」(ウー氏)

高いベンチマーク性能を示した

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。