富士通研究所がDeep Learningの学習用ハードウェアの電力効率を向上させる回路技術を開発

2017年4月24日、富士通研究所は、Deep Learningの学習用ハードウェアの電力効率を向上させる回路技術を開発した事を発表した。



発表によると今回富士通研究所が開発したのは、Deep Learningの学習過程において、演算器のビット幅や学習結果を記録するメモリのビット幅を削減して電力効率を向上させる回路技術で、演算に用いるデータのビット幅を削減した独自の数値表現と、Deep Learningの学習演算の特徴をもとに、演算器の動きを随時解析しながら学習に必要十分な演算精度を保つように小数点の位置を自動的に制御する演算アルゴリズムを用いている。
富士通研究所は、開発した技術を実装したDeep Learning学習用ハードウェアを想定したシミュレーションで、LeNetとMNISTのデータセットを用いて学習を行い、32ビット浮動小数点演算での学習結果98.90%の認識率に対し、16ビットで98.89%、8ビットで98.31%の認識率で学習できることを確認したとしている。
富士通研究所によると、32ビットから8ビットにビット幅を削減することで、演算器やメモリの消費電力を約75%削減できるという。
富士通研究所では、開発した技術を富士通のAI技術「Human Centric AI Zinrai(ジンライ)」の一つとして2018年度の実用化を目指す。

= EDA EXPRESS 菰田 浩 =
(2017.05.12 )