リザーバコンピューティングのオンライン学習を加速するFPGAアーキテクチャに関する研究
小林 幹
2020 年度 卒 /学士(工学)
卒業研究の概要
本研究は近年注目を集めているリザーバコンピューティング向けのオンライン学習(FORCE学習)を加速するハードウェアアーキテクチャに関するものである。
時系列データを扱い分類、予測する代表的なモデルとしてリカレントニューラルネットワーク(Recurrent Neural Network:RNN)がある。リザーバコンピューティング(Reservoir Computing)はそのリカレントニューラルネットワークの一種であるが、学習に必要な重みは出力層の部分のみのため計算量が少なく小さいコストでの高速な学習が可能である。その特徴を活かして、エッジデバイスへの応用や物理的リザーバコンピューティングなど様々な研究がなされている。
この今後更なる発展が見込まれるリザーバコンピューティングのための高速かつ汎用的な専用学習器の構築を試みる。専用学習器にはSussillo and Abbottが提案したFORCE学習を加速するアーキテクチャが既に論文発表がなされている。しかしFORCE学習の計算は行列、ベクトルのドット積が主であるため、従来のパイプライン処理によるものでは高速化の効果は薄い。そのため本研究では、更なる高速化が見込めるアーキテクチャとしてマルチコアにより行列演算を並列処理するシストリックアレイ型を提案する。このアーキテクチャの実現に向けた評価と行列Pを更新する一つのFPGAコアのデバックの過程を示すとともに、将来的な改良に際しての考察を与え、今後の展望を述べた。