みぞメモ

ブログ作成用のメモ登録

勉強会:Deep Learning Acceleration 勉強会(DLAccel #2)

第二回 Deep Learning Acceleration 勉強会(DLAccel #2)

■ 日時:2019/9/28 13:15ー17:00
■ 感想

 → 深層機械学習用のプロセッサ開発についての勉強会
   基本的に「学習系」ではなく「診断系」プロセッサ
 → DLのアルゴリズムに対する深い理解が無いとついて行けない
   研究者向けの最先端の内容であった
 → 成功すればビッグビジネスになる分野だけに
   現行では分からなくても着いていきたいと思う
   有意義な勉強会で会った

■ 開催・資料

idein.connpass.com


セミナ・メモ)


13:30-14:00
● モデルアーキテクチャ観点からの高速化 2019 @yu4u(DeNA

・高速化
 → CNN対象 → 推論時の高速化
 → FLOPs ≠ 公職処理

・畳み込みの計算量
 → 空間方向の分解 → 畳み込みのカーネル
 → SqueezeNet → 次元圧縮
 → 空間方向とチャネル方向の分解 → Separable conv
   → MobileNet V1/V2
     → MNasNet → アーキテクチャ探索手法
   → MobileNrt V3
   → EfficientNet → 精度の高いパラメータ
   → ShuffleNet → グループ間の情報やりとり
   → ChannelNet
   → ShiftNet
   → OctNet
 → Pruning(枝刈り)
   → Unstructured/Structured Pruning
   → Optimal Brain
   → Deep Compr
   → Network Slimming
   → Channel Pruning
   → ThiNet
   → AMC AutoML for Model Comptressio and Acceleration
   → NrtAdapt
 → アーキテクチャ探索
   → NASNet
   → ENAS
 → 早期終了
   → BranchyNet → エントロピの閾値
 → 量子化 → HW化

14:00-14:30
● 分散学習を支える技術とはじめ方 @yotayotanaka(Sony

・分散学習
 → 精度を良くする → 学習規模の拡大
   → データを多くする(画像数)
   → モデルを大きくする
 → DNN学習 → ミニバッチ学習
 → 分散学習 → データパラレル/モデルパラレル
 → データパラレル
   → 複数Workerでミニバッチ学習、データ同期
   → 学習就職、高速データ同期
   → Learning Raye Decay → LARS/LAMB

14:30-15:00
● Inside MN-2 @hirochikasai (PFN)

・深層学習基板 → 分散深層学習、ストレージ(HDFS)

・MN-2:幅広い自前設計
 → ファシリティ(ラック)/ネットワーク/ストレージ(HDFS)/PF(Kubernetesベース)

・RoCEv2
 → RDMAとGPUDirect

15:30-16:00
● XNOR-Net on VC4 @notogawa (Idein)

・XOR-Net
 → Binary Convolution Neural Network

・VideoCore IV → Rasberry Pi GPU

16:00-16:30
● マルチレイヤコンパイラ基盤による、エッジ向けディープラーニングの実装と最適化について
tkclimb (Fixstars)
・DNNモデルコンパイラ/DSLコンパイラ

・エッジディープラーニング推論
 → グラフコンパイラ
 → ノードレベル推論実装
   → モノリシック計算カーネル
   → DSLコンパイラベース
 → ONNX → 標準DNNグラフフォーマット

DSLコンパイラ
 → IR(戦国時代)
   → 言語間のハブ・データフォーマット
 → IR、フロントエンド

・Noah IR 開発アクセラレーション

16:30-17:00
● 深層学習チップ 須藤さん(さくらインターネット

・AIチップ
 → 学習/推論/エッジ

垂直統合
 → 用途ごとに進化下'サーバハードを自ら設計して使う
 → コモディティ化でない → 設計会社に入社しないと情報が無い/個人の仕事がロックイン

以上