備忘録 機械学習,コンピュータビジョン,時々物理

Combining Explicit and Implicit Regularization for Efficient Learning in Deep Networks. (arXiv:2306.00342v1 [cs.LG])

深層線形モデルによる行列補完の学習において,モデルの「深さ」が持つご利益を明示的な正則化で代替可能であることを示した.この効果はAdam系の最適化アルゴリズムを用いた時のみ現れる点で,明示的正則化とアルゴリズムの暗黙的との相互作用の起結であると言える.

基本情報

@inproceedings{NEURIPS2022_1419d855,
 author = {Zhao, Dan},
 booktitle = {Advances in Neural Information Processing Systems},
 editor = {S. Koyejo and S. Mohamed and A. Agarwal and D. Belgrave and K. Cho and A. Oh},
 pages = {3024--3038},
 publisher = {Curran Associates, Inc.},
 title = {Combining Explicit and Implicit Regularization for Efficient Learning in Deep Networks},
 url = {https://proceedings.neurips.cc/paper_files/paper/2022/file/1419d8554191a65ea4f2d8e1057973e4-Paper-Conference.pdf},
 volume = {35},
 year = {2022}
}

論文リンク

NeurIPS / OpenReview / arXiv

著者・所属

  • Dan Zhao (NYU)

新規性

深層線形モデルによる行列補完の学習において,トレースノルムをフロベニウスノルムで正規化した正則化項の効果を明らかにした.具体的には,この正則化によりモデルの「深さ」が持つご利益が1層のモデルでも得られることを実験的に示した.この効果はAdam系の最適化アルゴリズムを用いた時のみ現れる点で,明示的正則化とアルゴリズムの暗黙的との相互作用の起結であると言える.

手法

結果

議論・コメント

  • Adam系最適化アルゴリズムに関する暗黙的正則化の研究は珍しい気がする

関連文献

Tags

implicit regularization, deep learning dynamics, optimizer