備忘録 機械学習,コンピュータビジョン,時々物理

Does Double Descent Occur in Self-Supervised Learning?. (arXiv:2307.07872v1 [cs.LG])

教師なし学習(autoencoder)では,モデル複雑度を大きくするとテスト損失がピークを持つ二重降下現象が生じないことを実験的に示した.Autoencoderとしては,encoderとdecoderが1層の隠れ層を持つ場合と,線形の場合を検証.隠れ層の幅や潜在変数の次元についてテスト損失が単調に減少することを実験的に示した.

基本情報

@misc{lupidi2023does,
      title={Does Double Descent Occur in Self-Supervised Learning?}, 
      author={Alisia Lupidi and Yonatan Gideoni and Dulhan Jayalath},
      year={2023},
      eprint={2307.07872},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}

論文リンク

著者・所属

  • Alisia Lupidi, Yonatan Gideoni, Dulhan Jayalath

新規性

手法

結果

議論・コメント

関連文献

Tags

self-supervised learning, deep learning dynamics, double descent