Does Double Descent Occur in Self-Supervised Learning?. (arXiv:2307.07872v1 [cs.LG])
20 Jul 2023教師なし学習(autoencoder)では,モデル複雑度を大きくするとテスト損失がピークを持つ二重降下現象が生じないことを実験的に示した.Autoencoderとしては,encoderとdecoderが1層の隠れ層を持つ場合と,線形の場合を検証.隠れ層の幅や潜在変数の次元についてテスト損失が単調に減少することを実験的に示した.
基本情報
@misc{lupidi2023does,
title={Does Double Descent Occur in Self-Supervised Learning?},
author={Alisia Lupidi and Yonatan Gideoni and Dulhan Jayalath},
year={2023},
eprint={2307.07872},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
論文リンク
著者・所属
- Alisia Lupidi, Yonatan Gideoni, Dulhan Jayalath
新規性
手法
結果
議論・コメント
関連文献
Tags
self-supervised learning , deep learning dynamics , double descent