@misc{oai:uec.repo.nii.ac.jp:00010250, author = {Zheng, Zide}, month = {2022-05-09}, note = {2021, 機械学習において、ニューラルネットワーク(neural network, NN)は優れたデータフィッティング能力を持つため広く使われているが、過学習しやすい問題がある。過学習の二つの主な原因は、ノイズ、と多くの無関係な特徴がモデル訓練に使われることである。センサーやIoT(Internet of Things)技術がデータ収集に重要な役割を果たすようになった一方、環境条件などの制約により、データ収集の過程にノイズの混入が不可避である。ニューラルネットワークモデルを訓練するとき、識別などの訓練目的と無関係な特徴が用いられる。 特徴選択は、収集されたデータの特徴集合から有用な特徴を選択する。特徴選択は学習過程を加速すること、データ記憶コストを減らすこととノイズや過学習の緩和などが可能であり、頑健なモデルを構築するために不可欠なプロセスである。L2,1-2 ノルムのスパースを利用した特徴選択がMiao らによって提案され、良いパフォーマンスを示した。 本研究は、L2,1-2 ノルムを用いて、ニューラルネットワークに特徴選択を導入する手法を提案する。スパース性を持つL2,1 ノルムと比べて、L2,1-2 ノルムはよりスパースな解が得られる。このため、L2,1-2 ノルムを用いるとき、より強い特徴選択効果とノイズの影響を減少することができると考えられる。提案法は特徴選択が目的であるため、モデルの構造として、入力層だけL2,1-2 ノルムを加える。そして、より頑健なモデルを得るため、他の層にL2,2 ノルム(Frobenius norm)正則化項を加える。提案法は、L2,2 ノルム正則化より高い分類精度を得られる方法と考えられる。 五つのオープンデータセットを用いて実験を行った。正則化項なし、全部層がL2,2 ノルム正則化、入力層L2,1 ノルム正則化他の層がL2,2 ノルム正則化と提案法合わせて四組の実験を行った。五分割交差検定の結果より、提案法が一番良い分類精度が得られた。L2,1 ノルムのスパース特性に関する実験も行い、提案法がよりスパースな解とより高い分類精度が得られた。提案法とL2,2 ノルム正則化についてt検定も行い、有意差が示された。結論として、提案法がL2,2 ノルム正則化と比べて、分類精度がより高く、より頑健なモデルを構築することができた。}, title = {Sparse feature selection with non-convex matrix regularization in deep neural network}, year = {} }