ごぶさたしていました

久しぶりに誤差逆伝播のプログラムを組んであれこれいじっていました.なつかしい.

それにしても,ときどき「使えねえ!」と叫びたくなるなあ.パラメータセッティングは厳しいし.いやBPよりいいアルゴリズムはその後たくさん出てるわけで,それらを使わないのがいけないんだろうけど.

さてさてBP法......というか,そもそもMLPは小規模・単一タスクならばまだそれなりに学習してくれるものの,大規模・多数タスク同時学習となった場合,特に隠れ変数などの同時推定問題になった場合,学習しやすいとか,しづらいとかというレベルの問題ではなく,本質的に学習がうまくいかない.というのも,出力誤差最小という基準から得られる成果というのは,あくまで入出力関係の近似だけであって,隠れた内部状態までも含めてこちらの期待する結果を望むのは,要求外だってことなんだけどね.