忍者ブログ

揺動経路の記録

   
カテゴリー「DNN」の記事一覧

[PR]

×

[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。

RNNとDropoutとバッチ正則化と

2015-2016年あたりに色々論文が出ているらしいのでサーベイしなければならない

  • RNNとDropout
時間軸方向にDropoutを行うとよくない。
http://arxiv.org/pdf/1409.2329v5.pdf
http://neuralnet.hatenablog.jp/

但し、ベイズ的な解釈を行うことで時間軸方向のドロップアウトもできて
精度も上がるケースがあるらしい
http://qiita.com/yoh_okuno/items/4bcfbc10dd4d03e19690

A Theoretically Grounded Application of Dropout in Recurrent Neural Networks
https://arxiv.org/abs/1512.05287


  • RNNとバッチ正則化
バッチ正則化はRNNには有効ではないという話題にも触れており、他の提案手法の文献も
ある
http://isw3.naist.jp/~neubig/student/2015/seitaro-s/161025neuralnet_study_LSTM.pdf
PR

xavierの初期化

tensorflowでxavierの初期化

weight1_var
= tf.get_variable(name="weight1", shape = [num_of_input_nodes, num_of_hidden_nodes],
initializer=tf.contrib.layers.xavier_initializer())
weight2_var = tf.get_variable(
name="weight2", shape = [num_of_hidden_nodes, num_of_output_nodes],
initializer=tf.contrib.layers.xavier_initializer())
bias1_var = tf.get_variable(
name="bias1", shape = [num_of_hidden_nodes],
initializer=tf.contrib.layers.xavier_initializer())
bias2_var = tf.get_variable(
name="bias2", shape = [num_of_output_nodes],
initializer=tf.contrib.layers.xavier_initializer())

プロフィール

HN:
stochaotic
性別:
非公開

最新記事

(06/17)
(05/31)
(11/09)
(03/23)
(02/11)

P R

Copyright ©  -- 揺動経路の記録 --  All Rights Reserved
Design by CriCri / Photo by Geralt / powered by NINJA TOOLS / 忍者ブログ / [PR]