本日は、オンライン1名、対面1名から機械学習についての質問をいただきました。
Q. バッチはどのようにとって確率的勾配降下法で進めていけばよいか。
A. ざっくりな説明だと、すべてのデータを確率的に(ランダムに)並べて、何個かずつ取っていったもの(バッチ)を、すべてのデータを使い切るまで学習します。それを1エポックとして何回か繰り返していきます。
Q. 重みの更新はどのように進めていけばよいか。
A. w(t+1) = w(t)− dL/dwとあるように、いままでの重みからdL/dwを引くことで、損失関数をなるべく減らせるような新しい重みを計算します。dL/dwは誤差二乗和などの損失関数をで偏微分したものを表しています。
機械学習も最終回に近づくにつれて課題も難しくなっている感じがします。もし、授業内容でわからないことがあったら、先生に聞くか、KLCで一緒に疑問を解決していきましょう!
(文責:三塚)