BETA

どうしてみんな微分したがるの?

投稿日:2020-01-15
最終更新:2020-01-15

機械学習を勉強し始めると出会う「微分」

私はここ最近、毎日「ビブン」に会っているものの、なんだかよく分からない
眠れなくなるほど面白い 図解 微分積分を読んでます すぐ眠れています)
今更感すごいけど、機械学習の時なんでみんなが微分したがるのか調べる!

微分=関数の傾きを求める

微分とは何か? - 中学生でも分かる微分のイメージ
正確には「関数の各点における傾き」のようです

あれ、なんで傾きを求めたいんだ??

傾き=xとyの関係

練習時間から得点を予測する回帰直線(関数)だったら、
傾きは「練習時間が〇時間の時、得点は□点になる」(xが増えたらyはどう変化する?)が分かる!

ざっくり言うと、微分すればデータの関係性が分かるってことなのか!!

ちょっと応用

画像は線形回帰のグラフなので一次関数(直線)ですが、
ニューラルネットワークでは非線形(曲線と思っています)の関数を描けます
(ReLU、シグモイド関数などの活性化関数で非線形にできます)
→ 非線形だとより実績値に近づいた線が引ける

非線形だと一次関数とは違い、xの値によって傾きがまちまちな気がする。。。
→ x=〇の時の「yの値」から傾きを見ればxとyの関係性がつかめそう!(微分)

曲線のグラフもx=〇のところでズームすれば直線に見えるから、傾きが分かるってことか!

技術ブログをはじめよう Qrunch(クランチ)は、プログラマの技術アプトプットに特化したブログサービスです
駆け出しエンジニアからエキスパートまで全ての方々のアウトプットを歓迎しております!
or 外部アカウントで 登録 / ログイン する
クランチについてもっと詳しく

この記事が掲載されているブログ

だいたい急に挑戦してゴールにたどり着かずに飽きる日々です

よく一緒に読まれる記事

0件のコメント

ブログ開設 or ログイン してコメントを送ってみよう