深層学習ことはじめ その3

これから数回にわたって深層学習についての記事を書きます.ひとまとめに長文としたものを数回に分けて紹介していきます.初学者向けです,何かの参考になれば.前回の記事を読んでいない方は先にそちらを見てください.

******

ニューロンが「オン」または「オフ」,これはあなたに何を思い出させますか?あなたが「デジタルコンピュータ」と言ったなら、あなたは正しいでしょう!具体的には、ニューロンは、はい/いいえ、真/偽、0/1タイプの問題に対する完全なモデルです。これを「バイナリ分類」と呼び、機械学習のアナロジーは「ロジスティック回帰」アルゴリズムとなります。それはあなたが他のニューロンの出力または他の何らかの入力信号(すなわちあなたの目の視覚受容体またはあなたの指先の機械的受容体)として想像することができる入力x1、x2、およびx3として受け取り、そしてこの出力ニューロンに対するこれらの入力ニューロンの強度によって重み付けされた、これらの入力の組み合わせ。実際には実際の数と式を扱う必要があるので、xからyを計算する方法を見てみましょう。

 y = sigmoid(w1 * x1 + w2 * x2 + w3 * x3)
この項では、バイアス項は無視されます。これは、次の次元に常に等しい次の次元x0を追加することによって簡単に与えられるためです。 各入力ニューロンは、対応する重み(シナプス強度)で乗算され、他のすべてのニューロンに追加されます。次に、その上に「シグモイド」関数を適用して、出力yを求めます。シグモイドは次のように定義されます。
sigmoid(x)= 1 /(1 + exp(-x))
シグモイドの出力は常に0から1の間であることがわかります。2つの漸近線があるため、入力が+∞の場合、出力は正確に1になり、入力が -∞の場合、出力は正確に0になります。入力が0の場合、出力は0.5です。出力は確率として解釈できます。特に、それを確率として解釈します。
P(Y = 1 | X)
これは、「YがXに対して1になる確率」と読むことができます。私たちは通常これと「y」それ自身を交換可能に使うだけです。どちらもニューロンの「出力」です。ロジスティック回帰(ニューロン)はこの記事の前提条件なので、覚えておいてください。あなたはすでにこれらすべてに精通していると思います。ニューラルネットワークを得るためには、単純にニューロンを結合します。我々が人工ニューラルネットワークでこれを行う方法は非常に具体的です。フィードフォワード方式でそれらを接続します。 その入力は(x 1、x 2)であり、その出力はz 1です。我々はzの層を「隠れ層」と呼ぶ。ニューラルネットワークには1つ以上の隠れ層があります。より隠れた層を持つニューラルネットワークは「より深い」と呼ばれるでしょう。 「ディープラーニング」はちょっとした流行語です。私はこの話題についてグーグルで話しました、そして一般的なコンセンサスは1つ以上の隠れ層を持つニューラルネットワークは「深い」と考えられるということです。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です