機械学習記10日目 ~ パーセプトロン

 機械学習の入門などを見ると、「分離問題」を解決するアルゴリズムとして、「ロジスティック回帰」や「サポートベクターマシン」「ニューラルネットワーク」などが紹介されていますが、どのアルゴリズムにおいても「パーセプトロン」という概念が基本にあるようです。そこで、まずは「パーセプトロンとは何か」から調べることにしました。

 パーセプトロンには、「単純パーセプトロン」と「多層パーセプトロン」の2種類があります。「多層パーセプトロン」の方は、ニューラルネットワークディープラーニングへつながる技術らしいです。複雑そうなので、明日のブログで書くことにします。今日は、「単純パーセプトロン」の方の勉強をしていきたいと思います。

 

▶単純パーセプトロン

 単純パーセプトロンとは、学習データをクラス1かクラス2(1か0)のどちらかに分類するアルゴリズムです。このような分類方法を「2クラス分類」(2値分類)といいます。(図1)

f:id:hackU0001:20190301115930p:plain

図1.単純パーセプトロン

 

 単純パーセプトロンは、入力に対する出力が教師データと異なる場合、「重み」を変更してから次の入力に進みます。もし、出力が教師データと一致した場合、重みはそのままです。これを、繰り返して最適な重みを見つけるのが単純パーセプトロンの学習です。

 

▶バイアス

 単純パーセプトロンには、入力とひも付く「重み」がありますが、実際の計算では重みに「バイアス」という値を加えて、重みを特定の方向に偏らせることができます。このバイアス値も、学習中に調整されます。

 

▶活性化関数

 活性化関数は、入力信号の総和がいくつになったら出力するのかを決める関数です。一般的に、「単純パーセプトロン」は1か0を出力するので、活性化関数には「ステップ関数」が使われます。

 ステップ関数をPythonで実装してmatplotlibでグラフにしてみます(図2)。

f:id:hackU0001:20190301121305p:plain

f:id:hackU0001:20190301121503p:plain

 

f:id:hackU0001:20190301121932p:plain

図2.ステップ関数

 

▶単純パーセプトロンの学習方法

 もう少し、単純パーセプトロンがどのようにクラスを分類するのかを調べていきます。

 図3のような、クラス1とクラス2を2分する直線のあるグラフを考えます。このような直線を「決定境界」、直線でクラスを分割できることを「線形分離可能」といいます。

 決定境界の直線は、未知のデータが入力されたとき、そのデータがクラス1に分類されるのか、クラス2に分類されるのかを決めます。この、決定境界の直線を引くには、「重みベクトル係数」を求める必要があります。

 

f:id:hackU0001:20190301123611p:plain

図2.線形分離可能


 重みベクトル係数の求め方は、まず、最適な決定境界は引かれてるとして、直線を境に正の側と負の側に分けます(図4)。

f:id:hackU0001:20190301124209p:plain

図4.正と負に分ける

 

 このように、正の側にあるのか負の側にあるのかを判断する関数を「識別関数」といいます。そのために、決定境界を「識別面」と呼ぶ場合もあります。次に、負の側のデータを反転移動して正の側に移動します(図5)。

 

f:id:hackU0001:20190301125822p:plain

図5.負の側のデータを反転移動


 このように、片方のデータを反転移動しても決定境界自体に影響はありません。つまり、クラス1のデータを負のデータ、クラス2のデータを正のデータとする決定境界は、クラス1のデータを正側に反転させて「重みベクトルを法線ベクトルとする直線」を求めればよいことになります(図6)。

f:id:hackU0001:20190301131325p:plain

図6.決定境界を導き出す

 

 

 この「重みベクトルを法線ベクトルとする直線」を引くために、重みベクトルの係数Wを求めます。この係数は決定境界を導き出すための「パラメータ」とも呼ばれます。 

 それでは、単純パーセプトロンで決定境界を得るためにどのようにして重みベクトルの係数を得るのか説明します。ここでは、ラベル1のデータをクラス1(決定境界の負の側)に、ラベル2のデータをクラス2(決定境界の正の側)として分離することにします。

 

 

 まず、適当な係数を用意して「仮の決定境界」を引いておきます(図7)。

 次に学習データを読み込みますが、もし、ラベル1なら反転した値にします。

f:id:hackU0001:20190301133520p:plain

図7.決定境界の考え方(その1)

 

 読み込んだ学習データが、「仮の決定境界線」の正の側にあるのか負の側にあるのかを判断します。もし、正の位置にある場合は、重みベクトルの係数はそのままです(図8)。

f:id:hackU0001:20190301134921p:plain

図8.決定境界の考え方(その2)

 

 しかし、読み込んだデータが負の位置にある場合は・・・(図9)。

f:id:hackU0001:20190301134527p:plain

図9.決定境界の考え方(その3)

 

 重みベクトル係数を変更して、傾きを回転させてデータが正の位置に来るようにします(図10)。

f:id:hackU0001:20190301135922p:plain

図10.決定境界の考え方(その4)


 こうして、学習データを読み込みながら、重みベクトルの係数を逐次調整します(図11)。

f:id:hackU0001:20190301142616p:plain

図11.決定境界の考え方(その5)

 

 データの読み込みが完了すると、すべてのデータが正の位置に来ます。これにより、「重みベクトルを法線ベクトルとする直線」が引けることになります(図12)。

f:id:hackU0001:20190301150910p:plain

図12.決定境界の考え方(その6)


 反転してあったラベル1のデータを再び反転させると、この直線は2つのデータを2等分する決定境界になっています(図13)。

f:id:hackU0001:20190301143455p:plain

図13.線形分離完了

 

▶クラスが複数ある場合

 ここまでは、クラスが2つの場合でしたが、クラスが3つ、4つと増えた場合は、決定境界をたくさん引くことになります。たとえば、図14のように線形分離が可能な場合があります。

f:id:hackU0001:20190301151925p:plain

図14.クラスが3つの場合