Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
目に見えるパーセプトロン
Search
けんご
August 19, 2015
Technology
5
100k
目に見えるパーセプトロン
けんご
August 19, 2015
Tweet
Share
More Decks by けんご
See All by けんご
いいたいことちゃんという
tkengo
0
370
スタートアップで役割をまっとうする技術
tkengo
0
130
TableauやLookerだけじゃない!QuickSightで作る顧客向けダッシュボード
tkengo
1
210
toypoインフラリプレースのお話
tkengo
0
16
機械学習を始めるための第一歩
tkengo
0
230
レポート化の落とし穴
tkengo
0
120
PHP and sometimes Machine Learning
tkengo
3
1.1k
機械学習と数学とプログラマのための数学勉強会
tkengo
0
540
CNNによるテキスト分類
tkengo
1
47k
Other Decks in Technology
See All in Technology
生成AIをより賢く エンジニアのための RAG入門 - Oracle AI Jam Session #20
kutsushitaneko
4
250
社内イベント管理システムを1週間でAKSからACAに移行した話し
shingo_kawahara
0
190
多領域インシデントマネジメントへの挑戦:ハードウェアとソフトウェアの融合が生む課題/Challenge to multidisciplinary incident management: Issues created by the fusion of hardware and software
bitkey
PRO
2
110
社外コミュニティで学び社内に活かす共に学ぶプロジェクトの実践/backlogworld2024
nishiuma
0
260
PHPerのための計算量入門/Complexity101 for PHPer
hanhan1978
5
150
小学3年生夏休みの自由研究「夏休みに Copilot で遊んでみた」
taichinakamura
0
160
レンジャーシステムズ | 会社紹介(採用ピッチ)
rssytems
0
150
スタートアップで取り組んでいるAzureとMicrosoft 365のセキュリティ対策/How to Improve Azure and Microsoft 365 Security at Startup
yuj1osm
0
220
継続的にアウトカムを生み出し ビジネスにつなげる、 戦略と運営に対するタイミーのQUEST(探求)
zigorou
0
580
Fanstaの1年を大解剖! 一人SREはどこまでできるのか!?
syossan27
2
170
サーバレスアプリ開発者向けアップデートをキャッチアップしてきた #AWSreInvent #regrowth_fuk
drumnistnakano
0
200
サイボウズフロントエンドエキスパートチームについて / FrontendExpert Team
cybozuinsideout
PRO
5
38k
Featured
See All Featured
The Pragmatic Product Professional
lauravandoore
32
6.3k
ピンチをチャンスに:未来をつくるプロダクトロードマップ #pmconf2020
aki_iinuma
111
49k
Navigating Team Friction
lara
183
15k
RailsConf 2023
tenderlove
29
940
Responsive Adventures: Dirty Tricks From The Dark Corners of Front-End
smashingmag
251
21k
jQuery: Nuts, Bolts and Bling
dougneiner
61
7.5k
Making Projects Easy
brettharned
116
5.9k
Art, The Web, and Tiny UX
lynnandtonic
298
20k
Become a Pro
speakerdeck
PRO
26
5k
[RailsConf 2023 Opening Keynote] The Magic of Rails
eileencodes
28
9.1k
Embracing the Ebb and Flow
colly
84
4.5k
CoffeeScript is Beautiful & I Never Want to Write Plain JavaScript Again
sstephenson
159
15k
Transcript
2015.08.19 @tkengo 目に見える パーセプトロン
分類対象 I
素性関数 I ( I ) = ( x1, x2, ·
· · , xn) = x 分類対象
素性関数 重み I w = (w1, w2, · · ·
, wn) ( I ) = ( x1, x2, · · · , xn) = x 分類対象
素性関数 重み 識別関数 I w = (w1, w2, · ·
· , wn) ( I ) = ( x1, x2, · · · , xn) = x f ( x ) = w · x = n X i=1 wixi 分類対象
f ( x ) = w · x = n
X i=1 wixi ( I ) = ( x1, x2, · · · , xn) = x 素性関数 重み 識別関数 I w = (w1, w2, · · · , wn) 分類対象
仕切り直し
機械学習
ある程度の数のサンプルデータ集合を入力して解析 を行い、そのデータから有用な規則、ルール、知識 表現、判断基準などを抽出する 機械学習とは by Wikipedia
ある程度の数のサンプルデータ集合を入力して解析 を行い、そのデータから有用な規則、ルール、知識 表現、判断基準などを抽出する 機械学習とは by Wikipedia
有用な規則、ルール 知識表現、判断基準 とは?
例:メールのスパム判定
例:メールのスパム判定 スパム判定するための明確な判断基準(ルール)があるわけではない
例:メールのスパム判定 ・「無料」「金儲け」「請求」等の単語が含まれているとスパムっぽい? ・それぞれの単語って実際どの程度スパムっぽいのだろうか? ・「無料」より「金儲け」という単語が入っていた方がスパムっぽい? ・一般的なビジネスメールにも「請求」って含まれることもあるよね? ・メールの文脈、つまり単語の前後にある単語も見る必要がある? ・すると、単語の繋がり方によってスパム率も変わってくる? ・「無料でお試し」より「無料で金儲け」の方がスパムっぽい? スパム判定するための明確な判断基準(ルール)があるわけではない
例:メールのスパム判定 スパム判定するための明確な判断基準(ルール)があるわけではない ・「無料」「金儲け」「請求」等の単語が含まれているとスパムっぽい? ・それぞれの単語って実際どの程度スパムっぽいのだろうか? ・「無料」より「金儲け」という単語が入っていた方がスパムっぽい? ・一般的なビジネスメールにも「請求」って含まれることもあるよね? ・メールの文脈、つまり単語の前後にある単語も見る必要がある? ・すると、単語の繋がり方によってスパム率も変わってくる? ・「無料でお試し」より「無料で金儲け」の方がスパムっぽい? パラメータが多すぎ、判断基準(ルール)を定義できない
機械学習とは by Wikipedia ある程度の数のサンプルデータ集合を入力して解析 を行い、そのデータから有用な規則、ルール、知識 表現、判断基準などを抽出する
ある程度の数のサンプルデータ集合を入力して解析 を行い、そのデータから有用な規則、ルール、知識 表現、判断基準などを抽出する ※サンプルデータの用意は多くの場合、人間の仕事 このメールはスパムなのでラベル”1” このメールはスパムではないのでラベル”-1” とか... 実際のメール本文 と正解ラベル 「学習用データ」と
呼んだりする
ある程度の数のサンプルデータ集合を入力して解析 を行い、そのデータから有用な規則、ルール、知識 表現、判断基準などを抽出する このことを 「学習」と呼ぶ ※サンプルデータの用意は多くの場合、人間の仕事 このメールはスパムなのでラベル”1” このメールはスパムではないのでラベル”-1” とか... 実際のメール本文
と正解ラベル 「学習用データ」と 呼んだりする
ある程度の数のサンプルデータ集合を入力して解析 を行い、そのデータから有用な規則、ルール、知識 表現、判断基準などを抽出する このことを 「学習」と呼ぶ メールが本当に スパムかどうかを 判断するためのルール ※どの単語が、どれくらいの割合で どの単語の後にどの単語がきて
とか... 実際のメール本文 と正解ラベル 「学習用データ」と 呼んだりする ※サンプルデータの用意は多くの場合、人間の仕事 このメールはスパムなのでラベル”1” このメールはスパムではないのでラベル”-1” とか...
機械学習の種類
機械学習 識別関数 パーセプトロン SVM CRF 識別モデル ナイーブベイズ ガウス混合モデル 生成モデル 機械学習と一口に言ってもいくつか分類があって、それぞれ学習の
仕方や理論が違う 機械学習の種類
機械学習 識別関数 パーセプトロン SVM CRF 識別モデル ナイーブベイズ ガウス混合モデル 生成モデル 機械学習と一口に言ってもいくつか分類があって、それぞれ学習の
仕方や理論が違う 機械学習の種類
機械学習と一口に言ってもいくつか分類があって、それぞれ学習の 仕方や理論が違う この資料では機械学習の中で最も単純な識別関数について、さらに その中でも最も単純なパーセプトロンについて、その仕組みと学習 の仕方を見ていきます。 機械学習の種類
パーセプトロン
パーセプトロン •フランク・ローゼンブラットさんという人が提唱。
パーセプトロン •フランク・ローゼンブラットさんという人が提唱。 視覚と脳の機能をモデル化 してパターン認識したる
パーセプトロン •フランク・ローゼンブラットさんという人が提唱。 視覚と脳の機能をモデル化 してパターン認識したる •単層パーセプトロンと多層パーセプトロンがある。 •今回は最も単純な単層パーセプトロンのお話。 •主に二値分類に使われる。例: • メールがスパムか、スパムじゃないか •
画像にリンゴが含まれるか、含まれないか
分類の仕組み
分類の仕組み •分類対象データからなんとかして素性をベクトルとして抽出。 •素性の抽出の仕方はいろいろ。自分で考えなきゃいけない。 • 分類対象がメール(テキスト)であれば各単語の出現頻度とか。 • 分類対象が画像であればピクセル列のRGB値とか。色の濃淡とか。 •素性を抽出するための関数を素性関数と呼ぶ。
( I ) = ( x1, x2, · · ·
, xn) = x 最初にでてきたコレ! 分類の仕組み •分類対象データからなんとかして素性をベクトルとして抽出。 •素性の抽出の仕方はいろいろ。自分で考えなきゃいけない。 • 分類対象がメール(テキスト)であれば各単語の出現頻度とか。 • 分類対象が画像であればピクセル列のRGB値とか。色の濃淡とか。 •素性を抽出するための関数を素性関数と呼ぶ。
public ArrayList<Integer> extractFeature(Object data) { ArrayList<Integer> feature = new ArrayList<>();
// dataから素性を抽出する処理 return feature; } 数式に馴染みがないならコードを思い浮かべてもおk 分類の仕組み •分類対象データからなんとかして素性をベクトルとして抽出。 •素性の抽出の仕方はいろいろ。自分で考えなきゃいけない。 • 分類対象がメール(テキスト)であれば各単語の出現頻度とか。 • 分類対象が画像であればピクセル列のRGB値とか。色の濃淡とか。 •素性を抽出するための関数を素性関数と呼ぶ。
•たとえばこんな素性関数があったら。 // まったく実用的ではない超適当な素性関数 public ArrayList<Integer> extractFeature(Object data) { ArrayList<Integer> feature
= new ArrayList<>(); feature.add(data.hashCode() * 1 % 10 - 5); feature.add(data.hashCode() * 2 % 10 - 5); return feature; } 分類の仕組み
•たとえばこんな素性関数があったら。 •学習用データを与えると二次元のベクトルが吐かれる。 extractFeature(data1) → ( 1, 2) = extractFeature(data2) →
( 3, 2) = extractFeature(data3) → (-2, -4) = extractFeature(data4) → (-2, -2) = ... x1 x2 x3 x4 分類の仕組み // まったく実用的ではない超適当な素性関数 public ArrayList<Integer> extractFeature(Object data) { ArrayList<Integer> feature = new ArrayList<>(); feature.add(data.hashCode() * 1 % 10 - 5); feature.add(data.hashCode() * 2 % 10 - 5); return feature; }
•たくさん得られた二次元ベクトルを平面にプロットしてみる。 x y 分類の仕組み この点ひとつひとつが学習用データ から抽出した素性ベクトル
•たくさん得られた二次元ベクトルを平面にプロットしてみる。 •どうもこんな風に線が引けそう。 x y 分類の仕組み
•たくさん得られた二次元ベクトルを平面にプロットしてみる。 •どうもこんな風に線が引けそう。 x y 分類の仕組み こっち側はクラスA こっち側はクラスB
•たくさん得られた二次元ベクトルを平面にプロットしてみる。 •どうもこんな風に線が引けそう。 x y 分類の仕組み こっち側はクラスA こっち側はクラスB 未知のデータXの素性を 抽出したらこの辺だった。 クラスはAとBどっち?
•たくさん得られた二次元ベクトルを平面にプロットしてみる。 •どうもこんな風に線が引けそう。 x y 分類の仕組み こっち側はクラスA こっち側はクラスB 線のこっち側なので クラスAに属するとわかる
•たくさん得られた二次元ベクトルを平面にプロットしてみる。 •どうもこんな風に線が引けそう。 x y 分類の仕組み こっち側はクラスA こっち側はクラスB 今度は未知のデータYの 素性を抽出すると この辺だった。
クラスはA?B?
•たくさん得られた二次元ベクトルを平面にプロットしてみる。 •どうもこんな風に線が引けそう。 x y 分類の仕組み こっち側はクラスA こっち側はクラスB 線のこっち側なので クラスBと分かる。
•どうやって新しい点が線の向こう側かこっち側か判断するか? x y 分類の仕組み こっち側はクラスA こっち側はクラスB
•どうやって新しい点が線の向こう側かこっち側か判断するか? •ベクトルの内積を使う。 x y 分類の仕組み こっち側はクラスA こっち側はクラスB
•実は最初に引いた赤い線は重みベクトルを法線とする直線。 x y 分類の仕組み こっち側はクラスA こっち側はクラスB 重みベクトルw
•実は最初に引いた赤い線は重みベクトルを法線とする直線。 •重みベクトルと素性ベクトルの内積 a を取って以下の通り分類。 • クラスA if a >= 0
• クラスB if a < 0 x y 分類の仕組み こっち側はクラスA こっち側はクラスB 重みベクトルw
•法線ベクトルとは線に垂直なベクトルのこと。 x y ※補足 法線と内積 y = 0.5x の法線
•法線ベクトルとは線に垂直なベクトルのこと。 x y ※補足 法線と内積 y = 0.5x の法線 y =
x の法線
•法線ベクトルとは線に垂直なベクトルのこと。 x y ※補足 法線と内積 y = 0.5x の法線 y =
x の法線 y = 2x の法線
•簡単に言うと内積とはベクトルがどれだけ似ているか?の指標。 •似ているほど値が大きい。 •似ていないほど値が小さい。 x y ※補足 法線と内積 ベクトルb ベクトルa a ·
b = 1 p 2 = 0.707106 ベクトルが似てるので正の数。
x y ※補足 法線と内積 ベクトルb ベクトルa a · b = 0
ベクトルが似てるか似てない かわからない(直角)。こんな 時の内積は0。 •簡単に言うと内積とはベクトルがどれだけ似ているか?の指標。 •似ているほど値が大きい。 •似ていないほど値が小さい。
x y ※補足 法線と内積 ベクトルb ベクトルa まあまあ離れてきた。向きも 違うし負の数。 a · b
= 1 p 2 = 0.707106 •簡単に言うと内積とはベクトルがどれだけ似ているか?の指標。 •似ているほど値が大きい。 •似ていないほど値が小さい。
x y ※補足 法線と内積 ベクトルb ベクトルa 反対向いちゃった。全然似て ないのでさっきより小さい負 の数。 a ·
b = 1 •簡単に言うと内積とはベクトルがどれだけ似ているか?の指標。 •似ているほど値が大きい。 •似ていないほど値が小さい。
•実は最初に引いた赤い線は重みベクトルを法線とする直線。 •重みベクトルと素性ベクトルの内積 a を取って以下の通り分類。 • クラスA if a >= 0
• クラスB if a < 0 x y 分類の仕組み 重みベクトルw 素性ベクトルx w · x 0 すなわちxはクラスA
•実は最初に引いた赤い線は重みベクトルを法線とする直線。 •重みベクトルと素性ベクトルの内積 a を取って以下の通り分類。 • クラスA if a >= 0
• クラスB if a < 0 x y 分類の仕組み 重みベクトルw 素性ベクトルy すなわちyはクラスB w · y 0
分類の仕組み •このようにデータを分類する役割の関数を識別関数と言う。 •パーセプトロンにおいては識別関数 f(x) はベクトルの内積。
•このようにデータを分類する役割の関数を識別関数と言う。 •パーセプトロンにおいては識別関数 f(x) はベクトルの内積。 分類の仕組み 最初にでてきたコレ! f ( x )
= w · x = n X i=1 wixi
•このようにデータを分類する役割の関数を識別関数と言う。 •パーセプトロンにおいては識別関数 f(x) はベクトルの内積。 分類の仕組み 数式に馴染みがないならコードを思い浮かべてもおk public float dot(ArrayList<Float> v1,
ArrayList<Float> v2) { float result = 0f; for (int i = 0; i < v1.size(); i++) { result += v1.get(i) * v2.get(i); } return result; }
学習の仕組み
•パーセプトロンにおける学習とは、最初に引いた赤い線を求めるこ と。 x y 学習の仕組み コレ
•パーセプトロンにおける学習とは、最初に引いた赤い線を求めるこ と。 •学習には学習用データとそれに対応する正解ラベルの組の配列を用 意する。たとえば • スパムメールを集めてくる。それぞれの正解ラベルは”1”(スパムである)。 • ビジネスメールを集めてくる。それぞれの正解ラベルは”-1”(スパムではない)。 •学習用データはパーセプトロンの分類精度に直接関わってくるの で、質も量も大事。
学習の仕組み
•図解。 x y 学習の仕組み ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1
•図解。 x y 学習の仕組み 最初は重みベクトルはまったくわからないので とりあえずランダムに決めておく w ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。
・内積が正であれば1 ・内積が負であれば-1
x y 学習の仕組み x 1つ目の学習データから抽出した 素性がこの辺だったとする。 この素性の正解ラベルは”1”。 w •図解。 ※簡単のためにここでは識別関数
f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1
x y 学習の仕組み x この素性を識別関数に通すと、wとx の内積は正なので”1”が返ってくる。 w w · x
0 •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1
x y 学習の仕組み x よって正解ラベルと識別関数が返し たラベルが一致しているので重みの 更新はしない。 w •図解。 ※簡単のためにここでは識別関数
f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1
x y 学習の仕組み y 次に2つ目の学習データから素性を 抽出するとこの辺だった。 この素性の正解ラベルも”1”。 •図解。 ※簡単のためにここでは識別関数 f(x)
は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w
x y 学習の仕組み y この素性を識別関数に通すとwとy の内積は負なので”-1”が返ってく る。 •図解。 ※簡単のためにここでは識別関数 f(x)
は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w w · y 0
※ x y 学習の仕組み y 正解ラベルと識別関数のラベルが異 なるので以下の式で重みを更新す る! •図解。 ※簡単のためにここでは識別関数
f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w + y w = w + lyy ly はデータyの正解ラベル。 この場合は1。 w
x y 学習の仕組み すると線がこんな風に回転。 •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1
w
x y 学習の仕組み これでxもyも正しく識別できた状 態の線になった。 •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1
・内積が負であれば-1 w y x
x y 学習の仕組み •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w
次に3つ目の学習データから素性を 抽出するとこの辺だった。 この素性の正解ラベルは”-1”。 z
x y 学習の仕組み •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w
z この素性を識別関数に通すとwとz の内積は正なので”1”が返ってく る。 w · z 0
x y 学習の仕組み •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w
- z z ※ 正解ラベルと識別関数のラベルが異 なるので再度以下の式で重みを更新 する! はデータzの正解ラベル。 この場合は-1。 w = w + lzz lz w
x y 学習の仕組み •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w
すると線がこんな風に回転。
x y 学習の仕組み •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w
これを学習データが無くなるまで繰 り返していくと...
x y 学習の仕組み •図解。 ※簡単のためにここでは識別関数 f(x) は以下の値を返すものとする。 ・内積が正であれば1 ・内積が負であれば-1 w
最終的には良い感じの線になって る。この線(すなわち重み)を使って 未知のデータXやYを分類していく。
まとめ
まとめ 1. 分類対象データから素性を抽出する。 2. 抽出した素性を識別関数に渡す。 3. 識別関数では重みを利用して分類する。 4. 重みは学習用データから繰り返し学習する。
まとめ x y ちなみにこんな風に1本の直線を使ってデータを分けれる問題を 線形分離可能と言う。
まとめ x y こんな風に直線で分割できなければ線形分離可能ではなくて 線形分離不可能と言う。
まとめ x y 単層パーセプトロンでは線形分離可能な問題しか解けません!
まとめ •この資料ではずっと二次元で説明を進めてきたけど、多次元にも 素直に拡張できる。 •二次元の場合は線、三次元の場合は平面で分割される。 •四次元、五次元、六次元、などは超平面で分割される。 •最後に三次元でのパーセプトロンの学習の過程を見て終わりま す。グリグリしてみましょう。 http://tkengo.github.io/perceptron_visualization/ (スペースキーで学習を進める)
目に見える パーセプトロン おわり