Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
多次元尺度法MDS
Search
Ringa_hyj
January 07, 2021
Science
350
0
Share
多次元尺度法MDS
Ringa_hyj
January 07, 2021
More Decks by Ringa_hyj
See All by Ringa_hyj
DVCによるデータバージョン管理
ringa_hyj
0
370
deeplakeによる大規模データのバージョン管理と深層学習フレームワークとの接続
ringa_hyj
0
110
Hydraを使った設定ファイル管理とoptunaプラグインでのパラメータ探索
ringa_hyj
0
220
ClearMLで行うAIプロジェクトの管理(レポート,最適化,再現,デプロイ,オーケストレーション)
ringa_hyj
0
230
Catching up with the tidymodels.[Japan.R 2021 LT]
ringa_hyj
3
880
因子分析(仮)
ringa_hyj
0
190
階層、非階層クラスタリング
ringa_hyj
0
150
tidymodels紹介「モデリング過程料理で表現できる説」
ringa_hyj
0
680
深層学習をつかった画像スタイル変換の話と今までの歴史
ringa_hyj
0
490
Other Decks in Science
See All in Science
Kaggle: NeurIPS - Open Polymer Prediction 2025 コンペ 反省会
calpis10000
0
540
先端因果推論特別研究チームの研究構想と 人間とAIが協働する自律因果探索の展望
sshimizu2006
3
890
Bリーグのショットデータを活用した得点期待値モデルの構築 / Construction of expected points model using shot data of B.LEAGUE
konakalab
0
110
力学系から見た現代的な機械学習
hanbao
4
4.1k
データベース01: データベースを使わない世界
trycycle
PRO
1
1.2k
Accelerating operator Sinkhorn iteration with overrelaxation
tasusu
0
310
人生を変えた一冊「独学大全」のはなし / Self-study ENCYCLOPEDIA: The Book Which Change My Life #独学大全 #EM推し本
expajp
0
150
主成分分析に基づく教師なし特徴抽出法を用いたコラーゲン-グリコサミノグリカンメッシュの遺伝子発現への影響
tagtag
PRO
0
240
あなたに水耕栽培を愛していないとは言わせない
mutsumix
1
320
データから見る勝敗の法則 / The principle of victory discovered by science (open lecture in NSSU)
konakalab
1
310
ハミルトン・ヤコビ方程式の解の性質と物理的意味
enakai00
0
330
コミュニティサイエンスの実践@日本認知科学会2025
hayataka88
0
150
Featured
See All Featured
[RailsConf 2023] Rails as a piece of cake
palkan
59
6.5k
How to build an LLM SEO readiness audit: a practical framework
nmsamuel
1
730
How to Talk to Developers About Accessibility
jct
2
190
Are puppies a ranking factor?
jonoalderson
1
3.4k
Navigating Weather and Climate Data
rabernat
0
180
HDC tutorial
michielstock
2
650
Heart Work Chapter 1 - Part 1
lfama
PRO
6
35k
Max Prin - Stacking Signals: How International SEO Comes Together (And Falls Apart)
techseoconnect
PRO
0
160
Why Your Marketing Sucks and What You Can Do About It - Sophie Logan
marketingsoph
0
140
Helping Users Find Their Own Way: Creating Modern Search Experiences
danielanewman
31
3.2k
The untapped power of vector embeddings
frankvandijk
2
1.7k
Bash Introduction
62gerente
615
210k
Transcript
多次元尺度法 MDS : multi dimensional scaling 特性値ではなく、 個体間の類似性を表現するようなデータに対して行う分析 多次元の類似性を持つデータを低次元に落とすなどがMDS 類似性といっても、必ず距離データでなくともいい場合(非計量多次元尺度
non metric MDS) 距離データである場合 metric MDS (計量多次元尺度、古典的多次元尺度)
mtric MDS データ点ごとの差の二乗の平方根を考える = − = 1 − 1 2
+ ・・・ 変換後のベクトルから、以下のような式が成り立つyの存在する空間を探す − = = = − ここで、距離の公理を満たすことを前提とする δ=0 δ>=0 δij=δji ※公理を満たすデータは「メトリックである」と呼ばれる D=[δij]
単に二乗を考えてみる ⅈ 2 = − 2 = − − =
2 + 2 − 2 ⊤ 後項の内積部分を考えると、iとjの積の総和となる = 1 1 + 22 + ⋯ = 2 + 2 − 2 よって 変形して = ½ ( 2 + 2 − ⅈ 2 ) これは個体間の距離を求めるということは、内積を求めることに等しいということを表現している 内積から別座標yへの変換を考えるのが古典的手法であると先ほど説明した。
あ
個体ijの原点は、n個の重心であるとする 新しい座標ベクトル y は ⅈ 2 = − 2 =
− − よって d^2 ij = -2aij = yi T yi + yj T yj – 2yi T yj =bii + bjj -2bij =aii + ajj – 2aij (距離の公理より) =-2aij
bij = aij – mean(ai+) - mean(a+j) + mean(a++) bij
= (yi – y_bar)T(yj-y_bar) B = [bij] このとき、Bは固有値がすべて非負の半正定値行列であることがわかる B=ΓΛΓ ^T = (ΓΛ^1/2)(ΓΛ^1/2) = YY^T ΛはBの固有値を対角として持つ行列である Λ = diag(λ1…λp) Γは固有ベクトルを列変形したもの Γi = λi ^(-1/2) xi
より詳細な計算方法 データDからA=[-1/2 dij^2]を計算 bij = aij – mean(ai+)… から B=[bij]を求める
Bのうち、正の固有値 λ だけを削減次元 k個求める(寄与率を計算する場合にはすべて求める) 固有ベクトル Y = (y1~yk)を求める λi = yi T yi となるように固有ベクトルの「長さ」を調整する 個体 pi の座標が yi1 ….yip へと変換される
2 4 5 2 3 6 4 3 7 5
6 7 行平均 mean(ai+) 列平均 mean(a+i)
2次元に落とすならば固有値λから2つの固有値を選び出す。同時に固有ベクトルも2つ得られるはず。 固有ベクトルは長さ1に正規化されて出力されるものなので、 固有値の大きさに調整する yk T yk = λk より、 yi
= y’i √λi を計算する 二次元のデータをplotにつかう。 つまり、 調整した一つ目の固有ベクトルをx座標 調整した二つ目の固有ベクトルをy座標 とする
あ
心理学のような、非類似度データに対する分析 stress(目的関数) を最小にするような個体の配置を求める = ⅆ − መ 2 ⅈ 2
1 2 ※Σはj<iの時のみ実行される ※j<I ということは、下側三角行列のすべての和になる ※d_hat は dijと近くなるような座標値から定められる値 ※分子は最小二乗法に等しい Sが0になればよい推定量で、大きい(0.2)以上だと失敗とされている
あ