• 検索結果がありません。

Poincaré Embedding による 分散表現の獲得 M1 橋本隼人 森信介 京都大学情報学研究科 / 学術情報メディアセンター森研究室 1

N/A
N/A
Protected

Academic year: 2021

シェア "Poincaré Embedding による 分散表現の獲得 M1 橋本隼人 森信介 京都大学情報学研究科 / 学術情報メディアセンター森研究室 1"

Copied!
28
0
0

読み込み中.... (全文を見る)

全文

(1)

Poincaré Embedding による

分散表現の獲得

M1 橋本 隼人 京都大学 情報学研究科 / 学術情報メディアセンター 森研究室 森 信介 1

(2)

おしらせ

予稿集から変更

ネガティブサンプリングの式

追加実験

ご意見等は予稿のアドレスかこちらへ

<hayato.hashimoto@gmail.com>

http://www.ar.media.kyoto-u.ac.jp/

「京都大学

森研究室 自然言語処理」

2

(3)

発表の要旨

背景:階層的構造に適したPoincaré Embedding.

(Nickel&Kiela. NIPS’17) WordNetからの学習。

提案手法:テキストからの教師なし学習。 埋込み表現 学習に適した内積をPoincaré円盤上で定義。 評価:埋め込み表現の既存評価手法、および、階層的 構造を考慮した分類タスクによる評価 実験:Continuous Bag-of-Words/英語版Wikipedia 考察・まとめ:提案手法はテキストから階層的構造を学 習できる 3

(4)

Word2Vec /

合成可能性

Mikolov のSkip-Gram with Negative Sampling で文脈 からベクトルは学習できる。

(意味の基底と)合成可能性:

king - man + woman = queen Vietnam + capital = Hanoi

4 / 28

(5)

語義の階層的構造

5 / 28 背景 * * * * 人 親戚 労働者 エンジニア 事務員 5 リーダー 作業員 プログラマ 階層を下れば 下るほど増える カテゴリ 次元を増やす のが正解? ツリーが入る空 間を用意

(6)

Poincaré 円盤

Nickel&Kiela は、埋め込み空間にリーマン幾 何の計量テンソルを導入することを提案した。 (from abyss.uoregon.edu) 6 / 28 背景 * * * *

(7)

Poincaré 円盤

7 / 28

(8)

Nickel & Kiela (2017)

Nickel & Kiela は、WordNet の上位語ー下位 語関係の木構造を、Poincaré円盤を用いたモ デルで学習。 Euclid計量に基づくベースラインモデルよりよく 表現することができることを示した。 8 8 / 28 背景 * * * *

(9)

9

9 / 28

(10)

テキストからの学習

Nickel らは人手により作られた階層的データ がPoincare Embeddingによりうまく埋め込み できることがわかった。 本発表では、テキストから教師なしでよい埋め 込み表現を得るために、Poincare Embeddingができるかを検討したい。 10 10 / 28 * 提案手法 * * *

(11)

テキストへの適用時の問題

WordNet再現タスクでは、Euclidモデルでも内積より距 離のほうがよい テキストからの埋め込み表現学習では、距離より内積の ほうがよい 11 11 / 28 * 提案手法 * * *

(12)

Euclid内積からPoincaré内積

単位ベクトルの cosine類似度を図 形で図示すると、左 のようになる 12 12 / 28 * 提案手法 * * * A C O B

(13)

A C O H 三角形ABCと 三角形AOH は相似 (相似比 AO : AB) AC = 相似比×AH = 距離2/2 OC = 1- 距離 2/2 13

Euclid内積からPoincaré内積

13 / 28 * 提案手法 * * * B

(14)

A C O H 三角形ABCと 三角形AOH は相似 (相似比 AO : AB) AC = 相似比×AH = 距離2/2 OC = 1- 距離 2/2 14

Euclid内積からPoincaré内積

14 / 28 * 提案手法 * * * B

(15)

Poincaré内積(もどき)

cos Θ = 1 - d(x, y)2 / 2

内積 = |x| |y| cos Θ = |x| |y| (1 - d(x, y)2 / 2) Poincaré 円盤を単位円とみなす ベクトルの大きさのパラメータを別途導入する (rx, x) ・P (ry, y) = rx ry (1 - dP(x, y)2 / 2) 15 15 / 28 * 提案手法 * * *

(16)

Poincaré内積

ネガティブサンプリングで確率を計算 log P(x | context) = σ (rx ry (1 - dP(x, y)2 /D2 ) ) (1 - σ (rn1 ry (1 - dP(x, y)2 /D2 ) ))・・・ CBoW, ナイーブに重み付き平均 (リーマン計量を考慮しない) y = Σ ri xi / Σ ri ( i

context

) ry= Σ ri / #context 16 16 / 28 * 提案手法 * * *

(17)

埋め込み表現の既存評価尺度

人手評価による単語類似度と 順位相関係数で評価 (Spearman’s ρ) Dataset: MEN WordSim-353 SimLex-999 MEN と WordSimは関連付け(Relatedness: カップとコーヒーなど)にも高いスコアが割り当 てられ、SimLexは類似度(Similarity)のみ。 17 17 / 28 * * 評価 * *

(18)

埋め込み表現の既存評価尺度

Qvec, analogy resolution は加算・乗算・

基底変換ができる前提のため、今回評価

には用いなかった

18

18 / 28

(19)

WordNetを用いた提案評価尺度

WordNetから二つの枝をえらび、 同一の枝に属している単語ペアと

例: (mother, father), (professor, officer)

同一の枝に属していない単語ペアを 例: (professor, daughter) 二値分類するタスク 距離の閾値により解いた時のROC AUC で 評価。 person relative worker engineer 19 19 / 28 * * 評価 * *

(20)

WordNetを用いた提案評価尺度 階層的構造の評価のために、いくつか のレベルで二つの枝を選び、AUCを平 均する。 距離のみで評価可能 上下関係の距離によらない person relative worker engineer officer 20 20 / 28 * * 評価 * *

(21)

実装

/実験設定

Continuous Bag-of-Words ナイーブに重み付き平均 (リーマン計量を考慮しない)

Python で実装 (chainer 4.0.0β), batch学習+GPU ミニバッチ学習

GPU

Gradient Clipping

Sigmoid arg. Clipping: [-6, 6] AdaGrad により学習 初期学習率 0.001 21 21 / 28 * * * 実験 * ナイーブにモーメンタム (mSGD, …, Adam)は使え ない (モーメンタムをリーマン計 量対応にする必要がある。 また、ネガティブサンプリン グではまれな語のパラメー タはまれにしか更新されな い。) RSGD を Forward を 円盤の中にいれる処理 Backward を微係数のス ケーリングとする FunctionNodeとして実装

(22)

実験設定

コーパス Wikipedia 英語版 8.75億語 (全体の数割) 語彙 100万語 (Wikipedia英語版全体からの出現頻度で決定) 単語と文脈を別に学習し、単語のベクトルで評価 20 epochs, スムージング0.75 Subsampling: なし 語彙頻度スムージング指数 (α): 0.75 Window: 2, 5, 10, 15 次元: 10, 20, 100, 300 Gradient Clipping: 10.0 バッチサイズ 65536 22 22 / 28 * * * 実験 *

(23)

23

結果

(WordNet同枝判定)

次元 窓幅 2 5 10 10 Poincare 0.6773 0.6605 0.6232 (評価時のみ ドット積) 0.6348 0.6163 0.6369 dot 0.6116 0.6205 0.6208 20 Poincare 0.6937 0.6694 0.6593 0.6533 0.6468 0.6567 dot 0.6443 0.6444 0.6445 100 Poincare 0.6316 0.6850 0.6847 0.6304 0.6506 0.6566 dot 0.6513 0.6580 0.6571 23 / 28 * * * * 結果

(24)

ROC AUC Iteration 24 24 / 28 * * * * 結果 Poincare Embedding (win=5, win=10) Euclidean Baseline LexVec 配布モデル

結果

(WordNet同枝判定)

24 / 28 * * * * 結果 dim = 100

(25)

Iteration

25

結果

(類似度)

25 / 28

(26)

Iteration

26

結果

(類似度)

26 / 28

(27)

27

学習表現の可視化

27 / 28

(28)

まとめ

埋込み表現学習に適した内積をPoincaré円盤上で定 義。 階層的な構造をうまく埋め込み空間でたもっているか どうかを図るタスクを定義。 タスクの結果および埋め込みの可視化から確認できる 限りでは、Poincaré Embedding を用いた埋め込み表 現は、教師なしで階層的な構造を学習していると考え られる。 28

参照

関連したドキュメント

全国の 研究者情報 各大学の.

金沢大学学際科学実験センター アイソトープ総合研究施設 千葉大学大学院医学研究院

東京大学 大学院情報理工学系研究科 数理情報学専攻. hirai@mist.i.u-tokyo.ac.jp

情報理工学研究科 情報・通信工学専攻. 2012/7/12

関谷 直也 東京大学大学院情報学環総合防災情報研究センター准教授 小宮山 庄一 危機管理室⻑. 岩田 直子

 大学図書館では、教育・研究・学習をサポートする図書・資料の提供に加えて、この数年にわ

本研究科は、本学の基本理念のもとに高度な言語コミュニケーション能力を備え、建学

本研究科は、本学の基本理念のもとに高度な言語コミュニケーション能力を備え、建学