• 検索結果がありません。

No. 3 Oct The person to the left of the stool carried the traffic-cone towards the trash-can. α α β α α β α α β α Track2 Track3 Track1 Track0 1

N/A
N/A
Protected

Academic year: 2021

シェア "No. 3 Oct The person to the left of the stool carried the traffic-cone towards the trash-can. α α β α α β α α β α Track2 Track3 Track1 Track0 1"

Copied!
6
0
0

読み込み中.... (全文を見る)

全文

(1)

高瀬 翔

1

はじめに

本稿では ACL2013 において発表された論文の中から,ベストペーパーとして表彰された論文 “Grounded Language Learning from Video Described with Sentences”(Yu and Siskind 2013) お よび,TACL(Transactions of the Association for Computational Linguistics)セッションにお いて筆者が特に関心を持った論文 “What Makes Writing Great? First Experiments on Article Quality Prediction in the Science Journalism Domain”(Louis and Nenkova 2013) について簡単 な紹介を行う.ベストペーパーに表彰された論文をはじめとして,ACL2013 では,画像,動画と 言語処理の融合に取り組んだ研究が散見された.これについて,詳しくは岡崎氏の「ACL2013 参加報告(その3)」報告を参照されたい. TACL とは 2012 年より募集開始された論文誌であり,これに採択されると ACL の主催する 会議1のいずれかで発表する資格を得られる.1 年間での投稿数は約 100 本,うち採択数は 28 本2であり,採択率が低過ぎるわけでは決してないが,丁寧な議論,調査が要求されるのは間違

いない.ACL2013 では TACL 掲載論文の口頭発表は TACL セッションとしてまとめられてお り,非常に質の高い発表を集中して聞く機会を得られた.

2

Grounded Language Learning from Video Described with

Sentences

本論文 (Yu and Siskind 2013) では,3-5 秒程度の動画とそれを説明する文のペアの集合から 単語の意味,すなわち動画内での物体や物体の動作と単語との対応を学習する手法を提案する. 具体的には,各単語の引数(person(α) や carried(α, β) における α や β のような,単語の取る

東北大学, Tohoku University

12013 年 9 月現在は ACL,NAACL,EACL,EMNLP の 4 つ.

(2)

国際会議参加レポート  No. 3 Oct. 2013

The person to the left of the stool carried the traffic-cone towards the trash-can.

α α β α α β α α β α

Track2 Track3 Track1 Track0

図 1 本論文の目的とする学習結果の例 項)が動画内のどの物体(領域)に対応するかについて,HMM を用いた教師無し学習を行う. 図 1 にこの論文で入力としている動画の 1 フレームと,その説明文の例を示す3.なお,図 1 で は動画内でのどれが物体か既に特定されているが,実際の入力にはこの情報は含まれていない. 本論文はこのような動画とその説明文の集合を訓練事例とし,動画内での物体の特定,および 図 1 下部に示したような物体と各単語の引数との対応を学習する. 本論文ではまず,動画内の各フレームにおける物体の特定を行う.各フレーム内で物体と推 定された領域は,色や形,大きさなどの素性を持ち,さらにフレーム間の比較によって速さや 移動の向きなどの素性も得られる.提案手法では,Yamato らの手法 (Yamato, Ohya, and Ishii 1992) にならい,この素性ベクトルを出力する HMM を学習する.各単語はそれぞれの HMM に 対応するとしており,この HMM を単語の意味と考える.例えば “jump” という単語は速さと 向きの素性を出力する 2 つの状態を持つ HMM で表現され,“quickly” は速さの素性を出力する 1 つの状態を持つ HMM で表現される. なお,本論文では語彙はいくつかの名詞,動詞,副詞,前置詞に限られており,各単語の引数, すなわち単語毎の取りうる項の数も既知であるとする.これにより,複数の動画に同じ単語が出 現するため,似た素性を持つ物体に同じ単語を割り当てることが可能となる.例えば一旦上昇 し下降する物体には “jump” を,素早く動く物体には “quickly” を,というように,物体(素性ベ クトル)と単語との対応を学習できる.また,本手法では各説明文における単語の引数間の対応 3この図は著者の論文に関する説明ページである http://haonanyu.com/research/acl2013/ より引用した. 2

(3)

ACL2013 参加報告

ACL$2013

over, we wish the track to be temporally coherent;

we want the objects in a track to move smoothly

over time and not jump around the field of view.

Let G(D

t 1

, j

t 1

, D

t

, j

t

)

denote some measure

of coherence between two detections in adjacent

frames. (One possible such measure is consistency

of the displacement of D

t

relative to D

t 1

with the

velocity of D

t 1

computed from the image by

op-tical flow.) One can select the detections to yield a

track that maximizes both the aggregate detection

score and the aggregate temporal coherence score.

max

j1,...,jT

0

B

B

B

B

@

T

X

t=1

F (D

t

, j

t

)

+

T

X

t=2

G(D

t 1

, j

t 1

, D

t

, j

t

)

1

C

C

C

C

A

(1)

This can be determined with the Viterbi (1967)

al-gorithm and is known as detection-based tracking

(Viterbi, 1971).

Recall that we model the meaning of an

in-transitive verb as an HMM over a time series

of features extracted for its participant in each

frame. Let denote the parameters of this HMM,

(q

1

, . . . , q

T

)

denote the sequence of states q

t

that

leads to an observed track, B(D

t

, j

t

, q

t

, )

de-note the conditional log probability of

observ-ing the feature vector associated with the

detec-tion selected by j

t

among the detections D

t

in

frame t, given that the HMM is in state q

t

, and

A(q

t 1

, q

t

, )

denote the log transition

probabil-ity of the HMM. For a given track (j

1

, . . . , j

T

)

,

the state sequence that yields the maximal

likeli-hood is given by:

max

q1,...,qT

0

B

B

B

B

@

T

X

t=1

B(D

t

, j

t

, q

t

, )

+

T

X

t=2

A(q

t 1

, q

t

, )

1

C

C

C

C

A

(2)

which can also be found by the Viterbi algorithm.

A given video clip may depict multiple objects,

each moving along its own trajectory. There may

be both a person jumping and a ball rolling. How

are we to select one track over the other? The key

insight of the sentence tracker is to bias the

selec-tion of a track so that it matches an HMM. This is

done by combining the cost function of Eq. 1 with

the cost function of Eq. 2 to yield Eq. 3, which can

also be determined using the Viterbi algorithm.

This is done by forming the cross product of the

two lattices. This jointly selects the optimal

detec-tions to form the track, together with the optimal

state sequence, and scores that combination.

max

j1,...,jT q1,...,qT

0

B

B

B

B

B

@

T

X

t=1

F (D

t

, j

t

)

+ B(D

t

, j

t

, q

t

, )

+

T

X

t=2

G(D

t 1

, j

t 1

, D

t

, j

t

)

+ A(q

t 1

, q

t

, )

1

C

C

C

C

C

A

(3)

While we formulated the above around a

sin-gle track and a word that contains a sinsin-gle

partic-ipant, it is straightforward to extend this so that it

supports multiple tracks and words of higher

ar-ity by forming a larger cross product. When doing

so, we generalize j

t

to denote a sequence of

de-tections from D

t

, one for each of the tracks. We

further need to generalize F so that it computes

the joint score of a sequence of detections, one for

each track, G so that it computes the joint

mea-sure of coherence between a sequence of pairs of

detections in two adjacent frames, and B so that

it computes the joint conditional log probability

of observing the feature vectors associated with

the sequence of detections selected by j

t

. When

doing this, note that Eqs. 1 and 3 maximize over

j

1

, . . . , j

T

which denotes T sequences of

detec-tion indices, rather than T individual indices.

It is further straightforward to extend the above

to support a sequence (S1

, . . . , S

L

)

of words Sl

denoting a sentence, each of which applies to

dif-ferent subsets of the multiple tracks, again by

forming a larger cross product. When doing so, we

generalize q

t

to denote a sequence (q

t

1

, . . . , q

Lt

)

of

states q

t

l

, one for each word l in the sentence, and

use ql

to denote the sequence (q

1

l

, . . . , q

lT

)

and q

to denote the sequence (q

1

, . . . , q

L

). We further

need to generalize B so that it computes the joint

conditional log probability of observing the

fea-ture vectors for the detections in the tracks that are

assigned to the arguments of the HMM for each

word in the sentence and A so that it computes the

joint log transition probability for the HMMs for

all words in the sentence. This allows selection

of an optimal sequence of tracks that yields the

highest score for the sentential meaning of a

se-quence of words. Modeling the meaning of a

sen-tence through a sequence of words whose

mean-ings are modeled by HMMs, defines a factorial

HMM for that sentence, since the overall Markov

process for that sentence can be factored into

inde-over time and not jump around the field of view.

Let G(D

t 1

, j

t 1

, D

t

, j

t

)

denote some measure

of coherence between two detections in adjacent

frames. (One possible such measure is consistency

of the displacement of D

t

relative to D

t 1

with the

velocity of D

t 1

computed from the image by

op-tical flow.) One can select the detections to yield a

track that maximizes both the aggregate detection

score and the aggregate temporal coherence score.

max

j1,...,jT

0

B

B

B

B

@

T

X

t=1

F (D

t

, j

t

)

+

T

X

t=2

G(D

t 1

, j

t 1

, D

t

, j

t

)

1

C

C

C

C

A

(1)

This can be determined with the Viterbi (1967)

al-gorithm and is known as detection-based tracking

(Viterbi, 1971).

Recall that we model the meaning of an

in-transitive verb as an HMM over a time series

of features extracted for its participant in each

frame. Let denote the parameters of this HMM,

(q

1

, . . . , q

T

)

denote the sequence of states q

t

that

leads to an observed track, B(D

t

, j

t

, q

t

, )

de-note the conditional log probability of

observ-ing the feature vector associated with the

detec-tion selected by j

t

among the detections D

t

in

frame t, given that the HMM is in state q

t

, and

A(q

t 1

, q

t

, )

denote the log transition

probabil-ity of the HMM. For a given track (j

1

, . . . , j

T

),

the state sequence that yields the maximal

likeli-hood is given by:

max

q1,...,qT

0

B

B

B

B

@

T

X

t=1

B(D

t

, j

t

, q

t

, )

+

T

X

t=2

A(q

t 1

, q

t

, )

1

C

C

C

C

A

(2)

which can also be found by the Viterbi algorithm.

A given video clip may depict multiple objects,

each moving along its own trajectory. There may

be both a person jumping and a ball rolling. How

are we to select one track over the other? The key

insight of the sentence tracker is to bias the

selec-tion of a track so that it matches an HMM. This is

done by combining the cost function of Eq. 1 with

the cost function of Eq. 2 to yield Eq. 3, which can

also be determined using the Viterbi algorithm.

This is done by forming the cross product of the

state sequence, and scores that combination.

max

j1,...,jT q1,...,qT

0

B

B

B

B

B

@

T

X

t=1

F (D

t

, j

t

)

+ B(D

t

, j

t

, q

t

, )

+

T

X

t=2

G(D

t 1

, j

t 1

, D

t

, j

t

)

+ A(q

t 1

, q

t

, )

1

C

C

C

C

C

A

(3)

While we formulated the above around a

sin-gle track and a word that contains a sinsin-gle

partic-ipant, it is straightforward to extend this so that it

supports multiple tracks and words of higher

ar-ity by forming a larger cross product. When doing

so, we generalize j

t

to denote a sequence of

de-tections from D

t

, one for each of the tracks. We

further need to generalize F so that it computes

the joint score of a sequence of detections, one for

each track, G so that it computes the joint

mea-sure of coherence between a sequence of pairs of

detections in two adjacent frames, and B so that

it computes the joint conditional log probability

of observing the feature vectors associated with

the sequence of detections selected by j

t

. When

doing this, note that Eqs. 1 and 3 maximize over

j

1

, . . . , j

T

which denotes T sequences of

detec-tion indices, rather than T individual indices.

It is further straightforward to extend the above

to support a sequence (S

1

, . . . , S

L

)

of words S

l

denoting a sentence, each of which applies to

dif-ferent subsets of the multiple tracks, again by

forming a larger cross product. When doing so, we

generalize q

t

to denote a sequence (q

t

1

, . . . , q

Lt

)

of

states q

t

l

, one for each word l in the sentence, and

use q

l

to denote the sequence (q

1l

, . . . , q

lT

)

and q

to denote the sequence (q

1

, . . . , q

L

). We further

need to generalize B so that it computes the joint

conditional log probability of observing the

fea-ture vectors for the detections in the tracks that are

assigned to the arguments of the HMM for each

word in the sentence and A so that it computes the

joint log transition probability for the HMMs for

all words in the sentence. This allows selection

of an optimal sequence of tracks that yields the

highest score for the sentential meaning of a

se-quence of words. Modeling the meaning of a

sen-tence through a sequence of words whose

mean-ings are modeled by HMMs, defines a factorial

HMM for that sentence, since the overall Markov

process for that sentence can be factored into

inde-57

“carry”

“towards” $

図 2 提案手法の概要

も既知であると仮定している.すなわち,図 1 の文について,person(p0),to-the-lef t-of (p0, p1)

,stool(p1),carried(p0, p2) のように,対応は明らかになっているものとしている.さらに,動 画の各フレームにおいて物体を特定する detector は既存のものを使用するとし,detector は物 体の領域を確信度(スコア)と共に出力するとする. 本論文での提案手法の概要を図 2 に示す4.提案手法では図に示したように,detector の出力 した物体の領域スコア F とフレーム間での領域の遷移,すなわち領域が滑らかに動いているか を表すスコア G から物体を特定する.さらに図 2 の “carry” や “towards” のように,説明文内 の単語に対応した,各フレームにおける物体の素性ベクトルを出力する HMM を学習する.な お,HMM の状態数,出力する素性の種類は単語の品詞に依存している.本論文では図 2 のよう に,複数の HMM を扱うが,これは Ghahramani ら (Ghahramani, I. Jordan, and Smyth 1997) の 提案した Factorial HMM にもとづいている.実際には,動画を説明する文内の各単語(HMM) について積を取り確率を計算している.学習は EM アルゴリズムによって行うが,詳細は割愛 する. 実験では与えられた動画について,説明文候補の中から適切な説明文を選択できるかどうか を検証する.結果はランダムに選択するベースラインよりも正解率が大きく向上しており,ま た,人手でパラメータを調整したモデルとの比較ではほとんど同じ結果が得られた.これによ り提案手法では単語の意味,すなわち対応する物体および物体の動きについて学習できている と結論づけている.この論文はテキストだけでは表現することが難しい,物体や物体の動作と いう視覚によってとらえられる概念と単語との対応の学習を可能としており,非常に興味深い 4この図は,統計数理研究所の持橋大地氏の紹介スライド(http://chasen.org/daiti-m/paper/sNLP2013-video. pdf)を参考にさせていただいた. 3

(4)

国際会議参加レポート  No. 3 Oct. 2013

内容である.しかしながら,論文そのものは恐ろしく読みづらいため,著者らの説明ページ5

本報告筆者の第 8 回 NLP 若手の会における本論文の紹介スライド6,および持橋大地氏の紹介

スライド7などを併読することをオススメする.

3

What Makes Writing Great? First Experiments on Article Quality

Prediction in the Science Journalism Domain

本論文 (Louis and Nenkova 2013) では,読む価値の高い文書の検索を容易にするため,文書の 質を自動で推定する手法を提案する.語のつづりや文法から質を予測する研究は存在する (Brill and Moore 2000; Tetreault and Chodorow 2008; Rozovskaya and Roth 2010) が,本論文では, 対象ドメインを新聞(New York Times)の科学に関係のある記事(物語やインタビュー記事な ど複数のジャンルを含む)と定め,ドメイン特有の素性を設計し,その有用性を検証している.

概要としては,New York Times の科学記事について,The Best American Writing に掲載さ

れた著者の科学記事を「良質な記事」,それ以外の記事を「典型的な記事」として分けたデータ を作成し,著者らの設計した科学記事に特有の素性を用い,SVM によりこの 2 種類の記事の分 類器を構築する.科学記事に特有の素性は,「青々とした芝生」のように何らかのイメージを想 起させるかという点や,独創的な表現が使われているかなど,6 つの観点を示し,それぞれに ついての素性を設計している.実験では「良質な記事」と「典型的な記事」の分類精度を検証 しており,既存研究で提案されている素性よりも精度が向上したことを示している. この論文は文書の質や面白さに貢献する要素について,心理言語学についても参照するなど 広く調査している.また,各素性について,分類すべき 2 つのデータで有意に差があるか,す なわち,分類に貢献しそうかどうかを検証しており,論文として非常に丁寧に書かれている印 象を受ける.反面,素性別では bag of words が最も精度の高い結果となっている点について の分析など,実験結果への考察があまいように感じられる.さらに,今回提案した素性には, coherence など,談話的な特徴を扱えるものが含まれていない.著者らは昨年の EMNLP におい て “A coherence model based on syntactic patterns”(Louis and Nenkova 2012) のタイトルで発 表しているので,その辺りに取り組んだ結果が待たれる.

5http://haonanyu.com/research/acl2013/

6http://yans.anlp.jp/symposium/2013/files/takase.pdf 7http://chasen.org/daiti-m/paper/sNLP2013-video.pdf

(5)

4

おわりに

本報告の筆者は数えるほどしか国際会議に参加していないが,ACL では特に,質の高い研究 発表を聞く機会にめぐまれ,また,発表の質疑を通して自分では見落としていた観点に気づか されるなど,非常に刺激的な経験ができた.月並みな言葉かもしれないが,研究発表の場に参 加する重要性を強く印象づけられる.しかしこのような心持ちになるのは一度体験してこそと いう気も有り,個人的には,多くの学生が研究発表および交流の場に積極的に参加することを 願っている.

謝辞

本稿を執筆する機会を与えていただきました言語処理学会に感謝いたします.TACL の採択 率についての報告は,国立情報学研究所の原忠義氏に情報を提供していただきました.ありが とうございます.また,本稿を執筆する上で,第 5 回最先端 NLP 勉強会における持橋大地氏 の発表は大変参考になりました.発表資料中の図を使用することについても快く許諾いただき, 深く感謝いたします.

参考文献

Brill, E. and Moore, R. C. (2000). “An improved error model for noisy channel spelling cor-rection.” In Proceedings of the 38th Annual Meeting of the Association for Computational Linguistics, pp. 286–293. Associationg for Conmputational Linguistics.

Ghahramani, Z., I. Jordan, M., and Smyth, P. (1997). “Factorial Hidden Markov Models.” In Machine Learning. MIT Press.

Louis, A. and Nenkova, A. (2012). “A coherence model based on syntactic patterns.” In Pro-ceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, EMNLP-CoNLL ’12, pp. 1157–1168 Strouds-burg, PA, USA. Association for Computational Linguistics.

Louis, A. and Nenkova, A. (2013). “What Makes Writing Great? First Experiments on Article Quality Prediction in the Science Journalism Domain.” In Transactions of Association for Computational Linguistics. Association for Computational Linguistics.

Rozovskaya, A. and Roth, D. (2010). “Generating confusion sets for context-sensitive error cor-rection.” In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, EMNLP ’10, pp. 961–970 Stroudsburg, PA, USA. Association for Computational

(6)

国際会議参加レポート  No. 3 Oct. 2013

Linguistics.

Tetreault, J. R. and Chodorow, M. (2008). “The ups and downs of preposition error detection in ESL writing.” In Proceedings of the 22nd International Conference on Computational Linguistics - Volume 1, COLING ’08, pp. 865–872 Stroudsburg, PA, USA. Association for Computational Linguistics.

Yamato, J., Ohya, J., and Ishii, K. (1992). “Recognizing Human Action in Time-Sequential Images using Hidden Markov Model.” In IEEE Computer Society Conference on Computer Vision and Pattern Recognition.

Yu, H. and Siskind, J. M. (2013). “Grounded Language Learning from Video Described with Sentences.” In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 53–63 Sofia, Bulgaria. Association for Computa-tional Linguistics.

略歴

 高瀬 翔:2012 年東北大学工学部情報知能システム総合学科卒業.同年,同大学 大学院情報科学研究科博士前期課程に進学,現在に至る.知識獲得,情報抽 出の研究に従事. (2013 年 8 月 1 日依頼) (2013 年 9 月 20 日受付) 6

図 1 本論文の目的とする学習結果の例 項)が動画内のどの物体(領域)に対応するかについて,HMM を用いた教師無し学習を行う. 図 1 にこの論文で入力としている動画の 1 フレームと,その説明文の例を示す 3 .なお,図 1 で は動画内でのどれが物体か既に特定されているが,実際の入力にはこの情報は含まれていない. 本論文はこのような動画とその説明文の集合を訓練事例とし,動画内での物体の特定,および 図 1 下部に示したような物体と各単語の引数との対応を学習する. 本論文ではまず,動画内の各フレームにお
図 2 提案手法の概要

参照

関連したドキュメント

Keywords: nonparametric regression; α-mixing dependence; adaptive estima- tion; wavelet methods; rates of convergence.. Classification:

The usual progression has been to first study the so-called three point problem, when α [ u ] = αu ( η ) , with η ∈ ( 0, 1 ) and α ≥ 0 is suitably bounded above, then to

These allow us to con- struct, in this paper, a Randers, Kropina and Matsumoto space of second order and also to give the L-dual of these special Finsler spaces of order two,

In order to prove these theorems, we need rather technical results on local uniqueness and nonuniqueness (and existence, as well) of solutions to the initial value problem for

Keywords: continuous time random walk, Brownian motion, collision time, skew Young tableaux, tandem queue.. AMS 2000 Subject Classification: Primary:

Then, we prove the model admits periodic traveling wave solutions connect- ing this periodic steady state to the uniform steady state u = 1 by applying center manifold reduction and

Pi˜nar gave an unified approach to the orthogonality of the generalized Laguerre polynomials {L (α) n } n≥0 , for any real value of the parameter α, by proving their orthogonality

COVERING PROPERTIES OF MEROMORPHIC FUNCTIONS 581 In this section we consider Euclidean triangles ∆ with sides a, b, c and angles α, β, γ opposite to these sides.. Then (57) implies