• 検索結果がありません。

性格特性を表現するエージェントジェスチャの生成

N/A
N/A
Protected

Academic year: 2021

シェア "性格特性を表現するエージェントジェスチャの生成"

Copied!
12
0
0

読み込み中.... (全文を見る)

全文

(1)Vol.23 No.2, 2021. 原著論文. 性格特性を表現するエージェントジェスチャの生成 中野 有紀子 ∗1 大山 真央 ∗1 二瓶 芙巳雄 ∗1 東中 竜一郎 ∗2 石井 亮 ∗2  Generating Agent’s Gestures that Express Personality Traits Yukiko Nakano∗1, Mao Ooyama∗1, Fumio Nihei∗1, Ryuichiro Higashinaka∗2, and Ryo Ishii∗2. Abstract – In this study, first, we analyze the relationship between personality traits and the expressivity of hand gestures in dyad interaction. Second, based on the analysis results, we propose a method for agents’ gesture generation that can express their personality traits. Our user study reveals that expected personality traits can be perceived from the agent’s animation generated by our proposed method. Especially for extroversion and emotional instability, agent gestures generated based on our method successfully gave the expected impression to the human subjects.. Keywords : hand gesture, personality traits, gesture generation, expressivity, human perception. 1.. 強さなど)を提案し [30] ,それらを適切に調整すること. はじめに. により,ユーザはエージェントに対して特定の性格特. 発話に伴うハンドジェスチャ(以下,ジェスチャ)は,. 性を感じ取ることができると報告している [35] .しか. 発話中の強調点を示し,また,その意味を補足する機. し,これらの研究では,人間同士のコミュニケーショ. 能を持つため [6] ,対面コミュニケーションにおいて重. ン行動は分析しておらず,人のジェスチャにおいて,. 要な役割を担う. [19]. .一方,ジェスチャ表現は個人差が. 大きく,話者によってその動作特性は異なる. [23]. どのようなパラメータがどのような性格特性とより強. .し. い相関を持つのかは明らかになっていない.本研究で. たがって,ジェスチャは話者の個性を表現するという. は,表現力パラメータを用いて人間のジェスチャを分. 側面も有する.人対エージェントのコミュニケーショ. 析し,その結果に基づきジェスチャを決定する.これ. ンにおいても,エージェントが個性を表現することに. により,人間のコミュニケーション行動に基礎を置く. より,ユーザの反応に影響を与えることがわかってい. エージェントジェスチャの性格特性表現手法を提案す. る. [32]. .したがって,ジェスチャを通して会話エージェ. ントの個性を表現することは,重要な研究課題である. 本研究では,会話エージェントの個性として,Big-5 性格特性に着目する.Big-5 モデルは,心理学のみな らず,幅広い分野で用いられている.人の発話中の非 言語行動から性格特性を推定する研究や [3] [29] ,エー ジェントジェスチャにおける性格特性の印象評価の研 究 [35] においても Big-5 モデルが採用されている.こ れらの研究は,人同士の対面コミュニケーションにお いても,また Human-Agent Interaction(HAI)にお いても,性格特性は重要,かつ十分に体系化された個 性の 1 つであることを示している. そこで,本研究では,ジェスチャと性格特性の関係 に焦点を当て,設定された性格特性に応じて会話エー ジェントのジェスチャ表現を決定する手法を提案する. 従来研究では,個性を表現するための数種類のジェス チャの表現力パラメータ(時間的/空間的広がり,力 *1:成蹊大学 理工学部 *2:日本電信電話株式会社 NTT メディアインテリジェンス研究所 *1:Faculty of Science and Technology, Seikei University *2:NTT Media Intelligence Laboratories, NTT Corporation. ((19 9 )). る.具体的には以下の 3 点に取り組む.. • まず,人対人の会話コーパスを対象に,表現力パ ラメータ [30] を用いてジェスチャを分析し,話者 の性格特性によって,パラメータの値に違いがあ ることを示す. • この分析結果に基づき,性格特性を表現するエー ジェントジェスチャの生成手法を提案する. • 提案手法により生成されたエージェントアニメー ションから,期待した性格特性を感じ取ることが できるかどうかをユーザスタディにより検証する. 本論文の構成を次に示す.まず 2. 章において,本 研究に関連する取り組みを俯瞰する.我々が使用する 二者間対話のコーパスを 3. 章で説明し,そのコーパ スを分析することで実際の人の振舞いと性格特性に基 づいた,ジェスチャパラメタとその値を調査する(4. 章).そして 5. 章では,明らかとなったジェスチャパ ラメタの値に基づいたジェスチャのアニメーションを 作成し,ジェスチャアニメーションを視聴することで 感じる性格の印象を評価する.最後に,6. 章において 総括する.. 143 153.

(2) ヒューマンインタフェース学会論文誌 Vol.23, No.2, 2021. 2. 2. 1. の関連性については多く調査がなされており,外向性. 関連研究. の指標値とハンドジェスチャの発生頻度に正の相関が あることが明らかにされている [8], [12], [20], [25], [34] .ま. ハンドジェスチャの生成技術. 魅力的な会話エージェントやロボットを実現するた. た,開放性,誠実性,調和性の指標値とハンドジェス. めには,人間らしいスムーズで自然な動作を付与する. チャの種別(図像的,ビートなど)の表出頻度に関係. 必要がある.対話エージェントやロボットに自然なハ. 性があることが示されている [14] .. ンドジェスチャを行わせるために,発話音声やテキス. このように,人間の動作と性格特性とは強く関連す. トの情報を入力として,ハンドジェスチャの種類や形. るため,対話エージェントの動作を制御する上でも,. 状,あるいはハンドジェスチャの動作パラメータ(軌. 対話エージェントに付与された性格特性に応じて動作. 跡,速度など)を自動生成する研究は既に数多く行わ. を適切に制御することが必要であると考えられる.こ. れている.. の考えの妥当性の検証として,人は,対話エージェン. ハンドジェスチャの種類や形状を生成する研究では,. トの動作から性格特性の違いを知覚することができ. による分. るかを調査した研究がある [27], [35], [38] .その結果,前. 類に基づき,ビート (beat),図像的 (iconic),隠喩的. 述したような性格特性に応じた人の動作を,会話エー. (metaphoric) などのハンドジェスチャの種別をラベル として推定 [7], [14], [16], [26] したり,さらに,それらのハ ンドジェスチャがどのような形状で表現されるかを推 定 [28] する試みが行われている.これらの推定結果を 用いて,対話エージェントやロボットのハンドジェス チャを制御するためには,ハンドジェスチャの種類や 形状に対応する,実際の動作パラメータを設定する必 要がある. ハンドジェスチャの動作パラメータを直接的に生成 する研究では,主に音声やテキストを入力として,フ レーム毎に 3 次元的な手・腕の関節位置を推定する試 みがなされている [1], [4], [5], [9]∼[11], [13], [18], [21], [36], [39] . このように,発話音声やテキストに応じた自然な ハンドジェスチャの動作を自動生成することが可能に なってきた.しかしながら,これらの生成技術では, 対話エージェントやロボットに付与された性格特性を 考慮した動作の生成は行われていない.. ジェントに行わせることで,人間が対話エージェント. 発話音声やテキストに応じて,McNeil. 2. 2. [23]. に対して異なる性格特性を知覚できることを明らかに した.この結果は,対話エージェントの動作生成にお いても,対話エージェントに付与された性格特性に合 わせた適切な動作を生成することが望ましいことを示 唆するものである. このような背景から,より魅力的で人間らしい会話 エージェントやロボットを実現するために,会話エー ジェントやロボットに設定された性格特性に適した動 作をすることが望ましいと考えられる.このような 性格特性を反映したハンドジェスチャを生成するため の試みとして,前節にて紹介したハンドジェスチャの 種別ラベルの推定において,テキストに加えて性格特 性情報を入力として,性格特性に応じたハンドジェス チャの種別ラベルを推定する試みが行われている [14] . しかしながら,前述したように,これらの推定結果を 用いて,対話エージェントやロボットのハンドジェス チャを制御するためには,ハンドジェスチャの種類や. ハンドジェスチャと性格特性. 魅力的な会話エージェントやロボットを実現するた めには,人間らしいスムーズで自然な動作を実現する. 形状に対応する,実際の動作パラメータを設定する必 要がある.. だけではなく,会話エージェントやロボットに付与さ. 以上をまとめると Big-5 と人間の動作の大まかな傾. れた性格特性や,気分や感情を適切に表現することが. 向を分析した研究や,人間の性格特性の情報からハ. 重要であると考えられている. [2], [22], [24], [31], [37]. .ここ. ンドジェスチャの種別を推定する研究は行われている. では,特に人の性格特性と対話での動作の関係性と,. が,会話エージェントの性格特性に応じて動作のパラ. 会話エージェントにおける性格特性を反映した動作生. メータをどのように制御するべきかは明らかとなって. 成に関する従来研究について述べる.. いない.. 対話における人の動作は,個人の性格特性と非常に関. これに対して,本研究は,人間のハンドジェスチャ. 連が深いことが知られている.個人の性格特性を測る指. の詳細な動作パラメータと性格特性との関連を分析し,. 標として Big-5 モデルが広く知られており,心理学分野. 会話エージェントに付与された性格特性に応じて,ハ. で,Big-5 と対話における動作の関連性について多くの. ンドジェスチャの動作パラメータをどのように制御す. 研究がなされている.特に,ハンドジェスチャについて. べきかについての具体的,かつ詳細な方式を提案する.. は,動作の振幅,広がり,向き,滑らかさ,流暢さなど の多様な要素が,個人の性格特性を表現する主要な指標 であることが示されている [8], [12], [20], [25], [34], [35], [38] . また,Big-5 の内,外向性の指標とハンドジェスチャ 144 154. ( 20 10 ). 3.. コーパスの整備. 2 名の参加者が対面状況において,ジェスチャを交 えながら会話を行う様子を記録したデータ [14] を分析.

(3) 性格特性を表現するエージェントジェスチャの生成. 表 1 6 次元のジェスチャ表現力パラメータ Table 1 6-dimensional gesture expressivity parameters. 表現力パラメタ名 空間的広がり 時間的広がり 力強さ 流暢性 図1. コーパスに含まれる対話シーンの例. Fig. 1 Example scene of the dyad interaction corpus. 繰り返し 総合的活動性. 対象として使用する.図 1 に実験の様子を示す.. を構成する 6 つの次元を表 1 に示す.. 実験参加者は計 24 人(男性 14 名,女性 10 名),平 均年齢は 32.4 歳(S.D.=8.5)である.参加者が取り組 んだタスクは, 「トムとジェリー」のアニメーション動 画を視聴した後,対話相手にその内容を 10 分以内で 説明することである.タスクに使用したアニメーショ ン動画はいずれの参加者も視聴したことはないもので あった.本研究では,各参加者の 1 セッションの説明 対話から取得された合計 240 分の長さの分析コーパ スを使用する.分析コーパスには,発話,うなずき, ジェスチャの区間,および参加者ごとの Big-5 性格特 性がアノテーションされている.コーパスについての 詳細は [14], [15] に記述されている. 会話参加者の Big-5 性格特性を評価するために,会 話参加者の様子を記録した映像を 10 名の外部観察者 が視聴し.和田 [40] の提案した 60 項目について,1∼. 7 点のリッカート尺度で回答した.これにより,開放 性(O),誠実性(C),外向性(E),調和性(A),情 緒不安定性(N)の 5 つの次元についての評価を行っ た.各次元の評定値は,12 項目の質問項目の回答結果 に従って 1∼7 点で算出される.取得された 10 名の観 察者の評定値の平均値を各参加者の評価値とした. また,各参加者の動画を姿勢推定ツール OpenPose 1 により処理し,ジェスチャ区間における動作データを 取得した.姿勢情報は,動画のフレームごとに推定さ れる身体の各関節の 2 次元座標である.本研究では, 両肩と両手首の計 4 つの関節の姿勢情報を分析対象と する. 4.. 定義 動きの大きさに関する指標(例:どれ だけの空間領域を使うか) 動き時間的指標(例:動きのスピード, 継続長) 動きの動的な特徴(例:弱い・リラッ クスした動き対強い・緊張した動き) 動きの円滑さと連続性(例:円滑・優 雅な動き対唐突・ぎくしゃくした動き) 特定の動きのリズムに乗った繰り返し 動きの量に関する指標(例:頻度). 性格特性とジェスチャの関連. Pelachaud [30] はジェスチャによる感情表現を,こ れら 6 つの次元を用いて記述しており,Rehm ら [33] は,表現力に着目し,文化によるジェスチャの様態の 違いを分析している.これらの研究から,ジェスチャ の表現力は,ジェスチャの感情や文化的特徴を捉える うえで有用であることが実証されているため,性格特 性の分析にも有用であると考えられる. しかし,Pelachaud [30] により提案された 6 次元は, 概念的な定義にとどまっており,定量的な指標にはなっ ていない.そのため,各次元を定量化し,表現力をパ ラメータ化する方法が必要である. 4. 1 表現力パラメータ 本研究では,ジェスチャの表現力についての従来研 究 [30] での議論を発展させ,これを定式化することに より,定量的に分析・評価する方法を提案する.以下 の式により表現力の各次元を定式化した. 4. 1. 1 空間的広がり 空間的広がりはジェスチャの大きさとして定義した. ジェスチャの x 軸方向の大きさ Spatialx は,各ジェス チャの時間区間において,両手首間の距離を肩幅で正 規化した値をフレーム毎に求め,その最大値とする. y 軸方向のジェスチャの大きさ Spatialy は,各ジェス チャ区間における右手首と右肩との距離の最大値とし て定義した.具体的には次の式により算出した 2 .. Spatialx = Spatialy =. 本章では,整備したコーパスを分析し,性格特性と. max (. LWtx − RWtx ) LStx − RStx. max (. RWty − RSty ) C scale. t=0,1,...,n. t=0,1,...,n. ジェスチャの様態に関連性が認められるかどうかを調. ここで,LWtx ,LWty はジェスチャ区間内の時刻 t. 査する.本研究では,ジェスチャの様態を表現するた. における,左手首の x, y 座標を,また RW, LS, RS. めに,ジェスチャの表現力 (Expressivity) に着目する.. はそれぞれ,右手首,左肩,右肩を意味する.C scale. Pelachaud. [30]. により提案されたジェスチャの表現力. は映像上の参加者の大きさを正規化するための値であ 2:本研究で用いたコーパスでは,Spatialx が 0.1 異なると,手のひ ら約 1 つ分,ジェスチャの幅が異なっていた.. 1:OpenPose:https://github.com/CMU-PerceptualComputing-Lab/openpose. ( 21 11 ). 145 155.

(4) ヒューマンインタフェース学会論文誌 Vol.23, No.2, 2021. ∑3. り,式 i=0 (N eckiy − N oseyi )/3 により定義される. N eckiy と N oseyi はそれぞれ,時刻 i における首と鼻. 表2. の y 座標である.. Table 2 Number of subjects of high and low score groups for each Big-5 indicator. 4. 1. 2 時間的広がり 時間的広がりはジェスチャの速度として定義した. x 方向の速度 Temporalx は右手首の x 座標の 1 秒間 の変化量(移動距離),y 方向の速度 Temporaly は同 じく右手首の y 座標の 1 秒間の変化量(移動距離)と 定義した.具体的には次の式により算出した. axis RWtaxis − RWt−1 , axis = {x, y} C scale n ∑ C time Temporalx = Temporalxt · n−1 t=1. Temporalaxis = t. Temporaly =. n ∑. Temporalyt ·. t=1. 各性格特性因子における高群と低群の被験 者数 (N).スコアの平均 (AV),標準偏差 (SD).. 性格特性因子 調和性 開放性 外向性 情緒不安定性 誠実性. 4. 2. 高スコア群 N   AV   SD 12 4.72 0.15 13 4.75 0.35 13 5.02 0.41 13 3.71 0.27 12 4.51 0.31. 低スコア群 N   AV   SD 12 4.06 0.22 11 3.65 0.50 11 3.47 0.61 11 2.96 0.18 12 3.52 0.47. 分析. 発話者の性格特性によってジェスチャの様態が異な るのかどうかを調べるために,性格特性因子のスコア と表現力パラメータの値との関連を分析する.. C time n−1. まずコーパスに収録された 24 名の実験参加者を,各 性格特性因子のスコアに基づき 2 群に分けた.性格特. ここで axis には x か y のいずれかが指定される.. 性因子ごとに,平均値より高いスコアの参加者群を高. また,C time は,動画の fps の値(29.97)である.. スコア群 (以降,高群) とし,一方,平均値以下のスコ. 4. 1. 3 力強さ 力強さはジェスチャの加速度として定義した.ジェ スチャの時間的広がりとして定義した速度の値を用い て,x 方向の加速度 Powerx と y 方向の加速度 Powery をそれぞれ次の式により算出した.. アの参加者群を低スコア群 (以降,低群) とした.表. Poweraxis = Temporalaxis − Temporalaxis t t t−1 , axis = {x, y} Powerx = Powery =. n ∑ t=2 n ∑. Powerxt ·. C time n−2. Poweryt ·. C time n−2. t=2. 4. 1. 4 流暢性 ジェスチャの流暢性は手首の移動の加加速度として 定義した.ジェスチャの力強さとして定義した加速度 の値を用いて,x 方向の加加速度 Fluidityx と y 方向 の加加速度 Fluidityy を次の式により算出した. Fluidityaxis = Poweraxis − Poweraxis t t t−1 , axis = {x, y} Fluidityx =. n ∑. Fluidityxt ·. C time n−3. Fluidityyt ·. C time n−3. t=3. Fluidityy =. n ∑ t=3. 4. 1. 5 総合的活動性 総合的活動性 (OverallActivity) はジェスチャの頻 度として定義した.ジェスチャの頻度は,各参加者の 1 会話中のジェスチャ区間数とした. 146 156. ( 22 12 ). 2 に各性格特性因子における,高群と低群それぞれの 被験者の数,スコアの平均値,標準偏差を示す. 次に,分析コーパスから得られた,ジェスチャ区 間の動作データを用いて,前節で定義した 9 種類の 表現力パラメータ (Spatialx , Spatialy , Temporalx , Temporaly , Powerx , Powery , Fluidityx , Fluidityy , OverallActivity) を算出し,5 つの性格特性における 高群と低群の平均値を比較した.平均値の有意差検定 には t 検定を用い,その結果を表 3 に示す.また,高 群と低群の間に統計的な有意差が見られた場合には, 表 4 において,それぞれの平均値が示されている. 表 3 に基づき,性格特性因子ごとの検定の結果につ いて,以下に議論する. • 調 和 性: 表 3 よ り,Spatialy ,Temporalx , Powerx ,Powery ,において統計的な有意差が見 られた.表 4 において,これらの表現力パラメー タについて各群の平均値を見てみると,調和性 が高い参加者は低い参加者に比べてジェスチャ の縦幅 Spatialy は大きく (高群:1.358,低群: 1.280),横方向の速度 Temporalx も速い (高群: 0.258,低群:0.217) ことがわかる.また,調和 性高群は低群に比べて縦・横方向ともに大きな 加速度で動作している (Powerx   調和性高群: 2.361,低群:1.573; Powery   調和性高群: 3.533,低群:2.539). • 開放性:高群,低群の表現力パラメタの平均値に おいて有意差は確認できなかった. • 外向性: 表 3 と表 4 から,外向性高群は低群に比 べジェスチャの横幅 Spatialx が大きく (外向性高.

(5) 性格特性を表現するエージェントジェスチャの生成. 表3. 各性格特性因子における高・低スコア群間での表現力パラメータの有意差検定 (t-検定)の結果. Table 3 Results of t-test of expressivity parameters; comparing high and low score groups for each personality trait indicator. Spatialx Spatialy Temporalx Temporaly Powerx Powery Fluidityx Fluidityy OverallActivity. 調和性 t(3142) = 1.81 t(3142) = 3.58** t(3142) = 2.44* t(3142) = 0.51 t(3142) = 1.98* t(3142) = 2.02* t(3142) = 1.68 t(3142) = 0.88 t(22) = 0.24. 開放性 t(3142) = 1.08 t(3142) = -1.41 t(3142) = 0.48 t(3142) = 1.13 t(3142) = -1.51 t(3142) = -0.56 t(3142) = -1.59 t(3142) = -1.66 t(22) = 1.68. 外向性 t(3142) = 4.69** t(3142) = -0.67 t(3142) = 1.98* t(3142) = 2.23* t(3142) = 0.70 t(3142) = 1.19 t(3142) = 0.94 t(3142) = 0.73 t(22) = 3.33**. 情緒不安定性 t(3142) = -3.66** t(3142) = 7.04** t(3142) = 0.34 t(3142) = -0.86 t(3142) = 0.95 t(3142) = 0.07 t(3142) = 2.15* t(3142) = 1.16 t(22) = -0.66. 誠実性 t(3142) = -0.03 t(3142) = 4.04** t(3142) = 0.34 t(3142) = 0.26 t(3142) = 0.25 t(3142) = 1.06 t(3142) = 0.38 t(3142) = -0.27 t(22) = 0.58. 表 4 各性格特性因子における,高スコア群と低スコア群の表現力パラメタの値. / 区切りで左の値は高スコア群の平均値を,右の値は低スコア群の平均値を示す.統 計的有意差がない表現力パラメタについては,全被験者の平均値を掲載する.. Table 4 Mean values of expressivity parameters for high and low score groups in each personality trait indicator. Spatialx Spatialy Temporalx Temporaly Powerx Powery Fluidityx Fluidityy OverallActivity. 調和性 1.647 1.358 / 1.280 0.258 / 0.217 0.351 2.361 / 1.573 3.533 / 2.539 96.949 133.166 131.0. 外向性 1.692 / 1.541 1.32 0.249 / 0.213 0.368 / 0.311 1.978 3.05 96.949 133.166 169.1/ 86.00. y. 低群:0.213; Temporal 外向性高群:0.368,低 群:0.311),また総合的活性度の指標であるジェ スチャの回数においても有意差があった (高群:. 169.1,低群:86.0).以上まとめると,外向性が 高い参加者のジェスチャは,横幅が大きく,縦・ 横方向に速く動作するだけでなく,ジェスチャの 回数自体も多いことが明らかになった. • 情緒不安定性:表 3 より,Spatialx ,Spatialy , Fluidityx において統計的な有意差がみられた.ま た,表 4 から,情緒不安定性が高い参加者のジェ スチャは,低い参加者に比べてジェスチャの横幅 Spatialx は小さいが (情緒不安定性高群:1.593,低 群:1.701),縦幅 Spatialy は大きく (高群:1.396, 低群:1.243),横方向の加加速度 Fluidityx が大き い (高群:118.596,低群:74.968) ことがわかる. これらの結果は,情緒不安定性の高い参加者は横 幅が小さいく,また,加加速度は動作のスムーズ さを表すため,加加速度が大きいということはぎ こちないジェスチャを行っていることを示唆して いる. • 誠実性:表 3 では,Spatialy のみに統計的有意差が 見られた.表 4 より,誠実性が高い参加者のジェ. ( 23 13 ). 誠実性 1.647 1.361 / 1.273 0.238 0.351 1.978 3.05 96.949 133.166 131.0. スチャは,縦幅 Spatialy が大きいことがわかる. 群:1.692,低群:1.541),縦・横方向ともに動き の速度も速い (Temporalx  外向性高群:0.249,. 情緒不安定性 1.593 / 1.701 1.396 / 1.243 0.238 0.351 1.978 3.05 118.596 / 74.968 133.166 131.0. (誠実性高群:1.361,低群:1.273). 調和性,外向性,そして誠実性においては,高スコ ア群のジェスチャの動作は低スコア群より大きく,か つ速くなる.一方,情緒不安定性では,これらの性格 特性とは反対の傾向がみられた.つまり,高スコア群 のジェスチャの幅は低スコア群に比べて小さいという 結果であった. 以上の議論より,会話時の人のジェスチャを表現力 パラメータを用いて分析した結果,性格特性によって ジェスチャの様態が異なることが明らかになった 3 . 5.. 性格特性を考慮したジェスチャアニメーション の生成と評価. 4. 章において,性格特性はジェスチャの様態に影響 を与える要因であることが明らかとなった.本章では, 前章の分析結果に基づき,エージェント動作の表現力 3:分析コーパスには,ジェスチャ区間に加え,ジェスチャのタイプ (図像的ジェスチャ,暗喩的ジェスチャ,ビートジェスチャ等)も アノテーションされているので,より詳細な分析として,ジェス チャタイプごとにも同様の分析を行った.その結果,これらの主要 なジェスチャタイプにおいては,複数の性格特性において,1 つ以 上の表現力パラメータについて高スコア群と低スコア群の間に有意 差がみられた.この結果から,主要なジェスチャタイプ全てにおい て,性格特性による影響があると言えるため,本研究では,すべて のジェスチャ区間のデータをまとめて分析した結果を示す.一方, 有意差がみられた表現力パラメータがジェスチャタイプによって異 なる場合もあったため,ジェスチャタイプと性格特性との関係をよ り詳細に分析することは将来課題である.. 147 157.

(6) ヒューマンインタフェース学会論文誌 Vol.23, No.2, 2021. パラメータを変化させることにより,性格特性を考慮. Powerx f ps2 Powery Speedy (t) = Temporaly + t f ps2. したジェスチャアニメーションを作成する.さらにそ. Speedx (t) = Temporalx + t. れをユーザスタディにおいて,被験者に視聴してもら い,エージェントアニメーションから性格特性を感じ とることができるかどうかを検証する.. (3) (4). 以降の分析では,4. 章において明らかとなった,高. ここで Temporalx ,Temporaly は時間的広がり,. スコア群・低スコア群の表現力パラメタ間に有意な差. Powerx ,Powery は力強さの項であり,それぞれ上で 説明した方法で表 4 より得る. 円形/楕円形のジェスチャでは,手の z 座標は変化 させない.また式 1 と 2 は右手を動作させるための式 である.左手の動作生成には,式 1 の符号を逆転させ た式を使用する. 以上,これらの式に人の動作分析によって得られた 4 つの表現力パラメータ (Spatial, Temporal, Power, Fluidity) の値を適用することにより,ジェスチャ動 作を性格特性に応じて変化させることができる.しか し,人間の動きデータをそのままアニメーションキャ ラクタの動作制御に用いると,動きが微細でユーザが 表現の違い気づきにくいことがわかっている.そこで, 表現をやや誇張するために,高スコア群と低スコア群 で有意差のあった表現力パラメータに対して,その差 をより顕著にするために強調係数による重みをかけ た.例えば,外向性高の性格特性を表現する際には, Spatialx ,Temporalx ,Temporaly に強調係数がかけ られ,式 1 においては,Spatialx の代わりに,以下の 式で求める e Spatialx が用いられる.. が確認できた性格特性因子のみを対象とする.従って 開放性は分析対象から除外する.. 5. 1. 動作定義. 4. 章の結果に基づいて,エージェントジェスチャを 生成するために,4. 1 節で定式化した 4 つの表現力パ ラメータ (Spatial, Temporal, Power, Fluidity) を用 い,ジェスチャ動作を定義した.実験では,代表的な ジェスチャタイプである [23] ,物の形や大きさを表す 図像的ジェスチャと発話のリズムをとるビートジェス チャを取り上げ,図像的ジェスチャについては,物の 形を表す単純かつ典型的な形態 [17] である,四角形, 円形,線形を表現するジェスチャを作成した.以降で は,性格特性による影響を考慮可能なジェスチャ動作 の作成方法を説明する. 5. 1. 1 図像的ジェスチャ:円形 次の式に従い手首の座標を移動させることで,円形 /楕円形のジェスチャを作成した. x RWristx t = Spatial · sin(. RWristyt. t Fluidityx ) + Rand( ) x Speed (t) f ps3 (1). Fluidityy t ) + Rand( ) = Spatial · cos( y Speed (t) f ps3 (2). RWristxt は時刻 t における右手首の x 座標を,RWristyt は y 座標を示す.Spatialx は x 軸方向の,Spatialy は y 軸方向の空間的広がりであり,表 4 に示す値が使用 される.具体的には,外向性高の性格特性を表現する ジェスチャを作成する場合には,高スコア群の平均値 1.692 が Spatialx の値として用いられ,外向性低の性 格特性を表現する場合には低スコア群の平均値 1.541 が Spatialx の値となる.なお,高スコア群と低スコア 群に有意差がなかった表現力パラメータについては, 全会話参加者の平均値を使用する.表 4 において,2 つの値の表記(高スコア群と低スコア群の平均値が スラッシュ(/)で区切られている)がない場合がそ れにあたる.式 1 と 2 における Fluidityx ,Fluidityy の値も同様の方法で決定される.なお,f ps はフレー ムレートの値,Rand(v) は,0 から v の範囲の乱数で ある. さらに,Speedx (t),Speedy (t) は時刻 t における x 軸,および y 軸方向の動作速度を意味し,以下の式に より定義される. 148 158. e Spatialx = Spatialx · Exag. y. ( 24 14 ). ここで,Exag は強調係数を示す.強調される表現力 パラメータにおいて,値の大きい方には Exag > 1.0, 値の小さい方には Exag < 1.0 を設定する.例えば, 円形のジェスチャにおいて外向性高を表現するには,. Spatialx の値,1.692 に 1 より大きい強調係数がかけ られ.外向性低を表現するには,Spatialx の値,1.541 に 1 より小さい強調係数がかけられる.強調係数は, 以下に説明する四角形,線形,ビートジェスチャの動 作定義の式にも同様に適用される. 5. 1. 2 図像的ジェスチャ:四角形 四角を描く動きは,最初に両手を外側に水平に伸ば し,その後,垂直に下ろし,最後に体の中心に寄せる という3つのフェーズから構成される.この動きを作 成するために,以下の式により手首の座標を算出した.. RWristx t.  Fluidityx x  t · Speed (t) + Rand( f ps3 ) = RW ristx p  −(t · Speedx (t) + Rand( Fluidityx )) f ps3.  y  RW rist0 y y )) RWristt = −(t · Speedy (t) + Rand( Fluidity f ps3  RW risty q. t<p p<t<q q<t (5) t<p p<t<q q<t (6).

(7) 性格特性を表現するエージェントジェスチャの生成. 時間 p から q で,手を垂直方向に下ろす.したがっ. 除するため,音声はなく,ジェスチャと同期して字幕の. て,式 5 において,t < p のとき,1つ目の式が,q < t. 文字の色を変化させることにより,特定の単語にジェ. では,3つ目の式が適用される.また,p < t < q で. スチャが付随していることを示した.ジェスチャの作. は,x 座標は変化しない.一方,式 6 では,p < t < q. 成にはゲームエンジンである Unity を使用し,手首の. のとき,2つ目の式が適用され,それ以外の時間では,. 座標だけを 5. 1 節で定義した方法で移動させ,その他. y 座標は変化しない.Speedx (t),Speedy (t) は式 3,4 により算出される.ただし,手を体の中心に寄せる動 きの際 (式 5 の q < t の場合) には,式 3 の第 2 項に記 される加速度は加算しない. 式 5 は右手を動作させるための式であるが,この式 の符号を逆転させて左手首の座標を算出する.なお, 手の z 座標は動作させず,条件 RWristx0 < RWristxt を 満たしたとき,動作は終了する. 5. 1. 3 図像的ジェスチャ:線形 四角形や円形と同様の方法により,次の式に従い右 手首の座標を移動させることで,線の形を描画する ジェスチャを作成した.. のジョイントの動きは Inverse kinematics (IK) を使用. x. RWristxt. Fluidity = −(t · Speed (t) + Rand( ) (7) f ps3 x. このジェスチャでは,右手首の y, z 座標は動作させず, 左手は動作させない.このジェスチャは条件 RWristx0 −. RWristxt > w を満たしたとき,動作が終了する. 5. 1. 4 ビートジェスチャ 次の式に従い右手首の座標を移動させることで,ビー トジェスチャを作成した.. して生成した. 実験刺激は,調和性,外向性,情緒不安定性,誠実 性の 4 つの性格特性因子について,それぞれ 4. 2 節 の分析で得られた表現力パラメータ値を 5. 1 節で提案 した動作定義に適用して作成した.例えば,外向性に ついて高群の表現力パラメータ値を適用して作成した アニメーションを外向性高の実験刺激とし,低群のパ ラメータ値を適用して作成したアニメーションを外向 性低の実験刺激と呼ぶ.他の性格特性についても,高 と低の実験刺激を作成した.また,強調係数について は,値の大きい方のパラメータ値の強調係数を 1.5 前 後に,値の小さい方は 0.5 前後に設定した. 4. .また,. バーチャルエージェントが表出するジェスチャの頻度 は 1 実験刺激あたり 5 回とした.ただし,外向性につ いては,ジェスチャ頻度を計測した総合的活動性の表 現力パラメータにおいて有意差がみられたため,外向 性高の実験刺激におけるジェスチャ表出回数を 7 回, 外向性低の実験刺激におけるジェスチャ表出回数を 3 回とした. 以上により,実験刺激として,性格特性因子 (4) × 高/低 (2) = 8 種類 のアニメーションを作成した.こ. Fluidityy RWristyt = −(t · Speedy (t) + Rand( )) f ps3. スチャが複数個含まれている.作成した実験刺激のス. (8). √ RWristzt =. れらには,比較的単純な図像的ジェスチャとビートジェ. 2 · (t · Speedy (t) + Rand(. の例で, 「まな板」を表現する四角形を描くジェスチャ. Fluidityy 2 ) 7 · f ps3. である.(b) は同じく図像的ジェスチャの例で, 「お皿」. (9) ここで. RWristzt y. ナップショットを図 2 に示す.(a) は図像的ジェスチャ. は時刻 t における右手の z 座標であ. を表現する円形を描くジェスチャである.(c) はビー トジェスチャの例で,右手をバトンのように振り下ろ すジェスチャである.実験刺激のセリフとジェスチャ. る.Speed (t) の算出には図像的ジェスチャ作成の際. の対応の詳細については付録 1 に掲載する.. に定義した式 4 を用いる.ビートジェスチャでは,右. 5. 3 手続き 実験はブラウザ上で行われた.各ページには,1つ の性格特性について,高/低の各実験刺激へのリンク が提示され,リンクをクリックすることにより,各ア ニメーション動画を再生することができる.評価者に は,これら 2 つの動画のどちらが質問項目によりよく あてはまるかを回答してもらった.使用した質問項目 を表 5 に示す.動画は何度再生してもよいこととした. 例えば,誠実性高と誠実性低の動画をそれぞれ視聴 してもらったのち, 「いい加減な,に当てはまる動画は. 手首の x 座標は動作させず,また左手は動作させない. このジェスチャは条件 RWristy0 − RWristyt < h を満た したとき,動作が終了する.. 5. 2 実験刺激 評価者には,ホームセンターでの買い物について エージェントが語る,30 秒のアニメーションを視聴 してもらった.分析に用いたコーパスと異なるストー リーを設定したのは,提案手法が分析データのドメイ ンに依存したものではないことを確認するためである. また,エージェントの見かけによる印象が,評価に影 響を与えないようにするため,顔表情や指細部を持た ない木製人形のモデルを採用した.声による印象も排 ( 25 15 ). 4:強調係数の値は,作成したジェスチャの形によって多少変更した. しかし,1 つのジェスチャ内では,強調される全ての性格特性の全 ての表現力パラメータに同じ方法で強調係数が適用されているた め,各ジェスチャ内での一貫性は保たれている.. 149 159.

(8) ヒューマンインタフェース学会論文誌 Vol.23, No.2, 2021. 表 6 設問ごとの回答数.各性格特性において, 高群/低群/どちらでもない,が選択され た回数を示す.かっこ内は調整済み残差.* は残差分析の結果,5%水準で有意であった 項目を示す.. Table 6 Frequency of high/low/neither for each question. Numbers in parentheses indicate adjusted residual, and * indicates the items with 5% level statistical significance in residual analysis. 図 2 実験刺激の例 Fig. 2 Example of experimental stimulus. 表 5 質問項目.*は反転項目. Table 5 Question items. * denotes a reversal item. 性格特性 設問 調和性 温和な,親切な,短気*,自己中心的*, 素直な 外向的,暗い*,活動的,消極的*,地 外向性 味* 情緒不安定性 心配性,くよくよしていない*,憂鬱 な,神経質な,悲観的な 誠実性 いい加減な*,勤勉な,几帳面な,飽 きっぽい*,怠惰な*. どちらですか」や, 「勤勉な,に当てはまる動画はどち. 調和性 期待度数 温和な 親切な 短気 自己中心的 素直な 外向性 期待度数 外交的 暗い 活動的 消極的 地味 情緒不安定性 期待度数 心配性 くよくよして いない 憂鬱な 神経質な 悲観的な 誠実性 期待度数 いい加減な 勤勉な 几帳面な 飽きっぽい 怠惰な. 高 12.2 13 (0.3) 8 (-1.6) 12 (-0.1) 10 (-0.8) 18* (2.2) 高 17.6 41* (7.8) 0* (-5.9) 44* (8.8) 0* (-5.9) 3* (-4.9) 高 12.4 18 (2.1) 9 (-1.3). どちらでもない 18.0 7* (-3.7) 8* (-3.3) 29* (3.7) 34* (5.3) 12 (-2) どちらでもない 6.4 5 (-0.7) 13* (3.1) 2 (-2.1) 8 (0.8) 4 (-1.1) どちらでもない 25.2 23 (-0.7) 14* (-3.6). 低 17.8 28* (3.4) 32* (4.7) 7* (-3.6) 4* (-4.6) 18 (0.1) 低 24.0 2* (-7.1) 35* (3.6) 2* (-7.1) 40* (5.2) 41* (5.5) 低 10.4 7 (-1.3) 25* (5.7). 11 (-0.5) 14 (0.6) 10 (-0.9) 高 9.9 7 (-1.2) 13 (1.5) 19* (3.6) 7 (-1.2) 3* (-2.8). 34* (2.8) 22 (-1) 33* (2.5) どちらでもない 24.7 32* (2.4) 16* (-2.4) 12* (-4.1) 31 (2) 31 (2). 3* (-2.9) 12 (0.6) 5 (-2.1) 低 13.4 9 (-1.6) 16 (1.3) 17 (1.3) 10 (-1.2) 14 (0.2). らですか」などの質問文を提示し,質問ごとにどちら の動画がより当てはまるか,あるいはどちらにも当て はまらないかを回答してもらった.すなわち,評価者 は 2 つの映像を視聴した後に,3 つの選択肢から 1 つを 選択するタスクを実行した.これら質問項目は Big-5 性格特性の評価項目 [40] から抽出したものである.[40] では性格特性因子ごとに 12 個の質問項目が定義され ているが,本研究ではその中から性格特性因子ごとに. 5 個の質問項目のみを用いた.これは,一部の評価項 目では, 「頭の回転が速い」や「美的感覚が鋭い」のよ うな,我々が作成したジェスチャアニメーションに対 する回答が困難な質問も含まれているためである.回 答を送信すると,次の性格特性についての評価用ペー ジが提示される.なお,4 種類の性格特性の評価順序 を 5 種類準備し,各評価者にランダムに割り当てるこ とにより,評価順序による影響を排除した. 実験に参加した評価者は計 48 名である.以上の実 験より,一つの性格特性につき 240 (= 48 名 × 5 質 問項目) のデータを収集した. 150 160. ( 26 16 ). 5. 4 結果 各質問項目について,回答(高/低/どちらでもな い)の頻度を,表 6 に示す.ただし,表 5 において反 転項目となっているものは,極性が反転している質問 項目である.例えば誠実性においては,設問「勤勉な」 や「几帳面な」の質問項目で,誠実性高の実験刺激が 選択されることが望ましく,一方で「いい加減な」や 「飽きっぽい」に対しては,誠実性低の実験刺激が選 択されることが望ましい.さらに,性格特性因子ごと に得られた度数分布表に対してカイ二乗検定を実施す ることで,性格特性によるジェスチャの特徴づけが評 価者の印象に影響するか否かを調べた.その結果を表 7 に示す.表 7 より,全ての性格特性において 1%水 準で統計的有意差が確認できた. 次に,より詳細に各質問項目との関係を分析するた めに,残差分析を実施した.その結果,5%水準で有 意であったものを,表 6 中にアスタリスク (*) で示す..

(9) 性格特性を表現するエージェントジェスチャの生成. χ2 検定の結果 Table 7 Results of χ2 test 表7. 性格特性 調和性 外向性 情緒不安定性 誠実性. うることを示した.. 6.. 検定結果 χ2 (8) = 74.3, p < .01 χ2 (8) = 197.5, p < .01 χ2 (8) = 45.3, p < .01 χ2 (8) = 34.7, p < .01. おわりに. 本研究では,会話エージェントの性格特性に適応し たジェスチャの動作パラメータの生成手法の実現に取 り組んだ.人対人の会話コーパスを対象に,表現力パ ラメータを用いてジェスチャを分析し,話者の性格特. まず外向性については,ポジティブな質問項目(外向 的,活動的)における残差は全て正であり,ネガティ ブな質問項目(暗い,消極的,地味)における残差は全 て負であった.また,残差分析の結果,これらはすべ て有意であることが確認できた.すなわち外向性高の ジェスチャを表出するエージェントは,外向性が高い という印象を与えたこと,一方外向性低のジェスチャ を表出した場合には,外向性が低いという印象を与え たことが示唆される. 情緒不安定性では,情緒不安定性高のジェスチャを 表出することにより,心配性な印象を与えることがで きた.一方,情緒不安定性低のジェスチャを表出する と,くよくよしていない,憂鬱ではない,悲観的でな いといった印象を与えることができた.すなわち情緒 不安定性においては,期待した印象を評価者に与える ことに成功したといえる. 誠実性では,各質問項目に対してどちらでもない, つまりどちらの動画に対して質問項目で示された印象 を抱くかは判断できないと回答されたことが多いこと から,ジェスチャによって誠実性を印象付けることは 難しいことが示唆された.その一方で誠実性高の実験 刺激に対して,几帳面さが高く,怠惰さが低いという 印象を与えたことも明らかとなったことから,部分的 には期待した通りの結果が得られた. 調和性高の実験刺激は素直な印象を評価者に与えた. しかしその一方で調和性低の刺激に対して,温和,親 切,短気ではなく,自己中心でないといった印象,すな. 性によって,パラメータの値に違いがあることを示し た.さらに,分析結果に基づき,性格特性を表現する エージェントジェスチャの生成手法を提案した.提案 手法により生成されたエージェントアニメーションか ら,期待した性格特性を感じ取ることができることを ユーザスタディにより明らかにした.特に,Big-5 の 指標の内,外向性,情緒不安定性については,人間の ジェスチャの傾向と同様の動作をエージェントに付与 することで,エージェントに対しても性格特性が同様 に知覚された. 今回の実験では,ジェスチャの種類は限定的であっ たため,今回題材としなかったジェスチャにおいても 同様の効果があることを検証する必要がある.その中 で,強調係数についてもより詳細に調査し,どの表現 力パラメータに強調係数を用いるべきなのか,最適な 強調係数をどう決定するのかについても検討を深める 必要がある.また,ジェスチャは発話内容に依存し, 発話内容は性格特性によって異なる可能性がある.し たがって,言語と非言語の両方の側面を考慮した性格 特性の表現方法を検討することも重要である. 今後は,すでに提案されている,Big-5 性格特性を 考慮したジェスチャラベルの推定手法 [14] やジェスチャ 形状の推定技術 [28] と本研究での提案手法を統合して ゆく予定である.これにより,ジェスチャのタイプ, 形状の決定から,性格特性に応じた具体的な動作パラ メータの計算(本研究での提案)までを統合した技術 を確立することが可能になる. 謝辞. わち我々の期待とは逆の印象を評価者に与えた.その 原因として,調和性については,ジェスチャ以外の非. 本研究は JSPS 科研費 19H01120,19H04159,JST. 言語行動が印象により影響を与えている可能性が考え. AIP 日独仏 AI 研究 JPMJCR20G6,および JST,ムー. られる.例えば,表情やうなずき等,相手に同意して. ンショット型研究開発事業,JPMJMS2011 の助成を. いることを示す非言語シグナルの方が調和的である印. 受けたものです.. 象を決定づけるうえで重要な動作であり,今回のキャ ラクタアニメーションでは,これらの行動が表出され なかったために,調和的であるという印象を持たれな かった可能性がある.今後,他の非言語行動について も性格特性との関係を調べ,ジェスチャ,表情,うな ずき,視線など,総合的に表現できるよう,生成方式 を改良する必要がある. 以上,調和性以外については,バーチャルエージェ ントが表出するジェスチャの様態を操作することで, ユーザが感じ取るエージェントの性格印象を変化させ ( 27 17 ). 参考文献 [1] Chaitanya Ahuja, Shugao Ma, Louis-Philippe Morency, and Yaser Sheikh. To react or not to react: End-to-end visual pose forecasting for personalized avatar during dyadic conversations. In ICMI, page 74–84, 2019. [2] Elisabeth Andr´e, Thomas Rist, Susanne van Mulken, Martin Klesen, and Stephan Baldes. The Automated Design of Believable Dialogues for Animated Presentation Teams, page 220–255. MIT Press, Cambridge, MA, USA, 2001. 151 161.

(10) ヒューマンインタフェース学会論文誌 Vol.23, No.2, 2021. [3] Oya Aran and Daniel Gatica-Perez. One of a kind: Inferring personality impressions in meetings. In ICMI, page 11–18, 2013. [4] Jonas Beskow, Bjorn Granstrom, and David House. Visual correlates to prominence in several expressive modes. In INTERSPEECH, 2006. [5] Carlos Busso, Zhigang Deng, Michael Grimm, Ulrich Neumann, and Shrikanth Narayanan. Rigid head motion in expressive speech animation: analysis and synthesis. In Trans. ASLP, pages 1075– 1086, 2007. [6] Justine Cassell, Tim Bickmore, Lee Campbell, Hannes Vilhjalmsson, and Hao Yan. Human conversation as a system framework: Designing embodied conver- sational agents. In Justine Cassell, Joseph Sullivan, Scott Prevost and Elizabeth Churchill, editors, Embodie Conversational Agents, pages 29–63. MIT Press, 2000. [7] Chung-Cheng Chiu, Louis-Philippe, and Stacy Marsella. Predicting co-verbal gestures: A deep and temporal modeling approach. In ICMI, volume 9238, pages 152–166, 08 2015. [8] Kevin Frank. Posture & Perception in the Context of the Tonic Function Model of Structural Integration: An Introduction. IASI Yearbook, 2007. [9] Shiry Ginosar, Amir Bar, Gefen Kohavi, Caroline Chan, Andrew Owens, and Jitendra Malik. Learning individual styles of conversational gesture. In CVPR, pages 3497–3506, 2019. [10] Hans Peter Graf, Eric Cosatto, Volker Strom, and Fu Jie Huang. Visual prosody: Facial movements accompanying speech. In FG, pages 381–386, 2002. [11] Dai Hasegawa, Naoshi Kaneko, Shinichi Shirakawa, Hiroshi Sakuta, and Kazuhiko Sumi. Evaluation of Speech-to-Gesture generation using BiDirectional LSTM network. In IVA, page 79–86, 2018. [12] Katherine Isbister and Clifford Nass. Consistency of personality in interactive characters: Verbal cues, non-verbal cues, and user characteristics. J. Human-Computer Studies, 53(2):251–267, 2000. [13] C. Ishi, Daichi Machiyashiki, Ryusuke Mikata, and H. Ishiguro. A speech-driven hand gesture generation method and evaluation in android robots. IEEE Robotics and Automation Letters, 3:3757– 3764, 2018. [14] Ryo Ishii, Chaitanya Ahuja, Yukiko I. Nakano, and Louis-Philippe Morency. Impact of personality on nonverbal behavior generation. In Proceedings of the 20th ACM International Conference on Intelligent Virtual Agents, 2020. [15] Ryo Ishii, Ryuichiro Higashinaka, and Junji Tomita. Predicting nods by using dialogue acts in dialogue. In LREC, 2018. [16] Ryo Ishii, Taichi Katayama, Ryuichiro Higashinaka, and Junji Tomita. Generating body motions using spoken language in dialogue. In IVA, pages 87–92, 2018. [17] Yuki Kadono, Yutaka Takase, and Yukiko I. Nakano. Generating iconic gestures based on graphic data analysis and clustering. In HRI, pages 447–448, 2016. [18] Munhall KG, Jeffery A Jones, Daniel E Callan, Takaaki Kuratate, and Eric Vatikiotis-Bateson. Visual prosody and speech intelligibility: Head movement improves auditory speech perception. In Psychol Sci., volume 15, pages 133–137, 2004. 152 162. ( 28 18 ). [19] Mark L. Knapp, Judith A. Hall, and Terrence G. Horgan. Nonverbal Communication in Human Interaction. Wadsworth Publishing, 8 edition, 2013. [20] Mark L Knapp and Gerald R Miller. Communicator characteristics and behavior. Handbook of Interpersonal Communication, pages 103–161, 1994. [21] Taras Kucherenko, Dai Hasegawa, Gustav Eje Henter, Naoshi Kaneko, and Hedvig Kjellstr¨ om. Analyzing input and output representations for speech-driven gesture generation. In IVA, page 97–104, 2019. [22] Fran¸cois Mairesse and Marilyn Walker. PERSONAGE: Personality generation for dialogue. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pages 496–503, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [23] David McNeill. Hand and Mind: What Gestures Reveal About Thought. University Of Chicago Press, 1992. [24] Scott McQuiggan, Bradford Mott, and James Lester. Modeling self-efficacy in intelligent tutoring systems: An inductive approach. User Model. User-Adapt. Interact., 18:81–123, 02 2008. [25] Albert Mehrabian. Significance of posture and position in the communication of attitude and status relationships. Psychological Bulletin, 71(5):359–372, 1969. [26] Yukiko I. Nakano, Masashi Okamoto, Daisuke Kawahara, Qing Li, and Toyoaki Nishida. Converting text into agent animations: assigning gestures to text. In NAACL, pages 153–156, 2004. [27] Michael Neff, Yingying Wang, Rob Abbott, and Marilyn Walker. Evaluating the effect of gesture and language on personality perception in conversational agents. In IVA, pages 222–235, 2010. [28] Fumio Nihei, Yukiko I. Nakano, Ryuichiro Higashinaka, and Ryo Ishii. Determining iconic gesture forms based on entity image representation. In ICMI, pages 419–425. ACM, 2019. [29] Shogo Okada, Oya Aran, and Daniel Gatica-Perez. Personality trait classification via co-occurrent multiparty multimodal event discovery. ICMI 2015 - Proceedings of the 2015 ACM International Conference on Multimodal Interaction, pages 15–22, 2015. [30] Catherine Pelachaud. Studies on gesture expressivity for a virtual agent. Speech Communication, 51(7):630–639, 2009. [31] Paul Piwek. A flexible pragmatics-driven language generator for animated agents. In 10th Conference of the European Chapter of the Association for Computational Linguistics, Budapest, Hungary, April 2003. Association for Computational Linguistics. [32] Byron Reeves and Clifford Nass. The Media Equation: How People Treat Computers, Television, and New Media like Real People and Places. Cambridge University Press, USA, 1996. [33] Matthias Rehm, Yukiko Nakano, Elisabeth Andr´e, and Toyoaki Nishida. Culture-specific first meeting encounters between virtual agents. 8th International Conference on Intelligent Virtual Agents (IVA08), 5208 LNAI:223–236, 2008. [34] RichardLippa. The nonverbal display and judgment of extraversion, masculinity, femininity, and gender diagnosticity: a lens model analysis. J. Re-.

(11) 性格特性を表現するエージェントジェスチャの生成. search in Personality, 32(1):80–107, 1998. [35] Harrison Jesse Smith and Michael Neff. Understanding the impact of animated gesture performance on personality perceptions. ACM Trans. Graph., 36(4), July 2017. [36] Petra Wagner, Zofia Malisz, and Stefan Kopp. Gesture and speech in interaction: An overview. 57:209–232, 2014. [37] Ning Wang, W. Johnson, Richard Mayer, Paola Rizzo, Erin Shaw, and Heather Collins. The politeness effect: Pedagogical agents and learning gains. pages 686–693, 01 2005. [38] Yingying Wang, Jean E. Fox Tree, Marilyn Walker, and Michael Neff. Assessing the impact of hand motion on virtual character personality. ACM Trans. Appl. Percept., 13(2), March 2016. [39] Hani Camille Yehia, Takaaki Kuratate, and Eric Vatikiotis-Bateson. Linking facial animation, head motion and speech acoustics. 30(3):555–568, 2002. [40] 和田 さゆり. 性格特性用語を用いた big five 尺度の作 成. 心理学研究, 67(1):61–67, 1996.. 1990 年東京大学大学院教育学研究科修 士課程修了.同年,日本電信電話 (株) 入社.2002 年 MIT Media Arts & Sciences 修士課程修了.JST 社会技術研究 開発センター専門研究員,東京農工大 学大学院工学府特任准教授,成蹊大学 理工学部情報科学科准教授を経て,現 在,成蹊大学理工学部情報科学科教授. 2019 年カーネギーメロン大学客員研究 員.人との言語・非言語コミュニケー ションが可能な会話エージェントの研 究に従事.博士 (情報理工学).. 大山. 真央 2020 年成蹊大学理工学部情報科学科 卒業.. 付録 付録 1:実験刺激のセリフとジェスチャの詳細 以下に実験で用いたすべてのセリフとジェスチャの 二瓶. 内容を示す.下線が引かれた単語がジェスチャを付与. 芙巳雄. した単語であり,その後の四角カッコにジェスチャの. 2016 年成蹊大学大学院理工学研究科修 士課程修了.2019 年同大学院博士課程 修了.現在,成蹊大学特別共同研究員. マルチモーダル情報に基づくグループ 会議の分析とモデル化の研究に従事. ACM,人工知能学会各会員.博士(理 工学).. タイプと形態を示す.丸カッコで囲まれているジェス チャ対象単語は,ジェスチャの頻度が低い性格特性を 表現する場合には,ジェスチャが付与されない場合が ある. . . こんにちは。先日、ホームセンターに行って[ビー ト] きました。. 東中. なぜなら,新しい食器棚[図像:四角] を買おうと. 竜一郎. 思ったからです。. 2001 年慶應義塾大学大学院政策・メ ディア研究科修士課程,2008 年博士課 程修了.2001 年日本電信電話株式会社 入社.2020 年より,名古屋大学大学院 情報学研究科教授.NTT メディアイ ンテリジェンス研究所・NTT コミュニ ケーション科学基礎研究所客員上席特 別研究員.慶應義塾大学環境情報学部 特別招聘教授.2004 年から 2006 年ま で英国シェフィールド大学客員研究員. 質問応答システム・対話システムの研 究に従事.人工知能学会,言語処理学 会,情報処理学会,電子情報通学会各 会員.博士(学術).. 以前使っていた食器棚が壊れてしまい (水平[図像: 線形]) だったのが、傾いて不安定になってしまっ たので、(買いなおそう[ビート]) と思ったからで す。 食器棚を買うついでにお皿[図像:丸] や,まな板[図 像:四角] などキッチン用品を見て回りました。. (とても[ビート]) 充実した買い物でした。 . . (2020 年 11 月 1 日受付,2021 年 2 月 24 日再受付). 著者紹介 中野. 石井. 亮. (正会員). 有紀子. ( 29 19 ). 153 163.

(12) ヒューマンインタフェース学会論文誌 Vol.23, No.2, 2021. 2008 年東京農工大学大学院工学府情報 工学専攻修士課程修了.同年,日本電 信電話株式会社入社.現在,NTT メ ディアインテリジェンス研究所主任研 究員.2013 年京都大学大学院情報学研 究科博士後期課程修了.2011-2013 年 成蹊大学客員研究員.2019 年よりカー ネギーメロン大学客員研究員.コミュ ニケーション科学,マルチモーダルイ ンタラクションの研究に従事.ACM 15th Int. Conf. Multimodal Interaction (ICMI2014) Outstanding Paper Award,他受賞.電子情報通信学会,人 工知能学会各会員.博士(情報学). (C)NPO法人ヒューマンインタフェース学会. 154 164. ( 30 20 ).

(13)

図 1 コーパスに含まれる対話シーンの例 Fig. 1 Example scene of the dyad interaction
Table 2 Number of subjects of high and low score groups for each Big-5 indicator 性格特性因子 高スコア群 低スコア群 N   AV   SD N   AV   SD 調和性 12 4.72 0.15 12 4.06 0.22 開放性 13 4.75 0.35 11 3.65 0.50 外向性 13 5.02 0.41 11 3.47 0.61 情緒不安定性 13 3.71 0.27 11 2.96 0.18 誠実性 12 4.
Table 3 Results of t-test of expressivity parameters; comparing high and low score groups for each personality trait indicator.
表 5 質問項目. * は反転項目.
+2

参照

関連したドキュメント

Furthermore, the following analogue of Theorem 1.13 shows that though the constants in Theorem 1.19 are sharp, Simpson’s rule is asymptotically better than the trapezoidal

In the study of dynamic equations on time scales we deal with certain dynamic inequalities which provide explicit bounds on the unknown functions and their derivatives.. Most of

We proposed an additive Schwarz method based on an overlapping domain decomposition for total variation minimization.. Contrary to the existing work [10], we showed that our method

(4) The basin of attraction for each exponential attractor is the entire phase space, and in demonstrating this result we see that the semigroup of solution operators also admits

Based on these results, we first prove superconvergence at the collocation points for an in- tegral equation based on a single layer formulation that solves the exterior Neumann

Supported by the NNSF of China (Grant No. 10471065), the NSF of Education Department of Jiangsu Province (Grant No. 04KJD110001) and the Presidential Foundation of South

By using variational methods, the existence of multiple positive solutions and nonexistence results for classical non-homogeneous elliptic equation like (1.5) have been studied, see

We prove that for some form of the nonlinear term these simple modes are stable provided that their energy is large enough.. Here stable means orbitally stable as solutions of