• 検索結果がありません。

log F0 意識 しゃべり 葉の log F0 Fig. 1 1 An example of classification of substyles of rap. ' & 2. 4) m.o.v.e 5) motsu motsu (1) (2) (3) (4) (1) (2) mot

N/A
N/A
Protected

Academic year: 2021

シェア "log F0 意識 しゃべり 葉の log F0 Fig. 1 1 An example of classification of substyles of rap. ' & 2. 4) m.o.v.e 5) motsu motsu (1) (2) (3) (4) (1) (2) mot"

Copied!
6
0
0

読み込み中.... (全文を見る)

全文

(1)

IPSJ SIG Technical Report

ラップスタイル歌声合成の検討

才 野

慶 二 郎

†1

大 浦

圭 一 郎

†2

†1

†3

†2 ラップのような短時間のうちに音高などの特徴が大きく変動するスタイルの歌い方 は,それを適切に表現するための記譜法が確立されておらず,従来のように五線譜基づ く合成の仕組みではユーザが直観的にそのスタイルの歌声を再現することが難しかっ た.本稿では,ラップスタイルの歌唱のための記譜法を定義し,それを用いて HMM 歌声合成の枠組みでラップスタイルの歌声合成を行った.その結果得られた合成音声 はラップ特有のグリッサンド技法によるピッチ変動の現象を含むものになっているこ とが確認された.また,合成時に得られる対数基本周波数系列を素片接続型の歌声合 成器に与えてラップスタイルの歌声を合成することも試みた.

Rap-style Singing Voice Synthesis

Keijiro Saino,

†1

Keiichiro Oura,

†2

Makoto Tachibana,

†1

Hideki Kenmochi

†3

and Keiichi Tokuda

†2

This paper addresses rap-style singing voice synthesis. Since it has not been very clear how to write a musical score for rap-style songs, existing singing voice synthesis systems based on musical scores are not suitable for synthesiz-ing them with an intuitive input. Here a new type of musical score specialized for a rap-style is defined. An HMM-based singing voice synthesis system is used to realize an automatic synthesis of realistic rap-style singing. Glissando phenomenon which is special for the style could be found in synthesis results. It was also tried to apply pitch parameters generated from the HMMs to a sample-concatenation-based singing voice synthesis system.

1.

は じ め に

人が実際に歌を歌うことなく任意の歌詞とメロディを持った歌声を人工的に作ることので きる歌声合成技術は,楽曲制作のプロセスに新たな可能性をもたらした.それは単純に人間 の歌い手なしにボーカルトラックを作成することを可能にしたというだけではなく,ユーザ の操作次第で合成音声に非常に多様な歌唱表現を与えることが可能になことから,音楽的な 表現そのものの可能性を大きく広げた.現在,歌声合成技術は幅広くエンドユーザの利用す るところとなっており1),同時にさらなる表現ポテンシャルの向上が切望されている. 従来は,歌声合成のための入力としての譜面情報はピアノロールや五線譜のような形式で 与えることが想定されてきた.しかしながら,既存の譜面情報で適切に記述することが可能 であるかどうか不明確なジャンルやスタイルの歌声に対してはその的確な入力方法が存在 せず,合成を行うことが難しかった.そこで本稿では,音高などの特徴が短時間に激しく変 動することで知られ,特別な記譜法の確立されていないラップスタイルの歌声をユーザの 直観的な入力により合成することのできるシステムを目指し,ラップスタイル歌唱のため の特別な記譜法を提案する.歌声合成のためのアプローチとしてはルールベースのものと コーパスベースのものが考えられる.ルールベースの手法は歌唱スタイルのように個人ごと に異なる特徴を再現するためにはその都度ルールを人手で設定する必要があり,労力がかか る.一方,コーパスベースの手法であれば,適切な譜面を用意すれば自動的に元歌唱者の スタイルを再現する合成音声が得られる.そこで本稿ではコーパスベースのシステムであ るHMM歌声合成システム2)をラップスタイルの歌声合成のために使用する.さらに,素 片接続型の歌声合成システムであるVOCALOID3)にこの手法により出力された音高情報 を与えて合成することも試みる. 以下,2章でラップスタイルの歌唱について考察した上で,ラップのための特別な記譜法 を定義する.3章でHMM歌声合成システムについて述べ,4章で音声合成実験およびその 主観評価結果について記述する.5章でHMM合成の中間出力結果を素片接続型歌声合成 器へ与えた合成を行う.最後に6章で全体のまとめと今後の課題について述べる. †1 ヤマハ株式会社 研究開発センター

Corporate Research and Development Center, Yamaha Corporation †2 名古屋工業大学大学院 工学研究科

Department of Computer Science and Engineering, Nagoya Institute of Technology †3 ヤマハ株式会社 yamaha+推進室

yamaha+ Division, Yamaha Corporation

(2)

IPSJ SIG Technical Report ऩःF ਘः ൠः    ॢজॵ१থॻध ടऔोञওটॹॕଡୗभ યશऋँःऽः  ध  भর৑৓ऩ ँःऽःऩ਀ਠ 䝯䝻䝕䜱 ᵓ㐀ព㆑ しゃべり⾔葉のेअऩ ॖথॺॿش३ঙথ ওটॹॕଡୗप ৌघॊ৥નऩ意識  ॢজॵ१থॻ॑அि؞ அऽऩःभரథप ীऊोॊ 図 1 ラップサブスタイルの分類例

Fig. 1 An example of classification of substyles of rap.

2.

ラップスタイル歌唱

ラップの歌唱スタイルは歌い手や楽曲のジャンルなどによって様々であり4),画一的に定 義することは難しく,ラップと呼ばれるすべての歌唱スタイルを網羅する考察を行うことは 現実的ではない.そのため本稿では,ラップスタイルについての研究の最初のステップとし て,エイベックス・マネジメント社所属の音楽グループm.o.v.e5)のメンバーで作詞および ラップを担当するmotsu氏のラップを考察の対象とした.以降,本稿においてラップとは motsu氏のものを指すものとする. 2.1 ラップスタイル歌唱のサブスタイル 本稿では,「メロディ構造の意識」という観点においてラップスタイルの中のサブスタイ ルの存在を考える(なおここでは特定の音階に則った離散的な音高の時間変化をメロディと 呼ぶ).図1にその分類の例を示す.本稿では歌唱者が意識の中で特定のメロディをどの程 度明確に持ちそれに従うように歌うかによって,(1)・(2)から(3)を経て(4)までの連続的 なスタイルに分類されるものと仮定した.(1)と(2)の違いは,グリッサンド(目標音高か らスタートして明確な目標終了音高なしに歌唱の音高を降下もしくは上昇させる技法)を含 むかどうかである.以上の分類のうち,motsu氏によるラップスタイルの歌声で,(1), (2), (4)にあたるmotsu氏の歌声の対数基本周波数をプロットしたものを図2に示す.このう ち(1), (2)においてはmotsu氏自身により提示された歌唱の際に意識するメロディ構造も 同時に示している.(1)では子音の発音に依存する局所的な沈み込みを除いて対数基本周波 数が意識下のメロディ構造にほぼ従っている.また(2)では意識下のメロディ構造に従いな dŝŵĞ;ĞĂƚͿ ^ĞŵŝͲ ƚŽŶĞ  ওটॹॕଡୗभाप؜log F0 ऋेऎజअৃ় %30  ज ش औ ट ः स ॒ खू ش ॎ ः ش ै ऩشः ηϯ ϯ dŝŵĞ;ĞĂƚͿ ^ĞŵŝͲ ƚŽŶĞ य़ক ॱ আ ছ ऋ ऌॆش ुش ऴ ा णش ञش  ওটॹॕଡୗध؜जभఠৈ॑઩ਡधघॊॢজॵ१থॻप log F0 ऋజअৃ় %30  व ख &ηϮ 'ηϮ Ϯ dŝŵĞ;ĞĂƚͿ ^ĞŵŝͲ ƚŽŶĞ द ु ॳঙ ॖ ५ ख ञ ऋ ॎ ऊ  メロディ構造の意識のない,しゃべり⾔葉のようなイントネーション %30  भ ऊ ϯ ϰ Ϯ ै ऩः 図 2 motsu 氏によるラップ歌唱の対数基本周波数軌跡の例 Fig. 2 Examples of log F0series of rap-style singing voice by motsu.

がらも,motsu氏の提示したグリッサンドを意識したことを意味する矢印の箇所で対数基 本周波数の降下および上昇が確認できる.一方(4)では,特定の音高に合わせることなく しゃべり言葉のようなイントネーションの音高変化になっている.このように,意識下のメ ロディ構造の存在を譜面に取り入れるか入れないかによってラップスタイル歌唱のための記 譜法のデザインもまったく異なったものにならざるを得ないため,(1)から(4)までのスタ イルが混在した歌唱を記譜の対象と考えることは大変難しい.そこで本稿ではラップスタイ ルの中でもある程度メロディ構造に従う歌い方である(1), (2)のみをラップ用譜面による表 現の対象とした. 2.2 ラップスタイル歌唱のための記譜法の定義 歌声合成のために使用することを前提として,(1)および(2)のラップスタイル歌唱をよ 2012/2/3

(3)

IPSJ SIG Technical Report ॱ আ ছ ऋ ऌॆش ुش ऴ ा णش ぶしʼ ञش C#(+5) B(+3) G#(root) F#(-2) D#(-5) ૮ଢ৲సဨ੶ಀَbُ ৵ත ༭৕भৃ় ॔ॡ७থॺ੶ಀ ॢজॵ१থॻ੶ಀ $ 下降⽅向 % ঱ಊ্਱ グリッサンド⾳符は通常⾳符と同様の単位で,任意の⻑さをもちうる ঊشॖ চش レッツʼ ०ش णभॢজॵ१থॻभরदఠ࿋॑ളਯ੅णऒधऋदऌॊ؝ ञटखつめ以降の⾳符( كमఠৈभ੐৒॑ಅઍखऩः؝ 図 3 本稿で定義したラップ歌唱記譜法 Fig. 3 The defined musical notation rules.

く表現できるような記譜法を定義する.ここでは楽曲を,motsu氏の楽曲で,その中でも 典型的な,短調で,スウィングのリズムを含まない(譜面の音価どおりのリズムで発音され る)ものとする.2.1節の内容とmotsu氏の歌唱者自身としての意見を踏まえ,本稿では記 譜法を図3のように定義した. その特徴は以下のようなものである. 音価の基本単位は16分音符とする.8分音符以上の単位で3連符も許容する. 音階はルート音を中心に上下にそれぞれ2段階ずつ,計5段階の音高で構成される. ルートからの音高差は,半音単位で下から-5, -2, 0, +3, +5のマイナーペンタトニック スケールとする. 歌詞は日本語のみを許容する.1音符に任意の数のモーラを含むことができる. また,ラップスタイル歌唱の音楽的表現のために必要になると思われる要素のための記号を 以下のように定義した. グリッサンド記号:下降方向(A)と上昇方向(B)の2種類. 始点の音高が指定する高さになるよう記述する.下降・上昇の程度の指定は許容しない. アクセント記号:音符に対して与える強勢の記号. 無声化歌詞記号:直前のモーラを無声化して発音することを明示する記号.

3. HMM

歌声合成システム

音声合成のための方式は大きくはルールベースのものとコーパスベースのものに分かれ る.VOCALOID3)で採用されているようなルールベースの方式では自然な歌声を合成する ための韻律のルールなどを人手により決定しなければならない.現状ではラップスタイルの 自然な歌声を合成するためのルールが定かでなく,それを決定すること自体が容易なことで はない.またルールを決定したとしても歌唱スタイルは歌唱者に依存するため,そのルール のその他の歌唱者に対する適切さが保証されないという問題もある.一方,コーパスベース の方式では元の歌唱者の自然歌唱でデータベースを作成し,それをもとに合成が行われる. 中でもHMMを用いた歌声合成システムは元歌唱者の声質と歌唱スタイルを自動的に再現 可能なシステムである2).従来HMM歌声合成システムでは譜面として五線譜を用いてい たため,記譜法の定かでなかったラップスタイルの歌声合成には向かなかったが,適切に定 義されたラップスタイル用の譜面を用いれば,システムによるモデルの自動学習による自然 なラップスタイルの歌声合成が期待できる.そこで本稿では,2.2節で定義されたラップス タイル歌唱用記譜法による譜面を用いてHMM歌声合成システムによる合成を行う. HMMによる歌声合成システムは,学習部と合成部の2つのパートで構成される.学習 部では,歌声データベース内の音声から抽出されたスペクトル,基本周波数,ビブラートパ ラメータの系列を,譜面を変換して得られるコンテキスト依存ラベルに基づき,音素単位 のHMMでモデル化する.その際,モデルのパターン数の増加に伴いモデルあたりの学習 用データ量が少なくなってしまう問題を回避するために,決定木を用いたコンテキストクラ スタリングを行い,状態ごとにモデル間でパラメータを共有する.また,HMMの各状態 の継続長および譜面上の当該音符開始タイミングからの時間ずれをガウス分布でモデル化 し,パラメータを同時に学習する.近年では音高のモデル化には特別に,話者正規化学習の 枠組みを歌声合成に応用した譜面上の音高と観測される対数基本周波数の差分のみをモデ ル化する音高正規化学習の手法6)が用いられている.合成部では,ユーザから与えられた 2012/2/3

(4)

IPSJ SIG Technical Report

表 1 学習用ラップスタイル歌声データの仕様 Table 1 Singing voice data used for model training.

収録楽曲 motsu氏の既発表曲 11 曲(ラップ部分のみ) 総歌唱時間 21分 6 秒 楽曲テンポ BPM 92∼130 歌唱者 motsu氏(男性・日本語話者) サンプリング周波数/量子化ビット数 48kHz/16bit メルケプストラム分析手法 49次 STRAIGHT メルケプストラム メルケプストラム分析周期 5 ms 基本周波数抽出手法 SWIPE7) 基本周波数分析周期 5 ms 譜面データを合成用のコンテキスト依存ラベル系列に変換し,対応するHMMを連結する. そのHMMから出力確率最大となるメルケプストラムおよび対数基本周波数の系列を得て, MLSAフィルタを駆動することで音声を合成する.

4.

主観評価実験

2.2節で定義したラップスタイル歌唱のための記譜法で記述された譜面を用いて,それに 対応する歌声をモデル化し合成する実験を行った. 4.1 学習データの準備 HMM歌声合成システムには,学習用データとして,歌声とそれに対応する譜面のペア データが必要となる.そこで本稿ではまずはモデル学習に用いるためのラップスタイル歌 声データベースの構築と,それに対応する譜面データを得るところから取り組んだ.歌声 データベース構築のために使用する楽曲として,motsu氏の既発表楽曲の中から,2.2節の ラップ記譜法の定義の際に想定した,短調の,スウィングのリズムを含まない楽曲に該当す る13曲を選定した. まず譜面を得るために,前述の13曲に対しmotsu氏自身がどのようなメロディ構造の 意識を持って歌唱を行っているかを前節の記譜法に従いmotsu氏自身により書き起こした. ただし,この13曲に限らずmotsu氏の歌唱スタイルは総じて同一の楽曲の中でも図1の (1)∼(4)を幅広く含むことがあるため,前節で定義した記譜法のみで全編通して原曲スタ イルそのままに採譜することは難しい.そこで,今回の記譜作業においては原曲で(1), (2) の範囲を外れたフレーズに対してはmotsu氏自身がその範囲のスタイルに収まるような歌 唱用フレーズを改めて作成した.以上のようにして得られた譜面に基づき,motsu氏によ るラップスタイル歌唱の収録を新たに行い,対応する歌声を得た.その13曲中11曲をモ ॅ ऎ औش ऌ ु ा इ ऩشः ञ ट ऩढ ऋشः ृ ा भढ ँش ैش खش ुش dŝŵĞ;ĞĂƚͿ ^ĞŵŝƚŽŶĞ Root = C#3 'ηϮ Ϯ ηϯ ϯ &ηϯ 図 4 入力されたラップ譜の一部と合成時にモデルから生成された対数基本周波数系列 (BPM 128) Fig. 4 A part of input rap score and contour of generated log F0. (BPM 128)

デル学習に用い,残りの2曲をテストセットとして合成に用いる.学習用歌声データの詳細 を表1に示す.

4.2 HMMによるモデル化

本稿では統計モデルとして,明示的に状態継続長に関するモデルを組み込んだ隠れセミマ ルコフモデル(Hidden Semi-Markov Models; HSMM)8)を用いた.トポロジはスキップな

しのleft-to-right型で,状態数は5とした.なお,このモデル化においてはグリッサンド記 号およびアクセント記号はモデル学習のためのコンテキストとして考慮し,無声化歌詞記号 は直前のモーラの母音を無声化母音としてモデル化するための記号として使用した.元とな る歌声の歌唱スタイルがHMMによりモデル化されたことを確認するため,ラップスタイ ル歌声データベースの中から学習に用いなかった楽曲の譜面データを入力としてパラメータ 生成を行った.そこで得られた対数基本周波数系列の例を図4に示す.図より破線で囲まれ た部分で対数基本周波数の下降が確認できる.ここから,グリッサンド技法による歌声の音 高下降の現象がHMMによりモデル化されていることが確認できる. 4.3 主観評価実験 本稿におけるラップスタイル歌唱のための記譜法におけるアクセント記号およびグリッサ ンド記号の導入が,合成音声の自然性にどの程度寄与しているかを確認するため,これらを 学習・合成時のコンテキストとして考慮するかどうかについて表2の4つの手法を用意し, 主観評価実験を行った. 歌声データベース内の楽曲で学習に用いなかった2曲を合成した音声をそれぞれ2小節程 2012/2/3

(5)

IPSJ SIG Technical Report

表 2 主観評価実験手法 Table 2 Subjective evaluation methods.

アクセント グリッサンド 手法 A 考慮しない 考慮しない 手法 B 考慮しない 考慮する 手法 C 考慮する 考慮しない 手法 D 考慮する 考慮する ϵϱй信頼度区間 Ϯ͘ϱ Ϯ͘ϰ Ϯ͘ϰ Ϯ͘ϰ Ϯ͘Ϭ Ϯ͘ϱ ϯ͘Ϭ ু১$ ু১% ু১& ু১' D M O S 図 5 主観評価実験結果 Fig. 5 Subjective evaluation results.

度の長さを持つ19のフレーズに切り分けた.それらのフレーズを被験者に提示し,実際の収 録音声の分析合成音をリファレンスとして,それぞれの手法による合成音がどの程度リファ レンスに近いと感じられるかを1(最低)から5(最高)の5段階の評価値(Degradation Mean Opinion Score; DMOS)により評価する方式で受聴試験を行った.被験者は日本語 話者の成人男性10名である. 図5に主観評価の結果を,図6に各手法においてモデルか ら生成された対数基本周波数系列の例を該当部分の合成用の譜面とともに,それぞれ示す. 手法A∼Dの合成音声の対数基本周波数を示す図6より破線で囲む部分のように,部分的 には各手法において聴感に影響する程度の違いはあるものの,図5より手法間における収 録音声からの聴感上の違いに有意な差は確認されなかった. 4.4 考 察 本章における音声合成実験で得られた音声は,ラップスタイルに独特なグリッサンドの技 法を再現したものとなっていることが確認された.その一方で,中にはグリッサンド記号を 付与していながら対数基本周波数の下降や上昇が発生しないなど入力の期待にそぐわない 箇所もまたいくつか見受けられた.その原因としては,例えばコンテキストクラスタリング による状態共有の結果,グリッサンド記号とは別の要因が音高の下降や上昇の現象の有無を ু১$ ু১% ু১& ু১' Root = C#3 ऩः पش अ ख ौ ॅ ल औ औ ो ेش Root = C#3 ऩः पش अ ख ौ ॅ ल औ औ ो ेش ηϯ Ϯ 'ηϮ ϯ ηϯ Ϯ 'ηϮ ϯ 図 6 各条件下での合成音声の対数基本周波数系列 (BPM 100)

Fig. 6 Generated log F0contour on each experimental condition (BPM 100).

左右する要因となっていた可能性などが考えられる.例えば図4の例においてグリッサンド 技法による音高の下降現象がよく再現されている,破線で囲まれた部分に対応する音符は 歌詞のモーラが持つ母音が/a/であるのに対し,グリッサンド記号が指定されていながらう まく再現されていない一番最後の音符では歌詞のモーラの持つ母音が/o/である.仮に学習 の過程で音高の下降現象を表現するような基本周波数のモデルパラメータの推定が「グリッ サンド記号が与えられている」という条件より「/a/という音素に対応するモデルである」 という条件により強く関連づいて行われていたとすれば,このようなことが発生すること が考えられる.そのような場合は学習データの中に偏りがあった可能性が考えられ,もしそ うであれば偏りが少なくなるようにデータ量を増加させることで問題の改善が期待される. また,もしこの仮定が正しいとすれば,主観評価実験結果の原因も,今回の学習ではグリッ サンドのコンテキストが音高の下降現象を表現するためのパラメータを持つモデルにうま く割り当たらなかった可能性が考えられる.

5.

素片接続型歌声合成器へのパラメータの適用

実験的な試みとして,前節までのHMMによる歌声合成で得られたパラメータを用いて, 素片接続型の歌声合成システムであるVOCALOID3)による合成を行った.ここでは4章 2012/2/3

(6)

IPSJ SIG Technical Report

図 7 HMM から出力された音高パラメータを VOCALOID シーケンスとして与えた例 Fig. 7 An example of VOCALOID pitch parameters converted from

the parameters generated from the HMMs.

の合成実験で得られた対数基本周波数系列をVOCALOID用ピッチベンドパラメータに変 換し,VOCALOIDのシーケンスに与える.VOCALOIDエディタ上でそのシーケンスを 表示した際の様子を図7に示す. ユーザはまず本稿で定義する直観的なラップ用譜面の入 力によりこのようなパラメータを得た上で,細かくパラメータを調整したい箇所に対しては 任意の修正を施すことができる.また素片接続型の合成器のメリットとして,クリアな合成 音声を得ることができる.なお,素片接続型合成器に対して音高を絶対的な物理量として指 定することは可能であるが,音量や音素継続長はHMMで学習したモデルとVOCALOID 用の素片の間の基準に不一致があるために,HMMから得られた値を直接適用するだけで は自然な結果が得づらい.こういった問題の解決のための手段としては,リファレンス音声 に似せた音声を合成するためのパラメータを反復的に推定するVocaListener9)のような手 法を用いることが考えられる.

6.

ま と め

本稿では,ラップスタイルという短時間のうちに音高などの特徴が大きく変動するスタイ ルのための記譜法を定義した.そしてその記譜法にもとづく譜面とそれに対応するラップス タイル歌声データベースを構築し,そのデータを用いて,HMM歌声合成システムの枠組み を利用してラップスタイルの歌声合成実験を行った.合成音声において,ラップスタイルの 歌唱に独特の音高を急激に変化させるグリッサンド技法による現象が再現されていることが 確認された.一方で,譜面における歌唱表現のための付加記号として用意したアクセントと グリッサンドの2種類の記号で定義したコンテキスト要因の有効性を確認するための主観 評価実験では,それぞれのコンテキスト要因の有効・無効の手法間で,合成音声の自然音声 からの聴感上の違いに有意な差が認められなかった.この原因としては学習データに偏りが あった可能性が考えられる.また,実験的な試みとして素片接続型の歌声合成システムであ るVOCALOIDにHMM歌声合成システムから出力された音高パラメータを与えて合成を 行った. 今後の課題としては,偏りの少ない学習データの準備や状態共有決定木の適切なサイズ設 定の検討が挙げられる.また本稿で設けた多くの条件を撤廃しさらなる幅広いラップスタイ ルの表現をするための検討が重要な課題となる.

7.

本研究のために,プロアーティストの視点からラップ歌唱スタイルについてのご意見,建 設的なご提案から数多くの貴重なデータまでをご提供くださいましたmotsu氏,ならびに その機会を与えてくださいましたエイベックス・マネジメント社様に心より感謝申し上げ ます.

参 考 文 献

1) H. Kenmochi, “VOCALOID and Hatsune Miku phenomenon in Japan,” Proc.InterSinging 2010, pp.1–4, 2010.

2) K.Oura, A.Mase, T.Yamada, S.Muto, Y.Nankaku, and K.Tokuda, “Recent Devel-opment of the HMM-based Singing Voice Synthesis System - Sinsy,” Proc.SSW7, pp.211–216, 2010.

3) H.Kenmochi and H.Ohshita, “VOCALOID-Commercial Singing Synthesizer Based on Sample Concatenation,” Proc.INTERSPEECH 2007, pp.4011–4010, 2007. 4) 午前三時のラップ講座[DVD BOOK],ドレミ楽譜出版社(2005).

5) M.O.V.E Official Website, http://electropica.com/index.html.

6) 間瀬絢美,大浦圭一郎,南角吉彦,徳田恵一, “音高正規化学習を用いたHMM歌声合 成の検討,”日本音響学会秋季講論集, vol.I, 1-8-20, pp.283–284, 2010.

7) A.Camacho, “SWIPE: A Sawtooth Waveform Inspired Pitch Estimator for Speech and Music,” Ph.D.Thesis, University of Florida, 2007.

8) H.Zen, T.Masuko, K.Tokuda, T.Kobayashi, and T.Kitamura, “A Hidden Semi-Markov Model-Based Speech Synthesis System,” Proc.IEICE Trans., vol.90-D, no.5, pp.825–834, 2007.

9) T. Nakano, and M. Goto, “VocaListener: A Singing-to-Singing Synthesis System Based on Iterative Parameter Estimation,” Proc.SMC 2009. pp.343–348, 2009.

参照

関連したドキュメント

the log scheme obtained by equipping the diagonal divisor X ⊆ X 2 (which is the restriction of the (1-)morphism M g,[r]+1 → M g,[r]+2 obtained by gluing the tautological family

Then, since S 3 does not contain a punctured lens space with non-trivial fundamental group, we see that A 1 is boundary parallel in V 2 by Lemma C-3 (see the proof of Claim 1 in Case

The existence of global weak solutions for a class of hemivariational inequalities has been studied by many authors, for example, parabolic type problems in 1–4, and hyperbolic types

The case where S is the spectrum of an algebraically closed field is essential for the general local struc- ture theorem.. This case was proved in the previous paper [6], which was

The trace set is an ambient isotopy invariant for a ribbon 2-knot of 1-fusion... Sumi) The numbers of the irreducible representations to SL(2, 7). (3) The trace sets of the

Since congruence classes satisfy the condition in Theorem 4 and Algorithm 2 is just a special case of Algorithm 1, we know that Algorithm 2 terminates after a finite of steps and

Apply Shafen Star as a post-emergence broadcast application in Regions 1, 2, 3, 4, and 5 for control or partial control of weeds listed in “APPLICATION RATES FOR WEED GROWTH

1  ミャンマー(ビルマ)  570  2  スリランカ  233  3  トルコ(クルド)  94  4  パキスタン  91 . 5