2015年3月4日、MMDAgentのマニュアル公開(暫定版)

音声対話システム構築ツールキットMMDAgentの暫定版マニュアルを公開致します。現状では、日本語のみです。

この資料は、2015年2月に行われた人工知能学会主催 第7回AIツール入門講座(音声インタラクションシステム構築ツールキットMMDAgent、講師:山本大介、西村良太)の配布資料用に作成されたものを一部改編したものです。内容の一部は、http://mmdagent.wordpress.com/から転載しています。

MMDAgentマニュアル(PDF)

以下の情報は古い可能性があります。 

Q1 MMDAgentのAndroidのコンパイル時に、project.plugins.findPlugin('com.android.application').getNdkFolder()がエラーになる。

MMDAgent の Android のビルドエラーについてですが、 Android Studio の最新バージョンが1.1に上がったのに伴って, Android Gradle Plugin のバージョンも1.1に上がり, 仕様の変更があったようです. ビルド時に使用する Android Gradle Plugin のバージョンを 1.0に指定することによってビルドをすることができるようになります. 具体的な方法は,以下の通りです

プロジェクトルートの build.gradle (app/build.gradle ではない) の dependencied{classpath 'com.android.tools.build:gradle:1.1.0'} という記述を dependencied{classpath 'com.android.tools.build:gradle:1.0.0'} に変更する.

また,Android Gradle Plugin のバージョンが1.1の場合での app/build.gradle の記述方法はまだわかりません.

CSTR VCTK Corpus

CSTR VCTK Corpus 
English Multi-speaker Corpus for CSTR Voice Cloning Toolkit 

概要
CSTR VCTK Corpus」はエジンバラ大学CSTRグループによって収集された様々な英語アクセントをもつ音声コーパスとなっており,HMMに基づくテキスト音声合成,および複数話者を用いた平均声モデルに基づく話者適応などに活用できるよう収録されています。
発話者は109人,各話者につき400文章程度の文章を新聞記事,rainbow passage, elicitation paragraphから選んで読み上げています。新聞記事からは音素バランスを考慮した話者毎に異なるセットになっており,rainbow passageとelicitation paragraphは全話者共通の文章となっています。 rainbow passage についてはこちら (http://web.ku.edu/~idea/readings/rainbow.htm), elicitation paragraph についてはこちら (http://accent.gmu.edu) に詳細が載っています。また,アクセントに関してまとめたものはこちらのPDFに記載されています.
また,全ての音声は同一の環境で収録されています.
(an omni-directional microphone (DPA 4035),96kHz sampling frequency at 24 bits and in a hemi-anechoic chamber of the University of Edinburgh.)

ダウンロード
http://www.udialogue.org/download/VCTK-Corpus.tar.gz (10.4GB)

COPYING
This corpus is licensed under Open Data Commons Attribution License (ODC-By) v1.0.
http://opendatacommons.org/licenses/by/1.0/
http://opendatacommons.org/licenses/by/summary/

ACKNOWLEDGEMENTS
The CSTR VCTK Corpus was constructed by:
Christophe Veaux (University of Edinburgh)
Junichi Yamagishi (University of Edinburgh)
Kirsten MacDonald

The research leading to these results was partly funded from EPSRC grants EP/I031022/1 (NST) and EP/J002526/1 (CAF), from the RSE-NSFC grant (61111130120), and from the JST CREST (uDialogue).

配布元
http://homepages.inf.ed.ac.uk/jyamagis/page3/page58/page58.html