「ピアノ演奏と対応する MIDI データを集めた大規模データセット MAESTRO」 この人たちのやっていることをあまり追いきれていないのだけど,楽譜情報とのアライメントはやっていなくて,ピアノロール MIDI 情報とのアライメントをしているような感じ.

Pocket

 

「ピアノ演奏と対応する MIDI データを集めた大規模データセット MAESTRO – ENABLING FACTORIZED PIANO MUSIC MODELING AND GENERATION WITH THE MAESTRO DATASET」
http://createwith.ai/dataset/20181106/1358
 


 
 

「[1810.12247] Enabling Factorized Piano Music Modeling and Generation with the MAESTRO Dataset」
https://arxiv.org/abs/1810.12247
 

「Blog」
https://magenta.tensorflow.org/blog
 

「The MAESTRO Dataset」
https://magenta.tensorflow.org/datasets/maestro
 


 
 

この人たちのやっていることをあまり追いきれていないのだけど,楽譜情報とのマッピング(アライメント)はやっていなくて,ピアノロールMIDI情報とのマッピングをしているような感じ.
そうだとすると,テンポ変化や,(和音の各音のズレ以外の)アタックのズレは扱えないので,楽譜情報から人間味のある演奏を自動生成することはまだできない.人間味のある打鍵強弱づけはできると思う.
 
 

とはいえ,wave と MIDI との対応づけツールは使いたいな(^^;).あとで Magenta の中から探してみよう.
もし,そのツールが DP マッチングのように柔軟に時間軸方向への伸び縮み対応付けをしてくれるのであれば,かなり有用だと思う.楽譜どおりの MIDI データを用意することでいろいろと応用ができる.
 
 

Pocket

「URMP Dataset」「a dataset for facilitating audio-visual analysis of musical performances.」

Pocket

 

「URMP Dataset」
http://www2.ece.rochester.edu/projects/air/projects/URMP.html

Overview
We introduce a dataset for facilitating audio-visual analysis of musical performances. The dataset comprises a number of simple multi-instrument musical pieces assembled from coordinated but separately recorded performances of individual tracks. For each piece, we provide the musical score in MIDI format, the high-quality individual instrument audio recordings and the videos of the assembled pieces. We anticipate that the dataset will be useful for multi-modal information retrieval techniques such as music source separation, transcription, performance analysis and also serve as ground-truth for evaluating performances.

For each piece, we provide:

o Musical score in MIDI and PDF format
o Audio recordings of each individual track and mixture of pieces
o Videos of the assembled pieces.
o Ground-truth frame-level/note-level pitch annotations

 
 
 
 
==

Pocket