「Piano Fingering Dataset」 学術研究目的であれば無料で使えるピアノ運指データセット.音符ごとに運指情報(指番号)が記載されていて,現在のバージョンでは,のべ 150曲のデータが収録されている.

Pocket

「Piano Fingering Dataset」
http://beam.kisarazu.ac.jp/~saito/research/PianoFingeringDataset/

 

「Fingering Visualizer」
https://fingeringdata.github.io/FingeringVisualizer.html

 

 
 

学術研究目的であれば無料で使えるピアノ運指データセット.
中村栄太先生(京都大学)と,齋藤康之先生(木更津高等専門学校)と,あと,吉井和佳先生(京都大学)もかな.

 

音符ごとに運指情報(指番号)が記載されていて,現在のバージョンである v1.00 では,のべ 150曲のデータが収録されている.
曲は,バッハ,モーツァルト,ショパン,ベートーヴェン,ドビュッシーなどのクラシックピアノ曲.
いくつかの曲では複数の演奏者による運指情報が収録されているので,演奏者による運指の異なりの調査などにも用いることができる.

 

データ形式は,テキストファイルで,

0 0.156289 0.302811 C4 64 80 0 1
1 0.312579 0.459100 D4 64 80 0 2
2 0.468869 0.615390 E4 64 80 0 3
3 0.625158 0.771679 F4 64 80 0 4
4 0.781447 0.927969 D4 64 80 0 2
...

というふうに記述されていて,それぞれのフィールドは,

(note ID) (onset time) (offset time) (spelled pitch) (onset velocity) (offset velocity) (channel) (finger number)

とのことです.

(finger number) は,右手の場合は正の値,左手の場合は負の値で記述されています.

 

現在のところ,

 (onset time), (offset time):
  楽譜上での時刻

 (onset velocity), (offset velocity):
  便宜的に値を埋めてある

のだそうです.

今後の研究の展開次第では,運指情報とともに,その運指によって演奏された演奏表情付きの値が記載されるようになるのかもしれません.

 

この運指データセット用のデータビジュアライザー「Piano Fingering Visualizer」は,データを眺めやすくできていてお勧めできます.
世の中の多くのビジュアライザーは,縦軸が半音階のピアノロール表示なのですが,この「Piano Fingering Visualizer」は五線譜状の表示になっているので,
縦軸が音階に従った軸になっています.#(シャープ), b(フラット)も表示されます.

「半音階ピアノロールは,どうも直感的に読みづらい.五線譜のほうが読みやすい.

という方にお勧めできます.

 

Piano Fingering Visualizer
Piano_Fingering_Visualizer.png


 
 
 
 
==

「ピアノ演奏と対応する MIDI データを集めた大規模データセット MAESTRO」 この人たちのやっていることをあまり追いきれていないのだけど,楽譜情報とのアライメントはやっていなくて,ピアノロール MIDI 情報とのアライメントをしているような感じ.

Pocket

「ピアノ演奏と対応する MIDI データを集めた大規模データセット MAESTRO – ENABLING FACTORIZED PIANO MUSIC MODELING AND GENERATION WITH THE MAESTRO DATASET」
http://createwith.ai/dataset/20181106/1358
 


 
 

「[1810.12247] Enabling Factorized Piano Music Modeling and Generation with the MAESTRO Dataset」
https://arxiv.org/abs/1810.12247
 

「Blog」
https://magenta.tensorflow.org/blog
 

「The MAESTRO Dataset」
https://magenta.tensorflow.org/datasets/maestro
 


 
 

この人たちのやっていることをあまり追いきれていないのだけど,楽譜情報とのマッピング(アライメント)はやっていなくて,ピアノロールMIDI情報とのマッピングをしているような感じ.
そうだとすると,テンポ変化や,(和音の各音のズレ以外の)アタックのズレは扱えないので,楽譜情報から人間味のある演奏を自動生成することはまだできない.人間味のある打鍵強弱づけはできると思う.
 
 

とはいえ,wave と MIDI との対応づけツールは使いたいな(^^;).あとで Magenta の中から探してみよう.
もし,そのツールが DP マッチングのように柔軟に時間軸方向への伸び縮み対応付けをしてくれるのであれば,かなり有用だと思う.楽譜どおりの MIDI データを用意することでいろいろと応用ができる.
 
 

「URMP Dataset」「a dataset for facilitating audio-visual analysis of musical performances.」

Pocket

「URMP Dataset」
http://www2.ece.rochester.edu/projects/air/projects/URMP.html

Overview
We introduce a dataset for facilitating audio-visual analysis of musical performances. The dataset comprises a number of simple multi-instrument musical pieces assembled from coordinated but separately recorded performances of individual tracks. For each piece, we provide the musical score in MIDI format, the high-quality individual instrument audio recordings and the videos of the assembled pieces. We anticipate that the dataset will be useful for multi-modal information retrieval techniques such as music source separation, transcription, performance analysis and also serve as ground-truth for evaluating performances.

For each piece, we provide:

o Musical score in MIDI and PDF format
o Audio recordings of each individual track and mixture of pieces
o Videos of the assembled pieces.
o Ground-truth frame-level/note-level pitch annotations

 
 
 
 
==