ブラザーさんの歌回(うたいまわし)データ自動生成特許

NO IMAGE

JOYSOUNDの会社エクシングさんの親会社のブラザー工業さんも面白い特許を出しています。

【公開番号】特開2017-49539(P2017-49539A)
【公開日】平成29年3月9日(2017.3.9)

【発明の名称】データ生成装置、カラオケシステム、及びプログラム 
の特許です。

おおざっぱに説明すると
1.楽譜と歌詞から基準となる歌唱合成音データを生成
2.合成音声の基本周波数の推移を表す歌唱合成f0推移を導出
3.オリジナル歌手などのオリジナルf0推移を導出
4.歌唱合成f0推移とオリジナルf0推移の「差分データ」を保存
5.歌唱合成f0推移とオリジナルf0推移より「技法データ」を生成
6.「技法データ」と「差分データ」とを指定楽曲における時間軸に沿って対応付けたデータである「歌回データ」を記憶部に記憶

カラオケ採点時の基準を「ガイドメロディ」から、「歌回(うたいまわし)データ」に変更して採点を行う感じみたいです。

技法は「しゃくり」「ビブラート」「こぶし」「タメ」「表情付け」「拡張技法」に分けるようです。
「表情付け」は区切ることみたいです。
「拡張技法」は「しゃくり」「ビブラート」「こぶし」「タメ」「表情付け」に至らないf0推移の変化を示すようです。

全ての元になる歌唱合成音データはJOYSOUNDお得意のCeVIOでかなり短時間で作り上げると思うのでコストをかけずに意外に面白い採点が出来上がるかもしれません。

ガイドメロディを採点の基準にするのは既に無理があることは知れわたってますので、このアプローチから磨き上げていただくとありがたいです。

しかし、少し前に書いた
JOYSOUNDの最新の採点関係の特許について
も併せて読むと、JOYSOUNDがかなりな工程を自動化しまくってきてることがよく分かります。

従来のガイドメロディから、原盤波形データを採点の基準へと変えていく枠組みの上で、採点用基準データ作成工数の上昇を可能な限り下げる方向で動かざるを得ないのですね。

この特許には、演奏時(つまり採点時)の実施形態についても少し書かれていて、ユーザ歌唱の「ユーザ歌唱差分データ」とオリジナル歌手の「差分データ」の一致度が高い程、高評価となると書いてあります。
採点時にオリジナル歌手がどのような技法を使ったかは、「技法データ」を元に報知すると書いてありました。(特許に添付してある図によるとアイコンのようなもので分析採点画面のような画面に表示するようです。)

オリジナル歌手もユーザもどちらも歌唱合成データと比較するので、問題ないよって概念みたいです。
うーん、ちょっとだけ不安。。。。

どんな採点になるのでしょうね。
楽しみです。 

I accept the donation of Cryptocurrency

BTC:3G3ZgRQ2SCLUSGjBVXctn4UyvYXWZx4iTx
ETH:0xc13d33e6450f6243eb6c7aefda1d4a9c447a9d9e

カラオケカテゴリの最新記事