Nothing Special   »   [go: up one dir, main page]

JP4174950B2 - Music editing method and recording medium recording the method - Google Patents

Music editing method and recording medium recording the method Download PDF

Info

Publication number
JP4174950B2
JP4174950B2 JP2000109345A JP2000109345A JP4174950B2 JP 4174950 B2 JP4174950 B2 JP 4174950B2 JP 2000109345 A JP2000109345 A JP 2000109345A JP 2000109345 A JP2000109345 A JP 2000109345A JP 4174950 B2 JP4174950 B2 JP 4174950B2
Authority
JP
Japan
Prior art keywords
data
music
chord
bars
actual performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000109345A
Other languages
Japanese (ja)
Other versions
JP2001296866A (en
Inventor
博之 小谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2000109345A priority Critical patent/JP4174950B2/en
Publication of JP2001296866A publication Critical patent/JP2001296866A/en
Application granted granted Critical
Publication of JP4174950B2 publication Critical patent/JP4174950B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は音楽編集方法、およびその方法を記録した記録媒体に関し、より詳細には、映像データと同期して流される楽曲データの再生時間を映像データに合わせ、さらに連続する2つの映像データにそれぞれ対応した楽曲データが自然なつながりを持つように楽曲データを加工する音楽編集方法、およびその方法を記録した記録媒体に関する。
【0002】
【従来の技術】
近年、パソコン等のコンピュータの高性能化に伴い、デジタルビデオカメラ等で撮影した映像データをパソコン等に取り込めるようになっている。そして、パソコンに取り込んだこの映像データにふさわしいと思う音楽を付加し、この音楽と映像データとを共にパソコン等からビデオ等に出力して、1つの「作品」とすることを楽しむ人が多くなっている。
【0003】
【発明が解決しようとする課題】
しかし、デジタルビデオカメラ等で撮影した映像データは、撮影者や撮影シーンなどによって撮影時間がまちまちであるのに対して、例えば、歌謡曲といったような、映像データにふさわしいと思う楽曲の再生時間は一定であることが多い。そのため、映像データにふさわしいと思う楽曲と映像データとを共にパソコン等からビデオ等に出力した際には、撮影時間と再生時間との間に「ずれ」がある。
【0004】
これを解決するために、楽曲のテンポを変更したり、楽曲を何回かリピートさせたりすることがよく行われるが、楽曲のテンポを著しく変化させた場合には、元来、映像データにふさわしいと思っていた楽曲がふさわしくなくなることがある。また、例えば、撮影時間が4分30秒で、楽曲が1演奏あたり1分である場合、リピート回数を4回にしても5回にしても、楽曲の途中で映像データが終了してしまう。
【0005】
特に、個人ベースで使用されるデジタルビデオカメラ等においては、例えば、運動会のリレーを撮影し、次いで表彰式の様子を撮影するといったような、あるシーンを撮影した後、全く別のシーンを撮影するということは全く珍しくない。このような場合、リレーのシーンではテンポの速い楽曲がふさわしいが、表彰式ではそのような楽曲はふさわしくなく、異なる楽曲が選ばれることが普通である。
【0006】
このように、シーンが異なる映像データが連続する場合には、前のシーンの終了にあわせてきっちりと楽曲をおさめる必要がある。さらに、このような場合の映像データを再生した場合には、シーンの変わり目で映像データが急に変わることになるため、楽曲も急に変わることになる。そのため、シーンの変わり目では楽曲が不自然に流れてしまうという問題がある。
【0007】
本発明は上記課題を解決するためになされ、映像データと同期して流される楽曲データの再生時間を映像データに合わせ、さらに連続する2つの映像データにそれぞれ対応した楽曲データが自然なつながりを持つように楽曲データを加工する音楽編集方法、およびその方法を記録した記録媒体を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決する本発明に係る音楽編集方法は、所定時間の第1映像データと、第1映像データに対応する第1楽曲データとが同期出力され、
少なくとも第1映像データに基づいて利用者が希望する演奏希望時間、第1楽曲データのリズムに対応したリズム標準テンポ、ならびに第1楽曲データに対応したメロディデータ、コードデータ、およびメロディ長さ小節数に基づいて、実演奏メロディデータ、実演奏コードデータ、実演奏テンポを決定し、
第1楽曲データのリズムに対応したリズム伴奏データ、実演奏コードデータ、および実演奏テンポに基づいて実演奏リズムデータを決定し、
実演奏メロディデータおよび実演奏リズムデータに基づいて第1楽曲データを発生する音楽編集方法であって、
演奏希望時間にリズム標準テンポを乗じて最適小節数を算出し、
最適小節数をメロディ長さ小節数で除してメロディ繰り返し回数を算出し、
メロディ長さ小節数にメロディ繰り返し回数を乗じて実演奏小節数を算出し、
実演奏小節数を演奏希望時間で除して実演奏テンポを算出し、
実演奏テンポとリズム標準テンポとの間の差が予め定められた範囲内であれば、メロディおよびコードデータを、それぞれメロディ繰り返し回数分だけ繰り返して実演奏メロディデータおよび実演奏コードデータとし、範囲外であれば、実演奏テンポがリズム標準テンポより遅いか速いかを判断し、遅ければメロディ繰り返し回数に1を加えて再度実演奏小節数を算出する工程に戻り、速ければメロディおよびコードデータをそれぞれメロディ繰り返し回数分だけ繰り返して仮演奏メロディデータおよび仮演奏コードデータとし、
実演奏小節数から最適小節数を減じて余剰小節数を計算し、
仮演奏メロディデータの末尾および仮演奏コードデータの末尾からそれぞれ余剰小節数分のデータを削除して実演奏メロディデータおよび実演奏コードデータとし、
実演奏小節数から余剰小節数を減じ、
余剰小節数を減じた実演奏小節数を演奏希望時間で除して実演奏テンポを再度算出し、
実演奏メロディデータ、実演奏コードデータ、実演奏テンポ、およびリズム伴奏データに基づいて、第1楽曲データが音源から出力される。
【0009】
第2映像データは第1映像データに連続すると共に、第2映像データに対応する第2楽曲データが第2画像データと同期出力され、
実演奏小節数から余剰小節数を減じた後に、
実演奏コードデータの最終小節のコードの種類、および最終小節のコードの1つ前のコードの種類、ならびに第2楽曲データのコードデータの冒頭コードの種類に基づいて最終小節のコードの種類を修正することが好ましい。
【0010】
また、第1楽曲データが音源から出力される際に用いられるリズム伴奏データの各音階が第1楽曲データの各コードデータに基づいて平行移動されていることも好ましい。さらに、必要に応じて、第1楽曲データの前後にそれぞれイントロデータおよびエンディングデータを付加してもよい。
【0011】
さらに、実演奏小節数から余剰小節数を減じた後に、
実演奏コードデータの最終小節のコードの種類、および最終小節のコードの1つ前のコードの種類、ならびにエンディングデータのコードデータの冒頭コードの種類に基づいて最終小節のコードの種類を修正することが好ましい。第1楽曲データの前後にそれぞれイントロデータおよびエンディングデータが付加される場合には、イントロデータのコードデータの最終小節のコードの種類、および最終小節のコードの1つ前のコードの種類、ならびに第1楽曲のコードデータの冒頭コードの種類に基づいて最終小節のコードの種類を修正することが好ましい。
【0012】
これらの音楽編集方法をコンピュータに実行させるための処理プログラムを、コンピュータが読み取り可能な媒体に記録した記録媒体もまた、本発明の趣旨に含まれる。
【0013】
【発明の実施の形態】
以下、本発明を図面と共に詳細に説明する。
(実施の形態1)
本発明に係る音楽編集方法を実行するプログラムをコンピュータ上で実行させた際の処理模式図を図1に示す。なお、本実施の形態においては、映像データは特に修正、加工等されない。
【0014】
本発明に係る音楽編集方法を実行するプログラムをコンピュータ上で実行させると、いわゆる「RAM(ランダム・アクセス・メモリ)」と呼ばれる書き込み・読み出し可能な記憶手段に、メロディ選択部1、演奏時間入力部2、リズム伴奏選択部3、メロディ&コードデータ編集部4、および自動伴奏再生部5が仮想的に作成される。
【0015】
メロディ選択部1には、キーボード、マウス等を介して利用者が演奏を希望する楽曲がインプットされる。そして、メロディ選択部1は、インプットされた楽曲のメロディ、コード、およびメロディ長さ小節数をメロディ記憶部6から読み出す。メロディ記憶部6には、少なくともメロディ、コード、およびメロディ長さ小節数からなる数多くの楽曲のデータが格納されている。メロディ記憶部6は前述のRAM上にあっても、ROM(リード・オンリー・メモリ)上にあってもよく、また、インターネット上の所定のホームページや、所定の専用電話回線で結ばれるサーバ上にあってもよい。メロディ記憶部6から読み出されたメロディ、コード、およびメロディ長さ小節数は、それぞれメロディ&コードデータ編集部4に送信される。
【0016】
演奏時間入力部2には、キーボード等を介して利用者が楽曲を演奏させたい時間が演奏希望時間として入力される。この楽曲は、この楽曲と同期出力される映像データにふさわしいと利用者が思う楽曲である。一般的に、その楽曲を演奏したいと思うシーンの撮影時間が演奏希望時間となる。この時、映像データの中から、その楽曲を演奏したいと思うシーンの撮影時間を抽出し、それを演奏希望時間としても良い。この場合、楽曲を演奏させたい時間を利用者がキーボード等から入力する必要がなくなる。そのため、利用者にとっては手間が省ける上、演奏希望時間を意識する必要すらなくなる。演奏時間入力部2に入力された演奏希望時間は、メロディ&コードデータ編集部4に送信される。
【0017】
リズム伴奏選択部3には、キーボード、マウス等を介して利用者が伴奏を希望するリズムがインプットされる。そして、リズム伴奏選択部3は、インプットされたリズムのリズム標準テンポおよびリズム伴奏データをリズム記憶部7から読み出す。リズム記憶部7には、少なくともリズム標準テンポおよびリズム伴奏データからなる数多くのリズムのデータが格納されている。メロディ記憶部6と同様に、リズム記憶部Fは前述のRAM、ROM上だけでなく、ホームページ、サーバ上等、利用者が接続できるのであれば、どこにあってもよい。リズム記憶部7から読み出されたリズム標準テンポメロディ&コードデータ編集部4に送信される。一方、リズム伴奏データは自動伴奏再生部6に送信される。
【0018】
上記のように、メロディ&コードデータ編集部4は、メロディ記憶部6から読み出されたメロディ、コード、およびメロディ長さ小節数、演奏時間入力部2に入力された演奏希望時間、ならびにリズム伴奏記憶部7から読み出されたリズム標準テンポを受信する。これらを受信したメロディ&コードデータ編集部4は、以下に説明するような方法によって、最終的に音源に出力されて演奏される音楽が演奏希望時間と同じ演奏時間を有するように、受信したメロディ、コード、およびリズム標準テンポを加工してそれぞれ実演奏メロディデータ、実演奏コードデータ、および実演奏テンポとする。
【0019】
以下、説明を容易にするために、特に別記しない限り、第1シーンを運動会のリレーのシーン(1.75分)、第2シーンをその表彰式のシーン(2分)とし、第1シーンと同期出力される楽曲(以下、「第1楽曲」という)の演奏希望時間は、リレーのシーンと同じ時間(すなわち、1.75分)とする。この楽曲のテンポは30小節/分、メロディ長さ小節数(第1楽曲の長さを小節数にて表記したもの)は12小節とする。なお、通常、テンポは四分音符を1分間に何度鳴らすかによって定義されることが多いが、ここでは、理解を容易にするため、テンポの単位を「小節/分」とする。30小節/分を音楽学で使用されるテンポに直すとおよそ120であり、普通の速さの曲調である。
【0020】
まず、演奏希望時間にリズム標準テンポを乗じて最適小節数を算出する。つまり、利用者が希望するリズムが有する標準的なテンポに演奏希望時間を乗じ、そのテンポで演奏希望時間だけ楽曲を演奏させた場合に、いくつの小節数だけ演奏されるかを求める。ここでは、1.75(分)×30(小節)=52.5(小節)となる。
【0021】
次に、上記のように求めた最適小節数をメロディ長さ小節数で除してメロディ繰り返し回数を算出する。第1楽曲を一度だけ演奏しかしないとすると、第1楽曲のメロディ長さ小節数が24秒である(すなわち、第1楽曲は24秒で終わってしまう)ようであれば、残り1分21秒の間は楽曲が流れないということになる。そこで、第1シーンが続く限り、第1楽曲を繰り返して演奏することにして、ここではその繰り返し回数を求めている。上記の具体例では、最適小節数は52.5(小節)であるので、52.5(小節)÷12小節=4.375(回)となる。なお、除した際に小数部が生じた場合には、四捨五入する。
【0022】
メロディ長さ小節数に上記のようにして求めたメロディ繰り返し回数を乗じて実演奏小節数を算出する。すなわち、例えば上記のように4回にわたって第1楽曲が繰り返して演奏され続ける場合に演奏される実際の小節数を求める。上記の例では、12小節×4回=48小節となる。
【0023】
次に、実演奏小節数を演奏希望時間で除して実演奏テンポを算出する。つまり、演奏希望時間内に実際に演奏される小節数分だけ第1楽曲を演奏するためには、実際にどの程度のテンポで演奏しなければならないかを求める。上記の例では、48小節÷1.75分=27.43小節/分となる。
【0024】
ここで、算出された実演奏テンポとリズム標準テンポとを比較する。つまり、リズム標準テンポは、そのリズムの標準的なテンポであり、実際のテンポである実演奏テンポがこのリズム標準テンポと大きくずれている場合には、極端に速いまたは遅いテンポで第1楽曲が演奏されてしまうことになり、第1楽曲のイメージが大幅に変わってしまい、対応する第1シーンには「ふさわしくない」ということになってしまう。そのため、算出された実演奏テンポとリズム標準テンポとを比較し、その差が予め定められた範囲内であれば問題無しとして、メロディおよびコードデータを、それぞれメロディ繰り返し回数分だけ繰り返して実演奏メロディデータおよび実演奏コードデータとする。
【0025】
一方、上記の差が予め定められた範囲外である場合には、問題ありとして以下に示す処理を行う。上記の例では、例えば、予め上記の差が5%以内であれば問題無しとしている場合、27.43(小節/分)÷30(小節/分)×100(%)=91.43(%)となり、問題ありであるので、以下に示す処理を行う。
【0026】
算出された実演奏テンポとリズム標準テンポとを比較し、その差が予め定められた範囲外である場合、一旦実演奏テンポがリズム標準テンポより遅いか速いかを判断する。仮に、遅ければメロディ繰り返し回数に1を加えて再度実演奏小節数を算出する工程に戻る。上記の例では、91.43(%)と「遅い」ので、繰り返し回数に1を加えて5回、第1楽曲を演奏することにして再度計算を行う。すると、実演奏小節数が12(小節)×5(回)=60小節となり、実演奏テンポは60(小節)÷1.75(分)=34.28(小節/分)となり、実演奏テンポとリズム標準テンポとの差は34.28(小節/分)÷30(小節/分)=114.2(%)となり、「速すぎる」ということになる。
【0027】
一方、仮に速ければ、メロディおよびコードデータを、メロディおよびコードデータをそれぞれメロディ繰り返し回数分だけ繰り返して仮演奏メロディデータおよび仮演奏コードデータとする。上記の例では、第1楽曲のメロディを5回繰り返したデータが仮演奏メロディデータとなり、コードデータを5回繰り返したデータが仮演奏コードデータとなる。
【0028】
次に、実演奏小節数から最適小節数を減じて余剰小節数を計算する。そして、仮演奏メロディデータの末尾および仮演奏コードデータの末尾からそれぞれ余剰小節数分のデータを削除して実演奏メロディデータおよび実演奏コードデータとする。つまり、一旦ここではテンポを元に戻して考えることにし、実際に演奏される小節数を最適な小節数に合わせるべく、仮演奏メロディデータの末尾から余った小節分だけデータを削除して、実演奏メロディデータとする。上記の例では、実演奏小節数が60(小節)、最適小節数が52.5(小節)であり、その差は7.5小節であるので、60小節分のデータを有する仮演奏メロディデータの末尾から7.5小節分だけ削除して、実演奏メロディデータとする。但し、余剰小節数が小数部分が生じた場合、四捨五入する。コードデータについても同様である。この場合、8小節分だけ削除することになる。
【0029】
上記のように、実際に演奏される小節数を最適な小節数に合わせるべく、実演奏小節数から余剰小節数を減じ、算出された値を新たな実演奏小節数とする。上記の例では、60(小節)−8(小節)=52小節となる。
【0030】
最後に、新たな実演奏小節数を演奏希望時間で除して実演奏テンポを再度算出する。このようにしないと、結果的にテンポを元に戻して考えることにならないからである。上記の例では、52(小節)÷1.75(分)=29.71(小節/分)となる。
【0031】
上記のようにして加工または算出された実演奏メロディデータ、実演奏コードデータ、実演奏テンポ、およびリズム伴奏データに基づいて、第1楽曲データが音源から出力される。
【0032】
このように、本発明においては、演奏希望時間だけ楽曲を演奏すべく、まず楽曲のテンポを演奏希望時間などに基づいて変更して、算出された実演奏テンポが、リズム標準テンポからさほどはずれておらず対応する第1シーンにふさわしく聞こえる範囲内(上記の例では5%)であれば、この実演奏テンポの速さで第1楽曲を演奏する。一方、範囲外であれば、演奏データの末尾を削除等して演奏希望時間だけ楽曲を演奏する。このように、本発明においては、映像データと同期して流される楽曲データの再生時間を映像データの再生時間に合致させて、第1楽音と第1シーンとを同期出力できるので、第1シーンの直後に第2シーンが連続する場合であっても、第1シーンの終了に合せてきっちりと楽曲(第1楽曲)をおさめることができる。
【0033】
ところで、本発明においては、第1楽曲を演奏希望時間だけ演奏した直後に第2楽曲が連続する。算出された実演奏テンポとリズム標準テンポとの差が所定の範囲内(上記の例では5%)であれば、第1楽曲は、最後まで演奏されるため、直後に第2楽曲が第2シーンと共に流れても(同期出力されても)問題はない。しかし、範囲外である場合には、実演奏メロディデータは、仮演奏メロディデータの末尾から余剰小節分だけ削除されてできたデータであるため、第1楽曲の途中で演奏が終了し、その直後に第2楽曲が第2シーンと共に流されることになる。
【0034】
その場合、途中で終わる第1楽曲に第2楽曲が連続することになるが、これらの楽曲のつながりが不自然である場合には、第1シーンと第2シーンとの間では、演奏される音楽が不自然に聞こえることになる。そこで、本発明においては、実演奏小節数から余剰小節数を減じた後に、実演奏コードデータの最終小節のコードの種類、および最終小節のコードの1つ前のコードの種類、ならびに第2楽曲データのコードデータの冒頭コードの種類に基づいて、最終小節のコードの種類を修正することが好ましい。以下、具体的な修正方法を説明する。
【0035】
なお、以下の説明においては、具体例として、図2に示すように、第1楽曲の仮演奏コードデータがF、G、C、Am、F、およびGの順で終了し、第2楽曲のコードデータが、C、Amの順で開始するとする。そして、余剰小節数は3つであるとする。
【0036】
余剰小節数が3つであるので、第1楽曲の仮演奏コードデータのうち、末尾の3つ(Am、F、およびG)は削除され、削除後のF、G、Cの順で終了するコードデータが実演奏コードデータとなる。削除後、仮にこのまま実演奏コードに続いて第1楽曲および第2楽曲が演奏されると、F、G、C、C、Amの順で演奏されることになり、人によっては不自然に聞き取られることがある。
【0037】
そこで、図3に示すような変換表に基づいて実演奏コードデータを修正する。まず、コード(G、C等)は、音楽学上、トニック、サブドミナント、およびドミナントに分類されている。不自然に聞こえないようにするためには、図3に示すように、ある小節の前後の1小節のコードが両者ともトニックである場合、その小節をコード上2つに分解して、前半をサブドミナントのコードで、後半をドミナントのコードで演奏するようにする。図2に示したような具体例では、第1楽曲の実演奏コードデータはC(トニック)で終了するが、コードがCのこの小節を挟む前後の小節のコードはG(ドミナント)、C(トニック)であるため、図3に照らし合わせると、第1楽曲の実演奏コードデータの最後のCのコードは、前半をトニック(C)、後半をドミナント(G)に変更すれば、第1楽曲から大2楽曲にかけて、自然に聞き取られることになる。なお、便宜上、図2では修正される最後のCのコードに対応する小節を「−1小節目」とし、その前後の小節をそれぞれ「−2小節目」「1小節目」としている。このように第1楽曲の実演奏コードデータを加工すれば、連続する第1および第2シーンにそれぞれ対応した楽曲データが自然なつながりを持って演奏される。
【0038】
なお、リズム伴奏データは、第1楽曲の各コードデータに基づいて平行移動および必要に応じて音階修正されていることが好ましい。通常、リズム伴奏データはCメジャーであるとしてリズム記憶部に記憶されているため、仮に、第1楽曲のコードデータが、F、G、C、Am、F、Gの順で連続する場合であっても、リズム記憶部7から読み出されたリズム伴奏データは、C、C、C、C、C、Cの順で連続することになってしまう。そこで、F、G、C、Am、F、Gの順で並ぶコードデータに対応するように、平行移動および必要に応じて音階修正する。具体的には、リズム伴奏データの最初のデータCをFまで半音5つ分上に平行移動し、次のデータCをGまで半音7つ分上に平行移動することを各リズム伴奏データに対して行う。コードデータがAm等のマイナーコードである場合であって、かつそのコードデータがD#(レのシャープ)、E(ミ)、およびB(シ)の音階である場合には、予め半音1つ分だけ下げた上で第1楽曲のコードデータまで平行移動する。
【0039】
なお、上記の説明では、例示のためにシーンおよび各シーンに対応する楽曲は2つとしたが、もちろん、3つ以上あってもよく、2番目以降の楽曲も、上記の説明と同様に、対応する各シーンの再生時間に合わせて編集され得る。
【0040】
(実施の形態2)
実施の形態1における説明では、リレーのシーンである第1シーンと表彰式のシーンである第2シーンとが連続することになっているが、本実施の形態2においては、1つのシーンと共に同期出力することが希望される第1楽曲が、この1つのシーンの再生時間にぴったり収まるように、第1楽曲の実演奏メロディデータ、実演奏コードデータ、実演奏テンポを決定する音楽編集方法においても本発明を適用できる。
【0041】
より具体的に説明すると、例えば、1つのシーンを1.75分とし、このシーンと同期出力される楽曲(すなわち、第1楽曲)の演奏希望時間が、このシーンと同じ時間(すなわち、1.75分)であるとする。そして、この楽曲のテンポは30小節/分、メロディ長さ小節数は12小節であるとする。
【0042】
この場合、実施の形態1と全く同様に計算が行われ、第1楽曲は5回繰り返されることになり、最後の5回目においては末尾8小節が削除される。また、実演奏テンポは29.71(小節/分)として第1楽曲が演奏され、上記シーンと共に同期出力される。
【0043】
このように、本実施の形態2においても、演奏希望時間だけ楽曲を演奏すべく、まず楽曲のテンポを演奏希望時間などに基づいて変更して、算出された実演奏テンポが、リズム標準テンポからさほどはずれておらず対応するシーンにふさわしく聞こえる範囲内であれば、この実演奏テンポの速さで第1楽曲を演奏する。一方、範囲外であれば、演奏データの末尾を削除等して演奏希望時間だけ楽曲を演奏する。このように、映像データと同期して流される楽曲データの再生時間を映像データの再生時間に合致させて、第1楽音とシーンとを同期出力できるので、シーンの終了に合せてきっちりと楽曲(第1楽曲)をおさめることができる。
【0044】
また、第1楽曲の冒頭および末尾には、それぞれイントロおよびエンディングが付加されることがある。この場合においても、本発明を適用することができる。例えば、1つのシーンを2分とし、イントロの長さは4小節であり、エンディングの長さも4小節であるとする。通常、イントロの長さおよびエンディングの長さは固定されている。なお、上記と同様に、この楽曲のテンポは30小節/分、メロディ長さ小節数は12小節であるとする。
【0045】
次に、実施の形態1と同様に、実演奏メロディデータ、実演奏コードデータ、実演奏テンポ、リズム伴奏データ、実演奏リズムデータを決定する。具体的には、まず最適小節数を算出する。ここでは、2(分)×30(小節)=60(小節)となる。この最適小節数からイントロとエンディングの小節数を引いてメロディ最適小節数を算出する。ここでは、60−4−4=52(小節)となる。
【0046】
次に、上記のように求めたメロディ最適小節数をメロディ長さ小節数で除してメロディ繰り返し回数を算出する。第1楽曲を一度だけ演奏しかしないとすると、第1楽曲のメロディ、イントロ、エンディング長さ小節数の合計が40秒である(すなわち、第1楽曲は40秒で終わってしまう)ようであれば、残り1分20秒の間は楽曲が流れないということになる。そこで、第1シーンが続く限り、第1楽曲のメロディ部分を繰り返して演奏することにして、ここではその繰り返し回数を求めている。上記の具体例では、メロディ最適小節数は52(小節)であるので、52(小節)÷12小節=4.33(回)となる。なお、除した際に小数部が生じた場合には、四捨五入する。
【0047】
メロディ長さ小節数に上記のようにして求めたメロディ繰り返し回数を乗じ、さらにイントロ・エンディング小節数を加算して実演奏小節数を算出する。すなわち、例えば上記のように4回にわたって第1楽曲が繰り返して演奏され続ける場合に演奏される実際の小節数を求める。上記の例では、12小節×4回+4小節+4小節=56小節となる。
【0048】
次に、実演奏小節数を演奏希望時間で除して実演奏テンポを算出する。つまり、演奏希望時間内に実際に演奏される小節数分だけ第1楽曲を演奏するためには、実際にどの程度のテンポで演奏しなければならないかを求める。上記の例では、56小節÷2分=28小節/分となる。
【0049】
ここで、算出された実演奏テンポとリズム標準テンポとを比較する。つまり、リズム標準テンポは、そのリズムの標準的なテンポであり、実際のテンポである実演奏テンポがこのリズム標準テンポと大きくずれている場合には、極端に速いまたは遅いテンポで第1楽曲が演奏されてしまうことになり、第1楽曲のイメージが大幅に変わってしまい、対応する第1シーンには「ふさわしくない」ということになってしまう。そのため、算出された実演奏テンポとリズム標準テンポとを比較し、その差が予め定められた範囲内であれば問題無しとして、メロディおよびコードデータを、それぞれメロディ繰り返し回数分だけ繰り返し、さらに冒頭にイントロを、末尾にエンディングをつなげて、実演奏メロディデータおよび実演奏コードデータとする。
【0050】
一方、上記の差が予め定められた範囲外である場合には、問題ありとして以下に示す処理を行う。上記の例では、例えば、予め上記の差が5%以内であれば問題無しとしている場合、28(小節/分)÷30(小節/分)×100(%)=93.33(%)となり、問題ありであるので、以下に示す処理を行う。
【0051】
算出された実演奏テンポとリズム標準テンポとを比較し、その差が予め定められた範囲外である場合、一旦実演奏テンポがリズム標準テンポより遅いか速いかを判断する。仮に、遅ければメロディ繰り返し回数に1を加えて再度実演奏小節数を算出する工程に戻る。上記の例では、93.33(%)と「遅い」ので、繰り返し回数に1を加えて5回、第1楽曲のメロディ部分を演奏することにして再度計算を行う。すると、実演奏小節数が12(小節)×5(回)+4小節+4小節=68小節となり、実演奏テンポは68(小節)÷2(分)=34(小節/分)となり、実演奏テンポとリズム標準テンポとの差は34(小節/分)÷30(小節/分)=113.33(%)となり、「速すぎる」ということになる。
【0052】
一方、仮に速ければ、メロディおよびコードデータを、メロディおよびコードデータをそれぞれメロディ繰り返し回数分だけ繰り返し、さらに冒頭にイントロを、末尾にエンディングをつなげて、仮演奏メロディデータおよび仮演奏コードデータとする。上記の例では、第1楽曲のメロディを5回繰り返したデータの冒頭にイントロを、末尾にエンディングをつなげたものが仮演奏メロディデータとなり、コードデータを5回繰り返したデータの冒頭にイントロを、末尾にエンディングをつなげたものが仮演奏コードデータとなる。
【0053】
次に、実演奏小節数から最適小節数を減じて余剰小節数を計算する。そして、仮演奏メロディデータの末尾および仮演奏コードデータの末尾からそれぞれ余剰小節数分のデータを削除して実演奏メロディデータおよび実演奏コードデータとする。つまり、一旦ここではテンポを元に戻して考えることにし、実際に演奏される小節数を最適な小節数に合わせるべく、仮演奏メロディデータの末尾から余った小節分だけデータを削除して、実演奏メロディデータとする。上記の例では、実演奏小節数が68(小節)、最適小節数が60(小節)であり、その差は8小節であるので、68−4−4=60小節分のデータを有する仮演奏メロディデータ(イントロ・エンディング含まず)の末尾から8小節分だけ削除して、実演奏メロディデータとする。但し、余剰小節数が小数部分が生じた場合、四捨五入する。コードデータについても同様である。この場合、8小節分だけ削除することになる。
【0054】
上記のように、実際に演奏される小節数を最適な小節数に合わせるべく、実演奏小節数から余剰小節数を減じ、算出された値を新たな実演奏小節数とする。上記の例では、68(小節)−8(小節)=60小節となる。
【0055】
最後に、新たな実演奏小節数を演奏希望時間で除して実演奏テンポを再度算出する。このようにしないと、結果的にテンポを元に戻して考えることにならないからである。上記の例では、60(小節)÷2(分)=30(小節/分)となる。
【0056】
また、このように楽曲の冒頭および末尾には、それぞれイントロおよびエンディングが付加された場合には、イントロと楽曲自体との間、ならびに楽曲自体とエンディングとの間において、これらが自然なつながりを持って演奏されるように、段落番号0033から0039までに説明した手順に従って、イントロの末尾および楽曲自体の末尾を修正・加工することもできる。
【0057】
【発明の効果】
本発明により、映像データと同期して流される楽曲データの再生時間を映像データに合わせることができるので、第1シーンに連続する第2シーンに対応して第1楽曲および第2楽曲を演奏させる場合、第1シーンの再生時間に合わせて第1楽曲が演奏される時間を合わせることができる。また、実演奏コードデータの最終小節のコードの種類、および最終小節のコードの1つ前のコードの種類、ならびに第2楽曲データのコードデータの冒頭コードの種類に基づいて最終小節のコードの種類を修正すれば、連続する第1シーンおよび第2シーンにそれぞれ対応した第1楽曲および第2楽曲が自然なつながりを持って演奏される。
【0058】
また、1つのシーンと共に同期出力することが希望される楽曲を、この1つのシーンの再生時間にぴったり収めようとする場合においても、本発明を利用すれば、1つのシーンの映像データと同期して流される楽曲データの再生時間を映像データの再生時間に合致させて、楽曲とシーンとを同期出力できるので、シーンの終了に合せてきっちりと楽曲をおさめることができる。また、楽曲の前後にそれぞれイントロおよびエンディングを付加しても、イントロと楽曲自体との間、ならびに楽曲自体とエンディングとの間において、これらが自然なつながりを持って演奏されるようにすることができる。
【図面の簡単な説明】
【図1】本発明に係る音楽編集方法を実行するプログラムをコンピュータ上で実行させた際の処理模式図
【図2】最終小節のコードの種類の具体的な修正方法を説明する図
【図3】実演奏コードデータの修正に用いられる変換表を示す図
【符号の説明】
1:メロディ選択部
2:演奏時間入力部
3:リズム伴奏選択部
4:メロディ&コードデータ編集部
5:自動伴奏再生部
6:メロディ記憶部
7:リズム記憶部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a music editing method and a recording medium on which the method is recorded. More specifically, the playback time of music data that is played in synchronization with video data is matched to the video data, and each of the two continuous video data The present invention relates to a music editing method for processing music data so that corresponding music data has a natural connection, and a recording medium on which the method is recorded.
[0002]
[Prior art]
In recent years, with the improvement in performance of computers such as personal computers, video data taken with a digital video camera or the like can be taken into a personal computer or the like. In addition, many people enjoy adding a piece of music that they think is appropriate to this video data imported to a personal computer, and outputting this music and video data together from a personal computer to a video, etc., into a single “work”. ing.
[0003]
[Problems to be solved by the invention]
However, while video data shot with a digital video camera etc. has different shooting times depending on the photographer and shooting scene, for example, the playback time of music that seems to be suitable for video data, such as a song song, is Often constant. Therefore, when both music and video data that are suitable for video data are output from a personal computer or the like to a video or the like, there is a “deviation” between the shooting time and the playback time.
[0004]
In order to solve this problem, it is common to change the tempo of the music or repeat the music several times. However, if the tempo of the music is changed significantly, it is originally appropriate for the video data. The music that I thought might not be appropriate. For example, if the shooting time is 4 minutes and 30 seconds and the music is 1 minute per performance, the video data ends in the middle of the music regardless of whether the number of repeats is 4 or 5.
[0005]
Especially in digital video cameras used on an individual basis, after shooting a certain scene, such as shooting an athletic meet relay, and then shooting the award ceremony, a completely different scene is shot. That's not uncommon. In such a case, fast-tempo music is appropriate in the relay scene, but such music is not appropriate in the award ceremony, and different music is usually selected.
[0006]
In this way, when video data with different scenes are continuous, it is necessary to contain the music exactly at the end of the previous scene. Furthermore, when the video data in such a case is reproduced, the video data changes suddenly at the transition of the scene, so the music also changes suddenly. Therefore, there is a problem that the music flows unnaturally at the change of the scene.
[0007]
The present invention has been made to solve the above-mentioned problems, and the reproduction time of music data that is played in synchronization with video data is matched to the video data, and the music data corresponding to two consecutive video data has a natural connection. An object of the present invention is to provide a music editing method for processing music data and a recording medium on which the method is recorded.
[0008]
[Means for Solving the Problems]
In the music editing method according to the present invention for solving the above-described problem, the first video data for a predetermined time and the first music data corresponding to the first video data are synchronously output,
The desired performance time desired by the user based on at least the first video data, the rhythm standard tempo corresponding to the rhythm of the first music data, and the melody data, code data, and melody length measures corresponding to the first music data Based on the actual performance melody data, actual performance code data, actual performance tempo,
The actual performance rhythm data is determined based on the rhythm accompaniment data corresponding to the rhythm of the first music data, the actual performance chord data, and the actual performance tempo,
A music editing method for generating first music data based on actual performance melody data and actual performance rhythm data,
Multiply the desired performance time by the rhythm standard tempo to calculate the optimal number of measures,
Divide the optimal number of measures by the number of melody length measures to calculate the number of melody repeats,
Multiply the melody length by the number of melody repetitions to calculate the number of actual performance measures,
Divide the number of actual performance bars by the desired performance time to calculate the actual performance tempo,
If the difference between the actual performance tempo and the standard rhythm tempo is within a predetermined range, the melody and chord data are repeated as many times as the number of melody repetitions to obtain the actual performance melody data and actual performance chord data. If the actual tempo is slower or faster than the standard rhythm tempo, if it is slower, add 1 to the number of melody repeats and return to the step of calculating the actual performance measure again. Repeat as many times as the number of melody repetitions to make provisional performance melody data and provisional performance code data,
Calculate the number of extra bars by subtracting the optimal number of bars from the actual number of bars,
Delete the data for the number of extra bars from the end of the tentative melody data and the end of the tentative performance chord data, respectively, to obtain actual performance melody data and actual performance chord data,
Subtract the number of surplus bars from the actual number of bars,
Calculate the actual performance tempo again by dividing the number of actual performance bars by reducing the number of extra bars by the desired performance time.
Based on the actual performance melody data, the actual performance code data, the actual performance tempo, and the rhythm accompaniment data, the first music data is output from the sound source.
[0009]
The second video data is continuous with the first video data, and the second music data corresponding to the second video data is output in synchronization with the second image data.
After subtracting the number of surplus bars from the actual number of bars,
The chord type of the last bar of the actual performance chord data, the chord type of the chord immediately before the chord of the last bar, and the chord type of the chord data of the second music data are corrected. It is preferable to do.
[0010]
It is also preferable that each scale of the rhythm accompaniment data used when the first music data is output from the sound source is translated based on each code data of the first music data. Furthermore, if necessary, intro data and ending data may be added before and after the first music data, respectively.
[0011]
Furthermore, after subtracting the number of extra bars from the number of actual performance bars,
Modifying the chord type of the last measure of the actual performance chord data based on the chord type of the last bar of the actual performance chord data, the chord type of the chord immediately before the chord of the last bar, and the chord type of the chord data of the ending data Is preferred. When intro data and ending data are added before and after the first music data, the chord type of the last bar of the chord data of the intro data, the chord type of the chord immediately before the chord of the last bar, and the It is preferable to correct the chord type of the last measure based on the chord type of the chord data of one musical piece.
[0012]
A recording medium in which a processing program for causing a computer to execute these music editing methods is recorded on a computer-readable medium is also included in the spirit of the present invention.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
FIG. 1 shows a process schematic diagram when a program for executing the music editing method according to the present invention is executed on a computer. In the present embodiment, the video data is not particularly corrected or processed.
[0014]
When a program for executing a music editing method according to the present invention is executed on a computer, a melody selection unit 1 and a performance time input unit are provided in a writable / readable storage means called a “RAM (random access memory)”. 2. A rhythm accompaniment selection unit 3, a melody & chord data editing unit 4, and an automatic accompaniment reproduction unit 5 are virtually created.
[0015]
The melody selection unit 1 is input with a song that the user desires to play through a keyboard, a mouse, or the like. Then, the melody selection unit 1 reads the melody, chord, and melody length measure number of the input music from the melody storage unit 6. The melody storage unit 6 stores a lot of music data including at least a melody, a chord, and a melody length measure. The melody storage unit 6 may be on the above-mentioned RAM or ROM (Read Only Memory), or on a predetermined homepage on the Internet or a server connected by a predetermined dedicated telephone line. There may be. The melody, chord, and melody length measure number read from the melody storage unit 6 are transmitted to the melody & chord data editing unit 4, respectively.
[0016]
The performance time input unit 2 is input with a time desired by the user to play the music as a desired performance time via a keyboard or the like. This music is a music that the user thinks is appropriate for the video data output in synchronization with this music. In general, the desired shooting time is the shooting time of the scene in which the music is to be played. At this time, it is possible to extract the shooting time of the scene where the music is to be played from the video data and use it as the desired playing time. In this case, it is not necessary for the user to input the time for playing the music from the keyboard or the like. This saves the user time and eliminates the need to be aware of the desired performance time. The desired performance time input to the performance time input unit 2 is transmitted to the melody & chord data editing unit 4.
[0017]
The rhythm accompaniment selection unit 3 receives a rhythm that the user desires to accompany through a keyboard, a mouse, or the like. The rhythm accompaniment selection unit 3 reads the rhythm standard tempo and rhythm accompaniment data of the input rhythm from the rhythm storage unit 7. The rhythm storage unit 7 stores a large number of rhythm data including at least a rhythm standard tempo and rhythm accompaniment data. Similar to the melody storage unit 6, the rhythm storage unit F may be located anywhere as long as the user can connect to the homepage, server, etc. as well as the above-described RAM and ROM. The data is transmitted to the rhythm standard tempo melody & chord data editing unit 4 read from the rhythm storage unit 7. On the other hand, the rhythm accompaniment data is transmitted to the automatic accompaniment reproduction unit 6.
[0018]
As described above, the melody & chord data editing unit 4 reads the melody, chord, and melody length measure read from the melody storage unit 6, the desired performance time input to the performance time input unit 2, and the rhythm accompaniment. The rhythm standard tempo read from the storage unit 7 is received. The melody & chord data editing unit 4 that has received them receives the received melody so that the music that is finally output to the sound source and played has the same playing time as the desired playing time by the method described below. The chord and the rhythm standard tempo are processed into the actual performance melody data, the actual performance chord data, and the actual performance tempo, respectively.
[0019]
In the following, for ease of explanation, unless otherwise specified, the first scene is the athletic meet relay scene (1.75 minutes), the second scene is the award ceremony scene (2 minutes), The desired performance time of the music that is synchronously output (hereinafter referred to as “first music”) is the same as that of the relay scene (ie, 1.75 minutes). The tempo of this music is 30 bars / minute, and the number of melody length bars (the length of the first music is expressed in bars) is 12 bars. Normally, the tempo is often defined by how many quarter notes are played in one minute, but here the tempo unit is “measure / minute” for easy understanding. If 30 bars / minute is converted into the tempo used in musicology, it is about 120, and it is a melody of normal speed.
[0020]
First, the optimum number of measures is calculated by multiplying the desired performance time by the rhythm standard tempo. That is, when the desired tempo of the rhythm desired by the user is multiplied by the desired performance time and the music is played for the desired performance time, the number of bars to be played is determined. Here, 1.75 (minutes) × 30 (bars) = 52.5 (bars).
[0021]
Next, the number of melody repetitions is calculated by dividing the optimum number of bars obtained as described above by the number of melody length bars. If the first song is played only once, if the melody length measure of the first song is 24 seconds (that is, the first song ends in 24 seconds), the remaining 1 minute 21 seconds During this period, the music will not flow. Therefore, as long as the first scene continues, the first music is played repeatedly, and the number of repetitions is obtained here. In the above specific example, the optimal number of bars is 52.5 (bars), so 52.5 (bars) ÷ 12 bars = 4.375 (times). In addition, when a decimal part occurs when it is divided, it is rounded off.
[0022]
The actual performance measure number is calculated by multiplying the melody length measure number by the melody repetition number obtained as described above. That is, for example, as described above, the actual number of bars to be played is obtained when the first music piece is repeatedly played four times. In the above example, 12 bars × 4 times = 48 bars.
[0023]
Next, the actual performance tempo is calculated by dividing the number of actual performance bars by the desired performance time. That is, in order to play the first music piece by the number of measures that are actually played within the desired playing time, it is determined how much tempo should actually be played. In the above example, 48 bars / 1.75 minutes = 27.43 bars / minute.
[0024]
Here, the calculated actual performance tempo and the rhythm standard tempo are compared. In other words, the rhythm standard tempo is the standard tempo of the rhythm, and if the actual performance tempo that is the actual tempo is significantly different from the rhythm standard tempo, the first music is played at an extremely fast or slow tempo. It will be played, the image of the first music will change significantly, and the corresponding first scene will be “unsuitable”. Therefore, the calculated actual performance tempo is compared with the standard rhythm tempo, and if the difference is within a predetermined range, it is determined that there is no problem, and the melody and chord data are repeated as many times as the number of melody repetitions. Data and actual performance chord data.
[0025]
On the other hand, when the above difference is outside the predetermined range, the following processing is performed because there is a problem. In the above example, for example, if it is determined that there is no problem if the difference is within 5% in advance, 27.43 (measures / minute) ÷ 30 (measures / minute) × 100 (%) = 91.43 (% Since there is a problem, the following processing is performed.
[0026]
The calculated actual performance tempo and the rhythm standard tempo are compared, and if the difference is outside the predetermined range, it is once determined whether the actual performance tempo is slower or faster than the rhythm standard tempo. If it is late, the process returns to the step of adding 1 to the number of melody repetitions and calculating the actual performance measure number again. In the above example, 91.43 (%) is “slow”. Therefore, the first music is played five times by adding 1 to the number of repetitions, and the calculation is performed again. Then, the actual performance measure number is 12 (measures) × 5 (times) = 60 measures, and the actual performance tempo is 60 (measures) ÷ 1.75 (minutes) = 34.28 (measures / minute). And the rhythm standard tempo is 34.28 (measures / minute) ÷ 30 (measures / minute) = 114.2 (%), which is “too fast”.
[0027]
On the other hand, if it is fast, the melody and chord data are repeated as the melody and chord data by the number of melody repetitions, respectively, to obtain provisional performance melody data and provisional performance code data. In the above example, the data obtained by repeating the melody of the first music five times becomes provisional performance melody data, and the data obtained by repeating the chord data five times becomes provisional performance code data.
[0028]
Next, the number of surplus bars is calculated by subtracting the optimum number of bars from the actual number of bars. Then, data corresponding to the number of extra measures is deleted from the end of the provisional performance melody data and the end of the provisional performance code data, respectively, to obtain actual performance melody data and actual performance code data. In other words, we decided to return to the original tempo here, and delete the remaining bars from the end of the provisional melody data in order to match the actual number of bars played to the optimal number of bars. The performance melody data. In the above example, the actual performance measure number is 60 (measures), the optimum number of measures is 52.5 (measures), and the difference is 7.5 measures. Therefore, provisional performance melody data having data for 60 measures is provided. Only 7.5 bars are deleted from the end of the melody data to obtain actual performance melody data. However, if there is a fractional part of the number of extra bars, round off. The same applies to code data. In this case, only 8 bars are deleted.
[0029]
As described above, in order to match the actual number of bars to be played with the optimal number of bars, the number of surplus bars is subtracted from the actual number of bars, and the calculated value is used as the new number of actual performance bars. In the above example, 60 (bars) −8 (bars) = 52 bars.
[0030]
Finally, the actual performance tempo is calculated again by dividing the new actual performance bars by the desired performance time. This is because unless this is done, the tempo will not be restored. In the above example, 52 (measures) ÷ 1.75 (minutes) = 29.71 (measures / minute).
[0031]
Based on the actual performance melody data, actual performance code data, actual performance tempo, and rhythm accompaniment data processed or calculated as described above, the first music data is output from the sound source.
[0032]
As described above, in the present invention, in order to play a song for a desired performance time, first, the tempo of the music is changed based on the desired performance time and the calculated actual performance tempo deviates from the standard rhythm tempo. If it is within the range suitable for the corresponding first scene (5% in the above example), the first music is played at the speed of the actual performance tempo. On the other hand, if it is out of range, the end of the performance data is deleted and the music is played for the desired performance time. As described above, in the present invention, the first musical sound and the first scene can be synchronously output by matching the reproduction time of the music data that is played in synchronization with the video data to the reproduction time of the video data. Even if the second scene continues immediately after the tune, the music (first tune) can be stored exactly at the end of the first scene.
[0033]
By the way, in the present invention, the second music continues immediately after the first music is played for the desired performance time. If the difference between the calculated actual performance tempo and the standard rhythm tempo is within a predetermined range (5% in the above example), the first music is played to the end, so the second music is immediately after the second music. There is no problem even if it flows with the scene (synchronized output). However, if it is out of range, the actual performance melody data is data obtained by deleting only the extra measures from the end of the provisional performance melody data. The second music is played along with the second scene.
[0034]
In that case, the second music is continuous with the first music that ends in the middle, but if the connection of these music is unnatural, it is played between the first scene and the second scene. Music will sound unnatural. Therefore, in the present invention, after subtracting the number of surplus bars from the number of actual performance bars, the type of chord of the last bar of the actual performance chord data, the type of chord immediately before the chord of the last bar, and the second music It is preferable to correct the code type of the last bar based on the type of the beginning code of the data code data. Hereinafter, a specific correction method will be described.
[0035]
In the following description, as a specific example, as shown in FIG. 2, the provisional performance chord data of the first music ends in the order of F, G, C, Am, F, and G, and the second music It is assumed that code data starts in the order of C and Am. The number of surplus bars is three.
[0036]
Since the number of surplus bars is three, the last three (Am, F, and G) of the provisional performance chord data of the first music are deleted, and the deletion ends in the order of F, G, and C after deletion. The chord data becomes actual performance chord data. After the deletion, if the first music and the second music are played after the actual performance code as they are, they will be played in the order of F, G, C, C, Am, and it may be unnaturally heard by some people. May be.
[0037]
Therefore, the actual performance chord data is corrected based on the conversion table as shown in FIG. First, chords (G, C, etc.) are classified into tonics, subdominants, and dominants in terms of musicology. In order to prevent unnatural sound, as shown in Fig. 3, if both chords before and after a bar are both tonic, break the bar into two on the chord and Play sub-dominant chords and the second half with dominant chords. In the specific example as shown in FIG. 2, the actual performance chord data of the first music ends with C (tonic), but the chords of the bars before and after this bar with chord C are G (dominant), C ( 3, the last C chord of the actual performance chord data of the first music is the first music if the first half is changed to tonic (C) and the second half is changed to dominant (G). To 2 large pieces of music will be heard naturally. For the sake of convenience, in FIG. 2, the measure corresponding to the last C code to be modified is referred to as “−1 measure”, and the measures before and after it are “−2 measure” and “1 measure”, respectively. If the actual performance code data of the first music is processed in this way, the music data corresponding to the continuous first and second scenes are played with natural connections.
[0038]
The rhythm accompaniment data is preferably translated and scaled as necessary based on the chord data of the first music piece. Usually, since the rhythm accompaniment data is stored in the rhythm storage unit as being C major, the chord data of the first music is assumed to be continuous in the order of F, G, C, Am, F, G. However, the rhythm accompaniment data read from the rhythm storage unit 7 will be continuous in the order of C, C, C, C, C, and C. Therefore, parallel movement and scale correction as necessary are performed so as to correspond to the chord data arranged in the order of F, G, C, Am, F, and G. Specifically, for each rhythm accompaniment data, the first data C of the rhythm accompaniment data is translated up to 5 semitones up to F, and the next data C is translated up to 7 semitones up to G. Do it. If the chord data is a minor chord such as Am, and the chord data is a scale of D # (le sharp), E (mi), and B (si), one semitone in advance Move it down to the chord data of the first song after lowering it.
[0039]
In the above description, for the sake of illustration, there are two scenes and two songs corresponding to each scene. Of course, there may be three or more songs, and the second and subsequent songs are also supported in the same manner as described above. It can be edited according to the playback time of each scene.
[0040]
(Embodiment 2)
In the description of the first embodiment, the first scene, which is a relay scene, and the second scene, which is an award ceremony scene, are continuous. In the second embodiment, the first scene is synchronized with one scene. Also in the music editing method for determining the actual performance melody data, the actual performance chord data, and the actual performance tempo of the first music so that the first music desired to be output fits within the playback time of this one scene. The present invention can be applied.
[0041]
More specifically, for example, one scene is set to 1.75 minutes, and the desired performance time of the music (ie, the first music) output in synchronization with this scene is the same as that of this scene (ie, 1.. 75 minutes). The tempo of this music is 30 bars / minute, and the melody length is 12 bars.
[0042]
In this case, calculation is performed in exactly the same manner as in the first embodiment, and the first music is repeated five times, and the last eight bars are deleted in the last five times. The first musical piece is played with an actual performance tempo of 29.71 (measures / minute), and is output in synchronization with the scene.
[0043]
As described above, also in the second embodiment, in order to perform the music for the desired performance time, first, the tempo of the music is changed based on the desired performance time and the calculated actual performance tempo is changed from the rhythm standard tempo. If it is within a range that does not deviate so much and sounds appropriate for the corresponding scene, the first music is played at the speed of the actual performance tempo. On the other hand, if it is out of range, the end of the performance data is deleted and the music is played for the desired performance time. As described above, since the first musical sound and the scene can be synchronously output by matching the playback time of the music data that is played in synchronization with the video data to the playback time of the video data, the music ( First music).
[0044]
Intro and ending may be added to the beginning and end of the first music piece, respectively. Even in this case, the present invention can be applied. For example, it is assumed that one scene is 2 minutes, the length of the intro is 4 bars, and the length of the ending is 4 bars. Usually, the intro length and the ending length are fixed. In the same manner as described above, the tempo of this music is 30 bars / minute, and the melody length bar number is 12 bars.
[0045]
Next, as in the first embodiment, actual performance melody data, actual performance code data, actual performance tempo, rhythm accompaniment data, and actual performance rhythm data are determined. Specifically, first, the optimal number of bars is calculated. Here, 2 (minutes) × 30 (bars) = 60 (bars). The optimal number of melodic bars is calculated by subtracting the number of intro and ending bars from this optimal number of bars. Here, 60−4−4 = 52 (bars).
[0046]
Next, the number of melody repetitions is calculated by dividing the optimum number of melody measures obtained as described above by the number of melody length measures. If the first song is played only once, if the total number of melodies, intros, and ending length bars in the first song is 40 seconds (ie, the first song ends in 40 seconds) The music will not flow for the remaining 1 minute 20 seconds. Therefore, as long as the first scene continues, the melody portion of the first music is played repeatedly, and the number of repetitions is obtained here. In the above specific example, since the optimum number of measures in the melody is 52 (measures), 52 (measures) ÷ 12 measures = 4.33 (times). In addition, when a decimal part occurs when it is divided, it is rounded off.
[0047]
The actual performance measure number is calculated by multiplying the melody length measure number by the melody repetition number obtained as described above and further adding the intro / ending measure number. That is, for example, as described above, the actual number of bars to be played is obtained when the first music piece is repeatedly played four times. In the above example, 12 bars × 4 times + 4 bars + 4 bars = 56 bars.
[0048]
Next, the actual performance tempo is calculated by dividing the number of actual performance bars by the desired performance time. That is, in order to play the first music piece by the number of measures that are actually played within the desired playing time, it is determined how much tempo should actually be played. In the above example, 56 bars ÷ 2 minutes = 28 bars / minute.
[0049]
Here, the calculated actual performance tempo and the rhythm standard tempo are compared. In other words, the rhythm standard tempo is the standard tempo of the rhythm, and if the actual performance tempo that is the actual tempo is significantly different from the rhythm standard tempo, the first music is played at an extremely fast or slow tempo. It will be played, the image of the first music will change significantly, and the corresponding first scene will be “unsuitable”. Therefore, the calculated actual performance tempo is compared with the standard rhythm tempo, and if the difference is within a predetermined range, it is determined that there is no problem, and the melody and chord data are repeated as many times as the number of melody repetitions. The intro is connected with an ending at the end to obtain actual performance melody data and actual performance code data.
[0050]
On the other hand, when the above difference is outside the predetermined range, the following processing is performed because there is a problem. In the above example, for example, if the above difference is within 5% in advance, there is no problem, 28 (bars / minute) ÷ 30 (bars / minute) × 100 (%) = 93.33 (%) Since there is a problem, the following processing is performed.
[0051]
The calculated actual performance tempo and the rhythm standard tempo are compared, and if the difference is outside the predetermined range, it is once determined whether the actual performance tempo is slower or faster than the rhythm standard tempo. If it is late, the process returns to the step of adding 1 to the number of melody repetitions and calculating the number of actual performance bars again. In the above example, since it is “slow” at 93.33 (%), the melody portion of the first music is played five times by adding 1 to the number of repetitions, and the calculation is performed again. Then, the number of actual performance measures is 12 (measures) × 5 (times) +4 measures + 4 measures = 68 measures, and the actual performance tempo is 68 (measures) / 2 (minutes) = 34 (measures / minute). And rhythm standard tempo is 34 (measures / minute) ÷ 30 (measures / minute) = 113.33 (%), which means “too fast”.
[0052]
On the other hand, if it is fast, the melody and chord data, the melody and chord data are repeated as many times as the number of melody repetitions, and an intro at the beginning and an ending at the end are used as temporary performance melody data and provisional performance chord data. In the above example, the melody of the first song is repeated 5 times, the intro at the beginning of the data, the ending at the end is the tentative performance melody data, the intro at the beginning of the data where the chord data is repeated 5 times, Temporary performance chord data is the one with an ending at the end.
[0053]
Next, the number of surplus bars is calculated by subtracting the optimum number of bars from the actual number of bars. Then, data corresponding to the number of extra measures is deleted from the end of the provisional performance melody data and the end of the provisional performance code data, respectively, to obtain actual performance melody data and actual performance code data. In other words, we decided to return to the original tempo here, and delete the remaining bars from the end of the provisional melody data in order to match the actual number of bars played to the optimal number of bars. The performance melody data. In the above example, the number of actual performance bars is 68 (bars), the optimal number of bars is 60 (bars), and the difference is 8 bars. Therefore, the provisional performance having data for 68-4-4 = 60 bars. Only 8 bars are deleted from the end of the melody data (not including the intro / ending) to obtain the actual performance melody data. However, if there is a fractional part of the number of extra bars, round off. The same applies to code data. In this case, only 8 bars are deleted.
[0054]
As described above, in order to match the actual number of bars to be played with the optimal number of bars, the number of surplus bars is subtracted from the actual number of bars, and the calculated value is used as the new number of actual performance bars. In the above example, 68 (bars) -8 (bars) = 60 bars.
[0055]
Finally, the actual performance tempo is calculated again by dividing the new actual performance bars by the desired performance time. This is because unless this is done, the tempo will not be restored. In the above example, 60 (measures) ÷ 2 (minutes) = 30 (measures / minute).
[0056]
In addition, when an intro and an ending are added to the beginning and end of a song as described above, these have a natural connection between the intro and the song itself and between the song itself and the ending. The end of the intro and the end of the music itself can be corrected and processed according to the procedures described in paragraph numbers 0033 to 0039.
[0057]
【The invention's effect】
According to the present invention, the playback time of music data that is played in synchronization with video data can be matched to the video data, so that the first music and the second music are played in correspondence with the second scene that is continuous with the first scene. In this case, the time at which the first music is played can be matched with the playback time of the first scene. Also, the chord type of the last bar of the actual performance chord data, the chord type of the chord immediately before the chord of the last bar, and the chord type of the chord data of the second music data, the chord type of the last bar Is corrected, the first music and the second music corresponding to the continuous first scene and second scene, respectively, are played with natural connections.
[0058]
In addition, even in the case where a piece of music that is desired to be output in synchronization with one scene is to be kept within the playback time of the one scene, the present invention can be used to synchronize with the video data of one scene. Since the music and the scene can be synchronously output by matching the playback time of the music data that is played in the same way as the playback time of the video data, the music can be stored exactly at the end of the scene. In addition, even if an intro and an ending are added before and after the music, the intro and the music itself and between the music and the ending can be played with a natural connection. it can.
[Brief description of the drawings]
FIG. 1 is a schematic diagram of processing when a program for executing a music editing method according to the present invention is executed on a computer.
FIG. 2 is a diagram for explaining a specific method for correcting the chord type of the last measure.
FIG. 3 is a diagram showing a conversion table used for correcting actual performance chord data
[Explanation of symbols]
1: Melody selection section
2: Performance time input section
3: Rhythm accompaniment selection part
4: Melody & chord data editor
5: Automatic accompaniment playback section
6: Melody storage
7: Rhythm memory

Claims (7)

所定時間の第1映像データと、前記第1映像データに対応する第1楽曲データとが同期出力され、
少なくとも前記第1映像データに基づいて利用者が希望する演奏希望時間、前記第1楽曲データのリズムに対応したリズム標準テンポ、ならびに前記第1楽曲データに対応したメロディデータ、コードデータ、および前記メロディ長さ小節数に基づいて、実演奏メロディデータ、実演奏コードデータ、実演奏テンポを決定し、
第1楽曲データのリズムに対応したリズム伴奏データ、前記実演奏コードデータ、および前記実演奏テンポに基づいて実演奏リズムデータを決定し、
前記実演奏メロディデータおよび実演奏リズムデータに基づいて第1楽曲データを発生する音楽編集方法であって、
前記演奏希望時間にリズム標準テンポを乗じて最適小節数を算出し、
前記最適小節数を前記メロディ長さ小節数で除してメロディ繰り返し回数を算出し、
前記メロディ長さ小節数に前記メロディ繰り返し回数を乗じて実演奏小節数を算出し、
前記実演奏小節数を前記演奏希望時間で除して実演奏テンポを算出し、
前記実演奏テンポと前記リズム標準テンポとの間の差が予め定められた範囲内であれば、前記メロディおよび前記コードデータを、それぞれ前記メロディ繰り返し回数分だけ繰り返して実演奏メロディデータおよび実演奏コードデータとし、範囲外であれば、前記実演奏テンポが前記リズム標準テンポより遅いか速いかを判断し、遅ければ前記メロディ繰り返し回数に1を加えて再度実演奏小節数を算出する工程に戻り、速ければ前記メロディおよび前記コードデータをそれぞれ前記メロディ繰り返し回数分だけ繰り返して仮演奏メロディデータおよび仮演奏コードデータとし、
前記実演奏小節数から前記最適小節数を減じて余剰小節数を計算し、
前記仮演奏メロディデータの末尾および前記仮演奏コードデータの末尾からそれぞれ前記余剰小節数分のデータを削除して実演奏メロディデータおよび実演奏コードデータとし、
前記実演奏小節数から余剰小節数を減じ、
前記余剰小節数を減じた実演奏小節数を前記演奏希望時間で除して実演奏テンポを再度算出し、
前記実演奏メロディデータ、前記実演奏コードデータ、前記実演奏テンポ、および前記リズム伴奏データに基づいて、第1楽曲データが音源から出力される、音楽編集方法。
The first video data for a predetermined time and the first music data corresponding to the first video data are synchronously output,
A desired performance time desired by a user based on at least the first video data, a rhythm standard tempo corresponding to the rhythm of the first music data, and melody data, code data, and the melody corresponding to the first music data Based on the number of measures in length, actual performance melody data, actual performance chord data, actual performance tempo are determined,
Determining actual performance rhythm data based on the rhythm accompaniment data corresponding to the rhythm of the first music data, the actual performance chord data, and the actual performance tempo;
A music editing method for generating first music data based on the actual performance melody data and the actual performance rhythm data,
Multiply the desired playing time by the rhythm standard tempo to calculate the optimal number of measures,
Divide the optimal number of bars by the number of melody length bars to calculate the number of melody repetitions,
Multiply the melody length measure by the number of melody repetitions to calculate the actual performance measure number,
Divide the number of actual performance bars by the desired performance time to calculate the actual performance tempo,
If the difference between the actual performance tempo and the rhythm standard tempo is within a predetermined range, the actual performance melody data and the actual performance code are repeated by repeating the melody and the chord data by the number of repetitions of the melody, respectively. If it is out of range, it is determined whether the actual performance tempo is slower or faster than the standard rhythm tempo, and if it is slower, the process returns to the step of calculating the number of actual performance bars by adding 1 to the number of melody repetitions, If it is fast, the melody and the chord data are repeated as many times as the number of melody repetitions, respectively, and are used as provisional performance melody data and provisional performance chord data,
Subtracting the optimal number of bars from the actual number of bars to calculate the number of extra bars,
Deleting the data corresponding to the number of extra measures from the end of the provisional performance melody data and the end of the provisional performance code data, respectively, to obtain actual performance melody data and actual performance code data;
Subtract the number of surplus bars from the actual number of bars,
Divide the number of actual performance bars by subtracting the number of extra bars by the desired performance time, and recalculate the actual performance tempo.
A music editing method in which first music data is output from a sound source based on the actual performance melody data, the actual performance code data, the actual performance tempo, and the rhythm accompaniment data.
第2映像データが前記第1映像データに連続すると共に、前記第2映像データに対応する第2楽曲データが前記第2画像データと同期出力され、
前記実演奏小節数から余剰小節数を減じた後に、
実演奏コードデータの最終小節のコードの種類、および前記最終小節のコードの1つ前のコードの種類、ならびに第2楽曲データのコードデータの冒頭コードの種類に基づいて前記最終小節のコードの種類を修正する、請求項1に記載の音楽編集方法。
Second video data is continuous with the first video data, and second music data corresponding to the second video data is output in synchronization with the second image data,
After subtracting the number of surplus bars from the number of actual performance bars,
The chord type of the last bar of the actual performance chord data, the chord type of the chord immediately before the chord of the final bar, and the chord type of the chord data of the second music data The music editing method according to claim 1, wherein:
前記第1楽曲データが音源から出力される際に用いられる前記リズム伴奏データの各音階が第1楽曲データの各コードデータに基づいて平行移動されている、請求項1または2のいずれかに記載の音楽編集方法。3. The scale of the rhythm accompaniment data used when the first music data is output from a sound source is translated based on the chord data of the first music data. 4. Music editing method. 第1楽曲データの前後にそれぞれイントロデータおよびエンディングデータが付加されている、請求項1に記載の音楽編集方法。The music editing method according to claim 1, wherein intro data and ending data are respectively added before and after the first music data. 前記実演奏小節数から余剰小節数を減じた後に、
実演奏コードデータの最終小節のコードの種類、および前記最終小節のコードの1つ前のコードの種類、ならびに前記エンディングデータのコードデータの冒頭コードの種類に基づいて前記最終小節のコードの種類を修正する、請求項4に記載の音楽編集方法。
After subtracting the number of surplus bars from the number of actual performance bars,
The chord type of the last measure of the actual performance chord data, the chord type of the chord immediately before the chord of the last bar, and the chord type of the chord data of the ending data The music editing method according to claim 4, wherein correction is performed.
前記実演奏小節数から余剰小節数を減じた後に、
前記イントロデータのコードデータの最終小節のコードの種類、および前記最終小節のコードの1つ前のコードの種類、ならびに前記第1楽曲のコードデータの冒頭コードの種類に基づいて前記最終小節のコードの種類を修正する、請求項4に記載の音楽編集方法。
After subtracting the number of surplus bars from the number of actual performance bars,
The chord type of the last bar of the chord data of the intro data, the chord type of the chord immediately before the chord of the last bar, and the chord type of the chord data of the first music The music editing method according to claim 4, wherein the type of music is corrected.
請求項1から6までのいずれかに記載の音楽編集方法をコンピュータに実行させるための処理プログラムを、前記コンピュータが読み取り可能な媒体に記録した記録媒体。A recording medium recording a processing program for causing a computer to execute the music editing method according to claim 1 on a computer-readable medium.
JP2000109345A 2000-04-11 2000-04-11 Music editing method and recording medium recording the method Expired - Fee Related JP4174950B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000109345A JP4174950B2 (en) 2000-04-11 2000-04-11 Music editing method and recording medium recording the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000109345A JP4174950B2 (en) 2000-04-11 2000-04-11 Music editing method and recording medium recording the method

Publications (2)

Publication Number Publication Date
JP2001296866A JP2001296866A (en) 2001-10-26
JP4174950B2 true JP4174950B2 (en) 2008-11-05

Family

ID=18622050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000109345A Expired - Fee Related JP4174950B2 (en) 2000-04-11 2000-04-11 Music editing method and recording medium recording the method

Country Status (1)

Country Link
JP (1) JP4174950B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005096265A1 (en) * 2004-03-31 2005-10-13 Matsushita Electric Industrial Co., Ltd. Music composition data edition device and music composition data edition method
JP4971023B2 (en) * 2007-04-27 2012-07-11 芳彦 佐野 Music generation method, music generation device, music generation system
CN115550503B (en) * 2021-06-30 2024-04-23 华为技术有限公司 Method and device for generating multiple sound effects, terminal equipment and storage medium

Also Published As

Publication number Publication date
JP2001296866A (en) 2001-10-26

Similar Documents

Publication Publication Date Title
US6756533B2 (en) Automatic music composing apparatus and automatic music composing program
DE69707029T2 (en) Karaoke device with adapted potpourri obtained by connecting different pieces of music together
JPH04151199A (en) Animation composition display device
JPH08263077A (en) Karaoke device with voice converting function
JPH0452960B2 (en)
US20070209499A1 (en) Music Composition Data Editing Device And Music Composition Data Editing Method
US7169999B2 (en) Digital signal processing method and apparatus thereof, control data generation method and apparatus thereof, and program recording medium
JP4412128B2 (en) Playback apparatus and playback method
JP3542821B2 (en) Karaoke device with features in video compositing system
JP4174950B2 (en) Music editing method and recording medium recording the method
JP3239897B1 (en) Songwriting device and program
JPH04506716A (en) Data compression of acoustic data
JP3646680B2 (en) Songwriting apparatus and program
KR20200048717A (en) Method and apparatus for composing bridge music that connect two music
JP2005121876A (en) Waveform generating device
JP3901008B2 (en) Karaoke device with voice conversion function
JP3807380B2 (en) Score data editing device, score data display device, and program
JP2023013684A (en) Singing voice quality conversion program and singing voice quality conversion device
JP3214623B2 (en) Electronic music playback device
CN109584845B (en) Automatic music distribution method and system, terminal and computer readable storage medium
JP3641955B2 (en) Music data generator and recording medium therefor
JP2005316458A (en) Musical composition data editing device and musical composition data edition method
JP2002123256A (en) Music piece information edition system, method and recording medium
JP2897929B2 (en) Karaoke equipment
JP2003302971A (en) Apparatus and program for video data processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070309

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080729

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080811

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees