Nothing Special   »   [go: up one dir, main page]

JP3713836B2 - Music performance device - Google Patents

Music performance device Download PDF

Info

Publication number
JP3713836B2
JP3713836B2 JP26751396A JP26751396A JP3713836B2 JP 3713836 B2 JP3713836 B2 JP 3713836B2 JP 26751396 A JP26751396 A JP 26751396A JP 26751396 A JP26751396 A JP 26751396A JP 3713836 B2 JP3713836 B2 JP 3713836B2
Authority
JP
Japan
Prior art keywords
performance
data
external device
timing
performance data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26751396A
Other languages
Japanese (ja)
Other versions
JPH10116070A (en
Inventor
隆宏 川嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP26751396A priority Critical patent/JP3713836B2/en
Publication of JPH10116070A publication Critical patent/JPH10116070A/en
Application granted granted Critical
Publication of JP3713836B2 publication Critical patent/JP3713836B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、自動演奏ピアノのような外部機器と同期して音楽演奏を行なう音楽演奏装置に関する。
【0002】
【従来の技術】
近年、音楽的な娯楽としていわゆるカラオケが広く普及しており、この普及に伴ってカラオケの多様化が進んいる。この多様化の一傾向として高級化があり、高級化の一例としては、例えば、MIDIデータで記録された演奏データに基づいて音源回路で伴奏音を合成する一方、自然楽器を自動演奏して、その楽音を伴奏音に付加することなどがある。かかる自然楽器には、例えば自動演奏ピアノがあげられる。かかる自動演奏ピアノには、各鍵に対し電磁的にオン/オフするソレノイドが設けられており、これらソレノイドを演奏データに基づいて駆動させて、実際に打弦させることでピアノ音が発生するようになっている。
【0003】
ところで、演奏データに基づく伴奏音の合成は、音源回路によって楽音波形を生成することにより行なわれるため、すなわち、純電気的に行なわれるために、演奏データの供給を受けた時点において直ちに可能である。
これに対し、自動演奏ピアノは、一部に電気的動作を伴うものの、楽音を発生するための根幹が機械的構成によるため、演奏データの供給を受けた時点から実際に楽音が発生するまでに時間差(約0.5秒)が生じてしまうという事情がある。このため、音源回路と自動演奏ピアノとに演奏データを同時に供給しても、両者による発生楽音には、約0.5秒の時間差が生じてしまう。これほどまでに時間差が生じると、歌い手にとっては歌いづらく、また聞き手にとっても聞きづらくなる。
【0004】
【課題を解決するための手段】
上述した課題を解決するために、本発明にあっては、少なくとも1以上の演奏パート毎の演奏データであって、各パートにおいて発生すべき楽音を規定する演奏データを時系列に供給することで、当該1以上の演奏パートの演奏を行なう音楽演奏装置において、演奏データを供給すべきタイミングを変更する必要がある外部機器が接続されているか否かを検出する第1の検出手段と、前記第1の検出手段によって、演奏データを供給すべきタイミングを変更する必要がある外部機器が接続されていると検出された場合に、当該外部機器に演奏パートを割り当てる割当手段と、当該外部機器に割り当てた演奏パートの演奏データを供給するタイミングを予め検出する第2の検出手段と、前記第2の検出手段によって検出されたタイミングよりも所定の時間だけ先行させたタイミングを、検出したタイミングの各々について求める算出手段と、演奏テンポを変更する旨のテンポ変更命令を検出する第3の検出手段と、前記外部機器に対する前記演奏データの単位時間あたりの供給量を演奏テンポに応じて求め、前記テンポ変更命令が前記第3の検出手段により検出された場合、前記演奏データの単位時間あたりの供給量を、当該テンポ変更命令で指定される演奏テンポに応じて変更するデータ供給量算出手段と、外部機器に対して割り当てた演奏パートの演奏データを、前記算出手段により求めたタイミング当該外部機器に供給し、且つ、前記データ供給量算出手段により求められた供給量の演奏データを単位時間あたりに供給する供給手段と具備することを特徴としている。
【0005】
【発明が解決しようとする課題】
したがって、専用の演奏データが用意されていない曲においては、自動演奏ピアノと他の電子楽器との同期演奏が実質的にできないという問題があった。また、専用の演奏データを作成するのは、上記タイムラグを考慮し、しかも曲毎に作成しなければならないので、非常に手間がかかるという問題があった。
本発明は、上述した問題に鑑みてなされたもので、その目的とするところは、演奏データが供給されてから実際の発音までに時間差がある外部機器との同期演奏を、専用データを用いなくても可能な音楽演奏装置を提供することにある。
【0006】
【課題を解決するための手段】
上述した問題を解決するために、本発明にあっては、少なくとも1以上の演奏パート毎の演奏データであって、各パートにおいて発生すべき楽音を規定する演奏データを時系列に供給することで、当該1以上の演奏パートの演奏を行なう音楽演奏装置において、演奏データを供給すべきタイミングを変更する必要がある外部機器が接続されているか否かを検出する第1の検出手段と、前記第1の検出手段によって、演奏データを供給すべきタイミングを変更する必要がある外部機器が接続されていると検出された場合に、当該外部機器に演奏パートを割り当てる割当手段と、当該外部機器に割り当てた演奏パートの演奏データを供給するタイミングを予め検出する第2の検出手段と、前記第2の検出手段によって検出されたタイミングよりも所定の時間だけ先行させたタイミングを、検出したタイミングの各々について求める算出手段と、外部機器に対して割り当てた演奏パートの演奏データを、前記算出手段により求めたタイミングで、当該外部機器に供給する供給手段と具備することを特徴としている。
【0007】
(作用)
本発明によれば、少なくとも1以上の演奏パート毎の演奏データであって、各パートにおいて発生すべき楽音を規定する演奏データがある場合、そのなかから外部機器が演奏すべき演奏パートが割り当てられ、その演奏パートの演奏データを供給するタイミングが演奏前に予め検出される。そして検出されたタイミングについては、所定の時間だけ先行させたタイミングが算出されて、演奏時には、算出されたタイミングで、外部機器に対して割り当てた演奏パートの演奏データを当該外部機器に供給する。すなわち、外部機器に対しては、演奏データの供給タイミングを所定の時間だけ早めて供給することとしている。これにより、演奏データを供給してから実際に発音するまでに時間差をともなってしまう外部機器との同期演奏を、専用の演奏データを用いることなく可能となる。
【0008】
【発明の実施の形態】
以下、本発明の一実施の形態について図面を参照して説明する。図1は、本実施形態にかかる音楽演奏装置の機能的構成を示すブロック図である。この図に示す音楽演奏装置100は、概略すれば、図2に示す楽曲データを読み出して伴奏音を合成するとともに、外部機器として自動演奏ピアノ200が接続されている場合に、楽曲データのトラックのうち当該自動演奏ピアノ200に割り当てるチャンネルを決定して、そのチャンネルにおけるイベントデータを0.5秒だけ先送りして供給する一方、他のチャンネルにおいては音源回路107に通常通り供給して伴奏音を合成するものである。
【0009】
各部の詳細について説明する。図1において、符号101は各部を制御する制御部である。符号102は楽曲データ受信部であり、図示しないサーバから公衆電話回線を介して配信された楽曲データを受信する。符号103は記録部であり、ハードディスクドライブから構成され、受信された楽曲データ等を記録する。
【0010】
符号104はシーケンサであり、演奏時には演奏の進行に合わせて楽曲データを供給する。ここで、本実施形態のシーケンサ104は、曲の1拍(四分音符)を480分割した時間(以下、この時間を「1tick」という。)まで分解する性能を有するものとする。この場合、演奏すべき楽曲のテンポ指示が120であるならば、当該曲の1拍は、シーケンサ104にとって「480ticks」であり、客観的にみて「0.5秒」である。また、テンポ指示が100(1分間に100拍という意味)であるならば、当該曲の1拍は「480ticks」と変わりはないが、「0.6秒」になる。
【0011】
符号105は外部機器検出部であり、この音楽演奏装置100以外に、楽音を発生させる装置が接続されているか否かを検出し、接続されている場合にはさらに接続された装置が演奏データの供給タイミングを先送りする必要があるものなのか否かを判定する。符号106はベロシティ変換テーブルであり、外部機器が接続され、かつ、それが演奏データの供給タイミングを先送りする必要があるものである場合、本来供給すべき演奏データに含まれるベロシティデータを検出するとともに、検出したベロシティを当該外部機器の特性に合わせた値に適切に変換する。
【0012】
音源回路107は、例えば16もの発音チャンネルを有し、各チャンネルにおいて、基本波合成方式や波形メモリ読出方式などにより楽音を生成するとともに、リバーブやコーラスなどの効果(エフェクト)を付与する。ここで、各チャンネルにおいて発生させる楽音や、付与すべき効果は、当該チャンネルに割り当てられたトラックの演奏データにより規定される。すなわち、音源回路106では、楽曲データにおける演奏パートの1つが、発音チャンネルの1つに割り当てられることで、16パートもの楽音を生成することができるようになっている。そして音源回路107による楽音は、アンプやスピーカからなるサウンドシステムSSにより外部に発音される。
【0013】
なお、この音楽演奏装置100をカラオケ装置として考えた場合、この他に、シーケンサ104から供給されるデータに基づいて歌詞表示とともに、演奏の進行に合わせて歌詞の色換表示を行なう表示回路やディスプレイや、さらに歌い手の歌唱を取り込むマイク、かかるマイク信号と伴奏音とをミキシングするミキサなどが備えられべきであるが、本実施形態では直接関係しないので、その説明については省略することとする。また、音楽演奏装置100の各部は、実際には、通信機能や、サウンド発生機能を有するパソコンにおいて構成可能である。
【0014】
次に、本実施形態における楽曲データについて図2(a)、(b)を参照して説明する。同図(a)に示すように、楽曲データは、主に、ヘッダと、各トラックの演奏データとに大別できる。このうち、ヘッダは、曲名や、曲の演奏時間など、当該楽曲に関する種々のデータが記録される。一方、各トラックの演奏データは、ピアノトラックや、ギタートラックなど種々のパートに対応する。各トラックの演奏データは、同図(b)に示すように、当該パートでのイベントの内容を示すイベントデータの集合体であり、かかるイベントデータの間には、それらイベントの間隔を示すデュレーションデータが配置される。
【0015】
ここで、イベントデータには、ノートオンイベントデータや、ノートオフイベントデータ、テンポチェンジメタイベントデータなどがある。このうちノートオンイベントデータは、発音の指示をするデータであり、音高を示すキーコードや、音の強さを示すベロシティなど、発音すべき音の内容を規定するデータが伴う。ノートオフイベントデータは、ノートオンイベントデータによる発音の消音を指示するデータであり、ノートオンイベントデータとはペアで用いられる。したがって、ノートオンイベントデータおよびノートオフイベントデータの間に配置するデュレーションデータが、当該発音期間を規定することになる。また、テンポチェンジメタイベントデータは、曲のテンポを途中で変更する旨を指示するデータである。
【0016】
再び、図1の説明に戻る。自動演奏ピアノ200は、音楽演奏装置100の外部に接続されている。上述したように、自動演奏ピアノ200は、一般のピアノの各鍵に電磁ソレノイドが設けられたものであり、受信した演奏データがノートオンイベントデータであった場合、当該データのキーコードで示される鍵のソレノイドを、当該データのベロシティで示される強さで駆動する。これにより、実際に鍵が押下されて、打弦によりピアノ音が発生するようになっている。
【0017】
次に、本実施形態にかかる音楽演奏装置の動作について説明する。
まず、外部機器検出部105は、外部機器が接続されているかを判別し、さらに、外部機器が演奏データの先送り供給を必要とするものか否かを判別する。この判別は、例えば、外部機器検出部105が制御部101の制御の下、所定の信号を送出する一方、接続されているのであれば、その外部機器が自己の種別を示すIDを返送することで可能である。例えば、図1の場合、外部機器検出部105が信号を送出すると、自動演奏ピアノ200は、その種別を示すIDを返送する。これにより外部機器検出部105が外部機器として自動演奏ピアノ200が接続されていることを認識するのである。
なお、外部機器が接続されていない場合には、一定時間内にIDが返送されないので、また、外部機器が接続されている場合であっても、それが一般の電子楽器であるときは返送されたIDをもって、それぞれの状態を認識することが可能である。
【0018】
一方、ユーザは、演奏に先だって、所望の曲を図示しない操作部により選択する。すると、制御部101は、選択された曲の楽曲データが記録部103に記録されているか否かを判別し、記録されていなければサーバに対し、当該楽曲データを配信する旨を指示する。楽曲データが配信された、あるいはすでに記録されているならば、制御部101は、その楽曲データをシーケンサ104に供給させる。
【0019】
楽曲データの供給を受けると、シーケンサ104は、当該楽曲データの各トラックを音源回路107の各発音チャンネルに割り当てるが、その際、チャンネルのパート名からピアノの属性を有するものを抽出する。すなわち、各トラックには様々な音色が割り振られ、これらが図3に示すように、各発音チャンネルに割り当てられるが、このうち、シーケンサ104は、種々の音色のうちピアノ系統を示すものを抽出するのである。ピアノ系統の音色を抽出すると、シーケンサ104は、当該チャンネルの演奏データを、自動演奏ピアノ200に供給すべきデータとする。なお、ピアノ系統の音色が抽出されない場合、シーケンサ104は、すべてのトラックを音源回路107の発音チャンネルに割り当てる。
【0020】
次に、シーケンサ104は、自動演奏ピアノ200に供給すべきチャンネルの演奏データのうちイベントデータをすべて抽出し、すべてのタイミングが0.5秒だけ早くなるように時間系を設定し直す。この際、テンポの変更を指示するテンポチェンジメタイベントデータが抽出されたならば、それも考慮する。例えば、テンポが120である場合において、0.5秒だけ早めるということは、シーケンサ104にとって「480ticks」分だけイベントのタイミング(この場合、イベントデータを自動演奏ピアノ200に供給するタイミング)を早めることを意味する。また、図4に示すように、時刻Tにおいてテンポを120から100に変更する旨を指示するテンポチェンジメタイベントデータを抽出した場合であって、その時刻Tから「240ticks」すなわち0.秒後におけるイベントのデータDを0.5秒だけ早めるということは、テンポが100の領域において、0.秒に相当する「240ticks」と、テンポが120の領域において、0.秒に相当する「192ticks」との計「432ticks」だけ早めることを意味する。
なお、早める時間は本来的に外部機器に依存するものであり、本実施形態にあっては外部機器が自動演奏ピアノ200であるから0.5秒とした。
【0021】
このように、外部機器に供給すべきチャンネルの演奏データを設定し直すと、次に、シーケンサ104は、実際に演奏を開始すべく各発音チャンネルの演奏データを次のように供給する。すなわち、シーケンサ104は、自動演奏ピアノ200に割り当てたチャンネル以外の演奏データについては通常通り音源回路107に供給する一方、外部機器としての自動演奏ピアノ200に割り当てたチャンネルの演奏データについては、設定し直した時間系で(すなわち、他のチャンネルとは、0.5秒だけ早めて)、ベロシティ変換テーブル106を介し自動演奏ピアノ200に供給する。
【0022】
ベロシティ変換テーブル106は、供給された演奏データのうちノートオンイベントデータを検出したならば、それに伴うベロシティを抽出し、そのベロシティを対応する値に変換して、当該変換値を当該ノートオンイベントのベロシティとして、自動演奏ピアノ200に供給する。ここで、ベロシティを変換する理由について述べる。一般に演奏データ中のベロシティは、その値が大きくなるにつれて発生すべき楽音の音量も大きくさせるものであるが、この対応関係はあくまでも純電気的に発生する場合を想定している。ところが、自動演奏ピアノは、その構成上、ベロシティが小さいとハンマが打弦しない場合があり、また例えば、ベロシティが「100」の大きさでソレノイドを駆動して発生させたピアノ音の大きさが、ベロシティが「50」の大きさでソレノイドを駆動して発生させたピアノ音の大きさの半分にはならない。このため、自動演奏ピアノ200にとって最適となるようなベロシティの対応関係を予めテーブルに格納しておき、実際に演奏データが供給されたならば、そのベロシティをテーブルで変換することで、自動演奏ピアノ200にとって最適なベロシティを得る構成としたのである。
したがって、外部機器が接続されていても、それがベロシティを変換する必要がない場合、制御部101は、シーケンサ104から供給される演奏データをベロシティ変換テーブル106を介さずに、直接供給するようにSW1、SW2を切り換える。
【0023】
このような実施形態にかかる音楽演奏装置によれば、外部機器が接続されている場合であって、それが自動演奏ピアノのように演奏データを先送りして供給する必要がある場合、演奏データ供給前に、演奏データのなかから、自動演奏ピアノに割り当てるべきチャンネルを決定するとともに、チャンネルに割り当てられたトラックの演奏データの時間系を設定し直して0.5秒だけ早める。そして、実際に演奏を行なう際には、自動演奏ピアノに割り当てたチャンネル以外に対応する演奏データは、通常の時間系で音源回路107に供給する一方、自動演奏ピアノに割り当てたチャンネルに対応する演奏データは、他とは0.5秒だけ早めた時間系で演奏データを供給する。これにより、自動演奏ピアノと音源回路との時間差を伴うことなく同期演奏を行なうことができる。
【0024】
なお、本実施形態にあっては、外部機器の例として自動演奏ピアノを想定したが、本発明はこれに限定されない。すなわち、本発明における外部機器とは、演奏データが供給された時点から実際に発音するまでに生じる時間差が、その機械的構成などにより無視できない程のものすべてをいう。先送りする時間は、当然上記時間差と一致させる。
【0025】
【発明の効果】
以上説明したように、本発明によれば、演奏データを供給してから実際に発音するまでに時間差をともなう外部機器と同期演奏を行なうことが可能となる。その際、演奏データの供給タイミングを算出することで、早めて供給しているので、外部機器専用の演奏データがなくても同期演奏を行なうことが可能である。当然、本発明によれば、専用の演奏データを作成する必要もない。
【図面の簡単な説明】
【図1】 本発明の実施形態にかかる音楽演奏装置の機能的構成を示すブロック図である。
【図2】 (a)は同音楽演奏装置における楽曲データの構成を示す図であり、(b)はそのトラックの演奏データの構成を示す図である。
【図3】 楽曲データにおいて演奏パートと、その属性との対応関係を示す図である。
【図4】 外部機器に供給すべき演奏データの先送り状況を示す図である。
【符号の説明】
100……音楽演奏装置、101……制御部、104……シーケンサ、105……外部機器検出部、106……ベロシティ変換テーブル、107……音源回路、200……自動演奏ピアノ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a music performance device that performs music performance in synchronization with an external device such as an automatic performance piano.
[0002]
[Prior art]
In recent years, so-called karaoke has become widespread as musical entertainment, and karaoke has been diversified along with the spread. One of the diversification trends is luxury. As an example of luxury, for example, an accompaniment sound is synthesized by a tone generator circuit based on performance data recorded as MIDI data, while a natural instrument is automatically played, The musical sound may be added to the accompaniment sound. An example of such a natural musical instrument is an automatic performance piano. Such an automatic performance piano is provided with solenoids that are electromagnetically turned on / off for each key, and these solenoids are driven on the basis of performance data so that a piano sound is generated when the strings are actually struck. It has become.
[0003]
By the way, the synthesis of the accompaniment sound based on the performance data is performed by generating a musical sound waveform by the tone generator circuit, that is, purely electric, so that it can be immediately performed when the performance data is supplied. .
On the other hand, although an automatic performance piano is partly accompanied by electrical operation, the basis for generating a musical tone is based on a mechanical structure, so the musical sound is actually generated from the time when performance data is supplied. There is a situation that a time difference (about 0.5 seconds) occurs. For this reason, even if performance data is simultaneously supplied to the tone generator circuit and the automatic performance piano, a time difference of about 0.5 seconds occurs between the musical sounds generated by both. If the time difference is so large, it will be difficult for the singer and also difficult for the listener.
[0004]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention provides performance data for at least one or more performance parts, and provides performance data that defines musical sounds to be generated in each part in time series. In the music performance device for performing the one or more performance parts, first detection means for detecting whether or not an external device that needs to change the timing at which performance data should be supplied is connected; When the first detection means detects that an external device that needs to change the timing at which performance data should be supplied is connected, an assigning means for assigning a performance part to the external device, and an assignment to the external device Second detection means for detecting in advance the timing for supplying the performance data of the performance part, and the timing detected by the second detection means. The timing was preceded by a time constant, and calculating means for determining for each of the detected timing, and third detecting means for detecting a tempo change instruction for changing the playing tempo, unit of the performance data for the external device The supply amount per time is obtained according to the performance tempo, and when the tempo change command is detected by the third detecting means, the supply amount per unit time of the performance data is designated by the tempo change command. Data supply amount calculation means that changes according to the performance tempo, and performance data of a performance part assigned to the external device is supplied to the external device at the timing obtained by the calculation means , and the data supply amount calculation It is characterized by comprising a supply means for supplying performance data supply amount obtained per unit time by means.
[0005]
[Problems to be solved by the invention]
Therefore, there is a problem in that a music for which dedicated performance data is not prepared cannot substantially perform synchronous performance between the automatic performance piano and another electronic musical instrument. In addition, the creation of dedicated performance data has a problem that it takes a lot of time because the time lag is taken into consideration and it must be created for each song.
The present invention has been made in view of the above-described problems. The object of the present invention is to perform synchronized performance with an external device having a time difference from the time when performance data is supplied to the time of actual pronunciation without using dedicated data. The object is to provide a music performance device that is possible.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention provides performance data for at least one or more performance parts, which defines performance sounds to be generated in each part in time series. In the music performance device for performing the one or more performance parts, first detection means for detecting whether or not an external device that needs to change the timing at which performance data should be supplied is connected; When the first detection means detects that an external device that needs to change the timing at which performance data should be supplied is connected, an assigning means for assigning a performance part to the external device, and an assignment to the external device Second detection means for detecting in advance the timing for supplying the performance data of the performance part, and the timing detected by the second detection means. Calculating means for obtaining a timing preceded by a fixed time for each detected timing and performance data of a performance part assigned to the external device are supplied to the external device at the timing determined by the calculating means. It is characterized by comprising supply means.
[0007]
(Function)
According to the present invention, when there is performance data for at least one or more performance parts, and there is performance data that defines a musical sound to be generated in each part, a performance part to be played by an external device is assigned from the performance data. The timing for supplying the performance data of the performance part is detected in advance before the performance. As for the detected timing, a timing preceded by a predetermined time is calculated, and at the time of performance, performance data of a performance part assigned to the external device is supplied to the external device at the calculated timing. That is, the performance data is supplied earlier by a predetermined time to the external device. As a result, it is possible to perform a synchronized performance with an external device that causes a time difference from when the performance data is supplied to when the performance data is actually generated without using dedicated performance data.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a functional configuration of the music performance device according to the present embodiment. In summary, the music performance device 100 shown in FIG. 2 reads out the music data shown in FIG. 2 to synthesize an accompaniment sound, and when the automatic performance piano 200 is connected as an external device, Of these channels, the channel to be assigned to the automatic performance piano 200 is determined, and the event data in that channel is supplied after being advanced by 0.5 seconds, while the other channels are supplied to the tone generator circuit 107 as usual to synthesize the accompaniment sound. To do.
[0009]
Details of each part will be described. In FIG. 1, reference numeral 101 denotes a control unit that controls each unit. Reference numeral 102 denotes a music data receiving unit which receives music data distributed from a server (not shown) via a public telephone line. Reference numeral 103 denotes a recording unit which is composed of a hard disk drive and records received music data and the like.
[0010]
Reference numeral 104 denotes a sequencer that supplies music data in accordance with the progress of the performance. Here, it is assumed that the sequencer 104 of the present embodiment has a capability of decomposing up to 480 times of one beat (quarter note) of a song (hereinafter, this time is referred to as “1 tick”). In this case, if the tempo instruction of the music to be played is 120, one beat of the music is “480 ticks” for the sequencer 104, which is objectively “0.5 seconds”. If the tempo instruction is 100 (meaning 100 beats per minute), one beat of the song is “480 ticks”, but “0.6 seconds”.
[0011]
Reference numeral 105 denotes an external device detection unit that detects whether or not a device for generating musical sounds other than the music performance device 100 is connected, and if it is connected, the connected device further detects performance data. It is determined whether the supply timing needs to be postponed. Reference numeral 106 denotes a velocity conversion table. When an external device is connected and it is necessary to delay the performance data supply timing, the velocity data included in the performance data to be supplied is detected. The detected velocity is appropriately converted into a value that matches the characteristics of the external device.
[0012]
The tone generator circuit 107 has, for example, as many as 16 tone generation channels. In each channel, a tone is generated by a fundamental wave synthesis method, a waveform memory reading method, or the like, and effects such as reverb and chorus are given. Here, the musical sound generated in each channel and the effect to be given are defined by the performance data of the track assigned to the channel. That is, the tone generator circuit 106 can generate 16 parts of musical sounds by assigning one of the performance parts in the music data to one of the sound generation channels. The musical sound generated by the tone generator circuit 107 is generated outside by a sound system SS including an amplifier and a speaker.
[0013]
When this music performance device 100 is considered as a karaoke device, in addition to this, a display circuit and a display for displaying lyrics based on data supplied from the sequencer 104 and color-changing the lyrics as the performance progresses. In addition, a microphone that captures the singer's song and a mixer that mixes the microphone signal and the accompaniment sound should be provided. However, since this embodiment does not relate directly, the description thereof will be omitted. In addition, each unit of the music performance device 100 can actually be configured in a personal computer having a communication function and a sound generation function.
[0014]
Next, music data in the present embodiment will be described with reference to FIGS. 2 (a) and 2 (b). As shown in FIG. 5A, the music data can be roughly divided into a header and performance data of each track. Among these, the header records various data relating to the music, such as the music title and the performance time of the music. On the other hand, the performance data of each track corresponds to various parts such as a piano track and a guitar track. The performance data of each track is a collection of event data indicating the contents of the event in the part, as shown in FIG. 4B, and duration data indicating the interval between the events is included between the event data. Is placed.
[0015]
Here, the event data includes note-on event data, note-off event data, tempo change meta event data, and the like. Of these, note-on event data is data for instructing sound generation, and is accompanied by data defining the content of the sound to be sounded, such as a key code indicating the pitch and a velocity indicating the strength of the sound. The note-off event data is data for instructing to mute the sound by the note-on event data, and is used as a pair with the note-on event data. Therefore, duration data arranged between note-on event data and note-off event data defines the sound generation period. The tempo change meta event data is data for instructing to change the tempo of the song halfway.
[0016]
Returning again to the description of FIG. The automatic performance piano 200 is connected to the outside of the music performance device 100. As described above, in the automatic performance piano 200, an electromagnetic solenoid is provided in each key of a general piano. When the received performance data is note-on event data, it is indicated by a key code of the data. The key solenoid is driven with the strength indicated by the velocity of the data. As a result, a key is actually pressed and a piano sound is generated by striking the string.
[0017]
Next, the operation of the music performance device according to the present embodiment will be described.
First, the external device detection unit 105 determines whether or not an external device is connected, and further determines whether or not the external device requires a performance data advance supply. For this determination, for example, the external device detection unit 105 sends a predetermined signal under the control of the control unit 101, and if connected, the external device returns an ID indicating its type. Is possible. For example, in the case of FIG. 1, when the external device detection unit 105 sends a signal, the automatic performance piano 200 returns an ID indicating the type. As a result, the external device detection unit 105 recognizes that the automatic performance piano 200 is connected as an external device.
If an external device is not connected, the ID is not returned within a fixed time. Even if the external device is connected, it is returned if it is a general electronic musical instrument. Each state can be recognized with the ID.
[0018]
On the other hand, prior to the performance, the user selects a desired song using an operation unit (not shown). Then, the control unit 101 determines whether or not the music data of the selected music is recorded in the recording unit 103, and if not recorded, instructs the server to distribute the music data. If the music data is distributed or already recorded, the control unit 101 causes the sequencer 104 to supply the music data.
[0019]
When the music data is supplied, the sequencer 104 assigns each track of the music data to each sound generation channel of the tone generator circuit 107. At this time, the sequencer 104 extracts one having the piano attribute from the part name of the channel. That is, various timbres are assigned to each track, and these are assigned to each tone generation channel, as shown in FIG. 3. Among these, the sequencer 104 extracts the ones indicating the piano system among the various timbres. It is. When the piano system timbre is extracted, the sequencer 104 sets the performance data of the channel as data to be supplied to the automatic performance piano 200. Note that if the piano tone is not extracted, the sequencer 104 assigns all the tracks to the tone generation channel of the tone generator circuit 107.
[0020]
Next, the sequencer 104 extracts all event data from the performance data of the channels to be supplied to the automatic performance piano 200, and resets the time system so that all timings are advanced by 0.5 seconds. At this time, if tempo change meta event data for instructing tempo change is extracted, it is also taken into consideration. For example, in the case where the tempo is 120, to advance by 0.5 seconds means to advance the event timing (in this case, the timing to supply event data to the automatic performance piano 200) by “480 ticks” for the sequencer 104. Means. Further, as shown in FIG. 4, when tempo change meta event data instructing to change the tempo from 120 to 100 is extracted at time T, “240 ticks”, that is, 0. To speed up the event data D after 3 seconds by 0.5 seconds means that in the region where the tempo is 100, 0. In an area of “240 ticks” corresponding to 3 seconds and a tempo of 120, 0. This means that “192 ticks” corresponding to 2 seconds are advanced by “432 ticks”.
The time to be advanced is inherently dependent on the external device, and in the present embodiment, the external device is the automatic performance piano 200, and thus is 0.5 seconds.
[0021]
Thus, when the performance data of the channel to be supplied to the external device is reset, the sequencer 104 supplies the performance data of each sound generation channel as follows to actually start the performance. That is, the sequencer 104 supplies performance data other than the channel assigned to the automatic performance piano 200 to the tone generator circuit 107 as usual, while setting the performance data of the channel assigned to the automatic performance piano 200 as an external device. In the corrected time system (that is, 0.5 seconds earlier than the other channels), it is supplied to the automatic performance piano 200 via the velocity conversion table 106.
[0022]
When the velocity conversion table 106 detects note-on event data from the supplied performance data, the velocity conversion table 106 extracts the velocity associated therewith, converts the velocity into a corresponding value, and converts the converted value into the note-on event. The velocity is supplied to the automatic performance piano 200. Here, the reason for converting the velocity will be described. In general, the velocity in the performance data increases the volume of the musical sound that should be generated as the value increases, but this correspondence is assumed to occur purely electrically. However, because of the configuration of an automatic performance piano, the hammer may not strike if the velocity is low. For example, the volume of the piano sound generated by driving the solenoid with a velocity of “100” is large. , The velocity is not 50% of the volume of the piano sound generated by driving the solenoid with the magnitude of “50”. For this reason, the velocity correspondence that is optimal for the automatic performance piano 200 is stored in a table in advance, and if performance data is actually supplied, the velocity is converted in the table, so that the automatic performance piano is converted. It is configured to obtain an optimum velocity for 200.
Therefore, even when an external device is connected, if it is not necessary to convert the velocity, the control unit 101 directly supplies the performance data supplied from the sequencer 104 without using the velocity conversion table 106. Switch between SW1 and SW2.
[0023]
According to the music performance device according to such an embodiment, when an external device is connected, and it is necessary to postpone and supply performance data like an automatic performance piano, performance data supply Before, the channel to be assigned to the automatic performance piano is determined from the performance data, and the time system of the performance data of the track assigned to the channel is reset to advance by 0.5 seconds. When actually performing, performance data corresponding to channels other than the channels assigned to the automatic performance piano is supplied to the tone generator circuit 107 in a normal time system, while performances corresponding to the channels assigned to the automatic performance piano are performed. The performance data is supplied in a time system that is 0.5 seconds earlier than the others. Thereby, a synchronous performance can be performed without a time difference between the automatic performance piano and the sound source circuit.
[0024]
In the present embodiment, an automatic performance piano is assumed as an example of the external device, but the present invention is not limited to this. That is, the external device in the present invention refers to all devices in which the time difference that occurs from when the performance data is supplied until it is actually generated cannot be ignored due to its mechanical configuration. The postponed time is naturally made to coincide with the above time difference.
[0025]
【The invention's effect】
As described above, according to the present invention, it is possible to perform a synchronized performance with an external device having a time difference from when performance data is supplied until it is actually generated. At this time, since the performance data is supplied at an early stage by calculating the performance data supply timing, it is possible to perform the synchronized performance without the performance data dedicated to the external device. Of course, according to the present invention, it is not necessary to create dedicated performance data.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a functional configuration of a music performance device according to an embodiment of the present invention.
FIG. 2A is a diagram showing a composition of music data in the music performance device, and FIG. 2B is a diagram showing a composition of performance data of the track.
FIG. 3 is a diagram showing the correspondence between performance parts and their attributes in music data.
FIG. 4 is a diagram showing a state in which performance data to be supplied to an external device is postponed.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Music performance apparatus, 101 ... Control part, 104 ... Sequencer, 105 ... External apparatus detection part, 106 ... Velocity conversion table, 107 ... Sound source circuit, 200 ... Automatic performance piano

Claims (1)

少なくとも1以上の演奏パート毎の演奏データであって、各パートにおいて発生すべき楽音を規定する演奏データを時系列に供給することで、当該1以上の演奏パートの演奏を行なう音楽演奏装置において、
演奏データを供給すべきタイミングを変更する必要がある外部機器が接続されているか否かを検出する第1の検出手段と、
前記第1の検出手段によって、演奏データを供給すべきタイミングを変更する必要がある外部機器が接続されていると検出された場合に、当該外部機器に演奏パートを割り当てる割当手段と、
当該外部機器に割り当てた演奏パートの演奏データを供給するタイミングを予め検出する第2の検出手段と、
前記第2の検出手段によって検出されたタイミングよりも所定の時間だけ先行させたタイミングを、検出したタイミングの各々について求める算出手段と、
演奏テンポを変更する旨のテンポ変更命令を検出する第3の検出手段と、
前記外部機器に対する前記演奏データの単位時間あたりの供給量を演奏テンポに応じて求め、前記テンポ変更命令が前記第3の検出手段により検出された場合、前記演奏データの単位時間あたりの供給量を、当該テンポ変更命令で指定される演奏テンポに応じて変更するデータ供給量算出手段と、
外部機器に対して割り当てた演奏パートの演奏データを、前記算出手段により求めたタイミング当該外部機器に供給し、且つ、前記データ供給量算出手段により求められた供給量の演奏データを単位時間あたりに供給する供給手段と
を具備することを特徴とする音楽演奏装置。
In a music performance apparatus for performing performance of one or more performance parts by supplying performance data for each performance part in a time series, which is performance data for each performance part and specifying the musical sound to be generated in each part.
First detection means for detecting whether or not an external device that needs to change the timing for supplying performance data is connected;
Assigning means for assigning a performance part to the external device when the first detection means detects that an external device that needs to change the timing at which performance data should be supplied is connected;
Second detection means for detecting in advance timing for supplying performance data of a performance part assigned to the external device;
Calculating means for obtaining for each detected timing a timing that precedes the timing detected by the second detection means by a predetermined time;
Third detection means for detecting a tempo change command for changing the performance tempo;
A supply amount per unit time of the performance data to the external device is obtained according to a performance tempo, and when the tempo change command is detected by the third detection means, a supply amount of the performance data per unit time is determined. Data supply amount calculating means for changing according to the performance tempo specified by the tempo change instruction;
The performance data of the performance part assigned to the external device is supplied to the external device at the timing obtained by the calculating means , and the performance data of the supply amount obtained by the data supply amount calculating means is supplied per unit time. A music performance device comprising: supply means for supplying to the music.
JP26751396A 1996-10-08 1996-10-08 Music performance device Expired - Fee Related JP3713836B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26751396A JP3713836B2 (en) 1996-10-08 1996-10-08 Music performance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26751396A JP3713836B2 (en) 1996-10-08 1996-10-08 Music performance device

Publications (2)

Publication Number Publication Date
JPH10116070A JPH10116070A (en) 1998-05-06
JP3713836B2 true JP3713836B2 (en) 2005-11-09

Family

ID=17445890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26751396A Expired - Fee Related JP3713836B2 (en) 1996-10-08 1996-10-08 Music performance device

Country Status (1)

Country Link
JP (1) JP3713836B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517751B2 (en) * 2004-06-30 2010-08-04 ヤマハ株式会社 Multimedia execution system and multimedia file execution method
JP4973983B2 (en) * 2007-02-14 2012-07-11 カシオ計算機株式会社 Automatic performance device and automatic performance processing program
JP5168968B2 (en) 2007-03-23 2013-03-27 ヤマハ株式会社 Electronic keyboard instrument with key drive
JP5491905B2 (en) * 2010-02-27 2014-05-14 株式会社第一興商 Karaoke lighting system
JP6464824B2 (en) * 2015-02-27 2019-02-06 ブラザー工業株式会社 Music performance device and music performance program

Also Published As

Publication number Publication date
JPH10116070A (en) 1998-05-06

Similar Documents

Publication Publication Date Title
US6369311B1 (en) Apparatus and method for generating harmony tones based on given voice signal and performance data
EP1094442B1 (en) Musical tone-generating method
JPH1049150A (en) Musical tone controller, karaoke machine, musical tone information supplying and reproducing method, musical tone information supplying device and musical tone reproducing device
JPH0744183A (en) Karaoke playing device
JP3407610B2 (en) Musical sound generation method and storage medium
JP3975526B2 (en) Karaoke equipment
JP3353595B2 (en) Automatic performance equipment and karaoke equipment
JP3713836B2 (en) Music performance device
JP3533972B2 (en) Electronic musical instrument setting control device
JP3750533B2 (en) Waveform data recording device and recorded waveform data reproducing device
JP3654084B2 (en) Waveform generation method and apparatus
JP3212872B2 (en) Electronic musical instrument
JP3504296B2 (en) Automatic performance device
JP4182761B2 (en) Karaoke equipment
JP3613062B2 (en) Musical sound data creation method and storage medium
JP3794805B2 (en) Music performance device
JP2001228866A (en) Electronic percussion instrument device for karaoke sing-along machine
JP3834963B2 (en) Voice input device and method, and storage medium
JP2862062B2 (en) Karaoke equipment
JP3166670B2 (en) Karaoke device and automatic performance device
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JP3931460B2 (en) Sound generator
JP3166671B2 (en) Karaoke device and automatic performance device
JP3551000B2 (en) Automatic performance device, automatic performance method, and medium recording program
JP2003099039A (en) Music data editing device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050815

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090902

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100902

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100902

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110902

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120902

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130902

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees