Nothing Special   »   [go: up one dir, main page]

JP4962592B2 - Electronic musical instruments and computer programs applied to electronic musical instruments - Google Patents

Electronic musical instruments and computer programs applied to electronic musical instruments Download PDF

Info

Publication number
JP4962592B2
JP4962592B2 JP2010098392A JP2010098392A JP4962592B2 JP 4962592 B2 JP4962592 B2 JP 4962592B2 JP 2010098392 A JP2010098392 A JP 2010098392A JP 2010098392 A JP2010098392 A JP 2010098392A JP 4962592 B2 JP4962592 B2 JP 4962592B2
Authority
JP
Japan
Prior art keywords
accompaniment
pattern data
arpeggio
sound
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010098392A
Other languages
Japanese (ja)
Other versions
JP2010160523A (en
Inventor
素徳 砂子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2010098392A priority Critical patent/JP4962592B2/en
Publication of JP2010160523A publication Critical patent/JP2010160523A/en
Application granted granted Critical
Publication of JP4962592B2 publication Critical patent/JP4962592B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、伴奏音およびアルペジオ音を発生することが可能な電子楽器に関する。   The present invention relates to an electronic musical instrument capable of generating accompaniment sounds and arpeggio sounds.

従来から、和音名を表す和音情報(和音根音および和音タイプ)に応じて、予め用意された伴奏パターンデータ(伴奏スタイルデータともいう)の音高を変換することにより、所定のタイミングで和音およびベース音を自動的に発生する自動伴奏機能は知られている(下記特許文献1参照)。
また、演奏者による演奏を表す1つまたは複数の演奏情報(音高情報)を、予め用意されて発音タイミングおよび発音される演奏音(オクターブ関係にある音も含む)を規定するアルペジオパターンデータに従って分散させて自動的に発音させるアルペジオ演奏も知られている(下記特許文献2参照)。
Conventionally, by converting the pitch of accompaniment pattern data (also called accompaniment style data) prepared in advance according to the chord information (chord root and chord type) representing the chord name, An automatic accompaniment function that automatically generates a bass sound is known (see Patent Document 1 below).
Also, one or more pieces of performance information (pitch information) representing a performance by the performer are prepared in advance according to arpeggio pattern data that defines the sound generation timing and the sound of the sound to be generated (including sounds that are related to octaves). There is also known an arpeggio performance in which sound is distributed and automatically generated (see Patent Document 2 below).

特開平06−337677号公報Japanese Patent Application Laid-Open No. 06-337677 特開平11−126074号公報Japanese Patent Laid-Open No. 11-126074

しかし、従来においては、伴奏音とアルペジオ音の発生は互いに独立した機能であり、伴奏音とアルペジオ音とを同時に発生することは考えられていなかった。言い換えれば、伴奏音の発生機能とアルペジオ音の発生機能とを同時に行うことはできなかった。   However, conventionally, the generation of accompaniment sounds and arpeggio sounds is an independent function, and it has not been considered to simultaneously generate accompaniment sounds and arpeggio sounds. In other words, the accompaniment sound generation function and the arpeggio sound generation function cannot be performed simultaneously.

本発明は、上記問題に対処するためになされたもので、その目的は、伴奏音とアルペジオ音とを不具合なく同時に発生することができるようにした電子楽器を提供することにある。   The present invention has been made to cope with the above-described problems, and an object thereof is to provide an electronic musical instrument that can simultaneously generate an accompaniment sound and an arpeggio sound without any problems.

上記目的を達成するために、本発明の特徴は、演奏者による演奏を表す演奏情報を入力する演奏情報入力手段と、複数のトラックにそれぞれ記憶されて伴奏音を発生させるための複数の一連の伴奏パターンデータを1組の伴奏パターンデータとし、複数組の伴奏パターンデータを記憶するとともに、アルペジオ音の発生時に伴奏音の発生が禁止されるトラックを表すデータを複数組の伴奏パターンデータにそれぞれ対応させて記憶する伴奏パターンデータ記憶手段と、複数のアルペジオパターンデータを複数組の伴奏パターンデータにそれぞれ関連付けて記憶するアルペジオパターンデータ記憶手段と、伴奏パターンデータ記憶手段に記憶されている複数組の伴奏パターンデータのうちのいずれか1組の伴奏パターンデータに従って複数の伴奏音を発生する伴奏音発生手段と、演奏情報入力手段によって入力された演奏情報を用いて、アルペジオパターンデータ記憶手段に記憶されている複数のアルペジオパターンデータのうちのいずれかのアルペジオパターンデータに従ったアルペジオ音を発生するアルペジオ音発生手段と、伴奏音発生手段およびアルペジオ音発生手段によって伴奏音およびアルペジオ音が同時に発生されるとき、伴奏パターンデータ記憶手段に記憶されていてアルペジオ音の発生時に伴奏音の発生が禁止されるトラックを表すデータに基づいて、1組の伴奏パターンデータに従った複数の伴奏音のうちの伴奏音の発生が禁止されるトラックに対応した一部の伴奏音の発生を禁止し、かつ他の伴奏音の発生を許容する発生禁止制御手段とを備えたことにある。 In order to achieve the above object, the present invention is characterized in that performance information input means for inputting performance information representing a performance by a performer, and a plurality of series of accompaniment sounds stored in a plurality of tracks, respectively. Accompaniment pattern data is made into one set of accompaniment pattern data, and multiple sets of accompaniment pattern data are stored, and data representing tracks for which accompaniment sounds are prohibited when arpeggio sounds are generated correspond to multiple sets of accompaniment pattern data. accompaniment pattern data storing means for storing by arpeggio pattern data storing means and accompaniment of a plurality of sets stored in the accompaniment pattern data storing means for storing in association respectively a plurality of arpeggio pattern data into a plurality of sets of accompaniment pattern data Ban of multiple in accordance with any one set of accompaniment pattern data in the pattern data The accompaniment sound generating means for generating the sound and the performance information input by the performance information input means are used in accordance with any one of the arpeggio pattern data stored in the arpeggio pattern data storage means. and the arpeggio tone generating means for generating arpeggio notes, when the accompaniment sounds and arpeggio tones are generated simultaneously by the accompaniment tone generating means and arpeggio tone generating means, have been stored in the accompaniment pattern data storing means accompaniment upon the occurrence of arpeggio notes based on the data representing the track generation of noise is inhibited, a set of accompaniment part generating accompaniment tones of the plurality of accompaniment tone in accordance with the pattern data corresponding to the track to be inhibited ban Soon the It is to prohibit the generation and comprising a generation prohibition control means for allowing the occurrence of other companion Soon.

この場合、伴奏音の発生とは、和音および和音に関連したベース音などを、1組の伴奏パターンデータに従って自動的に発生することを意味する。この伴奏パターンデータは、和音、ベース音などの和音に関連する楽音の発生タイミングを規定するとともに、ベース音の種類(通常、和音構成音のいずれかの音)を規定する。また、アルペジオ音の発生とは、演奏者による演奏を表す1つまたは複数の演奏情報(音高情報)によって指定される音高の楽音を、アルペジオパターンデータに従って分散させて自動的に発生することを意味する。このアルペジオパターンデータは、発生される演奏音(オクターブ関係にある音も含む)および演奏音の発音タイミングを規定する In this case, the generation of an accompaniment sound means that a chord and a bass sound related to the chord are automatically generated according to a set of accompaniment pattern data. This accompaniment pattern data defines the generation timing of musical sounds related to chords such as chords and bass sounds, and also defines the type of bass sound (usually one of the chord constituent sounds). In addition, the generation of arpeggio sounds refers to automatically generating musical sounds having pitches specified by one or more pieces of performance information (pitch information) representing performances by the performer according to the arpeggio pattern data. Means. The arpeggio pattern data defines the performance sound (including the sound having an octave relationship) generated and the sound generation timing of the performance sound .

前記のように構成した本発明の特徴においては、発生禁止制御手段により、伴奏音とアルペジオ音の同時発生によって不具合が生じる伴奏音の発生を禁止できる。これにより、音楽的に互いにマッチした伴奏音演奏とアルペジオ音演奏との同時演奏を簡単に実現できるようになるとともに、前記同時演奏による変化に富んだ演奏が得られるようになる。 In the feature of the present invention configured as described above, the generation prohibition control means can prohibit generation of an accompaniment sound that causes a malfunction due to simultaneous generation of an accompaniment sound and an arpeggio sound. As a result , it is possible to easily realize a simultaneous performance of an accompaniment sound performance and an arpeggio sound performance that are musically matched to each other, and a performance rich in change due to the simultaneous performance can be obtained.

さらに、本発明の実施にあたっては、電子楽器の発明に限定されることなく、同電子楽器に適用されるコンピュータプログラムおよび方法の発明としても実施し得るものである。   Furthermore, the implementation of the present invention is not limited to the invention of the electronic musical instrument, and can be implemented as an invention of a computer program and method applied to the electronic musical instrument.

本発明に係る電子楽器の基本構成を示す機能ブロック図である。It is a functional block diagram which shows the basic composition of the electronic musical instrument which concerns on this invention. 本発明の具体的な実施形態に係る電子楽器の全体ブロック図である。1 is an overall block diagram of an electronic musical instrument according to a specific embodiment of the present invention. 図2の電子楽器にて実行される設定処理プログラムを示すフローチャートである。It is a flowchart which shows the setting process program performed with the electronic musical instrument of FIG. 前記電子楽器にて実行される演奏処理プログラムを示すフローチャートである。It is a flowchart which shows the performance processing program performed with the said electronic musical instrument. 前記電子楽器にて記憶されている伴奏パターンデータを示すとともに、伴奏パターンデータとアルペジオパターンデータとの関係を示す図である。It is a figure which shows the relationship between accompaniment pattern data and arpeggio pattern data while showing the accompaniment pattern data memorize | stored in the said electronic musical instrument. (A)は前記電子楽器にて記憶されているアルペジオパターンデータを示す図であり、(B)は前記電子楽器に設けられたノート順位バッファを示す図である。(A) is a figure which shows the arpeggio pattern data memorize | stored in the said electronic musical instrument, (B) is a figure which shows the note ranking buffer provided in the said electronic musical instrument. 前記電子楽器にて記憶されているOTSデータを示すとともに、OTSデータと、伴奏パターン、マニアル演奏音色およびアルペジオパターンとの関係を示す図である。It is a figure which shows the relationship between OTS data, an accompaniment pattern, a manual performance tone color, and an arpeggio pattern while showing the OTS data memorize | stored in the said electronic musical instrument. 前記電子楽器にて記憶されている音高変換テーブルの内容を示す図である。It is a figure which shows the content of the pitch conversion table memorize | stored in the said electronic musical instrument.

a.基本構成
以下、本発明に係る電子楽器の具体的な実施形態について説明する前に、同電子楽器の基本構成について、図1の機能ブロック図を用いて説明しておく。この電子楽器は、演奏情報入力部1、伴奏パターンデータ記憶部2およびアルペジオパターンデータ記憶部3を備えている。
a. Basic Configuration Before describing specific embodiments of an electronic musical instrument according to the present invention, the basic configuration of the electronic musical instrument will be described with reference to the functional block diagram of FIG. The electronic musical instrument includes a performance information input unit 1, an accompaniment pattern data storage unit 2, and an arpeggio pattern data storage unit 3.

演奏情報入力部1は、複数の鍵からなる鍵盤等で構成され、和音を指定するための第1演奏領域1aと、アルペジオ演奏のための音高指定を含む通常演奏を行う第2演奏領域1bとに分割されている。第1演奏領域における和音の指定方法はシングルフィンガー(根音およびタイプによって和音を指定するモード)、フィンガード(和音構成音によって和音を指定するモード)などの種々の方法のうちで、いずれの方法を採用してもよく、複数の方法の中から演奏者が選択できるようにしてもよい。また、演奏情報入力部1としては、MIDIキーボード等の外部装置からの演奏情報を受信するものであってもよい。第1演奏領域1aは、和音を指定するための演奏情報を和音検出部4に供給する。和音検出部4は、前記供給された演奏情報に基づいて、第1演奏領域によって指定された和音を検出する。検出アルゴリズムとしては、前記和音の各種指定方法に対応したものを採用する。   The performance information input unit 1 is composed of a keyboard composed of a plurality of keys, etc., and a first performance area 1a for designating chords and a second performance area 1b for performing normal performance including pitch designation for arpeggio performances. It is divided into and. The chord designation method in the first performance area is any one of various methods such as single finger (mode for designating a chord by root and type) and fingered (mode for designating a chord by a chord component). May be adopted, and the player may be able to select from a plurality of methods. The performance information input unit 1 may receive performance information from an external device such as a MIDI keyboard. The first performance area 1 a supplies performance information for designating a chord to the chord detection unit 4. The chord detector 4 detects a chord designated by the first performance area based on the supplied performance information. As a detection algorithm, an algorithm corresponding to the various chord designation methods is adopted.

第2演奏領域1bは、アルペジオ演奏のための音高指定を含む通常演奏を表す演奏情報を音高変換部5に供給し、またはアルペジオ音生成部9に直接供給する。音高変換部5は、前記演奏情報に加えて和音検出部4によって検出された和音を表す和音情報も入力し、和音情報に従って演奏情報によって表された音高を和音に合った音高に変換する。例えば和音タイプごとに利用可能な音高を規定したテーブル(図8)を備え、供給された和音情報によって表された和音タイプに対応したテーブル内容を参照し、利用可能な音高の中から入力された演奏情報に最も近い音高を採用する。新しい演奏情報の入力があったときに音高情報を出力するのはもちろんのこと、供給される和音が変化したときにも、変化後の和音に合った音高情報を出力する。   The second performance area 1b supplies performance information representing a normal performance including pitch designation for an arpeggio performance to the pitch converter 5 or directly to the arpeggio sound generator 9. The pitch converter 5 also receives chord information representing the chord detected by the chord detector 4 in addition to the performance information, and converts the pitch represented by the performance information into a pitch that matches the chord according to the chord information. To do. For example, a table (Fig. 8) that defines the available pitches for each chord type is provided, and the table content corresponding to the chord type represented by the supplied chord information is referenced and input from the available pitches. The pitch closest to the recorded performance information is adopted. In addition to outputting pitch information when new performance information is input, the pitch information suitable for the changed chord is also output when the supplied chord changes.

伴奏パターンデータ記憶部2は、複数の伴奏パターンデータを記憶している。伴奏パターンデータは、発音タイミングを表すタイミングデータおよび発音される楽音(和音構成音およびベース音)の音名を表すノートコードを対とする複数のデータからなり、所定の区間(例えば、1または複数小節)に渡る伴奏パターンを規定するものである。伴奏パターンデータ選択部6は、演奏者の選択操作に応じて、伴奏パターンデータ記憶部2に記憶された複数の伴奏パターンデータのうちのいずれか1つの伴奏パターンデータを選択して伴奏音生成部8に供給する。伴奏音生成部8は、前記供給された伴奏パターンデータと、和音検出部4からの和音情報とを用いて、和音情報によって指定される和音、ベース音などを所定のタイミングで生成して発生する。この伴奏音の発生においては、同時にアルペジオ音が発生される場合には、伴奏音の一部の発生が禁止され、残りの一部の発生が許容される。   The accompaniment pattern data storage unit 2 stores a plurality of accompaniment pattern data. The accompaniment pattern data is composed of a plurality of pieces of data that are paired with timing data representing the sounding timing and note codes representing the names of the tones (chord constituent sounds and bass sounds) to be sounded. This defines the accompaniment pattern over (bar). The accompaniment pattern data selection unit 6 selects any one of the plurality of accompaniment pattern data stored in the accompaniment pattern data storage unit 2 in accordance with the player's selection operation, and generates an accompaniment sound generation unit. 8 is supplied. The accompaniment sound generation unit 8 generates and generates chords, bass sounds and the like designated by the chord information at a predetermined timing using the supplied accompaniment pattern data and the chord information from the chord detection unit 4. . In the generation of the accompaniment sound, if an arpeggio sound is generated at the same time, generation of a part of the accompaniment sound is prohibited and generation of the remaining part is allowed.

アルペジオパターンデータ記憶部3は、複数のアルペジオパターンデータを記憶している。アルペジオパターンデータは、タイミングデータおよびノート順位データを対とする複数のデータからなり、所定の区間(例えば、1または複数小節)に渡るアルペジオパターンを規定するものである。タイミングデータは、アルペジオ音の発生タイミングを表す。ノート順位データは、第2演奏領域1bまたは音高変換部5から供給される演奏情報によって表された1または複数の音高のうちで、発音されるべき音高を表す。   The arpeggio pattern data storage unit 3 stores a plurality of arpeggio pattern data. The arpeggio pattern data is composed of a plurality of data paired with timing data and note ranking data, and defines an arpeggio pattern over a predetermined section (for example, one or a plurality of bars). The timing data represents the generation timing of the arpeggio sound. The note ranking data represents a pitch to be pronounced among one or a plurality of pitches represented by the performance information supplied from the second performance area 1b or the pitch converter 5.

アルペジオパターンデータ選択部7は、伴奏パターン選択部6と連動しており、アルペジオパターンデータ記憶部3に記憶された複数のアルペジオパターンデータのうちで、前記選択された伴奏パターンデータと関連付けられた1つのアルペジオパターンデータを選択してアルペジオ音生成部9に供給する。アルペジオ音生成部9は、前記供給されたアルペジオパターンデータと、第2演奏領域1bまたは音高変換部5からの演奏情報とを用いて、アルペジオ音を発生する。   The arpeggio pattern data selection unit 7 is linked to the accompaniment pattern selection unit 6, and is associated with the selected accompaniment pattern data among the plurality of arpeggio pattern data stored in the arpeggio pattern data storage unit 3. Two arpeggio pattern data are selected and supplied to the arpeggio sound generator 9. The arpeggio sound generation unit 9 generates an arpeggio sound using the supplied arpeggio pattern data and performance information from the second performance area 1b or the pitch conversion unit 5.

このようにして、音楽的にマッチした伴奏音とアルペジオ音とが同時に発生されるので、音楽的に不具合なく、伴奏音演奏とアルペジオ音演奏との同時演奏を簡単に実現できるようになるとともに、前記同時演奏による変化に富んだ演奏が得られるようになる。   In this way, musically matched accompaniment sounds and arpeggio sounds are generated at the same time, so it is possible to easily achieve simultaneous performance of accompaniment sounds and arpeggio sounds without musical problems, Performances rich in change due to the simultaneous performance can be obtained.

b.具体的な実施形態
次に、本発明に係る電子楽器の具体的な実施形態について説明する。図2は、本発明に係る電子楽器の全体ブロック図である。この電子楽器は、鍵盤11、設定操作子群12、ディスプレイ13および音源回路14を備えている。
b. Specific Embodiment Next, a specific embodiment of the electronic musical instrument according to the present invention will be described. FIG. 2 is an overall block diagram of the electronic musical instrument according to the present invention. This electronic musical instrument includes a keyboard 11, a setting operator group 12, a display 13, and a tone generator circuit 14.

鍵盤11は、発生楽音の音高を指定するための演奏操作子としての複数の鍵からなり、各鍵の操作はバス20に接続された検出回路11aによって検出される。また、鍵盤11は、予め決められた鍵音高または演奏者によって選択設定された鍵音高を境に、下鍵域と上鍵域に分けられており、下鍵域に属する複数の鍵は和音演奏に用いられ、上鍵域に属する複数の鍵はアルペジオおよびメロディを含む通常演奏に用いられる。設定操作子群12は、この電子楽器の操作パネル上に設けられて電子楽器の各部の動作を指示するものであり、それらの操作はバス20に接続された検出回路12aによって検出される。特に本実施形態では、伴奏モード操作子、伴奏パターン選択操作子、アルペジオモード操作子、OTSモード操作子、音色選択操作子などの設定操作子を含む。   The keyboard 11 includes a plurality of keys as performance operators for designating the pitch of the generated musical sound, and the operation of each key is detected by a detection circuit 11 a connected to the bus 20. The keyboard 11 is divided into a lower key range and an upper key range with a predetermined key pitch or a key pitch selected and set by the performer, and a plurality of keys belonging to the lower key range are Used for chord performance, a plurality of keys belonging to the upper key range are used for normal performance including arpeggios and melodies. The setting operator group 12 is provided on the operation panel of the electronic musical instrument to instruct the operation of each part of the electronic musical instrument, and these operations are detected by the detection circuit 12 a connected to the bus 20. In particular, the present embodiment includes setting operators such as an accompaniment mode operator, an accompaniment pattern selection operator, an arpeggio mode operator, an OTS mode operator, and a tone selection operator.

伴奏モード操作子は、伴奏音を発生させるオン動作と、伴奏音を発生させないオフ動作とを切り換えるものである。伴奏パターン選択操作子は、予め用意された複数の伴奏パターンデータの中から1つの伴奏パターンデータを選択するものである。アルペジオモード操作子は、アルペジオ音を発生させるオン動作と、アルペジオ音を発生させないオフ動作とを切り換えるものである。OTSモード操作子は、通常演奏(上鍵域の演奏)に適した演奏環境(通常演奏による楽音の音色、音量、効果など)を、選択された伴奏パターンに応じて自動的に設定するワンタッチセッティングモード(以下、OTSモードという)を選択するオン動作と、前記OTSモードを選択しないオフ動作とを切り換えるものである。音色選択操作子は、通常演奏によって発生される楽音の音色を選択するものである。   The accompaniment mode operator switches between an on operation that generates an accompaniment sound and an off operation that does not generate an accompaniment sound. The accompaniment pattern selection operator selects one accompaniment pattern data from a plurality of accompaniment pattern data prepared in advance. The arpeggio mode controller switches between an on operation that generates an arpeggio sound and an off operation that does not generate an arpeggio sound. The OTS mode controller is a one-touch setting that automatically sets the performance environment (tone, volume, effect, etc. of the musical tone of normal performance) according to the selected accompaniment pattern, suitable for normal performance (upper range performance) An on operation for selecting a mode (hereinafter referred to as an OTS mode) and an off operation for not selecting the OTS mode are switched. The tone color selection operator selects a tone color of a musical tone generated by normal performance.

ディスプレイ13は、操作パネル上に設けられた液晶ディスプレイ、CRTなどで構成され、文字、数字、図形などを表示する。このディスプレイ13の表示内容は、バス20に接続された表示回路13aによって制御される。音源回路14は、バス20に接続されていて、後述するコンピュータ部30の制御のもとに供給される演奏データおよび各種楽音制御パラメータに基づいてディジタル楽音信号を生成して効果回路15に出力する。効果回路15は、バス20に接続されていて、後述するコンピュータ部30の制御のもとに供給される効果制御データに基づいて、音源回路14から出力されたディジタル楽音信号にコーラス、リバーブなどの各種音楽的効果を付与してサウンドシステム16に出力する。サウンドシステム16は、D/A変換器、アンプ、スピーカなどを含んでいて、供給されるディジタル楽音信号をアナログ楽音信号に変換するとともに、同アナログ楽音信号に対応した楽音を放音する。   The display 13 is composed of a liquid crystal display, CRT, or the like provided on the operation panel, and displays characters, numbers, figures, and the like. The display content of the display 13 is controlled by a display circuit 13 a connected to the bus 20. The tone generator circuit 14 is connected to the bus 20, generates a digital musical tone signal based on performance data and various musical tone control parameters supplied under the control of the computer unit 30 described later, and outputs the digital musical tone signal to the effect circuit 15. . The effect circuit 15 is connected to the bus 20 and based on the effect control data supplied under the control of the computer unit 30 described later, the digital music signal output from the tone generator circuit 14 is subjected to chorus, reverb, etc. Various musical effects are applied and output to the sound system 16. The sound system 16 includes a D / A converter, an amplifier, a speaker, and the like, converts a supplied digital musical tone signal into an analog musical tone signal, and emits a musical tone corresponding to the analog musical tone signal.

また、この電子楽器は、バス20に接続されていてコンピュータ部30、外部記憶装置41、MIDIインターフェース回路42および通信インターフェース回路43も備えている。コンピュータ部30は、CPU31、タイマ32、ROM33およびRAM34からなる。外部記憶装置41は、HDD、FDD、CD−ROM、MO、DVD、半導体メモリなどの不揮発性の記録媒体と、同各記録媒体に対するドライブユニットを含むものであり、後述するデータおよびプログラムの記憶及び読出しを可能にしている。これらのデータおよびプログラムは予め外部記憶装置41に記憶されていてもよいし、MIDIインターフェース回路42または通信インターフェース回路43を介して外部から取り込んでもよい。   The electronic musical instrument is also connected to the bus 20 and includes a computer unit 30, an external storage device 41, a MIDI interface circuit 42, and a communication interface circuit 43. The computer unit 30 includes a CPU 31, a timer 32, a ROM 33 and a RAM 34. The external storage device 41 includes a nonvolatile recording medium such as an HDD, FDD, CD-ROM, MO, DVD, and semiconductor memory, and a drive unit for each recording medium, and stores and reads data and programs described later. Is possible. These data and program may be stored in the external storage device 41 in advance, or may be taken in from the outside via the MIDI interface circuit 42 or the communication interface circuit 43.

この外部記憶装置41には、図3の設定処理プログラムおよび図4の演奏処理プログラムに加え、各種プログラムおよびデータを記憶している。特に、データに関しては、外部記憶装置41には、複数の伴奏パターンデータ、複数のアルペジオパターンデータおよび複数のOTSデータが記憶されているとともに、音名変換テーブルが設けられている。   The external storage device 41 stores various programs and data in addition to the setting processing program of FIG. 3 and the performance processing program of FIG. In particular, regarding data, the external storage device 41 stores a plurality of accompaniment pattern data, a plurality of arpeggio pattern data, and a plurality of OTS data, and is provided with a pitch name conversion table.

複数の伴奏パターンデータは、ロック、ワルツ、マーチなどの伴奏スタイルにそれぞれ対応しており、各伴奏パターンデータは、図5に示すように、ヘッダ部および複数のトラック1〜nからなる。ヘッダ部には、各伴奏パターンデータを識別するための伴奏パターン名データ、アルペジオ音の発生時に発音が禁止されるトラックを表すミュートトラックデータなど記憶されている。ただし、このミュートトラックは、1つの伴奏パターンデータに含まれる複数のトラック1〜nの一部であって、複数のトラック1〜nの中にはミュートトラックでないトラックも必ず存在する。各トラックは、所定の和音(例えば、Cmaj)を基準にして、所定の区間(例えば、1または複数小節)に渡って、発音タイミングを表すタイミングデータおよび発音される楽音(和音構成音およびベース音)の音名を表すノートコードを対とする一連の伴奏パターンデータを時間経過に従って記憶している。   The plurality of accompaniment pattern data respectively correspond to accompaniment styles such as rock, waltz, and march, and each accompaniment pattern data includes a header portion and a plurality of tracks 1 to n as shown in FIG. The header portion stores accompaniment pattern name data for identifying each accompaniment pattern data, mute track data representing a track whose sound is prohibited when an arpeggio sound is generated, and the like. However, this mute track is a part of the plurality of tracks 1 to n included in one accompaniment pattern data, and there is always a track that is not a mute track among the plurality of tracks 1 to n. Each track has timing data representing sound generation timing and musical sound (chord constituent sound and bass sound) generated over a predetermined section (for example, one or a plurality of bars) with a predetermined chord (for example, Cmaj) as a reference. ), A series of accompaniment pattern data paired with a note code representing a note name is stored over time.

各アルペジオパターンデータは、図6(A)に示すように、ヘッダ部と、所定の区間(例えば、1または複数小節)に渡る一連のタイミングデータおよびノート順位データとからなる。ヘッダ部には、各アルペジオパターンデータを識別するためのアルペジオパターン名データ、アルペジオパターンに関連付けられたマニアル演奏音色を表す音色名データなどが記憶されている。タイミングデータは、アルペジオ音の発音タイミングを表す。ノート順位データは、鍵盤11の上鍵域にて押鍵され、後述する処理により図6(B)に示すノート順位バッファに記憶されている鍵を表す音名(音高)の中で、アルペジオ音として発音されるべき楽音の音名を指定するものである。このノート順位データには、アルペジオ音の発音時間を表すゲートタイムおよびアルペジオ音の音量を表すベロシティデータを含んでいる場合もある。各OTSデータは、図7に示すように、伴奏パターン名を表す伴奏パターン名データと、同伴奏に適したマニアル演奏音の音色、音量、効果などを表すデータを記憶している。   As shown in FIG. 6A, each arpeggio pattern data includes a header portion and a series of timing data and note rank data over a predetermined section (for example, one or a plurality of bars). The header portion stores arpeggio pattern name data for identifying each arpeggio pattern data, timbre name data representing a manual performance timbre associated with the arpeggio pattern, and the like. The timing data represents the sounding timing of the arpeggio sound. The note rank data is pressed in the upper key range of the keyboard 11 and is arpeggio among the pitch names (pitch) representing the keys stored in the note rank buffer shown in FIG. This specifies the note name of the musical sound to be pronounced as a sound. The note rank data may include velocity data indicating the gate time indicating the sounding time of the arpeggio sound and the volume of the arpeggio sound. As shown in FIG. 7, each OTS data stores accompaniment pattern name data representing accompaniment pattern names, and data representing tone color, volume, and effects of manual performance sounds suitable for accompaniment.

音名変換テーブルは、伴奏音の発生に利用する和音に応じて、鍵盤11の上鍵域での演奏鍵を表す音名を修正するためのものである。この音名変換テーブルは、図8に示すように、和音タイプ(例えば、Maj、M7など)ごとに、「0」以外の「1」、「2」、「3」などの数字により、変換先の音名を根音からの半音数で(言い換えれば、C音を基準に)表している。この場合、演奏鍵の音名は、「0」以外の「1」、「2」、「3」などの数字により指定される音名の中で、最も近い音名に変更される。また、「1」、「2」、「3」などは、同時押鍵数に応じて変換先の音名候補を変更するもので、押鍵数が「1」である場合には、「1」によって指定される音名が変換先の音名候補であることを示す。押鍵数が「2」である場合には、「1」および「2」によって指定される音名が変換先の音名候補であることを示す。押鍵数が「3」である場合には、「1」、「2」および「3」によって指定される音名が変換先の音名候補であることを示す。   The pitch name conversion table is for correcting the pitch name representing the performance key in the upper key range of the keyboard 11 in accordance with the chord used to generate the accompaniment sound. As shown in FIG. 8, this pitch name conversion table is converted into a conversion destination by numbers such as “1”, “2”, “3” other than “0” for each chord type (for example, Maj, M7, etc.). Are represented by the number of semitones from the root note (in other words, based on the C note). In this case, the pitch name of the performance key is changed to the closest pitch name among pitch names designated by numbers such as “1”, “2”, “3” other than “0”. “1”, “2”, “3”, and the like change the candidate name of the conversion destination in accordance with the number of simultaneous key presses, and when the key press number is “1”, “1” "Indicates that the pitch name specified by" "is a conversion-target pitch name candidate. When the number of key presses is “2”, it indicates that the pitch name designated by “1” and “2” is the conversion destination pitch name candidate. When the number of key presses is “3”, it indicates that the pitch name specified by “1”, “2”, and “3” is the conversion destination pitch name candidate.

MIDIインターフェース回路42は、他の電子音楽装置、パーソナルコンピュータなどのMIDI対応の外部機器51に接続可能となっていて、この電子楽器が外部機器51と各種プログラム及びデータを交信可能としている。通信インターフェース回路43は、通信ネットワーク52に接続可能となっていて、この電子楽器が各種プログラム及びデータをサーバコンピュータ53から受信し、またはサーバコンピュータ53に送信できるようになっている。   The MIDI interface circuit 42 can be connected to a MIDI-compatible external device 51 such as another electronic music apparatus or a personal computer, and the electronic musical instrument can communicate with the external device 51 in various programs and data. The communication interface circuit 43 can be connected to a communication network 52 so that the electronic musical instrument can receive various programs and data from the server computer 53 or transmit them to the server computer 53.

次に、上記のように構成した実施形態の動作を説明する。電子楽器の図示しない電源スイッチが投入されると、コンピュータ部30は、図3の設定処理プログラムおよび図4の演奏処理プログラムを所定の短時間ごとに繰り返し実行し始める。演奏者が設定操作子群12中の伴奏パターン選択操作子を操作することにより複数の伴奏パターンデータのうちのいずれかの伴奏パターンデータの選択を指示すると、コンピュータ部30は、図3の設定処理プログラム中のステップS11にて「Yes」と判定して、ステップS12にて前記選択された伴奏パターン名を更新記憶する。次に、ステップS13にて、OTSモードがオン状態に設定されているかを判定し、オン状態に設定されていれば、ステップS14,S15の処理を実行する。   Next, the operation of the embodiment configured as described above will be described. When a power switch (not shown) of the electronic musical instrument is turned on, the computer unit 30 starts to repeatedly execute the setting processing program of FIG. 3 and the performance processing program of FIG. 4 every predetermined short time. When the performer instructs the selection of any one of the plurality of accompaniment pattern data by operating the accompaniment pattern selection operator in the setting operator group 12, the computer unit 30 causes the setting process of FIG. In step S11 in the program, “Yes” is determined, and the selected accompaniment pattern name is updated and stored in step S12. Next, in step S13, it is determined whether the OTS mode is set to the on state. If the OTS mode is set to the on state, the processes of steps S14 and S15 are executed.

ステップS14においては、図7に示す複数のOTSデータのうちで選択されている伴奏パターンに対応したOTSデータを読み出して、読み出したOTSデータ中の音色、音量、効果などの発生楽音の楽音要素を設定する。これにより、鍵盤11の上鍵域による演奏音の音色、音量、効果などの楽音要素が設定される。ステップS15においては、図6(A)に示す複数のアルペジオパターンデータの中から、現在設定されている上鍵域用の音色(マニアル音色)を指定しているアルペジオパターンデータを選択する。   In step S14, the OTS data corresponding to the accompaniment pattern selected from the plurality of OTS data shown in FIG. 7 is read, and the musical tone elements of the generated musical tone such as the tone, volume, and effect in the read OTS data are read. Set. As a result, musical tone elements such as the tone color, volume and effect of the performance sound by the upper key range of the keyboard 11 are set. In step S15, the arpeggio pattern data designating the currently set upper key range timbre (manual timbre) is selected from the plurality of arpeggio pattern data shown in FIG.

また、演奏者によって設定操作子群12中のOTSモード操作子の操作により、OTSモードがオン動作に切り換えられると、コンピュータ部30はステップS16にて「Yes」と判定して、前記ステップS14,S15と同じステップS17,S18の処理が実行される。このようなステップS11〜S18の処理により、図7に示すように、演奏者によって選択された伴奏パターンに関連付けられて、鍵盤11の上鍵域におけるアルペジオ演奏を含む通常演奏による演奏音の音色が決定されるとともに、この決定された音色を介してアルペジオパターンデータも決定される。   Further, when the OTS mode is turned on by the player by operating the OTS mode operator in the setting operator group 12, the computer unit 30 determines “Yes” in step S16, and the steps S14, S14, The same steps S17 and S18 as S15 are executed. As a result of the processing in steps S11 to S18, as shown in FIG. 7, the timbre of the performance sound by the normal performance including the arpeggio performance in the upper key range of the keyboard 11 is associated with the accompaniment pattern selected by the performer. At the same time, arpeggio pattern data is also determined through the determined tone color.

また、演奏者が設定操作子群12中の音色選択操作子を操作することにより、鍵盤11の上鍵域におけるアルペジオ演奏を含む通常演奏による演奏音の音色の選択を指示すると、コンピュータ部30は、ステップS19にて「Yes」と判定して、ステップS20,S21の処理を実行する。ステップS20においては、前記通常演奏による演奏音の音色を選択された音色に設定する。ステップS21においては、前記ステップS15,S18と同様に、現在設定されている上鍵域用の音色(マニアル音色)を指定しているアルペジオパターンデータを選択する。ただし、この場合には、前記ステップS15,S18の場合とは異なり、前記ステップS20にて選択された音色に対応したアルペジオパターンが選択される。これは、伴奏モードがオン状態に設定されていない場合、OTSモードがオン状態に設定されていない場合には、演奏者によって直接選択された音色に応じたアルペジオ演奏を行おうとするためである。   Further, when the performer operates the timbre selection operator in the setting operator group 12 to instruct selection of the timbre of the performance sound by the normal performance including the arpeggio performance in the upper key range of the keyboard 11, the computer unit 30. In step S19, “Yes” is determined, and the processes in steps S20 and S21 are executed. In step S20, the tone color of the performance sound by the normal performance is set to the selected tone color. In step S21, similarly to steps S15 and S18, arpeggio pattern data designating the currently set upper key range timbre (manual timbre) is selected. However, in this case, unlike the steps S15 and S18, an arpeggio pattern corresponding to the tone color selected in the step S20 is selected. This is because if the accompaniment mode is not set to the on state or if the OTS mode is not set to the on state, an arpeggio performance corresponding to the tone color directly selected by the performer is to be performed.

また、演奏者が設定操作子群12中のアルペジオモード操作子を操作することにより、アルペジオモードがオン状態に切り換えられると、ステップS22にて「Yes」と判定して、ステップS23,S24の処理を実行する。ステップS23においては、現在選択されている伴奏パターンデータ中のミュートトラックデータを読み出して、ミュートトラックデータによって指定されるトラック内の伴奏パターンデータによる伴奏音の発生を禁止するためのミュート設定処理を実行する。ステップS24においては、アルペジオモードをオン状態に設定する。   Further, when the performer operates the arpeggio mode operation element in the setting operation element group 12 and the arpeggio mode is switched to the on state, “Yes” is determined in step S22, and the processing in steps S23 and S24 is performed. Execute. In step S23, the mute track data in the currently selected accompaniment pattern data is read, and a mute setting process for prohibiting the generation of accompaniment sounds by the accompaniment pattern data in the track designated by the mute track data is executed. To do. In step S24, the arpeggio mode is set to the on state.

さらに、演奏者が設定操作子群12中のアルペジオモード操作子を操作することにより、アルペジオモードがオン状態からオフ状態に切り換えられると、ステップS25にて「Yes」と判定して、ステップS26,S27の処理を実行する。ステップS26においては、現在選択されている伴奏パターンデータ中のミュートトラックデータを読み出して、ミュートトラックデータによって指定されるトラック内の伴奏パターンデータによる伴奏音の発生を許容するためのミュート設定解除処理を実行する。ステップS27においては、アルペジオモードをオフ状態に設定する。   Further, when the performer operates the arpeggio mode operator in the setting operator group 12 to switch the arpeggio mode from the on state to the off state, it is determined as “Yes” in step S25, and step S26, The process of S27 is executed. In step S26, mute track data in the currently selected accompaniment pattern data is read, and mute setting release processing is performed to allow generation of accompaniment sounds by the accompaniment pattern data in the track specified by the mute track data. Execute. In step S27, the arpeggio mode is set to the off state.

次に、図4の伴奏音およびアルペジオ音の発音を制御する演奏処理プログラムについて説明する。演奏者が鍵盤11の下鍵域にていずれかの鍵を押鍵または離鍵すると、コンピュータ部30は、ステップS31にて「Yes」と判定して、ステップS32にて押鍵されている鍵を表す鍵情報(音高情報)を用いて和音を検出する。この和音検出においては、前述のように、シングルフィンガー、フィンガードなどのような和音の指定方法に応じた和音検出処理が実行される。   Next, a performance processing program for controlling the pronunciation of the accompaniment sound and arpeggio sound in FIG. 4 will be described. When the performer presses or releases any key in the lower key range of the keyboard 11, the computer unit 30 determines “Yes” in step S31, and the key pressed in step S32. A chord is detected using key information (pitch information) representing. In this chord detection, as described above, chord detection processing according to a chord designation method such as single finger or fingered is executed.

次に、コンピュータ部30は、ステップS33にて鍵盤11の上鍵域に押鍵中の鍵があるか否かを判定する。上鍵域に押鍵中の鍵があれば、ステップS33にて「Yes」と判定して、ステップS34にて前記押鍵中の鍵を表す音高を検出和音に合った音高に変化する。この音高変換処理は、図8の音高変換テーブルを参照して実行される。まず、上鍵域にて押鍵中の鍵を表す鍵情報(音高情報)のそれぞれに対して、前記検出和音の根音音名から前記鍵情報によって表される音名までの半音数(0〜11)を計算する。   Next, the computer unit 30 determines whether or not there is a key being pressed in the upper key range of the keyboard 11 in step S33. If there is a key being pressed in the upper key range, “Yes” is determined in step S33, and the pitch representing the key being pressed is changed to a pitch that matches the detected chord in step S34. . This pitch conversion process is executed with reference to the pitch conversion table of FIG. First, for each piece of key information (pitch information) representing the key being pressed in the upper key range, the number of semitones from the root note name of the detected chord to the pitch name represented by the key information ( 0-11) is calculated.

そして、前記検出和音のタイプ(Maj,M7など)に対応した音高変換テーブルの欄を参照し、前記計算した半音数が最も近い和音に合った音名(「1」,「2」,「3」などが記録されている音名)が変換後の仮音名として決定される。ただし、変換後の仮音名として決定される候補は、上鍵域にて押鍵中の押鍵数に応じて変化するもので、前記押鍵数が「1」ならば「1」が記録されている音名中から前記計算した半音数が最も近い音名が変換後の仮音名として決定される。前記押鍵数が「2」ならば「1」および「2」が記録されている音名中から前記計算した半音数が最も近い音名が変換後の仮音名として決定される。前記押鍵数が「3」ならば「1」ないし「3」が記録されている音名中から前記計算した半音数が最も近い音名が変換後の仮音名として決定される。   Then, the pitch conversion table column corresponding to the detected chord type (Maj, M7, etc.) is referred to, and the pitch names (“1”, “2”, “ 3) is determined as the converted pseudo-phonetic name. However, the candidate determined as the converted pseudophonic name changes according to the number of key presses in the upper key range. If the key press number is “1”, “1” is recorded. The pitch name with the closest calculated semitone number is determined as the post-conversion pseudonym name from the pitch names that have been converted. If the number of key presses is “2”, the pitch name having the closest number of semitones calculated from the pitch names recorded with “1” and “2” is determined as the converted temporary pitch name. If the number of key presses is “3”, the pitch name with the closest calculated semitone number is determined as the converted pseudo-phonetic name among the pitch names recorded with “1” to “3”.

このようにして、上鍵域にて押鍵中の鍵を表す鍵情報(音高情報)のそれぞれに対して変換後の仮音名を決定した後、前記鍵情報によって表された音名から仮音名までの半音数すなわち変更半音数をそれぞれ計算する。そして、前記鍵情報(音高情報)に前記変更半音数を加算することにより、音名変換した鍵情報を最終的に決定する。なお、押鍵中の鍵を表す音高そのものが音高変換テーブルの該当する欄に存在する場合には、音高変換は省略されて、押鍵されている鍵を表す鍵情報がそのまま最終的な鍵情報として決定される。   Thus, after determining the converted pseudonym name for each of the key information (pitch information) representing the key being pressed in the upper key range, from the pitch name represented by the key information The number of semitones up to the pseudonym name, that is, the number of changed semitones is calculated. Then, by adding the changed semitone number to the key information (pitch information), the key information whose pitch is converted is finally determined. If the pitch representing the key being pressed exists in the corresponding column of the pitch conversion table, the pitch conversion is omitted, and the key information representing the key being pressed is final as it is. Key information is determined.

このステップS34の音高変換処理後、ステップS35にて、図6(B)に示すノート順位バッファに変換後の鍵情報を所定ルールに従った順位で格納する。所定ルールとは、例えば低音順、高音順、押鍵順、ランダムなどに従った順序である。例えば、上鍵域にて押鍵中の鍵を表す鍵情報の変換後の鍵情報がC4,E4,G4であり、所定ルールとして低音順が採用されていれば、図6(B)に示すように、ノート順位1〜3に対して、C4,E4,G4を表す鍵情報がノート順位バッファに格納される。   After the pitch conversion processing in step S34, the converted key information is stored in the order according to a predetermined rule in the note ranking buffer shown in FIG. 6B in step S35. The predetermined rule is an order according to, for example, a low-pitched order, a high-pitched order, a key-pressing order, or a random order. For example, if the key information after conversion of the key information representing the key being pressed in the upper key range is C4, E4, G4, and bass order is adopted as the predetermined rule, it is shown in FIG. Thus, key information representing C4, E4, and G4 is stored in the note rank buffer for note ranks 1 to 3.

次に、ステップS36にて、発音中のアルペジオ音および伴奏音の再発音処理を実行する。この再発音処理は、鍵盤11の下鍵域における押離鍵状態の変化に伴うアルペジオ音および伴奏音の修正処理である。すなわち、後述するステップS42,S45の処理による現在発音中のアルペジオ音および伴奏音が、下鍵域における押離鍵状態の変化によって変更されるべき場合には、現在発音中のアルペジオ音および伴奏音の発音が停止されて、ステップS42,S45の条件に従って現在のタイミングに対応した新たなアルペジオ音および伴奏音が決定されて発音制御される。下鍵域における押離鍵状態の変化があっても、現在発音中のアルペジオ音および伴奏音を変更する必要のない場合には、現在発音中のアルペジオ音および伴奏音が発音し続ける。また、現在発音中のアルペジオ音および伴奏音がない場合には、アルペジオ音および伴奏音の発音処理が実行されない。   Next, in step S36, re-pronunciation processing of the arpeggio sound and accompaniment sound being generated is executed. This re-sounding process is a process for correcting an arpeggio sound and accompaniment sound accompanying a change in the pressed / released key state in the lower key range of the keyboard 11. In other words, when the arpeggio sound and accompaniment sound currently being sounded by the processing of steps S42 and S45 described later are to be changed due to a change in the pressed / released key state in the lower key range, the arpeggio sound and accompaniment sound currently being sounded Is stopped, and a new arpeggio sound and accompaniment sound corresponding to the current timing are determined according to the conditions of steps S42 and S45, and the sound generation is controlled. Even if there is a change in the pressed / released key state in the lower key range, if it is not necessary to change the arpeggio sound and the accompaniment sound that are currently sounding, the arpeggio sound and the accompaniment sound that are currently sounding continue to sound. In addition, when there is no arpeggio sound and accompaniment sound currently being generated, the arpeggio sound and accompaniment sound generation processing is not executed.

また、鍵盤11の上鍵域のいずれかの鍵が新たに押離鍵操作されると、コンピュータ部30は、ステップS37にて「Yes」と判定して、ステップS38,S39の処理を実行する。ステップS38においては、新たに押離鍵された鍵に関し、前述したステップS34の処理と同様に、同押離鍵された鍵を表す鍵情報(音高情報)を現在検出されている和音を表す和音情報を用いて音高変換する。ステップS39にておいては、この音高変換された鍵情報で、前記ノート順位バッファの記憶内容を更新する。すなわち、鍵盤11の上鍵域にて新たな押鍵があった場合には、この新たに押鍵された鍵に関して音高変換された鍵情報が、ノート順位バッファに追加される。また、鍵盤11の上鍵域にて新たな離鍵があった場合には、この新たに離鍵された鍵に関して音高変換された鍵情報が、ノート順位バッファから削除される。   When any key in the upper key range of the keyboard 11 is newly pressed and released, the computer unit 30 determines “Yes” in step S37 and executes the processes of steps S38 and S39. . In step S38, the key information (pitch information) representing the key that has been pressed / released represents the chord that is currently detected for the newly pressed / released key, as in the process of step S34 described above. Convert pitch using chord information. In step S39, the stored contents of the note rank buffer are updated with the key information whose pitch has been converted. That is, when a new key is pressed in the upper key range of the keyboard 11, the key information whose pitch has been converted for the newly pressed key is added to the note rank buffer. Further, when there is a new key release in the upper key range of the keyboard 11, the key information whose pitch has been converted for the newly released key is deleted from the note rank buffer.

前記ステップS37,S39の処理後、コンピュータ部30は、ステップS40にて、設定操作子群12内のアルペジオモード操作子の操作によってアルペジオモードがオン状態に設定されているかを判定する。オン状態に設定されていれば、ステップS41にて、現在の進行タイミングが、選択されているアルペジオパターンデータ(図6(A)参照)内のノート順位データの発生タイミングであるか、すなわち図示しないプログラムの実行によって時間経過に従ってカウントされている楽曲の進行を表す進行タイミングに一致するタイミングデータが前記選択されたアルペジオパターンデータ内に存在するかを判定する。そして、進行タイミングに一致するタイミングデータが存在すれば、ステップS42にて、前記タイミングデータに対応したノート順位に応じて、ノート順位バッファ内に記憶されている該当するノート順位の鍵情報(音高情報)を読み出して、音源回路14に出力する。   After the processes in steps S37 and S39, the computer unit 30 determines in step S40 whether the arpeggio mode is set to the on state by the operation of the arpeggio mode operator in the setting operator group 12. If it is set to the on state, in step S41, the current progress timing is the generation timing of the note rank data in the selected arpeggio pattern data (see FIG. 6A), that is, not shown. It is determined whether timing data that coincides with the progress timing representing the progress of the music counted over time by the execution of the program exists in the selected arpeggio pattern data. If there is timing data that matches the progress timing, in step S42, according to the note rank corresponding to the timing data, the key information (pitch of pitch) stored in the note rank buffer is stored. Information) is output to the tone generator circuit 14.

音源回路14は、供給された鍵情報(音高情報)に応じたディジタル楽音信号を生成して効果回路15に供給する。なお、ノート順位データに、ゲートタイムおよびベロシティデータが含まれている場合には、アルペジオ音の発音時間および音量が個々に制御される。効果回路15は、供給されたディジタル楽音信号に効果を付加してサウンドシステム16に供給する。サウンドシステム16は、前記ディジタル楽音信号をアナログ楽音信号に変換して、同アナログ楽音信号に対応した楽音すなわちアルペジオ音を発生する。この場合、伴奏パターンデータが選択され、かつOTSモードがオン状態にあれば、アルペジオ音の音色、音量、効果などは、OTSデータを用いた前記図3のステップS11〜S18の処理により、選択されている伴奏パターンに関連付けられる。また、伴奏音の発音とは別に、前記図3のステップS19〜S21などの処理により、設定操作子群12中の音色設定操作子によってアルペジオ音の音色、音量、効果などが設定される場合もある。   The tone generator circuit 14 generates a digital musical tone signal corresponding to the supplied key information (pitch information) and supplies it to the effect circuit 15. When the note ranking data includes gate time and velocity data, the sounding time and volume of the arpeggio sound are individually controlled. The effect circuit 15 adds an effect to the supplied digital musical tone signal and supplies it to the sound system 16. The sound system 16 converts the digital musical tone signal into an analog musical tone signal and generates a musical tone corresponding to the analog musical tone signal, that is, an arpeggio sound. In this case, if accompaniment pattern data is selected and the OTS mode is on, the arpeggio tone, volume, effect, etc. are selected by the processing of steps S11 to S18 of FIG. 3 using OTS data. Associated with the accompaniment pattern. In addition to the sound of the accompaniment sound, the tone, volume, effect, etc. of the arpeggio sound may be set by the tone setting operator in the setting operator group 12 by the processing in steps S19 to S21 in FIG. is there.

前記ステップS40〜S42の処理後、コンピュータ部30は、ステップS43にて、設定操作子群12内の伴奏モード操作子の操作によって伴奏モードがオン状態に設定されているかを判定する。オン状態に設定されていれば、ステップS44にて、現在の進行タイミングが、選択されている伴奏パターンデータ(図5参照)内のノートコード(和音構成音、ベース音など表すノートコード)の発生タイミングであるか、すなわち前記進行タイミングに一致するタイミングデータが前記選択された伴奏パターンデータ内に存在するかを判定する。   After the processing of steps S40 to S42, the computer unit 30 determines in step S43 whether the accompaniment mode is set to the on state by the operation of the accompaniment mode operator in the setting operator group 12. If it is set to the on state, in step S44, the current progression timing is generated as a note code (note code representing chord constituent sound, bass sound, etc.) in the selected accompaniment pattern data (see FIG. 5). It is determined whether it is timing, that is, timing data matching the progress timing is present in the selected accompaniment pattern data.

そして、進行タイミングに一致するタイミングデータが存在すれば、ステップS45にて、同タイミングデータに対応したノートコードを現在検出されている和音を表す和音情報(和音の根音およびタイプ情報)を用いて変換して、同変換したノートコード(音高情報)を音源回路14に出力する。このステップS45の処理においては、前記図3のステップS23,S26の処理によってミュート設定されたトラック内のノートコードは、何ら処理されずに音源回路14へも出力されない。そして、ミュート設定されていないトラック内のノートコードのみが、変換処理されて音源回路14へ出力される。これにより、図5に示すように、伴奏パターンデータの一部のトラックが、アルペジオパターンデータによって差し替えられたような状態になる。   If there is timing data that coincides with the progress timing, in step S45, the note code corresponding to the timing data is used using the chord information (the root and type information of the chord) representing the currently detected chord. The converted note code (pitch information) is output to the tone generator circuit 14. In the process of step S45, the note code in the track that has been muted by the processes of steps S23 and S26 of FIG. 3 is not processed and is not output to the tone generator circuit. Only the note code in the track that is not set to mute is converted and output to the tone generator circuit 14. As a result, as shown in FIG. 5, a part of the tracks of the accompaniment pattern data is replaced by the arpeggio pattern data.

音源回路14は、前記アルペジオ音の場合と同様に、ノートコード(音高情報)に応じたディジタル楽音信号を生成して効果回路15に供給する。効果回路15およびサウンドシステム16も前記アルペジオ音の場合と同様に動作して、前記ディジタル楽音信号に対応した楽音すなわち伴奏音が発生される。この場合、伴奏音の音色、音量、効果などの楽音要素は、設定操作子群12によって制御され、または伴奏パターンデータ内に前記楽音要素を制御するデータが存在すれば、同データによって制御される。   As in the case of the arpeggio sound, the tone generator circuit 14 generates a digital musical tone signal corresponding to the note code (pitch information) and supplies it to the effect circuit 15. The effect circuit 15 and the sound system 16 operate in the same manner as in the case of the arpeggio sound, and a musical sound corresponding to the digital musical sound signal, that is, an accompaniment sound is generated. In this case, the musical tone elements such as the tone color, volume, and effect of the accompaniment sound are controlled by the setting operator group 12 or, if there is data for controlling the musical tone element in the accompaniment pattern data, the musical tone element is controlled by the same data. .

上記作動説明からも理解できるように、上記具体的な実施形態によれば、図3のステップS11〜S18の処理により、伴奏音およびアルペジオ音の発生に利用される伴奏パターンデータおよびアルペジオパターンデータは互いに関連付けられるので、図4のステップS41〜S45の処理によって自動的に発生される伴奏音およびアルペジオ音が音楽的に互いにマッチしたものとなる。その結果、音楽的に不具合なく、伴奏音演奏とアルペジオ音演奏との同時演奏を簡単に実現できるようになるとともに、前記同時演奏による変化に富んだ演奏が得られるようになる。   As can be understood from the above operation description, according to the specific embodiment, the accompaniment pattern data and the arpeggio pattern data used for generating the accompaniment sound and the arpeggio sound are obtained by the processing of steps S11 to S18 in FIG. Since they are associated with each other, the accompaniment sound and the arpeggio sound that are automatically generated by the processing of steps S41 to S45 of FIG. 4 are musically matched to each other. As a result, it is possible to easily realize the simultaneous performance of the accompaniment sound performance and the arpeggio sound performance without any musical problems, and it is possible to obtain a performance rich in change due to the simultaneous performance.

また、図3のステップS34,S35,S38,S39の処理により、アルペジオ音の発生に利用される鍵盤11の上鍵域の演奏情報は、下鍵域にて指定されて伴奏音の発生に利用される和音に合った音高を表す演奏情報に変換される。したがって、発生される伴奏音とアルペジオ音との調和を図ることができ、より伴奏音演奏とアルペジオ音演奏とを音楽的に互いにマッチしたものとすることができる。また、図3のステップS23,S26および図4のステップS45の処理により、伴奏パターンデータのうちの一部のトラックのデータに基づく伴奏音の発生を禁止して、残りのトラックのデータに基づく伴奏音の発生のみを許容するようにしたので、伴奏音とアルペジオ音の同時発生によって不具合が生じる伴奏音の発生を禁止できる。これによっても、音楽的に互いにマッチした伴奏音演奏とアルペジオ音演奏との同時演奏を簡単に実現できるようになるとともに、前記同時演奏による変化に富んだ演奏が得られるようになる。   In addition, the processing information in steps S34, S35, S38, and S39 in FIG. 3 uses the performance information of the upper key range of the keyboard 11 used for generating the arpeggio sound to be specified in the lower key range and used for generating the accompaniment sound. It is converted into performance information representing the pitch that matches the chord being played. Therefore, the generated accompaniment sound and the arpeggio sound can be harmonized, and the accompaniment sound performance and the arpeggio sound performance can be more musically matched to each other. Further, by the processing of steps S23 and S26 in FIG. 3 and step S45 in FIG. 4, the generation of accompaniment sounds based on the data of some tracks in the accompaniment pattern data is prohibited, and the accompaniment based on the data of the remaining tracks Since only the sound is allowed to be generated, it is possible to prohibit the generation of an accompaniment sound that causes a problem due to the simultaneous generation of the accompaniment sound and the arpeggio sound. This also makes it possible to easily realize a simultaneous performance of an accompaniment sound performance and an arpeggio sound performance that are musically matched to each other, and a performance rich in change due to the simultaneous performance can be obtained.

さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。   Furthermore, in carrying out the present invention, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the object of the present invention.

例えば、上記実施形態においては、アルペジオ音の発生のための鍵盤11の上鍵域の演奏情報は、下鍵域にて指定されて伴奏音の発生に利用される和音に合った音高を表す演奏情報に変換されるようにした。しかし、これに代えて、前記変換を行うことなく、鍵盤11の上鍵域における押鍵を表す演奏情報をそのままアルペジオ音の発生のために利用するようにしてもよい。この場合、図3のステップS34,S38の処理を省略するようにすればよい。   For example, in the above embodiment, the performance information of the upper key range of the keyboard 11 for generating the arpeggio sound represents the pitch that matches the chord specified in the lower key range and used to generate the accompaniment sound. Now converted to performance information. However, instead of this, the performance information representing the key depression in the upper key range of the keyboard 11 may be used as it is for generating an arpeggio sound without performing the conversion. In this case, the processing in steps S34 and S38 in FIG. 3 may be omitted.

また、上記実施形態においては、鍵盤11の下鍵域の演奏によって和音を指定入力するようにした。しかし、前記鍵盤11によって指定入力される和音情報に代えて、曲の進行に従って和音データを記憶した和音進行データ(楽曲を表す一連の曲データ中に含まれる和音データも含む)を用意しておき、この和音進行データに基づいて入力される和音情報を用いるようにしてもよい。また、上記実施形態の伴奏パターンデータ中に和音進行データを含ませておき、それを読み出して利用するようにしてもよい。   In the above embodiment, the chord is designated and input by playing the lower key range of the keyboard 11. However, instead of the chord information designated and input by the keyboard 11, chord progression data (including chord data included in a series of song data representing a song) in which chord data is stored according to the progression of the song is prepared. The chord information input based on the chord progression data may be used. Further, the chord progression data may be included in the accompaniment pattern data of the above embodiment, and it may be read and used.

また、上記実施形態では、1つの伴奏パターンに対して1つのアルペジオパターンが関連付けられている例について説明した。しかし、1つの伴奏パターンに対して、複数のアルペジオパターンを関連付けるようにしてもよい。この場合、別途設けたアルペジオパターン選択操作子の操作により、演奏者が1つの伴奏パターンに関連付けられた複数のアルペジオパターンのうちのいずれか1つまたは複数のアルペジオパターンを選択するようにすればよい。また、1つのアルペジオパターンを複数の伴奏パターンに共通に関連付けるようにしてもよい。   In the above embodiment, an example in which one arpeggio pattern is associated with one accompaniment pattern has been described. However, a plurality of arpeggio patterns may be associated with one accompaniment pattern. In this case, the player may select any one or a plurality of arpeggio patterns among a plurality of arpeggio patterns associated with one accompaniment pattern by operating an arpeggio pattern selection operator provided separately. . Further, one arpeggio pattern may be associated with a plurality of accompaniment patterns in common.

伴奏パターン中の複数のトラックのうち、アルペジオパターンと差し替えられるトラック(ミュートトラック)に関しては、前記のように1つの伴奏パターンと複数のアルペジオパターンとが関連付けられている場合には、差し替えられるトラックは全てのアルペジオパターンに対して同一のトラックとしてもよいし、アルペジオパターンによって異なるトラックが差し替えられるようにしてもよい。異なるトラックとした場合は、アルペジオパターンごとに好適なトラックを差し替えることができる。また、差し替えるトラックを演奏者が設定したり、修正したりできるようにしてもよい。   Of the multiple tracks in the accompaniment pattern, for tracks that can be replaced with arpeggio patterns (mute tracks), if one accompaniment pattern and multiple arpeggio patterns are associated as described above, the track to be replaced is The same track may be used for all arpeggio patterns, or different tracks may be replaced depending on the arpeggio pattern. When different tracks are used, suitable tracks can be replaced for each arpeggio pattern. Also, the performer may be able to set or correct the track to be replaced.

また、上記実施形態においては、伴奏パターンとアルペジオパターンとをOTSデータおよび音色を介して間接的に関連付けるようにした。しかし、これに限らず、伴奏パターン中にアルペジオパターンを対応付ける情報を含ませてもよいし、OTSデータ中にアルペジオパターンを対応付ける情報を含ませてもよい。つまり、どのような方法であっても、伴奏パターンとアルペジオパターンとが関連付けられていればよい。また、関連付けを演奏者が設定したり、修正したりできるようにしてもよい。   In the above embodiment, the accompaniment pattern and the arpeggio pattern are indirectly associated with each other via the OTS data and the tone color. However, the present invention is not limited to this, and information that associates an arpeggio pattern may be included in an accompaniment pattern, or information that associates an arpeggio pattern may be included in OTS data. That is, any method may be used as long as the accompaniment pattern and the arpeggio pattern are associated with each other. The association may be set or corrected by the performer.

さらに、上記実施形態においては、演奏操作子として鍵盤11を採用した電子楽器に本発明を適用したが、鍵に代えて、単なる押圧スイッチ、タッチスイッチなどを音高を指定する演奏操作子を採用した電子楽器に本発明を適用してもよい。特に、本発明は、形態を問わず、種々の電子楽器にも適用され得る。   Furthermore, in the above embodiment, the present invention is applied to an electronic musical instrument that employs the keyboard 11 as a performance operator, but instead of a key, a performance operator that designates a pitch using a simple press switch, touch switch, or the like is employed. The present invention may be applied to such electronic musical instruments. In particular, the present invention can be applied to various electronic musical instruments regardless of the form.

1…演奏情報入力部、2…伴奏パターンデータ記憶部、3…アルペジオパターンデータ記憶部、4…和音検出部、5…音高変換部、6…伴奏パターン選択部、7…アルペジオパターン選択部、8…伴奏音生成部、9…アルペジオ音生成部、11…鍵盤、12…設定操作子群、14…音源回路、30…コンピュータ部、41…外部記憶装置 DESCRIPTION OF SYMBOLS 1 ... Performance information input part, 2 ... Accompaniment pattern data storage part, 3 ... Arpeggio pattern data storage part, 4 ... Chord detection part, 5 ... Pitch conversion part, 6 ... Accompaniment pattern selection part, 7 ... Arpeggio pattern selection part, DESCRIPTION OF SYMBOLS 8 ... Accompaniment sound generation part, 9 ... Arpeggio sound generation part, 11 ... Keyboard, 12 ... Setting operator group, 14 ... Sound source circuit, 30 ... Computer part, 41 ... External storage device

Claims (2)

演奏者による演奏を表す演奏情報を入力する演奏情報入力手段と、
複数のトラックにそれぞれ記憶されて伴奏音を発生させるための複数の一連の伴奏パターンデータを1組の伴奏パターンデータとし、複数組の伴奏パターンデータを記憶するとともに、アルペジオ音の発生時に伴奏音の発生が禁止されるトラックを表すデータを前記複数組の伴奏パターンデータにそれぞれ対応させて記憶する伴奏パターンデータ記憶手段と、
複数のアルペジオパターンデータを前記複数組の伴奏パターンデータにそれぞれ関連付けて記憶するアルペジオパターンデータ記憶手段と、
前記伴奏パターンデータ記憶手段に記憶されている複数組の伴奏パターンデータのうちのいずれか1組の伴奏パターンデータに従って複数の伴奏音を発生する伴奏音発生手段と、
前記演奏情報入力手段によって入力された演奏情報を用いて、前記アルペジオパターンデータ記憶手段に記憶されている複数のアルペジオパターンデータのうちのいずれかのアルペジオパターンデータに従ったアルペジオ音を発生するアルペジオ音発生手段と、
前記伴奏音発生手段および前記アルペジオ音発生手段によって伴奏音およびアルペジオ音が同時に発生されるとき、前記伴奏パターンデータ記憶手段に記憶されていてアルペジオ音の発生時に伴奏音の発生が禁止されるトラックを表すデータに基づいて、前記1組の伴奏パターンデータに従った複数の伴奏音のうちの前記伴奏音の発生が禁止されるトラックに対応した一部の伴奏音の発生を禁止し、かつ他の伴奏音の発生を許容する発生禁止制御手段
を備えたことを特徴とする電子楽器。
Performance information input means for inputting performance information representing performance by the performer;
A plurality of series of accompaniment pattern data stored in a plurality of tracks for generating accompaniment sounds is used as a set of accompaniment pattern data, and a plurality of sets of accompaniment pattern data are stored. Accompaniment pattern data storage means for storing data representing tracks for which generation is prohibited in association with the plurality of sets of accompaniment pattern data ,
Arpeggio pattern data storage means for storing a plurality of arpeggio pattern data in association with each of the plurality of sets of accompaniment pattern data ;
And accompaniment tone generating means for generating a multiple companion Soon according to any one set of accompaniment pattern data of a plurality of sets of accompaniment pattern data stored in the accompaniment pattern data storing means,
An arpeggio sound that generates arpeggio sound according to any one of a plurality of arpeggio pattern data stored in the arpeggio pattern data storage means, using the performance information input by the performance information input means Generating means;
When an accompaniment sound and an arpeggio sound are simultaneously generated by the accompaniment sound generation means and the arpeggio sound generation means, a track that is stored in the accompaniment pattern data storage means and is prohibited from generating an accompaniment sound when the arpeggio sound is generated based on the data representing the set of accompaniment generation of the accompaniment tone of the plurality of accompaniment tone in accordance with the pattern data prohibits generation of wake Soon some corresponding to the track to be prohibited, and the other electronic musical instrument characterized by comprising a generation prohibition control means for allowing generation of companion Soon the.
演奏者による演奏を表す演奏情報を入力する演奏情報入力手段と、
複数のトラックにそれぞれ記憶されて伴奏音を発生させるための複数の一連の伴奏パターンデータを1組の伴奏パターンデータとし、複数組の伴奏パターンデータを記憶するとともに、アルペジオ音の発生時に伴奏音の発生が禁止されるトラックを表すデータを前記複数組の伴奏パターンデータにそれぞれ対応させて記憶する伴奏パターンデータ記憶手段と、
複数のアルペジオパターンデータを前記複数組の伴奏パターンデータにそれぞれ関連付けて記憶するアルペジオパターンデータ記憶手段とを備えた電子楽器に適用され、
前記電子楽器内のコンピュータに、
前記伴奏パターンデータ記憶手段に記憶されている複数組の伴奏パターンデータのうちのいずれか1組の伴奏パターンデータに従って複数の伴奏音を発生させる伴奏音発生機能と、
前記演奏情報入力手段によって入力された演奏情報を用いて、前記アルペジオパターンデータ記憶手段に記憶されている複数のアルペジオパターンデータのうちのいずれかのアルペジオパターンデータに従ったアルペジオ音を発生させるアルペジオ音発生機能と、
前記伴奏音発生機能および前記アルペジオ音発生機能によって伴奏音およびアルペジオ音が同時に発生されるとき、前記伴奏パターンデータ記憶手段に記憶されていてアルペジオ音の発生時に伴奏音の発生が禁止されるトラックを表すデータに基づいて、前記1組の伴奏パターンデータに従った複数の伴奏音のうちの前記伴奏音の発生が禁止されるトラックに対応した一部の伴奏音の発生を禁止させ、かつ他の伴奏音の発生を許容させる発生禁止制御機能
を実現させるようにしたことを特徴とするコンピュータプログラム。
Performance information input means for inputting performance information representing performance by the performer;
A plurality of series of accompaniment pattern data stored in a plurality of tracks for generating accompaniment sounds is used as a set of accompaniment pattern data, and a plurality of sets of accompaniment pattern data are stored. Accompaniment pattern data storage means for storing data representing tracks for which generation is prohibited in association with the plurality of sets of accompaniment pattern data ,
Applied to an electronic musical instrument comprising arpeggio pattern data storage means for storing a plurality of arpeggio pattern data in association with the plurality of sets of accompaniment pattern data ,
In the computer in the electronic musical instrument,
And accompaniment tone generating function for generating the multiple companion Soon according to any one set of accompaniment pattern data of a plurality of sets of accompaniment pattern data stored in the accompaniment pattern data storing means,
Arpeggio sound for generating arpeggio sound according to any one of a plurality of arpeggio pattern data stored in the arpeggio pattern data storage means, using the performance information input by the performance information input means Generation function,
When an accompaniment sound and an arpeggio sound are simultaneously generated by the accompaniment sound generation function and the arpeggio sound generation function, a track that is stored in the accompaniment pattern data storage means and is prohibited from generating an accompaniment sound when the arpeggio sound is generated based on the data represented by prohibiting the occurrence of ban Soon some occurrence of said accompaniment tone of the plurality of accompaniment tone in accordance with the set of accompaniment pattern data corresponding to the track to be prohibited, and the other computer program, characterized in that as the occurrence of wake Soon realizing the generation inhibiting control function which tolerated.
JP2010098392A 2010-04-22 2010-04-22 Electronic musical instruments and computer programs applied to electronic musical instruments Expired - Fee Related JP4962592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010098392A JP4962592B2 (en) 2010-04-22 2010-04-22 Electronic musical instruments and computer programs applied to electronic musical instruments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010098392A JP4962592B2 (en) 2010-04-22 2010-04-22 Electronic musical instruments and computer programs applied to electronic musical instruments

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005338401A Division JP4556852B2 (en) 2005-11-24 2005-11-24 Electronic musical instruments and computer programs applied to electronic musical instruments

Publications (2)

Publication Number Publication Date
JP2010160523A JP2010160523A (en) 2010-07-22
JP4962592B2 true JP4962592B2 (en) 2012-06-27

Family

ID=42577669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010098392A Expired - Fee Related JP4962592B2 (en) 2010-04-22 2010-04-22 Electronic musical instruments and computer programs applied to electronic musical instruments

Country Status (1)

Country Link
JP (1) JP4962592B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6953746B2 (en) * 2017-03-02 2021-10-27 ヤマハ株式会社 Electronic sound device and tone setting method
JP6939922B2 (en) * 2019-03-25 2021-09-22 カシオ計算機株式会社 Accompaniment control device, accompaniment control method, electronic musical instrument and program
JP7419830B2 (en) * 2020-01-17 2024-01-23 ヤマハ株式会社 Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59197092A (en) * 1983-04-23 1984-11-08 ヤマハ株式会社 Electronic musical instrument
JPH01179089A (en) * 1988-01-06 1989-07-17 Yamaha Corp Automatic playing device
JP4186802B2 (en) * 2003-11-26 2008-11-26 ヤマハ株式会社 Automatic accompaniment generator and program

Also Published As

Publication number Publication date
JP2010160523A (en) 2010-07-22

Similar Documents

Publication Publication Date Title
US7572968B2 (en) Electronic musical instrument
JP4962592B2 (en) Electronic musical instruments and computer programs applied to electronic musical instruments
JP2009156914A (en) Automatic accompaniment device and program
JP4556852B2 (en) Electronic musical instruments and computer programs applied to electronic musical instruments
US6023017A (en) Musical performance assisting system and storage medium storing musical performance assisting program
JP2008089975A (en) Electronic musical instrument
JP6597553B2 (en) Harmony information generation apparatus, harmony information generation program, and harmony information generation method
JP7419830B2 (en) Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program
JP4670686B2 (en) Code display device and program
JP5125374B2 (en) Electronic music apparatus and program
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP4003625B2 (en) Performance control apparatus and performance control program
JP3933070B2 (en) Arpeggio generator and program
JP3873880B2 (en) Performance assist device and performance assist program
JP5200368B2 (en) Arpeggio generating apparatus and program for realizing arpeggio generating method
JP5104414B2 (en) Automatic performance device and program
JP4835434B2 (en) Performance pattern playback device and computer program therefor
JP2023043297A (en) Information processing unit, electronic musical instrument, tone row generation method and program
JP4129794B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
JPH09106284A (en) Chord generation instruction device
JP5066965B2 (en) Automatic accompaniment device and automatic accompaniment processing program
JP4900233B2 (en) Automatic performance device
JP4470895B2 (en) Code display device and program
JP4835433B2 (en) Performance pattern playback device and computer program therefor
JP5104293B2 (en) Automatic performance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees