Nothing Special   »   [go: up one dir, main page]

JP6492933B2 - CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM - Google Patents

CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM Download PDF

Info

Publication number
JP6492933B2
JP6492933B2 JP2015089680A JP2015089680A JP6492933B2 JP 6492933 B2 JP6492933 B2 JP 6492933B2 JP 2015089680 A JP2015089680 A JP 2015089680A JP 2015089680 A JP2015089680 A JP 2015089680A JP 6492933 B2 JP6492933 B2 JP 6492933B2
Authority
JP
Japan
Prior art keywords
lyrics
data
setting information
timbre
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015089680A
Other languages
Japanese (ja)
Other versions
JP2016206496A (en
Inventor
智子 奥村
智子 奥村
桂三 濱野
桂三 濱野
良朋 太田
良朋 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015089680A priority Critical patent/JP6492933B2/en
Publication of JP2016206496A publication Critical patent/JP2016206496A/en
Application granted granted Critical
Publication of JP6492933B2 publication Critical patent/JP6492933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、合成歌唱音を生成する際の設定を変更する技術に関する。   The present invention relates to a technique for changing a setting when generating a synthesized singing sound.

電子鍵盤装置などの電子楽器において、楽器音などを想定した電子音を生成する以外にも、歌唱音を合成して生成することが行われている。このような歌唱音(実際の歌唱と区別して、以下、合成歌唱音という)は、例えば、歌詞などの文字に応じた音声素片を組み合わせつつ、指定された音高になるように波形を合成することによって、その文字を発音したような合成音が生成される。従来は、予め用意した楽譜(シーケンスデータ等)と文字とを組み合わせて、合成歌唱音を生成する技術が用いられていたが、特許文献1、2のように、電子鍵盤装置への演奏操作に応じてリアルタイムに合成歌唱音を生成していく技術も開発されている。   In an electronic musical instrument such as an electronic keyboard device, in addition to generating an electronic sound that assumes a musical instrument sound or the like, a singing sound is synthesized and generated. Such a singing sound (to be distinguished from an actual singing, hereinafter referred to as a synthesized singing sound) is synthesized with a waveform so that a specified pitch is obtained, for example, by combining speech segments corresponding to characters such as lyrics. By doing so, a synthesized sound that sounds like the character is generated. Conventionally, a technique for generating a synthesized singing sound by combining a musical score (sequence data or the like) prepared in advance with a character has been used. However, as in Patent Documents 1 and 2, it is used for performance operation on an electronic keyboard device. In response to this, a technique for generating a synthesized singing sound in real time has been developed.

特開2008−170592号公報JP 2008-170592 A 特開2014−62969号公報JP 2014-62969 A

ところで、カラオケでは、歌唱したい曲の伴奏音を出力する装置を用いることによって、自らがその曲を歌唱して楽しむ。一方、上記の特許文献1、2に開示される電子楽器のように、演奏操作に応じてリアルタイムに歌唱音声を生成することができるようになってきたことにより、カラオケにおいて、自分の歌唱音声の代わりに合成歌唱音を用いたいという要望がでてきている。   By the way, in karaoke, by using a device that outputs an accompaniment sound of a song to be sung, the user can sing and enjoy the song. On the other hand, like the electronic musical instruments disclosed in Patent Documents 1 and 2 above, it has become possible to generate a singing voice in real time according to a performance operation. Instead, there is a desire to use synthetic singing sounds.

自分の歌唱音声であれば事前の準備がなくともカラオケ装置が備えられた部屋で気軽にカラオケを楽しむことができる。一方、特許文献1、2の技術では予め歌詞の文字列を電子鍵盤装置に登録しておくなどの様々な事前設定が必要であり、気軽にカラオケを楽しむことができなかった。また、複数人で同時に楽しむデュエット曲などであれば、さらにその設定が複雑になってしまう。そのため、電子鍵盤装置を用いてカラオケをする場合においても、気軽にカラオケを楽しむことができるように、合成歌唱音を生成するための設定を容易にして利便性を高めることが望まれている。   If you have your own singing voice, you can easily enjoy karaoke in a room equipped with karaoke equipment without any prior preparation. On the other hand, in the techniques of Patent Documents 1 and 2, various prior settings such as registering a character string of lyrics in the electronic keyboard device in advance are necessary, and karaoke cannot be enjoyed easily. In addition, if a duet song is enjoyed by a plurality of people at the same time, the setting becomes more complicated. Therefore, even when karaoke is performed using an electronic keyboard device, it is desired to facilitate the setting for generating a synthesized singing sound and improve convenience so that karaoke can be easily enjoyed.

本発明の目的の一つは、カラオケにおいて、合成歌唱音を生成する装置の利便性を高めることにある。   One of the objects of the present invention is to improve the convenience of an apparatus for generating a synthesized singing sound in karaoke.

本発明の一実施形態によると、伴奏の対象として指定された楽曲において歌唱すべき歌詞を規定する、複数パートの歌詞データを取得する歌詞データ取得部と、演奏操作子の操作、前記歌詞データに規定される歌詞のうち当該操作に基づいて指定される文字、および予め設定された音色設定情報に基づいてオーディオ信号を生成する合成歌唱音生成装置から、前記音色設定情報を取得する設定情報取得部と、受信した前記音色設定情報に基づいて複数パートのいずれかを選択し、選択された前記パートの歌詞データを、当該音色設定情報が設定された前記合成歌唱音生成装置に提供する歌詞設定提供部と、を備えることを特徴とする制御装置が提供される。   According to one embodiment of the present invention, a lyrics data acquisition unit that acquires lyrics data of a plurality of parts that defines lyrics to be sung in a song designated as an accompaniment target, an operation of a performance operator, and the lyrics data A setting information acquisition unit that acquires the timbre setting information from a synthesized singing sound generation device that generates an audio signal based on characters specified based on the operation and the preset timbre setting information in the defined lyrics And lyrics setting provision for selecting one of a plurality of parts based on the received timbre setting information and providing lyric data of the selected part to the synthesized singing sound generation apparatus in which the timbre setting information is set And a control unit.

また、前記歌詞設定提供部は、前記合成歌唱音生成装置において前記音色設定情報が変更可能でない場合に、前記音色設定情報に基づいて選択された前記パートの歌詞データを、当該音色設定情報を送信した前記合成歌唱音生成装置に送信してもよい。   The lyric setting providing unit transmits the timbre setting information to the lyric data of the part selected based on the timbre setting information when the timbre setting information is not changeable in the synthetic singing sound generation device. May be transmitted to the synthesized singing sound generation apparatus.

また、前記歌詞設定提供部は、前記合成歌唱音生成装置において前記音色設定情報が変更可能である場合に、所定のルールに従って前記合成歌唱音生成装置に割り当てるパートを前記複数のパートから選択し、当該合成歌唱音生成装置に割り当てるパートを示す識別情報、および当該パートの歌詞データを、当該合成歌唱音生成装置に送信してもよい。   The lyrics setting providing unit selects, from the plurality of parts, a part to be assigned to the synthetic singing sound generation device according to a predetermined rule when the timbre setting information is changeable in the synthetic singing sound generation device. You may transmit the identification information which shows the part allocated to the said synthetic song sound production | generation apparatus, and the lyrics data of the said part to the said synthetic song sound production | generation apparatus.

本発明の一実施形態によると、歌唱すべき歌詞を規定した歌詞データと当該歌詞データのパートに対応した識別情報とを取得する歌詞設定取得部と、前記識別情報に基づいて、複数の音色設定情報のいずれかを選択する音色選択部と、演奏操作子の操作、取得した前記歌詞データに規定される歌詞のうち当該操作に基づいて指定される文字、および選択された音色設定情報に基づいてオーディオ信号を生成する信号生成部と、を備えることを特徴とする合成歌唱音生成装置が提供される。   According to an embodiment of the present invention, a lyrics setting acquisition unit that acquires lyrics data defining lyrics to be sung and identification information corresponding to a part of the lyrics data, and a plurality of tone settings based on the identification information A timbre selection unit for selecting one of the information, an operation of the performance operator, a character specified based on the operation among the lyrics defined in the acquired lyric data, and the selected timbre setting information There is provided a synthetic singing sound generation device comprising a signal generation unit for generating an audio signal.

前記歌詞設定取得部は、複数パートの前記歌詞データと、各パートの前記歌詞データに対応した前記識別情報を取得し、前記複数のパートのいずれかを選択するパート選択部を備え、前記音色選択部は、選択された前記パートに対応した前記識別情報に基づいて、複数の音色設定情報のいずれかを選択し、前記信号生成部は、選択された前記パートに対応する前記歌詞データ、選択された前記音色設定情報、および演奏操作子の操作に基づいてオーディオ信号を生成してもよい。   The lyrics setting acquisition unit includes a part selection unit that acquires the lyrics data of a plurality of parts and the identification information corresponding to the lyrics data of each part, and selects any of the plurality of parts, and the timbre selection The unit selects one of a plurality of timbre setting information based on the identification information corresponding to the selected part, and the signal generation unit selects the lyrics data corresponding to the selected part. The audio signal may be generated based on the tone color setting information and the operation of the performance operator.

本発明の一実施形態によると、伴奏の対象として指定された楽曲において歌唱すべき歌詞を規定する、複数パートの歌詞データを取得し、演奏操作子の操作、前記歌詞データに規定される歌詞のうち当該操作に基づいて指定される文字、および予め設定された音色設定情報に基づいてオーディオ信号を生成する合成歌唱音生成装置から、前記音色設定情報を取得し、受信した前記音色設定情報に基づいて複数パートのいずれかを選択し、選択された前記パートの歌詞データを、当該音色設定情報が設定された前記合成歌唱音生成装置に提供することを、コンピュータに実行させるためのプログラムが提供される。   According to one embodiment of the present invention, a plurality of parts of lyric data specifying the lyrics to be sung in the music designated as the accompaniment target are acquired, the operation of the performance operator, the lyrics specified in the lyric data The timbre setting information is acquired from the synthesized singing sound generation device that generates the audio signal based on the character specified based on the operation and the timbre setting information set in advance, and based on the received timbre setting information A program for causing a computer to select one of a plurality of parts and to provide the lyrics data of the selected part to the synthetic singing sound generation apparatus in which the timbre setting information is set is provided. The

本発明の一実施形態によると、歌唱すべき歌詞を規定した歌詞データと当該歌詞データのパートに対応した識別情報とを取得し、前記識別情報に基づいて、複数の音色設定情報のいずれかを選択し、演奏操作子の操作、取得した前記歌詞データのうち当該操作に基づいて指定される歌詞、および選択された音色設定情報に基づいてオーディオ信号を生成することを、コンピュータに実行させるためのプログラムが提供される。   According to an embodiment of the present invention, lyric data defining the lyrics to be sung and identification information corresponding to a part of the lyric data are obtained, and any one of a plurality of timbre setting information is obtained based on the identification information. Selecting and operating a performance operator, generating lyrics based on the selected timbre setting information and the lyrics specified based on the operation of the acquired lyrics data, and causing the computer to execute A program is provided.

本発明の一実施形態によれば、カラオケにおいて、合成歌唱音を生成する装置の利便性を高めることができる。   According to one embodiment of the present invention, in karaoke, the convenience of an apparatus that generates a synthesized singing sound can be improved.

本発明の一実施形態におけるカラオケシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the karaoke system in one Embodiment of this invention. 本発明の一実施形態におけるカラオケ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the karaoke apparatus in one Embodiment of this invention. 本発明の一実施形態における制御端末の構成を示すブロック図である。It is a block diagram which shows the structure of the control terminal in one Embodiment of this invention. 本発明の一実施形態における電子鍵盤装置の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic keyboard apparatus in one Embodiment of this invention. 本発明の一実施形態におけるカラオケ装置で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by the karaoke apparatus in one Embodiment of this invention. 本発明の一実施形態における制御端末で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by the control terminal in one Embodiment of this invention. 本発明の一実施形態における複数パートの歌詞データを示す説明する図である。It is a figure explaining the lyrics data of a plurality of parts in one embodiment of the present invention. 本発明の一実施形態における歌詞設定提供部における処理を説明するフローチャートである。It is a flowchart explaining the process in the lyrics setting provision part in one Embodiment of this invention. 本発明の一実施形態における電子鍵盤装置の組み合わせによって、それぞれに送信される歌詞設定用のデータの例を説明する図である。It is a figure explaining the example of the data for lyrics setting transmitted to each by the combination of the electronic keyboard apparatus in one Embodiment of this invention. 本発明の一実施形態における電子鍵盤装置の第1の例で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by the 1st example of the electronic keyboard apparatus in one Embodiment of this invention. 本発明の一実施形態における信号生成部における処理を説明するフローチャートである。It is a flowchart explaining the process in the signal generation part in one Embodiment of this invention. 本発明の一実施形態における電子鍵盤装置の第2の例で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by the 2nd example of the electronic keyboard apparatus in one Embodiment of this invention. 本発明の一実施形態における電子鍵盤装置の第3の例で実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by the 3rd example of the electronic keyboard apparatus in one Embodiment of this invention.

以下、本発明の一実施形態におけるカラオケシステムについて、図面を参照しながら詳細に説明する。以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。   Hereinafter, a karaoke system according to an embodiment of the present invention will be described in detail with reference to the drawings. The following embodiments are examples of the embodiments of the present invention, and the present invention is not limited to these embodiments.

<実施形態>
[全体構成]
本発明の一実施形態におけるカラオケシステムについて、図面を参照しながら詳細に説明する。一実施形態に係るカラオケシステムは、合成歌唱音を生成することができる電子鍵盤装置を用いてカラオケをする場合に、対象となる楽曲を指定することによって、この電子鍵盤装置に対する設定を容易に行える機能を有している。また、このカラオケシステムは、複数の電子鍵盤装置を用いてデュエットの歌唱をするような場合においても、その設定を容易に行うことができる機能を有している。
<Embodiment>
[overall structure]
A karaoke system according to an embodiment of the present invention will be described in detail with reference to the drawings. The karaoke system according to an embodiment can easily set the electronic keyboard device by specifying a target music piece when performing karaoke using the electronic keyboard device capable of generating a synthesized singing sound. It has a function. In addition, this karaoke system has a function that allows easy setting even when a duet is sung using a plurality of electronic keyboard devices.

図1は、本発明の一実施形態におけるカラオケシステムの構成を示すブロック図である。カラオケシステム100は、カラオケ装置1、制御端末2、電子鍵盤装置3、カラオケ用サーバ1000、および歌唱合成用サーバ2000を備える。この例では、カラオケ装置1、制御端末2、カラオケ用サーバ1000および歌唱合成用サーバ2000は、インターネットなどのネットワークNWを介して接続されている。なお、制御端末2は、この例では、カラオケ装置1に指示を送るリモコンなどであるが、スマートフォン、ノートパソコンなどの携帯端末であってもよいし、デスクトップパソコン等の端末であってもよい。スマートフォンなどのコンピュータである場合には、制御プログラムをインストールして実行することによって、以下に説明する制御端末2の機能が実現されてもよい。この例では、制御端末2は、カラオケ装置1および電子鍵盤装置3に対して、ネットワークNWを介さずに短距離無線通信によって接続されるが、ネットワークNWを介した通信によって接続されてもよい。短距離無線通信とは、例えば、Bluetooth(登録商標)、赤外線通信、LAN(Local Area Network)などを用いた通信である。   FIG. 1 is a block diagram showing a configuration of a karaoke system in an embodiment of the present invention. The karaoke system 100 includes a karaoke device 1, a control terminal 2, an electronic keyboard device 3, a karaoke server 1000, and a song synthesis server 2000. In this example, the karaoke device 1, the control terminal 2, the karaoke server 1000, and the singing composition server 2000 are connected via a network NW such as the Internet. In this example, the control terminal 2 is a remote controller that sends an instruction to the karaoke apparatus 1, but may be a mobile terminal such as a smartphone or a notebook computer, or a terminal such as a desktop personal computer. In the case of a computer such as a smartphone, the function of the control terminal 2 described below may be realized by installing and executing a control program. In this example, the control terminal 2 is connected to the karaoke device 1 and the electronic keyboard device 3 by short-range wireless communication without going through the network NW, but may be connected by communication through the network NW. The short-range wireless communication is communication using, for example, Bluetooth (registered trademark), infrared communication, LAN (Local Area Network), or the like.

カラオケ用サーバ1000は、カラオケ装置1においてカラオケを提供するために必要な楽曲データを、曲IDに対応付けて記憶している記憶装置を備える。楽曲データは、カラオケの歌唱曲に関連するデータ、例えば、ガイドメロディデータ、伴奏データ、歌詞データなどが含まれている。ガイドメロディデータは、歌唱曲のメロディを示すデータである。伴奏データは、歌唱曲の伴奏を示すデータである。ガイドメロディデータおよび伴奏データは、MIDI形式で表現されたデータであってもよい。歌詞データは、歌唱すべき歌詞(文字)を規定するデータである。なお、歌唱曲がデュエットなど複数人で歌唱される曲である場合には、それぞれの人に対応したパートに対応して歌詞データが存在する。例えば、男性および女性の2人で歌唱する曲である場合、男声パートの歌詞データと女声パートの歌詞データとが存在する。また、楽曲データには、歌詞データに基づいて表示される歌詞テロップを色替えするタイミングを示すタイミングデータが含まれていてもよい。このタイミングデータによれば、歌唱曲の進行位置と、その進行位置において歌唱すべき歌詞の対応付けができる。   The karaoke server 1000 includes a storage device that stores music data necessary for providing karaoke in the karaoke apparatus 1 in association with the music ID. The music data includes data related to the karaoke song, for example, guide melody data, accompaniment data, and lyrics data. The guide melody data is data indicating the melody of the song. Accompaniment data is data indicating the accompaniment of a song. The guide melody data and accompaniment data may be data expressed in the MIDI format. The lyric data is data that defines the lyrics (characters) to be sung. When the song is a song sung by a plurality of people such as duet, lyrics data exists corresponding to the part corresponding to each person. For example, in the case of a song sung by two men and women, there are lyric data of a male voice part and lyric data of a female voice part. Further, the music data may include timing data indicating the timing of changing the color of the lyrics telop displayed based on the lyrics data. According to this timing data, the progress position of the song can be associated with the lyrics to be sung at the progress position.

歌唱合成用サーバ2000は、歌唱曲に合わせた設定を電子鍵盤装置3に対して行うための設定データを、曲IDに対応付けて記憶している記憶装置を備える。設定データには、曲IDに対応する歌唱曲の各歌唱パート(以下、単にパートという場合がある)の歌詞データが含まれている。歌詞データのパートは、そのパートに対応する識別情報によって特定される。なお、歌唱合成用サーバ2000に記憶されている歌詞データと、カラオケ用サーバ1000に記憶されている歌詞データとは、同じであってもよいし、異なっていてもよい。すなわち、歌唱合成用サーバ2000に記憶されている歌詞データは、歌唱すべき歌詞(文字)を規定するデータである点においては同じであるが、電子鍵盤装置3において利用しやすい形式に調整されている。この形式としては、例えば、1音で2文字分の歌唱をする場合を識別する情報、フレーズの区切りを識別する情報などを含む場合がある。   The singing voice synthesizing server 2000 includes a storage device that stores setting data for setting the electronic keyboard device 3 according to the singing song in association with the song ID. The setting data includes lyric data of each song part (hereinafter, simply referred to as “part”) of the song corresponding to the song ID. The part of the lyrics data is specified by the identification information corresponding to the part. Note that the lyrics data stored in the song synthesis server 2000 and the lyrics data stored in the karaoke server 1000 may be the same or different. That is, the lyric data stored in the singing voice synthesizing server 2000 is the same in that it is data defining the lyrics (characters) to be sung, but is adjusted to a format that is easy to use in the electronic keyboard device 3. Yes. This format may include, for example, information for identifying a case where two characters are sung with one sound, information for identifying a phrase break, and the like.

続いて、カラオケ装置1、制御端末2および電子鍵盤装置3について、ハードウエア構成を説明する。   Next, the hardware configuration of the karaoke device 1, the control terminal 2, and the electronic keyboard device 3 will be described.

[カラオケ装置のハードウエア構成]
図2は、本発明の一実施形態におけるカラオケ装置の構成を示すブロック図である。カラオケ装置1は、制御部101、記憶部103、操作部105、表示部107、通信部109、および信号処理部111を含む。これらの各構成は、バスを介して接続されている。また、信号処理部111には、オーディオ信号の入力を受け付ける入力端子113およびスピーカ115が接続されている。入力端子113に入力されるオーディオ信号は、この例では、電子鍵盤装置3によって供給されたり、マイクロフォンから供給されたりする。
[Karaoke equipment hardware configuration]
FIG. 2 is a block diagram showing the configuration of the karaoke apparatus in one embodiment of the present invention. The karaoke apparatus 1 includes a control unit 101, a storage unit 103, an operation unit 105, a display unit 107, a communication unit 109, and a signal processing unit 111. Each of these components is connected via a bus. The signal processing unit 111 is connected to an input terminal 113 for receiving audio signal input and a speaker 115. In this example, the audio signal input to the input terminal 113 is supplied by the electronic keyboard device 3 or supplied from a microphone.

制御部101は、CPUなどの演算処理回路を含む。制御部101は、記憶部103に記憶された制御プログラムをCPUにより実行して、各種機能をカラオケ装置1において実現させる。実現される機能の一部(カラオケ機能)については、別途説明する。記憶部103は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部103は、上記の制御プログラムを記憶する。制御プログラムは、ネットワーク経由でダウンロードされてもよいが、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよい。以下に説明する制御端末2および電子鍵盤装置3で用いられる制御プログラムについても同様に提供されてもよい。また、記憶部103は、カラオケ用サーバ1000からダウンロードした楽曲データを一時的に記憶するバッファでもある。   The control unit 101 includes an arithmetic processing circuit such as a CPU. The control unit 101 causes the CPU to execute a control program stored in the storage unit 103 to realize various functions in the karaoke apparatus 1. A part of the realized function (karaoke function) will be described separately. The storage unit 103 is a storage device such as a nonvolatile memory or a hard disk. The storage unit 103 stores the control program. The control program may be downloaded via a network, but may be provided in a state stored in a computer-readable recording medium such as a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or a semiconductor memory. Control programs used in the control terminal 2 and the electronic keyboard device 3 described below may be provided in the same manner. The storage unit 103 is also a buffer that temporarily stores music data downloaded from the karaoke server 1000.

操作部105は、操作パネルなどの装置であり、入力された操作に応じた信号を制御部101に出力する。表示部107は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部101による制御に基づいた画面が表示される。なお、操作部105と表示部107とは一体としてタッチパネルを構成してもよい。通信部109は、制御部101の制御に基づいて、ネットワークNWを介して外部装置に接続したり、短距離無線通信によって制御端末2と接続したりする。   The operation unit 105 is a device such as an operation panel, and outputs a signal corresponding to the input operation to the control unit 101. The display unit 107 is a display device such as a liquid crystal display or an organic EL display, and displays a screen based on control by the control unit 101. Note that the operation unit 105 and the display unit 107 may be integrated into a touch panel. Based on the control of the control unit 101, the communication unit 109 connects to an external device via the network NW or connects to the control terminal 2 by short-range wireless communication.

信号処理部111は、MIDI形式の信号からオーディオ信号を生成する音源、A/Dコンバータ、D/Aコンバータ等を含む。入力端子113から入力されたオーディオ信号は信号処理部111に出力され、信号処理部111においてA/D変換されて制御部101に出力される。入力されたオーディオ信号は、記憶部103にバッファされて、歌唱の評価等に用いられてもよい。また、伴奏データは、制御部101によって読み出され、信号処理部111においてオーディオ信号に変換され、スピーカ115から歌唱曲の伴奏音として出力される。このとき、入力端子113に入力されたオーディオ信号も、伴奏音に合成されて出力される。   The signal processing unit 111 includes a sound source that generates an audio signal from a MIDI format signal, an A / D converter, a D / A converter, and the like. The audio signal input from the input terminal 113 is output to the signal processing unit 111, subjected to A / D conversion in the signal processing unit 111, and output to the control unit 101. The input audio signal may be buffered in the storage unit 103 and used for singing evaluation or the like. The accompaniment data is read by the control unit 101, converted into an audio signal by the signal processing unit 111, and output from the speaker 115 as an accompaniment sound of the song. At this time, the audio signal input to the input terminal 113 is also synthesized with the accompaniment sound and output.

[制御端末のハードウエア構成]
制御端末2は、カラオケ装置1に対する制御(例えば、歌唱曲の指定、音量、トランスポーズ等)を実行したり、電子鍵盤装置3に対する制御(例えば、歌詞の設定、音色等の設定等)を実行したりする。
[Hardware configuration of control terminal]
The control terminal 2 executes control on the karaoke device 1 (for example, designation of a song, volume, transpose, etc.) and control on the electronic keyboard device 3 (for example, setting of lyrics, setting of tone, etc.) To do.

図3は、本発明の一実施形態における制御端末の構成を示すブロック図である。制御端末2は、制御部201、記憶部203、操作部205、表示部207、および通信部209を含む。これらの各構成は、バスを介して接続されている。   FIG. 3 is a block diagram showing the configuration of the control terminal in one embodiment of the present invention. The control terminal 2 includes a control unit 201, a storage unit 203, an operation unit 205, a display unit 207, and a communication unit 209. Each of these components is connected via a bus.

制御部201は、CPUなどの演算処理回路を含む。制御部201は、記憶部203に記憶された制御プログラムをCPUにより実行して、各種機能を制御端末2において実現させる。実現される機能の一部(設定制御機能)については、別途説明する。記憶部203は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部203は、上記の制御プログラムを記憶する。   The control unit 201 includes an arithmetic processing circuit such as a CPU. The control unit 201 executes a control program stored in the storage unit 203 by the CPU, and realizes various functions in the control terminal 2. A part of the realized function (setting control function) will be described separately. The storage unit 203 is a storage device such as a nonvolatile memory or a hard disk. The storage unit 203 stores the control program.

操作部205は、操作パネルなどの装置であり、入力された操作に応じた信号を制御部201に出力する。表示部207は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部201による制御に基づいた画面が表示される。なお、操作部205と表示部207とは一体としてタッチパネルを構成してもよい。通信部209は、制御部201の制御に基づいて、ネットワークNWを介して外部装置に接続したり、短距離無線通信によってカラオケ装置1および電子鍵盤装置3と接続したりする。   The operation unit 205 is a device such as an operation panel, and outputs a signal corresponding to the input operation to the control unit 201. The display unit 207 is a display device such as a liquid crystal display or an organic EL display, and displays a screen based on control by the control unit 201. Note that the operation unit 205 and the display unit 207 may be integrated with each other as a touch panel. Based on the control of the control unit 201, the communication unit 209 connects to an external device via the network NW, or connects to the karaoke device 1 and the electronic keyboard device 3 through short-range wireless communication.

[電子鍵盤装置のハードウエア構成]
電子鍵盤装置3は、鍵盤(演奏操作子)の操作に応じて、設定内容に従って合成歌唱音を生成する装置である。この例では、生成された合成歌唱音は、入力端子113を介してカラオケ装置1のスピーカ115から出力される。
[Hardware configuration of electronic keyboard device]
The electronic keyboard device 3 is a device that generates a synthesized singing sound according to the set contents in accordance with the operation of the keyboard (performance operator). In this example, the generated synthesized singing sound is output from the speaker 115 of the karaoke apparatus 1 via the input terminal 113.

図4は、本発明の一実施形態における電子鍵盤装置の構成を示すブロック図である。電子鍵盤装置3は、制御部301、記憶部303、操作部305、表示部307、通信部309、インターフェイス317、および鍵盤321を含む。これらの各構成は、バスを介して接続されている。   FIG. 4 is a block diagram showing the configuration of the electronic keyboard device according to one embodiment of the present invention. The electronic keyboard device 3 includes a control unit 301, a storage unit 303, an operation unit 305, a display unit 307, a communication unit 309, an interface 317, and a keyboard 321. Each of these components is connected via a bus.

制御部301は、CPUなどの演算処理回路を含む。制御部301は、記憶部303に記憶された制御プログラムをCPUにより実行して、各種機能を電子鍵盤装置3において実現させる。実現される機能の一部については、別途説明する。記憶部303は、不揮発性メモリ等の記憶装置である。記憶部303は、上記の制御プログラムを記憶する。また、記憶部303は、合成歌唱音を示すオーディオ信号を生成する際に用いる設定情報(歌詞データ、音色等)、合成歌唱音を生成するための音声素片等を記憶する。なお、この音色は、合成歌唱音の種類(男声、女声等の声の種類)を示す。以下の説明では合成歌唱音の種類は、男声および女声としているが、その他にも、例えば子供、大人、日本語、英語等、またはこれらの組み合わせ等、様々な声の種類があってもよい。   The control unit 301 includes an arithmetic processing circuit such as a CPU. The control unit 301 causes the CPU to execute a control program stored in the storage unit 303 to realize various functions in the electronic keyboard device 3. Some of the realized functions will be described separately. The storage unit 303 is a storage device such as a nonvolatile memory. The storage unit 303 stores the control program. In addition, the storage unit 303 stores setting information (lyric data, timbre, etc.) used when generating an audio signal indicating a synthesized singing sound, a speech element for generating a synthesized singing sound, and the like. This timbre indicates the type of synthesized singing sound (type of voice such as male voice or female voice). In the following description, the types of synthesized singing sounds are male voice and female voice, but there may be various voice types such as children, adults, Japanese, English, etc., or a combination thereof.

操作部305は、スイッチ、ボリュームつまみなどの装置であり、入力された操作に応じた信号を制御部301に出力する。表示部307は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部301による制御に基づいた画面が表示される。なお、操作部305と表示部307とは一体としてタッチパネルを構成してもよい。通信部309は、制御部301の制御に基づいて、短距離無線通信によって制御端末2と接続する。   The operation unit 305 is a device such as a switch or a volume knob, and outputs a signal corresponding to the input operation to the control unit 301. The display unit 307 is a display device such as a liquid crystal display or an organic EL display, and displays a screen based on control by the control unit 301. Note that the operation unit 305 and the display unit 307 may be integrated with each other as a touch panel. The communication unit 309 connects to the control terminal 2 by short-range wireless communication based on the control of the control unit 301.

インターフェイス317は、生成されたオーディオ信号を出力する端子を含む。鍵盤321は、複数の鍵が配列されている。各鍵を操作すると、その操作に応じた演奏信号が制御部301に出力される。演奏信号は、操作された鍵の位置を示す情報(キーナンバ)、押鍵したことを示す情報(キーオン)、離鍵したことを示す情報(キーオフ)、および押鍵速度(ベロシティ)等を含む。具体的には、押鍵されると、キーオン、ベロシティおよびキーナンバが対応付けられて出力され、離鍵するとキーオフが出力される。制御部301は、この演奏信号を用いて、合成歌唱音を生成する。   The interface 317 includes a terminal that outputs the generated audio signal. A plurality of keys are arranged on the keyboard 321. When each key is operated, a performance signal corresponding to the operation is output to the control unit 301. The performance signal includes information indicating the position of the operated key (key number), information indicating that the key is pressed (key on), information indicating that the key is released (key off), key pressing speed (velocity), and the like. Specifically, when a key is pressed, key-on, velocity, and key number are output in association with each other, and when the key is released, key-off is output. The control part 301 produces | generates a synthetic song sound using this performance signal.

なお、電子鍵盤装置3は、音色(生成する合成歌唱音の種類)が変更可能な場合、変更できない場合がある。この違いは、制御プログラムによって実現される機能によって異なる。この違いについては、電子鍵盤装置3の機能の説明において詳細を述べる。   The electronic keyboard device 3 may not be able to be changed when the tone color (the type of synthesized singing sound to be generated) can be changed. This difference depends on the function realized by the control program. This difference will be described in detail in the description of the function of the electronic keyboard device 3.

続いて、カラオケ装置1、制御端末2および電子鍵盤装置3のそれぞれにおいて、制御プログラムを実行することによって実現される機能について説明する。なお、以下に説明する各機能を実現する構成の一部または全部は、ハードウエアによって実現されてもよい。これらの機能によって、ユーザは、対象となる楽曲を指定することによって、電子鍵盤装置3がその楽曲に応じて設定される。   Next, functions realized by executing a control program in each of the karaoke device 1, the control terminal 2, and the electronic keyboard device 3 will be described. A part or all of the configuration for realizing each function described below may be realized by hardware. With these functions, the user designates the target music piece, and the electronic keyboard device 3 is set according to the music piece.

[カラオケ装置の機能]
図5は、本発明の一実施形態におけるカラオケ装置で実現される機能を示すブロック図である。カラオケ機能10は、選曲部11、伴奏音生成部13、歌詞表示部15、および採点部17を含む。選曲部11は、制御端末2によって指定された歌唱曲の曲IDを取得して、カラオケ用サーバ1000から曲IDに対応した楽曲データを取得する。選曲部11によって取得された楽曲データのうち、伴奏データは伴奏音生成部13に提供され、歌詞データは歌詞表示部15に提供される。伴奏音生成部13は、伴奏データに基づいて、伴奏音を生成してスピーカ115から発音させる。歌詞表示部15は、歌詞データに基づいて表示部107に歌詞を表示する。この際、歌詞とともに、楽曲の進行に合わせて歌唱すべき位置を示す情報(ワイプ等)についても表示される。
[Functions of karaoke equipment]
FIG. 5 is a block diagram illustrating functions realized by the karaoke apparatus according to the embodiment of the present invention. The karaoke function 10 includes a music selection unit 11, an accompaniment sound generation unit 13, a lyrics display unit 15, and a scoring unit 17. The music selection unit 11 acquires the song ID of the singing song designated by the control terminal 2 and acquires the song data corresponding to the song ID from the karaoke server 1000. Of the music data acquired by the music selection unit 11, accompaniment data is provided to the accompaniment sound generation unit 13, and lyrics data is provided to the lyrics display unit 15. The accompaniment sound generation unit 13 generates an accompaniment sound based on the accompaniment data and causes the speaker 115 to generate a sound. The lyrics display unit 15 displays lyrics on the display unit 107 based on the lyrics data. At this time, the information (wipe etc.) indicating the position to be sung in accordance with the progress of the music is displayed together with the lyrics.

採点部17は、入力されたオーディオ信号の評価を実施して,評価に応じた評価点を算出する。算出された評価点は、例えば、表示部107に表示される。この評価は、例えば以下の通り実施される。まず、オーディオ信号から合成歌唱音(電子鍵盤装置3から取得した場合)または歌唱音声(マイクロフォンから取得した場合)の音高の時間変化を算出し、ガイドメロディの音高と比較する。そして、これらの音高の一致の程度に基づいて評価点が算出される。この音高は、例えば、オーディオ信号の波形のゼロクロスを用いた方法、FFT(Fast Fourier Transform)を用いた方法などの公知の方法で算出されればよい。   The scoring unit 17 evaluates the input audio signal and calculates an evaluation score corresponding to the evaluation. The calculated evaluation score is displayed on the display unit 107, for example. This evaluation is performed as follows, for example. First, the time change of the pitch of the synthesized singing sound (when acquired from the electronic keyboard device 3) or the singing voice (when acquired from the microphone) is calculated from the audio signal and compared with the pitch of the guide melody. An evaluation score is calculated based on the degree of coincidence of these pitches. The pitch may be calculated by a known method such as a method using a zero cross of the waveform of an audio signal or a method using FFT (Fast Fourier Transform).

[制御端末の機能]
図6は、本発明の一実施形態における制御端末で実現される機能を示すブロック図である。設定制御機能20は、曲指定部21、歌詞データ取得部23、設定情報取得部25、および歌詞設定提供部27を含む。すなわち、制御端末2は、設定制御機能20を備えた制御装置を含むことになる。曲指定部21は、カラオケとして楽しむ歌唱曲の指定をユーザから受け付け、その歌唱曲を特定する曲IDをカラオケ装置1(選曲部11)に対して通知する。
[Function of control terminal]
FIG. 6 is a block diagram illustrating functions implemented by the control terminal according to the embodiment of the present invention. The setting control function 20 includes a song designation unit 21, a lyrics data acquisition unit 23, a setting information acquisition unit 25, and a lyrics setting provision unit 27. That is, the control terminal 2 includes a control device having the setting control function 20. The song designation unit 21 receives designation of a song to be enjoyed as karaoke from the user and notifies the karaoke device 1 (the song selection unit 11) of a song ID that identifies the song.

歌詞データ取得部23は、上記の曲IDの歌唱曲に対応する歌詞データを取得する。この歌詞データは、この例では、歌唱合成用サーバ2000から取得する。なお、カラオケ装置1において用いる歌詞データを電子鍵盤装置3において用いることが可能である場合もある。この場合には、歌詞データ取得部23は、カラオケ用サーバ1000から歌詞データを取得するようにしてもよいし、カラオケ装置1から取得するようにしてもよい。   The lyric data acquisition unit 23 acquires lyric data corresponding to the song with the song ID. In this example, the lyrics data is acquired from the song synthesis server 2000. Note that lyrics data used in the karaoke device 1 may be used in the electronic keyboard device 3 in some cases. In this case, the lyrics data acquisition unit 23 may acquire the lyrics data from the karaoke server 1000 or may acquire it from the karaoke apparatus 1.

図7は、本発明の一実施形態における複数パートの歌詞データを示す説明する図である。図7に示す例では、曲IDが「ABC0401」である歌唱曲の歌詞データである。この歌唱曲は、歌唱パートが「男声」、「女声」の2パートである。歌詞データは、「男声」のパートに対応した歌詞データ1、および「女声」のパートに対応した歌詞データ2を含んでいる。   FIG. 7 is an explanatory diagram showing lyrics data of a plurality of parts in one embodiment of the present invention. In the example shown in FIG. 7, the song data is the lyrics data of the song with the song ID “ABC0401”. This song has two parts, “male voice” and “female voice”. The lyric data includes lyric data 1 corresponding to the “male voice” part and lyric data 2 corresponding to the “female voice” part.

図6に戻って説明を続ける。設定情報取得部25は、通信可能な電子鍵盤装置3から設定情報を取得する。図1に示すように電子鍵盤装置3が2台である場合には、設定情報取得部25は、2台からそれぞれを識別する情報と対応付けて設定情報を取得する。この設定情報には、電子鍵盤装置3において音色の変更が可能か否かの情報(音色変更情報)、および少なくとも音色の変更が不可である場合には現在設定されている音色の情報(音色設定情報)が含まれる。なお、音色変更情報は、直接的に音色の設定変更が可能か否かを示す場合に限らず、電子鍵盤装置3の型式番号(所定の型式番号であれば変更不可)など、また、音色設定情報が含まれる否か(含まれていれば変更不可)、設定可能な音色の種類(1種類であれば変更不可)などによって、間接的に音色の変更が可能か否かを示すものであってもよい。   Returning to FIG. 6, the description will be continued. The setting information acquisition unit 25 acquires setting information from the communicable electronic keyboard device 3. As shown in FIG. 1, when there are two electronic keyboard devices 3, the setting information acquisition unit 25 acquires setting information in association with information for identifying each of the two electronic keyboard devices 3. This setting information includes information on whether or not the timbre can be changed in the electronic keyboard device 3 (tone color change information), and information on the currently set timbre (tone color setting if at least the timbre cannot be changed). Information). Note that the timbre change information is not limited to indicating whether or not the timbre setting can be directly changed, such as the model number of the electronic keyboard device 3 (cannot be changed if it is a predetermined model number) and the timbre setting. This indicates whether the timbre can be changed indirectly depending on whether information is included (cannot be changed if it is included), the type of timbre that can be set (cannot be changed if there is one), etc. May be.

歌詞設定提供部27は、歌詞データ取得部23において取得した歌詞データを電子鍵盤装置3に提供する。このとき、歌詞設定提供部27は、設定情報取得部25において取得した設定情報に応じて、提供する歌詞データのパートを割り当てる。パートの割当方法について説明する。   The lyrics setting providing unit 27 provides the lyrics data acquired by the lyrics data acquiring unit 23 to the electronic keyboard device 3. At this time, the lyrics setting providing unit 27 assigns the part of the lyrics data to be provided according to the setting information acquired by the setting information acquiring unit 25. The part assignment method will be described.

[歌唱パートの割り当て処理]
図8は、本発明の一実施形態における歌詞設定提供部における処理を説明するフローチャートである。歌詞データ取得部23において歌詞データが取得され、設定情報取得部25において設定情報が取得されると、電子鍵盤装置3の各々に対して歌唱パートを割り当てるため、図8に示す処理が開始される。まず、歌詞設定提供部27は、設定情報を参照して、音色の設定変更が可能であるか否かを判定する(ステップS201)。全ての電子鍵盤装置3について、音色の設定変更が可能である場合(ステップS201;Yes)、各電子鍵盤装置3に対して割り当てる歌唱パートを決定する(ステップS203)。この際、各電子鍵盤装置3に割り当てられるパートが、できるだけ重複しないように複数の歌唱パートから選択されることが望ましい。すなわち、設定変更可能な電子鍵盤装置3の数が、歌唱パートの数より多ければ、歌唱パートの全てがいずれかの電子鍵盤装置3に割り当てられることが望ましい。一方、設定変更可能な電子鍵盤装置3の数が、歌唱パートの数より少なければ、一つの歌唱パートが、複数の電子鍵盤装置3に割り当てられることがないようにすることが望ましい。なお、複数の歌唱パートが一つの電子鍵盤装置3に割り当てられてもよいし、このようにすることで、全ての歌唱パートがいずれかの電子鍵盤装置3に割り当てられるようにしてもよい。
[Singing part assignment process]
FIG. 8 is a flowchart for explaining processing in the lyrics setting providing unit according to the embodiment of the present invention. When the lyric data is acquired by the lyric data acquisition unit 23 and the setting information is acquired by the setting information acquisition unit 25, the singing part is assigned to each of the electronic keyboard devices 3, and the process shown in FIG. 8 is started. . First, the lyrics setting providing unit 27 refers to the setting information and determines whether or not the timbre setting can be changed (step S201). If it is possible to change the timbre setting for all the electronic keyboard devices 3 (step S201; Yes), a singing part to be assigned to each electronic keyboard device 3 is determined (step S203). At this time, it is desirable that the parts assigned to each electronic keyboard device 3 are selected from a plurality of singing parts so as not to overlap as much as possible. That is, if the number of electronic keyboard devices 3 whose settings can be changed is larger than the number of singing parts, it is desirable that all of the singing parts are assigned to any one of the electronic keyboard devices 3. On the other hand, if the number of electronic keyboard devices 3 whose settings can be changed is smaller than the number of singing parts, it is desirable that one singing part is not assigned to a plurality of electronic keyboard devices 3. A plurality of singing parts may be assigned to one electronic keyboard device 3, or all the singing parts may be assigned to one of the electronic keyboard devices 3 in this way.

続いて、電子鍵盤装置3に対して、この装置に割り当てられる歌唱パートの識別情報と、この歌唱パートの歌詞データとを対応付けて(ステップS205)、歌詞設定用のデータとして提供し(ステップS207)、処理を終了する。この例では、識別情報は、「男声」、「女声」といった合成歌唱音の種類(声の種類)によって示される。電子鍵盤装置3のうち、音色の設定変更ができない装置が含まれている場合(ステップS201;No)、設定変更不可の電子鍵盤装置3に割り当てる歌唱パートを、設定されている音色に対応したパートに決定する(ステップS209)。例えば、電子鍵盤装置3に設定されている音色が、女声の音色である場合には、女声のパートを割り当てるべき歌唱パートとして決定する。そして、その歌唱パートに対応した歌詞データを、歌詞設定用のデータとして設定変更不可の電子鍵盤装置3に提供する(ステップS211)。このときには、電子鍵盤装置3において設定を変更することができないため、歌唱パートの識別情報を提供しなくてもよい。   Subsequently, the identification information of the singing part assigned to this device and the lyrics data of this singing part are associated with the electronic keyboard device 3 (step S205), and are provided as data for setting lyrics (step S207). ), The process is terminated. In this example, the identification information is indicated by the type of synthetic singing sound (voice type) such as “male voice” and “female voice”. If the electronic keyboard device 3 includes a device that cannot change the timbre setting (step S201; No), the singing part assigned to the electronic keyboard device 3 whose setting cannot be changed is the part corresponding to the set timbre. (Step S209). For example, when the timbre set in the electronic keyboard device 3 is a female timbre, the female voice part is determined as a singing part to be assigned. Then, the lyric data corresponding to the singing part is provided as the lyrics setting data to the electronic keyboard device 3 whose settings cannot be changed (step S211). At this time, since the setting cannot be changed in the electronic keyboard device 3, the identification information of the singing part need not be provided.

続いて、電子鍵盤装置3に設定変更可能な装置が残っているか否かを判定する(ステップS213)。設定変更可能な電子鍵盤装置3が残っていない場合(ステップS213;No)には、処理を終了する。一方、設定変更可能な電子鍵盤装置3が残っている場合(ステップS213;Yes)には、まだ割り当てていない歌唱パートを優先しつつ、残っている電子鍵盤装置3に割り当てる歌唱パートを、ステップS203における方法と同様にして決定する(ステップS215)。そして、設定変更可能な電子鍵盤装置3について、ステップS205、S207の処理を実行して終了する。   Subsequently, it is determined whether or not a device whose setting can be changed remains in the electronic keyboard device 3 (step S213). If there is no electronic keyboard device 3 that can be changed (step S213; No), the process is terminated. On the other hand, when the electronic keyboard device 3 whose settings can be changed remains (step S213; Yes), the singing part to be assigned to the remaining electronic keyboard device 3 while giving priority to the singing part that has not been assigned yet is set to step S203. The method is determined in the same manner as in (Step S215). Then, the processing of steps S205 and S207 is executed for the electronic keyboard device 3 whose settings can be changed, and the process ends.

図7のような歌詞データを取得した場合において、電子鍵盤装置3の組み合わせによって、それぞれに割り当てられる歌唱パートの例、および送信される歌詞設定用のデータの例を説明する。   When lyrics data as shown in FIG. 7 is acquired, examples of singing parts assigned to the respective combinations of electronic keyboard devices 3 and examples of transmitted lyrics setting data will be described.

[歌唱パートの割り当ての例]
図9は、本発明の一実施形態における電子鍵盤装置の組み合わせによって、それぞれに送信される歌詞設定用のデータの例を説明する図である。図7に示すように、この例では、男声のパートと女声のパートの2つのパートが歌詞データに含まれているものとする。
[Example of song part assignment]
FIG. 9 is a diagram for explaining an example of lyrics setting data transmitted to each of the combinations of the electronic keyboard devices according to the embodiment of the present invention. As shown in FIG. 7, in this example, it is assumed that the lyrics data includes two parts, a male voice part and a female voice part.

(1)図9(a)は、2つの電子鍵盤装置3が共に設定変更が可能な装置A、Bの場合である。この場合には、いずれか一方に男声のパート、他方に女声のパートが割り当てられる。
(2)図9(b)は、2つの電子鍵盤装置3の一方は設定変更が可能な装置Aであり、他方は男声の音色が設定され変更が不可である装置Bの場合である。この場合には、設定変更が不可の装置Bが優先して男声のパートが割り当てられる。そして、装置Aに対しては、残りの女声のパートが割り当てられる。なお、この例では、装置Bに対して送信される歌唱設定データにおいて、歌唱パートの識別情報は含まれていない。
(3)図9(c)は、3つの電子鍵盤装置3が共に設定変更が可能な装置A、B、Cの場合である。この場合には、装置A、Bについては、図9(a)と同様に歌唱パートが割り当てられ、残りの装置Cについては、男声のパートまたは女声のパートのいずれかが割り当てられる。いずれを割り当てるかについては、予め設定されたルールに従って決められればよい。この例では、男声のパートが割り当てられている。
(4)図9(d)は、1つの電子鍵盤装置3が女声の音色が設定され変更が不可である装置Aの場合である。この場合には、装置Aに女声のパートが割り当てられる。このとき、男声のパートについては、いずれの電子鍵盤装置3に対しても割り当てられないことになる。そのため、男声のパートについては、マイクロフォンによる歌唱音声の入力を促すように、表示部107の表示を制御してもよいし、男声のパートについては、歌詞データ1を用いて、カラオケ装置1または制御端末2において、合成歌唱音を生成して、スピーカ115から出力されるようにしてもよい。
(5)図9(e)は、1つの電子鍵盤装置3が設定変更可能な装置Aの場合である。この場合には、男声または女声のいずれか一方の歌唱パートが割り当てられてもよいが、この例では、男声のパートおよび女声のパートの双方が割り当てられる。詳細は後述するが、ユーザが電子鍵盤装置3を操作して、歌唱パートの切り替えが可能である場合に適用される。
(1) FIG. 9A shows a case in which the two electronic keyboard devices 3 are devices A and B in which setting change is possible. In this case, a male voice part is assigned to either one and a female voice part is assigned to the other.
(2) FIG. 9B shows a case where one of the two electronic keyboard devices 3 is a device A that can be changed in setting, and the other is a device B in which a male voice tone is set and cannot be changed. In this case, the male voice part is preferentially assigned to the device B whose setting cannot be changed. The remaining female voice part is assigned to the device A. In this example, the song setting data transmitted to the device B does not include the identification information of the song part.
(3) FIG. 9C shows the case of the devices A, B, and C in which the three electronic keyboard devices 3 can change their settings. In this case, the singing part is assigned to the devices A and B as in FIG. 9A, and either the male voice part or the female voice part is assigned to the remaining device C. Which one to assign may be determined according to a preset rule. In this example, a male voice part is assigned.
(4) FIG. 9D shows the case where one electronic keyboard device 3 is a device A in which a female voice color is set and cannot be changed. In this case, the female voice part is assigned to the device A. At this time, the male voice part is not assigned to any electronic keyboard device 3. Therefore, for the male voice part, the display of the display unit 107 may be controlled so as to prompt input of the singing voice by the microphone. For the male voice part, the karaoke device 1 or the control is performed using the lyrics data 1. The terminal 2 may generate a synthesized singing sound and output it from the speaker 115.
(5) FIG. 9 (e) shows a case in which one electronic keyboard device 3 is a device A whose settings can be changed. In this case, either the male voice or the female voice singing part may be assigned, but in this example, both the male voice part and the female voice part are assigned. Although details will be described later, this is applied when the user can switch the singing part by operating the electronic keyboard device 3.

以上が、制御端末2の機能についての説明である。   The above is the description of the function of the control terminal 2.

[電子鍵盤装置の機能]
続いて、電子鍵盤装置3の機能について説明する。上述したように、電子鍵盤装置3は、音色の設定変更ができない装置(第1の例)、音色の設定変更が可能な装置(第2の例)、さらに、制御端末2から設定された音色(歌唱パート)の切り替えが可能な装置(第3の例)の例について、それぞれ説明する。
[Functions of electronic keyboard device]
Next, functions of the electronic keyboard device 3 will be described. As described above, the electronic keyboard device 3 includes a device that cannot change the timbre setting (first example), a device that can change the timbre setting (second example), and a timbre set by the control terminal 2. An example of a device (third example) capable of switching (singing part) will be described.

[第1の例(設定変更不可)]
図10は、本発明の一実施形態における電子鍵盤装置の第1の例で実現される機能を示すブロック図である。合成歌唱音生成機能30は、歌詞設定取得部31、歌詞設定部33、信号生成部35、および設定情報出力部37を含む。すなわち、電子鍵盤装置3は、合成歌唱音生成機能30を備えた合成歌唱音生成装置を含んでいることになる。歌詞設定取得部31は、制御端末2から送信される歌詞設定データを取得する。第1の例では、音色の設定変更ができない装置であるため、歌詞設定データには、歌詞データのみが含まれる場合もある。歌唱パートの識別情報を取得しても設定変更ができないためである。歌詞設定部33は、信号生成部35において用いられる歌詞データを信号生成部35に設定する。
[First example (cannot be changed)]
FIG. 10 is a block diagram showing functions realized by the first example of the electronic keyboard device according to the embodiment of the present invention. The synthesized singing sound generation function 30 includes a lyrics setting acquisition unit 31, a lyrics setting unit 33, a signal generation unit 35, and a setting information output unit 37. In other words, the electronic keyboard device 3 includes a synthetic singing sound generation device provided with a synthetic singing sound generation function 30. The lyrics setting acquisition unit 31 acquires lyrics setting data transmitted from the control terminal 2. In the first example, since the device cannot change the timbre setting, the lyrics setting data may include only the lyrics data. This is because the setting cannot be changed even if the identification information of the singing part is acquired. The lyrics setting unit 33 sets the lyrics data used in the signal generation unit 35 in the signal generation unit 35.

信号生成部35は、歌詞設定部33によって設定された歌詞データ、予め設定されている音色(男声、女声など)を用いて、鍵盤321の操作に応じた合成歌唱音を示すオーディオ信号を生成する。設定情報出力部37は、制御端末2からの要求に応じて、信号生成部35に設定されている内容に基づく設定情報を出力する。この例では、設定情報には少なくとも音色設定情報が含まれる。続いて、信号生成部35における合成歌唱音の生成処理について、概要を簡単に説明する。なお、電子鍵盤装置を用いて合成歌唱音を生成する技術については、例えば、上記の特許文献1(特開2008−170592号公報)、特許文献2(特開2014−62969号公報)に開示されている。   The signal generation unit 35 uses the lyrics data set by the lyrics setting unit 33 and preset timbre (male voice, female voice, etc.) to generate an audio signal indicating a synthesized singing sound according to the operation of the keyboard 321. . The setting information output unit 37 outputs setting information based on the contents set in the signal generation unit 35 in response to a request from the control terminal 2. In this example, the setting information includes at least tone color setting information. Next, the outline of the synthetic singing sound generation processing in the signal generation unit 35 will be briefly described. In addition, about the technique which produces | generates a synthetic song sound using an electronic keyboard apparatus, it is disclosed by said patent document 1 (Unexamined-Japanese-Patent No. 2008-170592) and patent document 2 (Unexamined-Japanese-Patent No. 2014-62969), for example. ing.

[合成歌唱音の生成処理]
図11は、本発明の一実施形態における信号生成部における処理を説明するフローチャートである。信号生成部35に歌詞データが設定されると、図11に示す処理が開始される。まず、信号生成部35は、設定された歌詞データが示す歌詞の最初の文字を指定する(ステップS301)。指定されている文字とその前後の文字とがそれぞれ区別されて表示部307に表示されていてもよい。鍵盤321から出力される演奏信号により演奏操作(押鍵)の有無を判定し、押鍵が行われるまで待つ(ステップS303;No)。
[Synthetic song generation process]
FIG. 11 is a flowchart illustrating processing in the signal generation unit according to the embodiment of the present invention. When lyrics data is set in the signal generator 35, the processing shown in FIG. 11 is started. First, the signal generator 35 designates the first character of the lyrics indicated by the set lyrics data (step S301). The designated character and the characters before and after the character may be distinguished from each other and displayed on the display unit 307. The presence / absence of a performance operation (key depression) is determined based on a performance signal output from the keyboard 321 and waits until a key depression is performed (step S303; No).

演奏操作が行われた場合(ステップS303;Yes)、指定されている文字を読み出し(ステップS305)、演奏操作(押鍵)が行われた鍵(キーナンバ)に指定される音高で、読み出した文字を発声させるための合成歌唱音を示すオーディオ信号を生成する(ステップS307)。例えば、読み出した文字が「か(ka)」であり、演奏操作された鍵が「C4」である場合には、C4の音高で「か(ka)」を発声させる合成歌唱音が生成される。   If a performance operation has been performed (step S303; Yes), the designated character is read (step S305), and is read with the pitch specified for the key (key number) on which the performance operation (key depression) has been performed. An audio signal indicating a synthesized singing sound for uttering a character is generated (step S307). For example, when the read character is “ka (ka)” and the performance-operated key is “C4”, a synthesized singing sound that generates “ka (ka)” at the pitch of C4 is generated. The

指定されている文字(読み出した文字)が歌詞の最後の文字ではない場合(ステップS309;No)、次の文字を指定して(ステップS311)、次の演奏操作を待つ(ステップS303;No)。順次、次の文字が指定されていき、最後の文字になった場合(ステップS309;Yes)には、再びステップS301に戻る。このようにすることによって、演奏操作に応じた音高に調整された歌詞が順次発声される合成歌唱音が生成される。そして、合成歌唱音を示すオーディオ信号がカラオケ装置1に対して出力される。なお、操作部305等に対する所定の操作を受け付けると、強制的に次の文字が指定されるようにしてもよい。また、歌詞をフレーズ単位で区分する情報を取得している場合には、所定の操作を受け付けると、いずれかのフレーズ(直前または直後など)の最初の文字が強制的に指定されるようにしてもよい。   When the designated character (read character) is not the last character of the lyrics (step S309; No), the next character is designated (step S311) and the next performance operation is awaited (step S303; No). . If the next character is sequentially designated and becomes the last character (step S309; Yes), the process returns to step S301 again. By doing in this way, the synthetic singing sound by which the lyrics adjusted to the pitch according to performance operation are uttered sequentially is produced | generated. Then, an audio signal indicating the synthesized singing sound is output to the karaoke apparatus 1. When a predetermined operation on the operation unit 305 or the like is received, the next character may be forcibly designated. Also, if you have acquired information that categorizes the lyrics in phrase units, you can force the first character of one of the phrases (immediately before or after) to be specified when a given operation is accepted. Also good.

[第2の例(設定変更可能)]
図12は、本発明の一実施形態における電子鍵盤装置の第2の例で実現される機能を示すブロック図である。合成歌唱音生成機能30Aは、歌詞設定取得部31、歌詞設定部33、信号生成部35、設定情報出力部37、および音色選択部39を含む。歌詞設定取得部31、歌詞設定部33、および信号生成部35については、第1の例で説明した合成歌唱音生成機能30と同様の機能を有するため、説明を省略する。
[Second example (setting can be changed)]
FIG. 12 is a block diagram illustrating functions realized by the second example of the electronic keyboard device according to the embodiment of the present invention. The synthesized singing sound generation function 30A includes a lyrics setting acquisition unit 31, a lyrics setting unit 33, a signal generation unit 35, a setting information output unit 37, and a timbre selection unit 39. The lyric setting acquisition unit 31, the lyric setting unit 33, and the signal generation unit 35 have the same functions as the synthetic singing sound generation function 30 described in the first example, and thus description thereof is omitted.

音色選択部39は、歌詞設定取得部31において取得した歌詞設定データに基づいて、歌詞データの歌唱パートを特定し、その歌唱パートに応じた音色を選択して信号生成部35に設定する。例えば、選択可能な音色が「男声」、「女声」である場合で、歌詞設定データに基づく歌唱パートが「男声のパート」であれば、「男声」の音色が選択されて、信号生成部35に設定される。設定された音色は、表示部307を介してユーザに提示されてもよい。   The timbre selection unit 39 specifies the singing part of the lyric data based on the lyric setting data acquired by the lyric setting acquisition unit 31, selects the timbre corresponding to the singing part, and sets it in the signal generation unit 35. For example, if the selectable timbre is “male voice” or “female voice” and the singing part based on the lyrics setting data is “male voice part”, the timbre of “male voice” is selected and the signal generation unit 35 is selected. Set to The set timbre may be presented to the user via the display unit 307.

同じように分類される音色群の存在等によって選択可能な音色が複数存在する場合、例えば、「男声」に分類される音色として「男声A」および「男声B」が存在する場合には、いずれかの音色が予め決められたルール(ランダム、所定順など)で決定されればよい。また、表示部307を介して候補となる音色を提示し、ユーザが操作部305を介していずれかの音色を選択するようにしてもよい。   When there are a plurality of selectable timbres due to the presence of timbre groups classified in the same manner, for example, when “male voice A” and “male voice B” exist as timbres classified as “male voice” The tone color may be determined according to a predetermined rule (random, predetermined order, etc.). Alternatively, a candidate timbre may be presented via the display unit 307 and the user may select any timbre via the operation unit 305.

設定情報出力部37は、制御端末2からの要求に応じて、信号生成部35に設定されている内容に基づく設定情報を出力する点では、第1の例と同じである。一方、設定情報の内容は、第2の例では、音色の設定変更が可能であることを示す情報(音色変更情報)が含まれる。音色設定情報については、含まれていてもよいし含まれてなくてもよい。なお、電子鍵盤装置3としては、音色の設定変更が可能であったとしても、操作部305を介して事前に設定した音色を変更したくない場合もある。このような場合に、設定変更ができないように制御することができるようにしてもよい。この場合には、事前に設定された音色から設定変更ができない装置とみなして、第1の例と同様な設定情報、すなわち、事前に設定された音色を示す音色設定情報が出力されるようにすればよい。   The setting information output unit 37 is the same as the first example in that setting information based on the content set in the signal generation unit 35 is output in response to a request from the control terminal 2. On the other hand, in the second example, the content of the setting information includes information (tone color change information) indicating that the timbre setting can be changed. The tone color setting information may or may not be included. Note that the electronic keyboard device 3 may not want to change the timbre set in advance via the operation unit 305 even if the timbre setting can be changed. In such a case, control may be performed so that the setting cannot be changed. In this case, the setting information similar to the first example, that is, the timbre setting information indicating the timbre set in advance is output, assuming that the setting cannot be changed from the timbre set in advance. do it.

[第3の例(設定変更可能、歌唱パート切替可能)]
図13は、本発明の一実施形態における電子鍵盤装置の第3の例で実現される機能を示すブロック図である。合成歌唱音生成機能30Bは、歌詞設定取得部31、パート選択部32、歌詞設定部33、信号生成部35、設定情報出力部37、および音色選択部39を含む。パート選択部32以外の構成については、第1の例で説明した合成歌唱音生成機能30および第2の例で説明した合成歌唱音生成機能30Aと同様の機能を有するため、説明を省略する。
[Third example (setting can be changed, singing part can be switched)]
FIG. 13 is a block diagram showing functions implemented by the third example of the electronic keyboard device according to the embodiment of the present invention. The synthesized song sound generation function 30B includes a lyrics setting acquisition unit 31, a part selection unit 32, a lyrics setting unit 33, a signal generation unit 35, a setting information output unit 37, and a timbre selection unit 39. Since the components other than the part selection unit 32 have the same functions as the synthetic singing sound generation function 30 described in the first example and the synthetic singing sound generation function 30A described in the second example, description thereof is omitted.

パート選択部32は、図9(e)のように複数の歌唱パートが1台の電子鍵盤装置3に割り当てられている場合に用いられる。1台の電子鍵盤装置3に複数の歌唱パートが割り当てられると、歌詞設定取得部31においては、複数の歌唱パートの歌詞データを含む歌詞設定データが取得される。そのため、歌詞設定部33および音色選択部39において、信号生成部35に対する設定を実施するためには、いずれかの歌唱パートを選択しなくてはならない。そこで、パート選択部32は、ユーザの指示(例えば、操作部305を介して入力される)に基づいて、割り当てられた歌唱パートのいずれかを選択する。このとき、歌唱パートの名称を選択して歌唱パートを直接的に選択してもよいし、歌詞データのいずれかの文字を選択することにより、その歌詞データに対応する歌唱パートを間接的に選択してもよい。音色選択部39は、選択された歌唱パートに応じた音色を選択して、信号生成部35に設定する。また、歌詞設定部33は、選択された歌唱パートに対応する歌詞データを、信号生成部35に設定する。   The part selection unit 32 is used when a plurality of singing parts are assigned to one electronic keyboard device 3 as shown in FIG. When a plurality of singing parts are assigned to one electronic keyboard device 3, the lyrics setting acquisition unit 31 acquires lyrics setting data including lyrics data of the plurality of singing parts. Therefore, in order for the lyrics setting unit 33 and the tone color selection unit 39 to set the signal generation unit 35, one of the singing parts must be selected. Therefore, the part selection unit 32 selects one of the allocated singing parts based on a user instruction (for example, input via the operation unit 305). At this time, the name of the singing part may be selected to select the singing part directly, or by selecting any character of the lyric data, the singing part corresponding to the lyric data is indirectly selected. May be. The timbre selection unit 39 selects a timbre corresponding to the selected singing part and sets it in the signal generation unit 35. The lyrics setting unit 33 sets lyrics data corresponding to the selected singing part in the signal generation unit 35.

以上が、電子鍵盤装置3の機能についての説明である。   This completes the description of the functions of the electronic keyboard device 3.

このように、本発明の一実施形態におけるカラオケシステム100によれば、制御端末2においてカラオケ装置1に対して歌唱したい楽曲を指定すると、電子鍵盤装置3に対しても、その歌唱曲に対応した合成歌唱音を生成するための歌詞データ等が設定される。また、複数の歌唱パートが存在するようなデュエット曲などにおいては、複数の電子鍵盤装置3のそれぞれに対して歌唱パートを割り当てたり、電子鍵盤装置3が1台であっても、最適な歌唱パートを割り当てたりすることができるため、電子鍵盤装置3の利便性を高めることができる。   As described above, according to the karaoke system 100 according to the embodiment of the present invention, when the tune to be sung is specified for the karaoke device 1 in the control terminal 2, the electronic keyboard device 3 also corresponds to the singing tune. Lyric data and the like for generating a synthesized singing sound are set. Moreover, in a duet song in which a plurality of singing parts exist, even if a singing part is assigned to each of the plurality of electronic keyboard devices 3 or only one electronic keyboard device 3 is provided, the optimal singing part Therefore, the convenience of the electronic keyboard device 3 can be improved.

<その他の実施形態>
上記の実施形態における説明では、電子鍵盤装置3に対して歌詞設定データが提供される際には、1曲全体の歌詞データが含まれた状態で提供されていたが、伴奏音の再生に合わせてリアルタイムに提供されてもよい。リアルタイムに提供される場合には、例えば、演奏操作が行われると、制御端末2から1文字ずつ歌詞が提供されてもよいし、数文字ずつ提供されてもよいし、または、フレーズ単位で提供されてもよい。また、リアルタイムに提供される場合、歌唱パートの識別情報が変更されてもよい。これによれば、識別情報が変更されることにより、楽曲の途中で音色を変更することもできる。
<Other embodiments>
In the description of the above embodiment, when lyrics setting data is provided to the electronic keyboard device 3, it is provided in a state where the lyrics data of the entire song is included. May be provided in real time. When provided in real time, for example, when a performance operation is performed, lyrics may be provided one by one from the control terminal 2, several characters may be provided, or provided in phrases. May be. Moreover, when provided in real time, the identification information of a song part may be changed. According to this, the timbre can be changed in the middle of the music piece by changing the identification information.

上述した歌唱パートの識別情報は、合成歌唱音の種類(声の種類)によって示されていたが、別の形式で示されていてもよい。例えば、「パート1」および「パート2」の組み合わせ、「メイン」および「サブ」の組み合わせのように、歌唱音の種類を表す形式でなくてもよい。このような形式の場合に、各歌唱パートに対してメロディの最高音と最低音を特定する情報(キーナンバなど)をさらに識別情報に含めてもよい。この識別情報によって、各歌唱パートの音域を判定し、歌唱音の種類に関連付けられるようにしてもよい。   Although the identification information of the singing part mentioned above was shown by the kind (voice type) of the synthetic singing sound, it may be shown in another form. For example, it may not be a format representing the type of singing sound, such as a combination of “Part 1” and “Part 2”, and a combination of “Main” and “Sub”. In the case of such a format, information for identifying the highest and lowest sounds of the melody for each singing part (key number or the like) may be further included in the identification information. By this identification information, the range of each singing part may be determined and associated with the type of singing sound.

上述したカラオケシステム100においては、カラオケ装置1、制御端末2、および電子鍵盤装置3はそれぞれの機能がそれぞれの装置において実現されていたが、各装置の一部の機能または全体の機能が他の装置で実現されてもよい。例えば、制御端末2における設定制御機能20の一部または全部が電子鍵盤装置3において実現されてもよい。制御端末2における設定制御機能20の全部が電子鍵盤装置3において実現される場合には、制御端末2と電子鍵盤装置3とが一体型の装置であることと等しい。また、これとは逆にさらに多くの装置を用いて、各機能が実現されていてもよい。例えば、電子鍵盤装置3のうち、合成歌唱音生成機能30を備えた合成歌唱音生成装置と、鍵盤321の部分を備えた装置(例えば、MIDIキーボードなど)とを別々に構成してもよい。このとき、合成歌唱音生成装置は、制御端末2に含まれていてもよい。   In the karaoke system 100 described above, the karaoke device 1, the control terminal 2, and the electronic keyboard device 3 have their respective functions realized in their respective devices, but some or all of the functions of each device are different. It may be realized by an apparatus. For example, part or all of the setting control function 20 in the control terminal 2 may be realized in the electronic keyboard device 3. When the entire setting control function 20 in the control terminal 2 is realized in the electronic keyboard device 3, it is equivalent to the control terminal 2 and the electronic keyboard device 3 being an integrated device. On the contrary, each function may be realized by using more devices. For example, in the electronic keyboard device 3, a synthetic singing sound generation device provided with the synthetic singing sound generation function 30 and a device (for example, a MIDI keyboard) provided with a keyboard 321 portion may be configured separately. At this time, the synthetic singing sound generation device may be included in the control terminal 2.

合成歌唱音は、ユーザが鍵盤321の鍵を押下することによって生成されていた。すなわち、鍵は、合成歌唱音を生成するための演奏操作子の一例であった。一方、演奏操作子は鍵以外であってもよく、例えば、ギターシンセサイザ(ギター型のコントローラ)の弦であってもよいし、ウインドシンセサイザ(管楽器型のコントローラ)のキーであってもよい。   The synthesized singing sound was generated when the user pressed the key on the keyboard 321. That is, the key is an example of a performance operator for generating a synthesized singing sound. On the other hand, the performance operator may be other than a key, for example, a string of a guitar synthesizer (guitar type controller) or a key of a wind synthesizer (wind instrument type controller).

1…カラオケ装置、2…制御端末、3…電子鍵盤装置、10…カラオケ機能、11…選曲部、13…伴奏音生成部、15…歌詞表示部、17…採点部、20…設定制御機能、21…曲指定部、23…歌詞データ取得部、25…設定情報取得部、27…歌詞設定提供部、30,30A,30B…合成歌唱音生成機能、31…歌詞設定取得部、32…パート選択部、33…歌詞設定部、35…信号生成部、37…設定情報出力部、39…音色選択部、100…カラオケシステム、101,201,301…制御部、103,203,303…記憶部、105,205,305…操作部、107,207,307…表示部、109,209,309…通信部、111…信号処理部、113…入力端子、115…スピーカ、317…インターフェイス、321…鍵盤、1000…カラオケ用サーバ、2000…歌唱合成用サーバ DESCRIPTION OF SYMBOLS 1 ... Karaoke apparatus, 2 ... Control terminal, 3 ... Electronic keyboard apparatus, 10 ... Karaoke function, 11 ... Music selection part, 13 ... Accompaniment sound generation part, 15 ... Lyric display part, 17 ... Scoring part, 20 ... Setting control function, DESCRIPTION OF SYMBOLS 21 ... Song designation | designated part, 23 ... Lyrics data acquisition part, 25 ... Setting information acquisition part, 27 ... Lyric setting provision part, 30, 30A, 30B ... Synthetic song sound generation function, 31 ... Lyric setting acquisition part, 32 ... Part selection 33, lyrics setting unit, 35 ... signal generation unit, 37 ... setting information output unit, 39 ... tone color selection unit, 100 ... karaoke system, 101, 201, 301 ... control unit, 103, 203, 303 ... storage unit, 105, 205, 305 ... operation unit, 107, 207, 307 ... display unit, 109, 209, 309 ... communication unit, 111 ... signal processing unit, 113 ... input terminal, 115 ... speaker, 317 ... interface 321 ... keyboard, 1000 ... karaoke server, 2000 ... server for singing synthesis

Claims (7)

伴奏の対象として指定された楽曲において歌唱すべき歌詞を規定する、複数パートの歌詞データを取得する歌詞データ取得部と、
演奏操作子の操作、前記歌詞データに規定される歌詞のうち当該操作に基づいて指定される文字、および予め設定された音色設定情報に基づいてオーディオ信号を生成する合成歌唱音生成装置から、前記音色設定情報を取得する設定情報取得部と、
受信した前記音色設定情報に基づいて複数パートのいずれかを選択し、選択された前記パートの歌詞データを、当該音色設定情報が設定された前記合成歌唱音生成装置に提供する歌詞設定提供部と、
を備えることを特徴とする制御装置。
A lyric data acquisition unit that acquires lyric data of a plurality of parts, defining the lyrics to be sung in the music designated as the accompaniment target;
From the operation of the performance operator, the character specified based on the operation of the lyrics defined in the lyrics data, and the synthesized singing sound generation device that generates an audio signal based on preset tone color setting information, A setting information acquisition unit for acquiring timbre setting information;
A lyrics setting providing unit that selects any one of a plurality of parts based on the received timbre setting information, and provides lyric data of the selected part to the synthetic singing sound generation device in which the timbre setting information is set; ,
A control device comprising:
前記歌詞設定提供部は、前記合成歌唱音生成装置において前記音色設定情報が変更可能でない場合に、前記音色設定情報に基づいて選択された前記パートの歌詞データを、当該音色設定情報を送信した前記合成歌唱音生成装置に送信することを特徴とする請求項1に記載の制御装置。   The lyric setting providing unit transmits the timbre setting information to the lyric data of the part selected based on the timbre setting information when the timbre setting information is not changeable in the synthetic singing sound generation device. The control device according to claim 1, wherein the control device transmits the synthesized singing sound generation device. 前記歌詞設定提供部は、前記合成歌唱音生成装置において前記音色設定情報が変更可能である場合に、所定のルールに従って前記合成歌唱音生成装置に割り当てるパートを前記複数のパートから選択し、当該合成歌唱音生成装置に割り当てるパートを示す識別情報、および当該パートの歌詞データを、当該合成歌唱音生成装置に送信することを特徴とする請求項1または請求項2に記載の制御装置。   The lyrics setting providing unit selects, from the plurality of parts, a part to be assigned to the synthetic singing sound generation device according to a predetermined rule when the timbre setting information is changeable in the synthetic singing sound generation device. The control device according to claim 1 or 2, wherein identification information indicating a part to be assigned to the singing sound generation device and lyrics data of the part are transmitted to the synthetic singing sound generation device. 歌唱すべき歌詞を規定した歌詞データと当該歌詞データのパートに対応した識別情報とを取得する歌詞設定取得部と、
前記識別情報に基づいて、複数の音色設定情報のいずれかを選択する音色選択部と、
演奏操作子の操作、取得した前記歌詞データに規定される歌詞のうち当該操作に基づいて指定される文字、および選択された音色設定情報に基づいてオーディオ信号を生成する信号生成部と、
を備えることを特徴とする合成歌唱音生成装置。
A lyrics setting acquisition unit for acquiring lyrics data defining lyrics to be sung and identification information corresponding to a part of the lyrics data;
A timbre selection unit that selects one of a plurality of timbre setting information based on the identification information;
A signal generator for generating an audio signal based on the operation of the performance operator, the character specified based on the operation among the lyrics defined in the acquired lyrics data, and the selected timbre setting information;
A synthetic singing sound generating apparatus comprising:
前記歌詞設定取得部は、複数パートの前記歌詞データと、各パートの前記歌詞データに対応した前記識別情報を取得し、
前記複数のパートのいずれかを選択するパート選択部を備え、
前記音色選択部は、選択された前記パートに対応した前記識別情報に基づいて、複数の音色設定情報のいずれかを選択し、
前記信号生成部は、選択された前記パートに対応する前記歌詞データ、選択された前記音色設定情報、および演奏操作子の操作に基づいてオーディオ信号を生成することを特徴とする請求項4に記載の合成歌唱音生成装置。
The lyrics setting acquisition unit acquires the identification data corresponding to the lyrics data of each part and the lyrics data of each part,
A part selection unit for selecting one of the plurality of parts;
The timbre selection unit selects one of a plurality of timbre setting information based on the identification information corresponding to the selected part,
5. The signal generation unit according to claim 4, wherein the signal generation unit generates an audio signal based on the lyrics data corresponding to the selected part, the selected timbre setting information, and an operation of a performance operator. Synthetic singing sound generator.
伴奏の対象として指定された楽曲において歌唱すべき歌詞を規定する、複数パートの歌詞データを取得し、
演奏操作子の操作、前記歌詞データに規定される歌詞のうち当該操作に基づいて指定される文字、および予め設定された音色設定情報に基づいてオーディオ信号を生成する合成歌唱音生成装置から、前記音色設定情報を取得し、
受信した前記音色設定情報に基づいて複数パートのいずれかを選択し、選択された前記パートの歌詞データを、当該音色設定情報が設定された前記合成歌唱音生成装置に提供することを、コンピュータに実行させるためのプログラム。
Acquire lyrics data for multiple parts that specify the lyrics that should be sung in the music designated as the accompaniment.
From the operation of the performance operator, the character specified based on the operation of the lyrics defined in the lyrics data, and the synthesized singing sound generation device that generates an audio signal based on preset tone color setting information, Obtain tone setting information,
Selecting any one of a plurality of parts based on the received timbre setting information and providing the lyric data of the selected part to the synthetic singing sound generating apparatus in which the timbre setting information is set; A program to be executed.
歌唱すべき歌詞を規定した歌詞データと当該歌詞データのパートに対応した識別情報とを取得し、
前記識別情報に基づいて、複数の音色設定情報のいずれかを選択し、
演奏操作子の操作、取得した前記歌詞データのうち当該操作に基づいて指定される歌詞、および選択された音色設定情報に基づいてオーディオ信号を生成することを、コンピュータに実行させるためのプログラム。
Acquire lyrics data defining the lyrics to be sung and identification information corresponding to the parts of the lyrics data,
Based on the identification information, select one of a plurality of timbre setting information,
A program for causing a computer to generate an audio signal based on operation of a performance operator, lyrics specified based on the operation among the acquired lyrics data, and selected tone color setting information.
JP2015089680A 2015-04-24 2015-04-24 CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM Active JP6492933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015089680A JP6492933B2 (en) 2015-04-24 2015-04-24 CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015089680A JP6492933B2 (en) 2015-04-24 2015-04-24 CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2016206496A JP2016206496A (en) 2016-12-08
JP6492933B2 true JP6492933B2 (en) 2019-04-03

Family

ID=57489911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015089680A Active JP6492933B2 (en) 2015-04-24 2015-04-24 CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6492933B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113823281A (en) * 2020-11-24 2021-12-21 北京沃东天骏信息技术有限公司 Voice signal processing method, device, medium and electronic equipment

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108831437B (en) * 2018-06-15 2020-09-01 百度在线网络技术(北京)有限公司 Singing voice generation method, singing voice generation device, terminal and storage medium
JP7088159B2 (en) * 2019-12-23 2022-06-21 カシオ計算機株式会社 Electronic musical instruments, methods and programs
JP7568055B2 (en) 2021-03-09 2024-10-16 ヤマハ株式会社 SOUND GENERATION DEVICE, CONTROL METHOD THEREOF, PROGRAM, AND ELECTRONIC INSTRUMENT

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3514263B2 (en) * 1993-05-31 2004-03-31 富士通株式会社 Singing voice synthesizer
JP4304934B2 (en) * 2002-08-12 2009-07-29 ヤマハ株式会社 CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM
JP2004287099A (en) * 2003-03-20 2004-10-14 Sony Corp Method and apparatus for singing synthesis, program, recording medium, and robot device
JP4456088B2 (en) * 2006-05-22 2010-04-28 ヤマハ株式会社 Score data display device and program
JP4735544B2 (en) * 2007-01-10 2011-07-27 ヤマハ株式会社 Apparatus and program for singing synthesis
JP6236757B2 (en) * 2012-09-20 2017-11-29 ヤマハ株式会社 Singing composition device and singing composition program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113823281A (en) * 2020-11-24 2021-12-21 北京沃东天骏信息技术有限公司 Voice signal processing method, device, medium and electronic equipment
CN113823281B (en) * 2020-11-24 2024-04-05 北京沃东天骏信息技术有限公司 Voice signal processing method, device, medium and electronic equipment

Also Published As

Publication number Publication date
JP2016206496A (en) 2016-12-08

Similar Documents

Publication Publication Date Title
JP4934180B2 (en) Plucked string instrument performance evaluation device
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
CN107146598B (en) The intelligent performance system and method for a kind of multitone mixture of colours
JP2022116335A (en) Electronic musical instrument, method, and program
JP6492933B2 (en) CONTROL DEVICE, SYNTHETIC SINGING SOUND GENERATION DEVICE, AND PROGRAM
JP5974436B2 (en) Music generator
JP7180587B2 (en) Electronic musical instrument, method and program
JP6977741B2 (en) Information processing equipment, information processing methods, performance data display systems, and programs
JP6263946B2 (en) Pronunciation state display program, apparatus and method
JP6589356B2 (en) Display control device, electronic musical instrument, and program
EP2860724A2 (en) Computer program, tone generation assigning apparatus and tone generation assigning method
JP6582517B2 (en) Control device and program
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
JP4180548B2 (en) Karaoke device with vocal range notification function
US20220310046A1 (en) Methods, information processing device, performance data display system, and storage media for electronic musical instrument
JPH1185174A (en) Karaoke sing-along machine which enables a user to play accompaniment music
JP7468495B2 (en) Information processing device, electronic musical instrument, information processing system, information processing method, and program
JP7331887B2 (en) Program, method, information processing device, and image display system
JP6578725B2 (en) Control terminal device, synthetic song generator
JP2022010066A (en) Information processing device, information processing method, and program
JP2023138655A (en) Information processing apparatus, method, and program
JP6036800B2 (en) Sound signal generating apparatus and program
JP2016045254A (en) Sound preview device and program
WO2019003348A1 (en) Singing sound effect generation device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R151 Written notification of patent or utility model registration

Ref document number: 6492933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532