JP7493664B1 - Program and system - Google Patents
Program and system Download PDFInfo
- Publication number
- JP7493664B1 JP7493664B1 JP2023187205A JP2023187205A JP7493664B1 JP 7493664 B1 JP7493664 B1 JP 7493664B1 JP 2023187205 A JP2023187205 A JP 2023187205A JP 2023187205 A JP2023187205 A JP 2023187205A JP 7493664 B1 JP7493664 B1 JP 7493664B1
- Authority
- JP
- Japan
- Prior art keywords
- data
- unknown
- game
- story
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002250 progressing effect Effects 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 75
- 230000008569 process Effects 0.000 description 64
- 230000010365 information processing Effects 0.000 description 37
- 238000013473 artificial intelligence Methods 0.000 description 30
- 238000007781 pre-processing Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 210000005155 neural progenitor cell Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
【課題】ゲームで扱うアイテム等のゲーム内要素に関する設定作業の負荷を軽減させる。【解決手段】プログラムは、コンピュータを、ゲームに関する未知キーワード、及び、前記ゲームのプレイに関する未知ログデータが入力されると、ゲーム内要素を含む前記ゲームのストーリに関する未知ストーリデータを生成する第1生成手段と、ストーリデータ、及び、ログデータを含む第1学習データを用いて学習した第1学習済みモデルに対し、前記未知ストーリデータ、及び、前記未知ログデータを含む未知データを入力する入力手段と、前記未知データが入力されると、前記未知データに基づき、前記ゲーム内要素に関する出力データを生成する第2生成手段と、前記出力データに基づき、前記ゲーム内要素が登場する前記ゲームを進行させる進行手段として機能させる。【選択図】図11[Problem] To reduce the load of setting up in-game elements such as items handled in a game. [Solution] The program causes a computer to function as: a first generation means for generating unknown story data relating to the story of the game including in-game elements when unknown keywords related to the game and unknown log data related to play of the game are input; an input means for inputting unknown data including the unknown story data and the unknown log data to a first trained model trained using first training data including story data and log data; a second generation means for generating output data relating to the in-game elements based on the unknown data when the unknown data is input; and a progress means for progressing the game in which the in-game elements appear based on the output data. [Selected Figure] Figure 11
Description
本発明は、プログラム、及び、システムに関する。 The present invention relates to a program and a system.
従来、コンピュータを利用したゲーム(以下単に「ゲーム」という。)内において、ゲーム内で使用するアイテム(item)をユーザのプレイに応じて付与する技術が知られている。 Conventionally, in computer-based games (hereinafter simply referred to as "games"), a technique is known that provides a user with items to be used in the game depending on how the user plays the game.
例えば、ゲーム内、すなわち、仮想空間にあるカジノにおいて、カジノゲームで勝利すると、プレイヤは仮想通貨を取得する。そして、仮想通貨の量が所定量を超えると、プレイヤに通知がされる。そして、仮想通貨は、ゲーム内における交換所で、ゲーム内で使用可能なアイテムと交換が可能である。このようにして、プレイヤに仮想通貨を獲得させるモチベーションを持たせる技術が知られている(例えば、特許文献1等である)。
For example, when a player wins a casino game within a game, i.e., in a casino in a virtual space, the player acquires virtual currency. When the amount of virtual currency exceeds a predetermined amount, the player is notified. The virtual currency can then be exchanged at an exchange office within the game for items that can be used within the game. In this way, technology is known that motivates players to acquire virtual currency (for example, see
しかしながら、従来の技術は、アイテム等のゲーム内要素を登場、交換、使用、付与、売買、改良、又は、取得等とするような状況において、これらの各状況に応じた事前の設定をゲームの開発段階で規定しておく必要がある。つまり、一のゲーム内要素について、各状況に対応する挙動を1つ1つ設定する必要があり、状況が増えれば増えるほどゲーム内要素を事前に設定する作業負荷が増加していくことになっていた。 However, with conventional technology, when in-game elements such as items are introduced, exchanged, used, granted, bought and sold, improved, or acquired, it is necessary to define settings in advance for each of these situations during the game development stage. In other words, for each in-game element, it is necessary to set up behaviors that correspond to each situation one by one, and the more situations there are, the greater the workload of setting up in-game elements in advance.
本発明は、ゲームで扱うアイテム等のゲーム内要素に関する設定作業の負荷を軽減させることを目的とする。 The present invention aims to reduce the burden of configuration work related to in-game elements such as items used in the game.
本発明によって上記の課題を解決するため、プログラムは、コンピュータを、ゲームに関する未知キーワード、及び、前記ゲームのプレイに関する未知ログデータが入力されると、ゲーム内要素を含む前記ゲームのストーリに関する未知ストーリデータを生成する第1生成手段と、ストーリデータ、及び、ログデータを含む第1学習データを用いて学習した第1学習済みモデルに対し、前記未知ストーリデータ、及び、前記未知ログデータを含む未知データを入力する入力手段と、前記未知データが入力されると、前記未知データに基づき、前記ゲーム内要素に関する出力データを生成する第2生成手段と、前記出力データに基づき、前記ゲーム内要素が登場する前記ゲームを進行させる進行手段として機能させる。 To solve the above problems, the present invention provides a program that causes a computer to function as: a first generation means that generates unknown story data related to the story of the game including in-game elements when unknown keywords related to the game and unknown log data related to the game play are input; an input means that inputs unknown data including the unknown story data and the unknown log data to a first trained model trained using first training data including story data and log data; a second generation means that generates output data related to the in-game elements based on the unknown data when the unknown data is input; and a progression means that progresses the game in which the in-game elements appear based on the output data.
本発明によれば、ゲームで扱うアイテム等のゲーム内要素に関する設定作業の負荷を軽減できる。 This invention can reduce the burden of configuration work related to in-game elements such as items used in the game.
以下、実施形態を図面に基づいて説明する。 The following describes the embodiment with reference to the drawings.
[システム構成例]
図1は、本実施形態に係るシステム構成例を示す図である。例えば、図1に示すように、システム1は、ユーザ端末20A、20B、20C(以下、これらを総称して、「ユーザ端末20」と表記することがある。)と、サーバ11とを主に備える。
[System configuration example]
Fig. 1 is a diagram showing an example of a system configuration according to the present embodiment. For example, as shown in Fig. 1, the
以下、サーバ11を管理する者を「管理者5」という。また、ユーザ端末20A、20B、及び、20Cを操作するそれぞれの者を「ユーザ4A」、「ユーザ4B」、「ユーザ4C」(以下、これらを総称して、「ユーザ4」と表記することがある。)という。
Hereinafter, the person who manages the
管理者5は、システム1による情報処理サービスを運営する役割の者である。一方で、ユーザ4は、システム1による情報処理サービスを利用する者である。また、管理者5、及び、ユーザ4は、管理装置の例であるサーバ11、又は、ユーザ端末20のどちらの情報処理装置を操作するかが異なる。以下、ユーザ4がゲームのプレイヤとなり、管理者5がゲーム(例えば、ゲームの生成、変更、及び、配信等を行う。)、及び、サーバ11を管理する。
The
なお、図1に示す例は、ユーザ端末20が3つ、かつ、サーバ11が1つの例であるが、サーバ11の台数、ユーザ端末20の台数、管理者5の人数、及び、ユーザ4の人数は問わない。
Note that the example shown in FIG. 1 has three user terminals 20 and one
サーバ11、及び、ユーザ端末20は、通信ネットワーク2を介して相互通信可能に接続する。例えば、通信ネットワーク2は、インターネット、移動体通信システム(例えば、4G(4th Generation、第4世代移動通信規格)、又は、5G(5th Generation、第5世代移動通信規格)等による公衆回線である。)、Wi-Fi(登録商標)等の無線ネットワーク、又は、これらの組み合わせである。
The
ユーザ端末20は、サーバ11からゲームをプレイするためのプログラム(以下、「ゲームプログラム」という。)をダウンロード、又は、サーバ11にアクセスするとサーバ11がゲームサービスを提供する。なお、ゲームをプレイする上でサーバ11と通信がなくともよい。すなわち、ユーザ端末20は、プログラムをダウンロード、又は、メディアからインストールしてゲームをプレイする環境を構築してもよい。また、ゲームは、ユーザ端末20以外の情報処理装置でプレイされてもよい。
The user terminal 20 downloads a program for playing the game (hereinafter referred to as the "game program") from the
[AI(人工知能、Artificial Intelligence)の学習、及び、実行の例]
以下、AIは、「事前処理」(「学習処理」という場合もある。)によって学習する。学習段階、すなわち、「事前処理」におけるAIを「学習モデルA1」という。以下、2つの学習モデルA1があり、「第1学習モデルA11」、及び、「第2学習モデルA12」という。また、「第1学習モデルA11」、及び、「第2学習モデルA12」を総じて「学習モデルA1」という場合がある。
[Examples of AI (Artificial Intelligence) Learning and Execution]
Hereinafter, the AI learns through "pre-processing" (sometimes referred to as "learning processing"). The AI in the learning stage, i.e., "pre-processing", is referred to as the "learning model A1". Hereinafter, there are two learning models A1, which are referred to as the "first learning model A11" and the "second learning model A12". Furthermore, the "first learning model A11" and the "second learning model A12" may be collectively referred to as the "learning model A1".
そして、学習モデルA1は、ある程度、学習が進むと、「学習済みモデルA2」となる。以下、学習済みモデルA2を用いて出力処理を実行する実行段階を「実行処理」とする。また、「第1学習モデルA11」が学習すると、「第1学習済みモデルA21」となる。同様に、「第2学習モデルA12」が学習すると、「第2学習済みモデルA22」となる。以下、「第1学習済みモデルA21」、及び、「第2学習済みモデルA22」を総じて「学習済みモデルA2」という場合がある。 Then, once learning has progressed to a certain extent, the learning model A1 becomes the "trained model A2." Hereinafter, the execution stage in which output processing is executed using the trained model A2 will be referred to as the "execution process." Furthermore, once the "first learning model A11" has trained, it becomes the "first trained model A21." Similarly, once the "second learning model A12" has trained, it becomes the "second trained model A22." Hereinafter, the "first trained model A21" and the "second trained model A22" may be collectively referred to as the "trained model A2."
「事前処理」は、「実行処理」より前に行われる。ただし、「実行処理」をする上で引き続き「事前処理」、すなわち、学習済みモデルA2が学習を行ってもよい。 "Pre-processing" is performed before "execution processing". However, "pre-processing", i.e., trained model A2 may continue to train, before "execution processing" is performed.
[事前処理例]
図2は、事前処理例を示す図である。例えば、事前処理は、サーバ11で行われる。
[Pre-processing example]
2 is a diagram showing an example of the pre-processing. For example, the pre-processing is performed by the
第1学習モデルA11は、第1学習データDL1を入力して学習を行う。同様に、第2学習モデルA12は、第2学習データDL2を入力して学習を行う。すなわち、学習モデルA1は、所謂「教師あり」の学習を行う。 The first learning model A11 learns by inputting the first learning data DL1. Similarly, the second learning model A12 learns by inputting the second learning data DL2. In other words, the learning model A1 learns in a so-called "supervised" manner.
第1学習データDL1は、ログデータDL12、ストーリデータDL11、及び、第1正解データDL13を含む。 The first learning data DL1 includes log data DL12, story data DL11, and first correct answer data DL13.
そして、第1学習データDL1は、ログデータDL12、及び、ストーリデータDL11に対して、「正解」となる第1正解データDL13を対応付けしたデータである。このように、ログデータDL12、及び、ストーリデータDL11は、正解が既知のデータである。 The first learning data DL1 is data in which the log data DL12 and the story data DL11 are associated with the first correct answer data DL13, which is the "correct answer." In this way, the log data DL12 and the story data DL11 are data in which the correct answer is already known.
第1学習データDL1、ストーリデータDL11、ログデータDL12、及び、第1正解データDL13の詳細は後述する。 Details of the first learning data DL1, story data DL11, log data DL12, and first correct answer data DL13 will be described later.
上記のような学習処理により、第1学習モデルA11は、第1学習データDL1が入力されると、ログデータDL12とストーリデータDL11の組み合わせに対して、第1正解データDL13が示す「正解」との相関関係を学習する。 Through the above-described learning process, when the first learning data DL1 is input, the first learning model A11 learns the correlation between the combination of the log data DL12 and the story data DL11 and the "correct answer" indicated by the first correct answer data DL13.
第2学習データDL2は、第1学習データDL1と同様に、ログデータDL12を含む。したがって、ログデータDL12は、データを複製、又は、使い回しで第1学習データDL1、及び、第2学習データDL2の両方で使用される。 The second learning data DL2, like the first learning data DL1, includes log data DL12. Therefore, the log data DL12 is used in both the first learning data DL1 and the second learning data DL2 by duplicating or reusing the data.
加えて、第2学習データDL2は、キーワードDL21、及び、第2正解データDL22を含む。 In addition, the second learning data DL2 includes keywords DL21 and second correct answer data DL22.
第2学習データDL2、キーワードDL21、及び、第2正解データDL22の詳細は後述する。 Details of the second learning data DL2, the keywords DL21, and the second answer data DL22 will be described later.
そして、第2学習データDL2は、ログデータDL12、及び、キーワードDL21に対して、「正解」となる第2正解データDL22を対応付けしたデータである。このように、ログデータDL12、及び、キーワードDL21は、正解が既知のデータである。 The second learning data DL2 is data in which the log data DL12 and the keyword DL21 are associated with the second correct answer data DL22, which is the "correct answer." In this way, the log data DL12 and the keyword DL21 are data for which the correct answer is already known.
第2正解データDL22は、ストーリデータDL11と同様の内容を示すデータである。したがって、第2正解データDL22は、複製、又は、使い回しで第1学習データDL1、及び、第2学習データDL2の両方で使用される。ただし、第2正解データDL22は、第2学習データDL2では「正解」を示す正解データであるのに対し、第1学習データDL1では、ストーリデータDL11は、入力となるデータである。このように、同じ内容のデータでも、第2正解データDL22、及び、ストーリデータDL11は、学習処理において、役割が異なる。 The second correct answer data DL22 is data showing the same content as the story data DL11. Therefore, the second correct answer data DL22 is used in both the first learning data DL1 and the second learning data DL2 by being duplicated or reused. However, while the second correct answer data DL22 is correct answer data showing the "correct answer" in the second learning data DL2, in the first learning data DL1, the story data DL11 is input data. In this way, even though the data has the same content, the second correct answer data DL22 and the story data DL11 have different roles in the learning process.
更に、学習モデルA1は、ビッグデータD4で学習するのが望ましい。例えば、ビッグデータD4は、インターネット上のデータ等である。ただし、ビッグデータD4は、管理者5等が入力するデータでもよい。このように、ビッグデータD4で学習すると、人間が書くような自然な文章、及び、データ等を生成するAIを生成できる。
Furthermore, it is preferable that the learning model A1 learns with big data D4. For example, the big data D4 is data on the Internet. However, the big data D4 may also be data input by an
[実行処理例]
図3は、実行処理例を示す図である。例えば、実行処理は、ユーザ端末20、サーバ11、又は、ユーザ端末20とサーバ11等のように複数の情報処理装置が協働して行う。
[Example of execution process]
3 is a diagram showing an example of the execution process. For example, the execution process is performed by a plurality of information processing devices, such as the user terminal 20, the
学習済みモデルA2は、事前処理による学習によって学習モデルA1が学習した状態である。すなわち、図2に示す事前処理が実行されると、学習済みモデルA2が生成される。 The trained model A2 is in a state where the trained model A1 has been trained through pre-processing. In other words, when the pre-processing shown in FIG. 2 is executed, the trained model A2 is generated.
第1学習済みモデルA21は、第1未知データDU1が入力されると、出力データD3を生成する。 When the first unknown data DU1 is input, the first trained model A21 generates output data D3.
第1未知データDU1は、「正解」が未知である、ログデータ(以下「未知ログデータDU11」という。)とストーリデータ(以下「未知ストーリデータDU12」という。)の組み合わせのデータである。 The first unknown data DU1 is a combination of log data (hereinafter referred to as "unknown log data DU11") and story data (hereinafter referred to as "unknown story data DU12"), where the "correct answer" is unknown.
第1未知データDU1、未知ログデータDU11、未知ストーリデータDU12、及び、出力データD3の詳細は後述する。 Details of the first unknown data DU1, the unknown log data DU11, the unknown story data DU12, and the output data D3 will be described later.
第2学習済みモデルA22は、第2未知データDU2が入力されると、未知ストーリデータDU12を生成する。 When the second unknown data DU2 is input, the second trained model A22 generates unknown story data DU12.
第2未知データDU2は、「正解」が未知である、未知ログデータDU11とキーワード(以下「未知キーワードDU21」という。)の組み合わせのデータである。なお、未知ログデータDU11は、学習処理におけるログデータDL12と同様に、第1未知データDU1と第2未知データDU2に複製、又は、使い回しをして同じデータを使用する。 The second unknown data DU2 is data that is a combination of unknown log data DU11 and a keyword (hereinafter referred to as "unknown keyword DU21"), where the "correct answer" is unknown. Note that the unknown log data DU11 is copied or reused as the first unknown data DU1 and the second unknown data DU2, similar to the log data DL12 in the learning process, to use the same data.
第2学習済みモデルA22が生成した未知ストーリデータDU12は、第1未知データDU1として、第1学習済みモデルA21に入力される。 The unknown story data DU12 generated by the second trained model A22 is input to the first trained model A21 as the first unknown data DU1.
上記の構成は、ストーリ生成器12が未知ストーリデータDU12を生成する前処理を行う構成である。なお、上記の構成では、AIを前処理用と後処理用で分けて2つのAIとしているが、AIは、まとめて1つ、又は、3つ以上に分ける構成でもよい。 The above configuration is a configuration in which the story generator 12 performs pre-processing to generate unknown story data DU12. Note that in the above configuration, the AI is divided into two AIs, one for pre-processing and one for post-processing, but the AI may be divided into one AI or three or more AIs.
出力データD3が生成されると、サーバ11は、出力データD3に基づき、ユーザ端末20にゲームを配信する。なお、ゲームは、出力データD3がユーザ端末20に送信されるでもよい。ゲームに出力データD3の内容が反映されるのであれば、ゲームを配信する構成、及び、出力データD3を保持するデータ構成等は問わない。
When the output data D3 is generated, the
図4は、AIの学習、及び、実行の全体処理例を示す図である。図2に示す事前処理、及び、図3に示す実行処理の関係は、図4に示すような関係となる。 Figure 4 shows an example of the overall process of AI learning and execution. The relationship between the pre-processing shown in Figure 2 and the execution process shown in Figure 3 is as shown in Figure 4.
なお、事前処理、及び、実行処理を図に例示するような連続する順序で実行しなくともよい。したがって、事前処理によって準備を行う期間と、その後、実行処理を行う期間を連続させることは必須ではない。ゆえに、実行処理は、学習済みモデルA2を一旦作成した後であれば、事前処理から時間が経過した後に実行処理を行うようにしてもよい。また、学習済みモデルA2が一度生成された後であれば、学習済みモデルA2を転用して実行処理が行われてもよい。 Note that the pre-processing and execution processing do not have to be performed in the consecutive order as illustrated in the figure. Therefore, it is not necessary to consecutively perform the period in which preparation is performed by the pre-processing and the period in which the execution processing is performed thereafter. Therefore, once the trained model A2 has been created, the execution processing may be performed after a period of time has elapsed since the pre-processing. Furthermore, once the trained model A2 has been generated, the execution processing may be performed by repurposing the trained model A2.
学習処理と実行処理では、第1学習データDL1と第1未知データDU1が異なる。更に、学習処理と実行処理では、第2学習データDL2と第2未知データDU2が異なる。また、AIは、学習段階では、学習モデルA1であったのが、ある程度学習が進むと、学習済みモデルA2となる。このように、ビッグデータD4等を学習データとして学習した学習済みモデルA2は、所謂「生成AI」である。 The first learning data DL1 and the first unknown data DU1 are different in the learning process and the execution process. Furthermore, the second learning data DL2 and the second unknown data DU2 are different in the learning process and the execution process. Also, in the learning stage, the AI is a learning model A1, but once learning has progressed to a certain extent, it becomes a trained model A2. In this way, the trained model A2 that has been trained using big data D4 and the like as training data is what is known as a "generative AI."
各学習データは、「正解」が既知であるのに対し、各未知データは、「正解」が未知となる。具体的には、第1学習データDL1は、第1正解データDL13を含むため、ログデータDL12とストーリデータDL11の組み合わせに第1正解データDL13が対応付けされているのに対し、第1未知データDU1は、第1正解データDL13を含まない。したがって、学習処理では、ログデータDL12とストーリデータDL11の組み合わせと、第1正解データDL13の関係が既知である。そのため、第1学習モデルA11は、第1学習データDL1を入力すると、ログデータDL12とストーリデータDL11の組み合わせと、「正解」の相関関係を学習できる。 The "correct answer" of each piece of learning data is known, whereas the "correct answer" of each piece of unknown data is unknown. Specifically, since the first learning data DL1 includes the first correct answer data DL13, the first correct answer data DL13 is associated with the combination of the log data DL12 and the story data DL11, whereas the first unknown data DU1 does not include the first correct answer data DL13. Therefore, in the learning process, the relationship between the combination of the log data DL12 and the story data DL11 and the first correct answer data DL13 is known. Therefore, when the first learning model A11 inputs the first learning data DL1, it can learn the correlation between the combination of the log data DL12 and the story data DL11 and the "correct answer."
同様に、第2学習データDL2は、第2正解データDL22を含むため、ログデータDL12とキーワードDL21の組み合わせに第2正解データDL22が対応付けされているのに対し、第2未知データDU2は、第2正解データDL22を含まない。したがって、学習処理では、ログデータDL12とキーワードDL21の組み合わせと、第2正解データDL22の関係が既知である。そのため、第2学習モデルA12は、第2学習データDL2を入力すると、ログデータDL12とキーワードDL21の組み合わせと、「正解」の相関関係を学習できる。 Similarly, the second learning data DL2 includes the second correct answer data DL22, and therefore the second correct answer data DL22 is associated with the combination of the log data DL12 and the keyword DL21, whereas the second unknown data DU2 does not include the second correct answer data DL22. Therefore, in the learning process, the relationship between the combination of the log data DL12 and the keyword DL21 and the second correct answer data DL22 is known. Therefore, when the second learning model A12 receives the second learning data DL2, it can learn the correlation between the combination of the log data DL12 and the keyword DL21 and the "correct answer."
一方で、第1未知データDU1には、第1正解データDL13が含まれず、第1未知データDU1に対する「正解」が未知である。そして、第1学習済みモデルA21は、事前処理で学習したログデータDL12とストーリデータDL11の組み合わせと、第1正解データDL13の相関関係に基づき、第1未知データDU1に対して出力データD3を生成する。 On the other hand, the first unknown data DU1 does not include the first correct answer data DL13, and the "correct answer" for the first unknown data DU1 is unknown. The first trained model A21 then generates output data D3 for the first unknown data DU1 based on the correlation between the combination of the log data DL12 and story data DL11 trained in pre-processing and the first correct answer data DL13.
同様に、第2未知データDU2には、第2正解データDL22が含まれず、第2未知データDU2に対する「正解」が未知である。そして、第2学習済みモデルA22は、事前処理で学習したログデータDL12とキーワードDL21の組み合わせと、第2正解データDL22の相関関係に基づき、第2未知データDU2に対して未知ストーリデータDU12を生成する。 Similarly, the second unknown data DU2 does not include the second correct answer data DL22, and the "correct answer" for the second unknown data DU2 is unknown. The second trained model A22 generates unknown story data DU12 for the second unknown data DU2 based on the correlation between the combination of the log data DL12 and the keyword DL21 trained in pre-processing and the second correct answer data DL22.
実行処理は、一部の実行がテーブル等を用いる処理でもよい。このように、テーブルを用いる構成、所謂ルールベースでは、事前処理は、テーブル(ルックアップテーブル(Look Up Table、LUT)等ともいう。)、又は、数式等を入力する準備を行う処理である。 The execution process may be a process in which a part of the execution uses a table or the like. In this way, in a configuration that uses a table, that is, a so-called rule-based configuration, the pre-processing is a process that prepares for inputting a table (also called a look-up table (LUT) or a formula, etc.).
[情報処理装置のハードウェア構成例]
図5は、情報処理装置のハードウェア構成図である。情報処理装置は、サーバ11、及び、ユーザ端末20等である。以下、情報処理装置は、サーバ11と同じハードウェア構成であるとする。例えば、情報処理装置は、ワークステーション、又は、パーソナルコンピュータ等の汎用コンピュータである。ただし、それぞれの情報処理装置は、ハードウェア構成が異なってもよい。
[Example of hardware configuration of information processing device]
5 is a hardware configuration diagram of an information processing device. The information processing device is a
サーバ11は、プロセッサ111と、メモリ112と、ストレージ113と、入出力インタフェース114と、通信インタフェース115とを主に備える。また、サーバ11の各構成要素は、通信バス116に接続する。
The
プロセッサ111は、メモリ112又はストレージ113に格納されているサーバプログラム11Pに含まれる一連の命令を実行することによって、処理、及び、制御を実現する。
The
プロセッサ111は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、又は、これらの組み合わせ等の演算装置、及び、制御装置である。
The
メモリ112は、サーバプログラム11P、及び、データ等を記憶する主記憶装置である。例えば、サーバプログラム11Pは、ストレージ113からロードされる。また、データは、サーバ11に入力されたデータと、プロセッサ111によって生成されたデータとを含む。例えば、メモリ112は、RAM(Random Access Memory)、又は、その他の揮発メモリである。
The
ストレージ113は、サーバプログラム11P、及び、データ等を記憶する補助記憶装置である。ストレージ113は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、又は、その他の不揮発記憶装置である。また、ストレージ113は、メモリカードのように着脱可能な記憶装置でもよい。更に、他の例として、ストレージ113は、外部記憶装置であってもよい。このような構成によれば、例えば、アミューズメント施設のように複数のユーザ端末20が使用される場面において、サーバプログラム11P、又は、データの更新等を一括して行うことが可能になる。
入出力インタフェース114は、モニタ、入力装置(例えば、キーボード、又は、ポインティングデバイス等である。)、外部記憶装置、スピーカ、カメラ、マイク、及び、センサ等の外部装置をサーバ11に接続するインタフェースである。
The input/
また、プロセッサ111は、入出力インタフェース114を通じて外部装置と通信する。入出力インタフェース114は、例えば、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)、無線、及び、その他の端子である。
The
通信インタフェース115は、通信ネットワーク2に接続する他の装置(例えば、ユーザ端末20等である。)と通信する。例えば、通信インタフェース115は、LAN(Local Area Network)等の有線通信インタフェース、Wi-Fi(登録商標)(Wireless Fidelity)、Bluetooth(登録商標)、又は、NFC(Near Field Communication)等の無線通信インタフェースである。
The
ただし、情報処理装置は、上記のハードウェア構成に限られない。例えば、ユーザ端末20は、カメラ等のセンサを更に備えてもよい。そして、ユーザ端末20がセンサで取得する様々なデータがサーバ11に送信されてもよい。
However, the information processing device is not limited to the above hardware configuration. For example, the user terminal 20 may further include a sensor such as a camera. Various data acquired by the user terminal 20 through the sensor may be transmitted to the
[学習モデル、及び、学習済みモデルの構成例]
図6は、AIの構成例を示すネットワーク図である。学習モデルA1、及び、学習済みモデルA2は、例えば、以下のようなネットワークで示す構成のAIである。
[Examples of the configuration of learning models and trained models]
6 is a network diagram showing an example of an AI configuration. The learning model A1 and the trained model A2 are, for example, an AI having a configuration shown in the following network.
以下、学習モデルA1、及び、学習済みモデルA2は、サーバ11上、すなわち、クラウド上に実装される例で説明する。ただし、学習モデルA1、及び、学習済みモデルA2の一部、又は、全部は、ユーザ端末20等に実装されてもよい。
In the following, the learning model A1 and the trained model A2 are described as being implemented on the
ネットワーク300は、例えば、入力層L1、中間層L2(「隠れ層」等ともいう。)、及び、出力層L3等を有する構成である。
The
入力層L1は、データを入力する層である。 The input layer L1 is the layer that inputs data.
中間層L2は、入力層L1で入力するデータを重み、及び、バイアス等に基づいて変換する。このように中間層L2で処理された結果が出力層L3へ伝えられる。 The intermediate layer L2 converts the data input in the input layer L1 based on weights, biases, etc. The results of processing in this way in the intermediate layer L2 are transmitted to the output layer L3.
出力層L3は、出力内容等を出力する層である。 The output layer L3 is the layer that outputs the output contents, etc.
そして、学習により、重みの係数、及び、学習で変化させるパラメータ等が最適化される。なお、ネットワーク300は、図示するネットワーク構造に限られない。つまり、AIは、他の機械学習によって実現されてもよい。
Then, the weighting coefficients and the parameters to be changed by learning are optimized through learning. Note that the
例えば、AIは、「教師なし」の機械学習等により、次元削減(例えば、3次元以上の関係を3次元以下程度の簡略な計算で求まる関係に変える処理である。)等の前処理を行う構成等でもよい。入力と出力の関係は、1次式等の単純な計算で処理されるのが望ましい。このような計算であると、計算コストを少なくできる。 For example, the AI may be configured to perform preprocessing such as dimensionality reduction (for example, a process that converts a relationship of three or more dimensions into a relationship that can be determined by simple calculations of three dimensions or less) using "unsupervised" machine learning. It is desirable to process the relationship between input and output using simple calculations such as linear expressions. Such calculations can reduce computational costs.
また、AIは、ドロップアウト等といった過学習(「過剰適合」又は「過適合」等ともいう。)(overfitting)を軽減化させる処理が行われてもよい。他にも、次元削減、及び、正規化等の前処理が行われてもよい。 The AI may also undergo processing to reduce overfitting (also called "overfitting" or "over-fitting"), such as dropout. Other preprocessing such as dimensionality reduction and normalization may also be performed.
AIは、CNN(畳み込みニューラルネットワーク、Convolution Neural Network)のネットワーク構造等があってもよい。他にも、例えば、ネットワーク構造は、LLM(Large Language Model 大規模言語モデル)、RNN(再帰型ニューラルネットワーク、Recurrent Neural Network)又はLSTM(Long Short-Term Memory)等の構成を有してもよい。すなわち、AIは、ディープラーニング以外のネットワーク構造等であってもよい。 The AI may have a network structure such as a CNN (Convolution Neural Network). In addition, for example, the network structure may have a configuration such as an LLM (Large Language Model), an RNN (Recurrent Neural Network), or an LSTM (Long Short-Term Memory). In other words, the AI may have a network structure other than deep learning.
また、AIは、ハイパパラメータを有する構成であってもよい。すなわち、AIは、一部の設定をユーザ等が行う構成でもよい。更に、AIは、学習対象とする特徴量を特定してもよいし、ユーザが学習対象とする一部又は全部の特徴量を設定してもよい。 Also, the AI may be configured to have hyperparameters. In other words, the AI may be configured such that some of the settings are performed by a user or the like. Furthermore, the AI may specify the features to be learned, or the user may set some or all of the features to be learned.
更に、学習モデルA1、及び、学習済みモデルA2は、他の機械学習を利用してもよい。例えば、学習モデルA1、及び、学習済みモデルA2は、教師なしのモデルにより、正規化等を前処理で行ってもよい。更に、学習は、強化学習(Reinforcement Learning、AIに選択をさせ、選択に対する評価(報酬)を与えて、評価が大きくなるような学習方法をいう。)等であってもよい。 Furthermore, the learning model A1 and the trained model A2 may use other machine learning. For example, the learning model A1 and the trained model A2 may be unsupervised models, and normalization or the like may be performed in preprocessing. Furthermore, learning may be reinforcement learning (a learning method in which an AI is made to make a choice and an evaluation (reward) is given for the choice, so that the evaluation becomes large), etc.
学習では、データの拡張等が行われてもよい。すなわち、学習モデルA1の学習に用いる学習データを増やすため、1つの実験データ等を拡張させて、複数の学習データにする前処理が行われてもよい。このようにして、学習データを増やせると、より学習モデルA1の学習を進めることができる。 In learning, data expansion, etc. may be performed. That is, in order to increase the amount of learning data used in learning the learning model A1, pre-processing may be performed to expand a single piece of experimental data, etc., into multiple pieces of learning data. Increasing the amount of learning data in this way allows the learning of the learning model A1 to progress further.
また、学習モデルA1、及び、学習済みモデルA2は、転移学習(Transfer Learning)、又は、ファインチューニング(Fine tuning)等を行う構成でもよい。すなわち、ユーザ端末20は、装置ごとに異なる実行環境となる場合が多いため、実行環境に合わせて装置ごとに設定が異なってもよい。例えば、AIの基本構成は、別の情報処理装置で学習する。その後、各々の情報処理装置は、各々の実行環境に最適化するため、追加して学習、又は、設定等がされてもよい。 The learning model A1 and the trained model A2 may be configured to perform transfer learning or fine tuning. That is, since the user terminal 20 often has a different execution environment for each device, the settings may be different for each device according to the execution environment. For example, the basic configuration of the AI is trained on another information processing device. After that, each information processing device may be trained or configured additionally to optimize it for its respective execution environment.
[RPG(Role-Playing Game)における学習処理の例]
以下、RPGを対象にした例で説明する。RPGでは、ゲームを進行させると、イベント等が生じ、様々な要素が登場する。以下、ゲーム内で登場する要素を「ゲーム内要素」という。
[Example of learning process in RPG (Role-Playing Game)]
The following will be described using an example of an RPG. In an RPG, as the game progresses, events occur and various elements appear. Hereinafter, elements that appear within the game will be referred to as "in-game elements."
ゲーム内要素は、具体的には、ゲームのストーリ上で登場する、アイテム、キャラクタ、スキル(技)、魔法、・・・等である。ゲーム内要素は、具体的には、ゲームのストーリ上で登場する、アイテム、キャラクタ、スキル(技)、魔法、・・・等、ゲームを構成する各種の要素を含む。ゲーム内要素は、アイテム、又は、スキルのようにプレイにおいて操作する対象となる場合もあるし、ユーザ4による操作がされない対象の場合もある。 Specifically, in-game elements include items, characters, skills, magic, etc. that appear in the story of the game.Specifically, in-game elements include various elements that make up the game, such as items, characters, skills, magic, etc. that appear in the story of the game.In-game elements may be objects that can be operated during play, such as items or skills, or they may not be objects that can be operated by the user 4.
例えば、アイテムは、ゲームを進行させるイベントに必要なイベントアイテムや、敵を攻撃することができる攻撃アイテムの他、キャラクタの体力や状態異常を回復させる回復アイテム、キャラクタの攻撃力や防御力、すばやさ等の各種パラメータを向上させる(所謂、バフ効果を発揮させる。)、又は、敵の各種パラメータを低下させる(所謂、デバフ効果を発揮させる等である。)といった補助アイテム等を含む、ゲーム内要素の一つである。 For example, items are one of the in-game elements, and include event items necessary for events that progress through the game, attack items that can attack enemies, recovery items that restore a character's physical strength or abnormal conditions, and auxiliary items that improve various parameters such as a character's attack power, defense power, and speed (providing a so-called buff effect) or that lower various enemy parameters (providing a so-called debuff effect, etc.).
なお、アイテムは上記に限らず、武器や防具、アクセサリ等の装備品の他、デッキを構成するカード、アイテム合成、又は、モンスター等の合成に用いられるような各種の素材アイテム等であってもよい。また、アイテムは、必ずしもゲームの進行上取得が必須でない、ゲーム内では使用することができないアイテム(例えば、所定の敵を撃破(所定数撃破等を意味する。)した等のゲーム内における所定条件の成就を称える勲章やバッジ等である。)を含んでもよい。 Note that items are not limited to the above, and may include equipment such as weapons, armor, and accessories, as well as cards that make up a deck, and various material items used for item synthesis or monster synthesis. Items may also include items that are not necessarily required for game progress and cannot be used within the game (for example, medals or badges that recognize the achievement of a certain condition within the game, such as defeating a certain enemy (meaning defeating a certain number of enemies, etc.)).
また、キャラクタは、ゲーム内の人間や動物、ロボット等であって、ゲームを進行させる上でイベントを発生させるのに何らかのきっかけを作る、主人公の仲間となってパーティを形成する、又は、ストーリを構成する等の要素である。なお、キャラクタには、プレイヤが操作できるプレイアブルなキャラクタ、プレイヤが操作できないノンプレイアブルなキャラクタ(いわゆるNPC)を含む。また、必ずしも実在するものに限られず、亜人や獣人、アンドロイド等のゲームの世界観に合わせて設定されたオブジェクトであってもよい。 Characters are people, animals, robots, etc. in the game, and are elements that trigger events to occur as the game progresses, join the protagonist and form a party, or make up the story. Characters include playable characters that the player can control, and non-playable characters (so-called NPCs) that the player cannot control. Characters are not necessarily limited to real characters, and can be objects that are set up to fit the worldview of the game, such as demi-humans, beastmen, and androids.
スキル(技)、又は、魔法(ゲームによって名称は様々である。)は、ユーザ4の操作に基づき発動し、ゲーム内における戦闘等を有利に進めることができるコマンド等を含む要素である。なお、スキルや魔法について、必ずしも有利となるものだけに限られず、例えば、火耐性+50となるが、氷耐性は-50、といったような、一部のパラメータは強化されるが別のパラメータは弱化されるようなものも含む。また、操作によらずに発動するいわゆる「パッシブスキル」のようなものも含む。 Skills (techniques) or magic (the names vary depending on the game) are elements that include commands and the like that are activated based on the operation of the user 4 and allow the user to gain an advantage in battles and the like within the game. Note that skills and magic are not necessarily limited to those that provide an advantage, and include those that strengthen some parameters while weakening others, such as fire resistance +50 but ice resistance -50. They also include so-called "passive skills" that are activated without the user being prompted to perform an operation.
以下、ゲーム内要素を「アイテム」とする例で説明する。そして、以下の例では、出力データD3は、アイテムがどのようなものであるか(例えば、使用するとどのような効果が生じるか等の仕様である。)を示し、出力データD3があればユーザ端末20でプレイされるゲーム内にアイテムを登場させることができるとする。 The following description will be given using an example in which the in-game element is an "item." In the following example, output data D3 indicates what the item is (for example, the specifications of what effect will be produced when it is used), and with output data D3 it is possible to make the item appear in the game being played on user terminal 20.
[第1学習データ、ストーリデータ、ログデータ、及び、第1正解データの例]
図7は、RPGにおける第1学習モデルの学習処理の例を示す図である。例えば、第1学習モデルA11を学習させるのに、以下のようなデータを学習に用いる。
[Examples of first learning data, story data, log data, and first correct answer data]
7 is a diagram showing an example of a learning process of a first learning model in an RPG. For example, the following data is used for learning the first learning model A11.
ログデータDL12は、例えば、ゲームがプレイされると、ゲームの進行に合わせて生成される。なお、ログデータDL12は、ゲームを開始する前の時点におけるゲームを進めようとする設定、及び、予定等でもよい。一方で、ログデータDL12は、ゲームを途中まで進行させた場合等では、ゲームを開始させた最初の時点から進行させた時点までの記録等である。 For example, when a game is played, the log data DL12 is generated in accordance with the progress of the game. Note that the log data DL12 may be settings and plans for progressing through the game before the game is started. On the other hand, when the game has progressed partway through, the log data DL12 is a record of the game from the start of the game to the progress of the game.
ログデータDL12は、例えば、画像データDL121、及び、プロフィールデータDL122等を含むデータ構成である。ただし、各データは、ファイル等が分かれてなくともよく、1つのデータに複数の内容を含むデータ構成でもよい。また、ログデータDL12は、ゲームにおける各種の設定等を示す。 Log data DL12 is a data configuration that includes, for example, image data DL121 and profile data DL122. However, each piece of data does not have to be in a separate file, and a single piece of data may include multiple contents. Log data DL12 also indicates various settings in the game.
画像データDL121は、例えば、出力画面(ユーザ4に未公開の画面を含む。)、キャラクタの外観、又は、様々なアイテムの外観等を示すデータである。なお、画像データDL121は、画像解析がされてパラメータが抽出されてもよい。 The image data DL121 is data showing, for example, an output screen (including a screen not yet disclosed to the user 4), the appearance of a character, or the appearance of various items. Note that the image data DL121 may be subjected to image analysis to extract parameters.
プロフィールデータDL122は、ゲームにおいて登場するキャラクタ、又は、ユーザ4のプロフィールを示す。プロフィールデータDL122が、どのキャラクタ、又は、ユーザ4のプロフィールを示すのかは、ゲームの設定、又は、入力項目等によって異なる。 The profile data DL122 indicates the profile of a character appearing in the game or of user 4. Which character or user 4's profile the profile data DL122 indicates varies depending on the game settings, input items, etc.
例えば、プロフィールデータDL122は、ゲーム開始の際に、ユーザ4が入力する。ただし、プロフィールデータDL122は、ユーザ4の設定でなく事前の設定でもよいし、ユーザ端末20、又は、他のデータベース等から取得されてもよい。 For example, the profile data DL122 is input by the user 4 when starting the game. However, the profile data DL122 may be set in advance rather than set by the user 4, or may be obtained from the user terminal 20 or another database, etc.
具体的には、プロフィールデータDL122は、名前、出身、性別、年齢、職業、及び、友人関係等の設定項目である。どのようなプロフィールの項目とするかは事前に設定される。 Specifically, the profile data DL122 includes items such as name, place of origin, sex, age, occupation, and friendships. The types of profile items are set in advance.
名前は、例えば、ユーザ4の本名、略称、又は、変名等である。また、名前は、キャラクタに設定するニックネーム等の識別情報でもよい。同様に、出身、性別、年齢、職業、及び、友人関係は、ユーザ4の設定でもよいし、ゲーム上の架空の設定でもよい。 The name may be, for example, the real name, abbreviation, or pseudonym of the user 4. The name may also be identification information such as a nickname set for the character. Similarly, the place of origin, gender, age, occupation, and friendships may be settings of the user 4, or may be fictitious settings in the game.
ストーリデータDL11は、例えば、ストーリを文章で示すテキストデータである。ただし、ストーリデータDL11には、画像等があってもよい。 Story data DL11 is, for example, text data that shows the story in sentences. However, story data DL11 may also include images, etc.
第1正解データDL13は、ゲームに登場させるアイテムを示すデータである。具体的には、第1正解データDL13は、アイテムの外観、名称、使用した場合の効果等といった仕様である。第1正解データDL13、すなわち、アイテムを登場させるための仕様は、ゲームによって異なる。したがって、第1正解データDL13は、ゲーム内にアイテムを登場させるのに要する項目を含むデータである。 The first correct answer data DL13 is data that indicates the items to be featured in the game. Specifically, the first correct answer data DL13 is specifications such as the item's appearance, name, effect when used, etc. The first correct answer data DL13, i.e., the specifications for making an item appear, differs depending on the game. Therefore, the first correct answer data DL13 is data that includes items required for an item to appear in the game.
以上のような学習を行うと、第1学習モデルA11は、ストーリ、及び、プロフィール等から、どのようなアイテムを生成するのかの相関関係を学習する。上記の通り、アイテムを生成する上で、ストーリ以外に、補助データとして、プロフィール、及び、画像等を入力すると、アイテムの生成に補助データの情報が考慮される。 By carrying out the above-mentioned learning, the first learning model A11 learns the correlation of what kind of item to generate from the story, profile, etc. As described above, when generating an item, if a profile, image, etc. are input as auxiliary data in addition to the story, the information in the auxiliary data is taken into consideration when generating the item.
[第2学習データ、キーワード、ログデータ、及び、第2正解データの例]
図8は、RPGにおける第2学習モデルの学習処理の例を示す図である。例えば、第2学習モデルA12を学習させるのに、以下のようなデータを学習に用いる。
[Examples of second learning data, keywords, log data, and second correct answer data]
8 is a diagram showing an example of a learning process of the second learning model in the RPG. For example, the following data is used for learning the second learning model A12.
ログデータDL12は、例えば、第1学習モデルA11、すなわち、図7に示す学習処理と同様である。ただし、ログデータDL12は、第1学習モデルA11の学習処理とはデータの内容が異なる、又は、データ量が異なるようにしてもよい。 The log data DL12 is, for example, similar to the first learning model A11, i.e., the learning process shown in FIG. 7. However, the log data DL12 may have different data content or a different amount of data from the learning process of the first learning model A11.
キーワードDL21は、ストーリデータDL11を生成するのに参考にされる単語、又は、文章である。例えば、キーワードDL21は、ゲーム内要素の意味、ゲーム内要素の特徴、キャラクタにおきる出来事、ストーリに登場させたい要素、又は、ストーリの要点等である。 Keywords DL21 are words or sentences that are used as references when generating story data DL11. For example, keywords DL21 are the meanings of in-game elements, characteristics of in-game elements, events that occur to characters, elements that are desired to appear in the story, or key points of the story.
ストーリデータDL11は、例えば、ストーリを文章で示すテキストデータである。すなわち、ストーリデータDL11は、図7に示す学習処理と同様である。 The story data DL11 is, for example, text data that shows the story in sentences. In other words, the story data DL11 is similar to the learning process shown in FIG. 7.
例えば、キーワードDL21が入力されると、キーワードDL21が含まれるストーリが生成されるように、第2学習モデルA12は学習する。なお、キーワードDL21がストーリデータDL11に直接含まれなくともよく、キーワードDL21は、ストーリにおいて間接的に表現されてもよい。 For example, when keyword DL21 is input, the second learning model A12 learns to generate a story that includes keyword DL21. Note that keyword DL21 does not have to be directly included in story data DL11, and keyword DL21 may be indirectly expressed in the story.
また、ログデータDL12も踏まえてストーリが生成される。例えば、プロフィールデータDL122における「性別」、又は、「出身」等のプロフィールにおけるパラメータが異なると、パラメータによってアイテムの効果、仕様、種類、名称、又は、登場の仕方等が変化するようにストーリデータDL11が生成される。 The story is also generated based on the log data DL12. For example, if the parameters in the profile, such as "gender" or "origin" in the profile data DL122, are different, the story data DL11 is generated so that the effect, specifications, type, name, or appearance of the item changes depending on the parameter.
以上のような学習を行うと、第2学習モデルA12は、キーワードDL21、及び、プロフィール等から、どのようなストーリを生成するのかの相関関係を学習する。上記の通り、ストーリを生成する上で、プロフィールデータDL122以外に、補助データとして、周辺情報、及び、画像等を入力すると、ストーリの生成に補助データの情報が考慮される。 By carrying out the above-mentioned learning, the second learning model A12 learns the correlation of what kind of story to generate from the keywords DL21 and the profile, etc. As described above, when generating a story, if peripheral information, images, etc. are input as auxiliary data in addition to the profile data DL122, the information in the auxiliary data is taken into consideration when generating the story.
なお、ストーリの生成は、AI以外の構成で実現してもよい。例えば、「性別」又は「年齢」等によって登場させたいアイテムの種類等を固定する場合には、プロフィールデータDL122から、AIを経ずに、固定する条件(例えば、アイテムの種類等である。)を第1学習済みモデルA21に入力する構成(例えば、補助データで入力される。)でもよい。このように、固定した条件が入力できると、登場させるアイテムは、一定のプロフィールでは、これに対応した特定の条件下でアイテムが登場するようにできる。 It should be noted that story generation may be achieved by a configuration other than AI. For example, when fixing the type of item to be featured based on "gender" or "age" or the like, the fixing conditions (e.g., type of item) may be input from the profile data DL122 to the first trained model A21 (e.g., input as auxiliary data) without going through AI. In this way, when fixed conditions can be input, the items to be featured can be made to appear under specific conditions corresponding to these in a certain profile.
具体的には、「職業」が特定の職種である場合には、必ず「武器」のアイテムになり、一方で、別の職種であれば、必ず「防具」のアイテムになる等の条件がつけられる。 Specifically, if the "occupation" is a specific job type, the item will always be a "weapon" item, and on the other hand, if the job type is different, the item will always be an "armor" item.
[RPGにおける実行処理の例]
図9は、RPGにおける実行処理の例を示す図である。図7、及び、図8に示すような学習処理により、学習済みモデルA2が生成された後、以下のように実行処理が実行される。
[Example of execution process in RPG]
9 is a diagram showing an example of an execution process in an RPG. After a trained model A2 is generated by the learning process shown in FIG. 7 and FIG. 8, the execution process is executed as follows.
第2未知データDU2、すなわち、未知ログデータDU11、及び、未知キーワードDU21は、データが入力される時点では正解が不明である。そして、実行処理では、第2学習済みモデルA22は、学習した、キーワードDL21及びログデータDL12の組み合わせと、第2正解データDL22の相関関係に基づき、未知ログデータDU11、及び、未知キーワードDU21の組み合わせを踏まえて、未知ストーリデータDU12を生成する。そして、未知ストーリデータDU12は、第2学習済みモデルA22によって生成された後、第1学習済みモデルA21に入力される。 The second unknown data DU2, i.e., the unknown log data DU11 and the unknown keyword DU21, are unknown at the time the data is input. In the execution process, the second trained model A22 generates unknown story data DU12 based on the correlation between the learned combination of the keyword DL21 and the log data DL12 and the second correct answer data DL22, and taking into account the combination of the unknown log data DU11 and the unknown keyword DU21. After being generated by the second trained model A22, the unknown story data DU12 is input to the first trained model A21.
なお、未知ストーリデータDU12は、生成された後、第1学習済みモデルA21に入力される前に、管理者5等がストーリを編集してもよい。
In addition, after the unknown story data DU12 is generated, the
次に、第1学習済みモデルA21に、未知ログデータDU11、及び、未知ストーリデータDU12が第1未知データDU1として入力される。第1未知データDU1、すなわち、未知ログデータDU11、及び、未知ストーリデータDU12の組み合わせは、データが入力される時点では正解が不明である。 Next, unknown log data DU11 and unknown story data DU12 are input as first unknown data DU1 to the first trained model A21. The correct answer for the first unknown data DU1, i.e., the combination of unknown log data DU11 and unknown story data DU12, is unknown at the time the data is input.
そして、実行処理では、第1学習済みモデルA21は、学習した、ストーリデータDL11及びログデータDL12の組み合わせと、第1正解データDL13の相関関係に基づき、未知ログデータDU11、及び、未知ストーリデータDU12の組み合わせを踏まえて、出力データD3を生成する。 Then, in the execution process, the first trained model A21 generates output data D3 based on the trained combination of story data DL11 and log data DL12 and the correlation between the first correct answer data DL13, taking into account the combination of unknown log data DU11 and unknown story data DU12.
そして、出力データD3が生成されると、以降、出力データD3に基づき生成したアイテムが登場するゲームがプレイできる。例えば、ゲームは、ユーザ端末20等でプレイできる。 When the output data D3 is generated, a game featuring the item generated based on the output data D3 can be played. For example, the game can be played on a user terminal 20, etc.
[全体処理例]
図10は、全体処理例を示す図である。以下の例では、全体処理は、事前処理と実行処理を連続して行う。具体的には、ステップS11乃至ステップS14が学習処理である。また、ステップS21乃至ステップS24が実行処理である。ただし、全体処理には、これら以外の処理が含まれてもよい。
[Overall processing example]
10 is a diagram showing an example of the overall process. In the following example, the overall process is a sequence of a pre-process and an execution process. Specifically, steps S11 to S14 are the learning process. Steps S21 to S24 are the execution process. However, the overall process may include other processes.
以下、ステップS11とステップS12、及び、ステップS13とステップS14、すなわち、第1学習モデルA11の学習処理と第2学習モデルA12の学習処理は、並列で行うとする。ただし、これらの学習処理は、並列でなく、前後して行われてもよい。例えば、第2学習モデルA12を先に学習して、第2学習済みモデルA22とした後、第2学習済みモデルA22を用いて第1学習モデルA11の学習処理を実行するといった順序でもよい。 In the following, steps S11 and S12, and steps S13 and S14, i.e., the learning process of the first learning model A11 and the learning process of the second learning model A12, are performed in parallel. However, these learning processes may be performed one after the other, rather than in parallel. For example, the second learning model A12 may be trained first to become the second trained model A22, and then the learning process of the first learning model A11 may be performed using the second trained model A22.
ステップS11では、サーバ11は、第1学習データDL1を入力する。
In step S11, the
ステップS12では、サーバ11は、第1学習データDL1を入力して、第1学習モデルA11を学習させて第1学習済みモデルA21を生成する。
In step S12, the
ステップS13では、サーバ11は、第2学習データDL2を入力する。
In step S13, the
ステップS14では、サーバ11は、第2学習データDL2を入力して、第2学習モデルA12を学習させて第2学習済みモデルA22を生成する。
In step S14, the
ステップS11乃至ステップS14を行うと、図7、及び、図8に示す学習処理となる。以上のように、ある程度学習処理を行うと、学習モデルA1が学習して学習済みモデルA2となる。次に、学習処理によって生成された学習済みモデルA2を用いて以下のように実行処理が行われる。 When steps S11 to S14 are performed, the learning process shown in FIG. 7 and FIG. 8 is performed. As described above, when the learning process is performed to a certain extent, the learning model A1 learns and becomes the trained model A2. Next, the execution process is performed as follows using the trained model A2 generated by the learning process.
ステップS21では、サーバ11は、第2未知データDU2を第2学習済みモデルA22に入力する。
In step S21, the
ステップS22では、サーバ11は、第2学習済みモデルA22を用いて未知ストーリデータDU12を生成する。
In step S22, the
ステップS23では、サーバ11は、第1学習済みモデルA21を用いて出力データD3を生成する。以降、サーバ11は、出力データD3に基づき、ゲームをユーザ端末20に提供する。
In step S23, the
ステップS24では、サーバ11は、出力データD3に基づき、ゲーム内要素が登場するようにゲームを進行させる。
In step S24, the
[機能構成例]
図11は、機能構成例を示す図である。例えば、システム1は、学習装置61、及び、実行装置62を備える生成AIシステムである。
[Functional configuration example]
11 is a diagram illustrating an example of a functional configuration. For example, the
学習装置61は、ストーリデータ生成手段1F11、第1学習データ入力手段1F12、及び、学習手段1F13を備える。 The learning device 61 includes a story data generation means 1F11, a first learning data input means 1F12, and a learning means 1F13.
ストーリデータ生成手段1F11は、キーワードDL21、及び、ログデータDL12が入力されると、ストーリデータDL11を生成するストーリデータ生成手順を行う。例えば、ストーリデータ生成手段1F11は、ストーリ生成器12等で実現する。 When the keyword DL21 and the log data DL12 are input, the story data generation means 1F11 performs a story data generation procedure to generate the story data DL11. For example, the story data generation means 1F11 is realized by a story generator 12, etc.
第1学習データ入力手段1F12は、ストーリデータDL11、ログデータDL12、及び、第1正解データDL13を含む第1学習データDL1を入力する第1学習データ入力手順を行う。例えば、第1学習データ入力手段1F12は、通信インタフェース115等で実現する。
The first learning data input means 1F12 performs a first learning data input procedure to input the first learning data DL1 including the story data DL11, the log data DL12, and the first correct answer data DL13. For example, the first learning data input means 1F12 is realized by the
学習手段1F13は、第1学習データDL1を用いて第1学習モデルA11を学習させて、第1学習済みモデルA21を生成する学習手順を行う。例えば、学習手段1F13は、プロセッサ111等で実現する。
The learning means 1F13 performs a learning procedure in which the first learning model A11 is trained using the first learning data DL1 to generate the first trained model A21. For example, the learning means 1F13 is realized by the
実行装置62は、未知ストーリデータ生成手段1F21、第1未知データ入力手段1F22、実行手段1F23、及び、進行手段1F24を備える。未知ストーリデータ生成手段1F21は、第1生成手段の例である。また、実行手段1F23は、第2生成手段、及び、出力データ生成手段の例である。 The execution device 62 includes an unknown story data generation means 1F21, a first unknown data input means 1F22, an execution means 1F23, and a progress means 1F24. The unknown story data generation means 1F21 is an example of a first generation means. The execution means 1F23 is an example of a second generation means and an output data generation means.
未知ストーリデータ生成手段1F21は、未知キーワードDU21、及び、未知ログデータDU11が入力されると、未知ストーリデータDU12を生成する未知ストーリデータ生成手順を行う。例えば、未知ストーリデータ生成手段1F21は、ストーリ生成器12等で実現する。 When unknown keywords DU21 and unknown log data DU11 are input, the unknown story data generating means 1F21 performs an unknown story data generating procedure to generate unknown story data DU12. For example, the unknown story data generating means 1F21 is realized by a story generator 12 or the like.
第1未知データ入力手段1F22は、未知ストーリデータDU12、及び、未知ログデータDU11を含む第1未知データDU1を入力する第1未知データ入力手順を行う。例えば、第1未知データ入力手段1F22は、通信インタフェース115等で実現する。
The first unknown data input means 1F22 performs a first unknown data input procedure for inputting the first unknown data DU1 including the unknown story data DU12 and the unknown log data DU11. For example, the first unknown data input means 1F22 is realized by the
実行手段1F23は、第1学習済みモデルA21を用いて、出力データD3を生成する実行手順を行う。例えば、実行手段1F23は、プロセッサ111等で実現する。
The execution means 1F23 performs an execution procedure to generate output data D3 using the first trained model A21. For example, the execution means 1F23 is realized by the
進行手段1F24は、出力データD3に基づき、ユーザ端末20でゲームを進行させる進行手順を行う。例えば、進行手段1F24は、プロセッサ111等で実現する。
The progression means 1F24 performs a progression procedure for progressing the game on the user terminal 20 based on the output data D3. For example, the progression means 1F24 is realized by the
学習装置61、及び、実行装置62は、例えば、サーバ11である。このように、学習装置61、及び、実行装置62は、1台の情報処理装置が兼ねてもよい。ただし、学習装置61、及び、実行装置62は、異なる情報処理装置でもよい。
The learning device 61 and the execution device 62 are, for example, the
以上のような構成であると、ストーリの素となるキーワード、及び、ストーリを生成する上で周辺の設定等を示すログデータ等が入力されると、キャラクタ等に合わせたストーリが生成される。そして、ストーリ、及び、周辺の設定等に応じたアイテム等のゲーム内要素が生成される。具体的には、ストーリが生成され、ストーリに登場するアイテムが、実際にゲーム内で登場するようにできる。このようにゲームに登場させるゲーム内要素をキャラクタ等の様々な要因に応じて異なるように揃える場合でも、ストーリに合わせてアイテムが生成されるため、ゲームで扱うゲーム内要素に関する設定作業の負荷を軽減させることができる。 With the above configuration, when keywords that are the basis of the story and log data indicating the surrounding settings for generating the story are input, a story is generated that matches the characters, etc. Then, in-game elements such as items are generated that correspond to the story and the surrounding settings, etc. Specifically, a story is generated, and items that appear in the story can be made to actually appear in the game. In this way, even if the in-game elements that appear in the game are arranged differently depending on various factors such as the characters, since items are generated to match the story, the load of the setting work related to the in-game elements handled in the game can be reduced.
また、アイテムは、キャラクタのプロフィール等に応じて生成されるため、オリジナリティのあるアイテムとなる。例えば、繰り返しゲームをする場合、又は、プレイヤが異なる場合等には、プレイごとに異なるストーリ、及び、アイテムが生成できる。 In addition, items are generated based on the character's profile, making them unique items. For example, if the game is played repeatedly or by different players, different stories and items can be generated for each playthrough.
また、事前にアイテムを用意する方法と比較して、アイテムの種類を豊富にすることができる。ストーリ、又は、プロフィール等が変われば、アイテムも変化するため、ゲームを繰り返しプレイする等の場合でも、ユーザ4がゲームに飽きないようにできる。このようにして、ユーザ4に対して魅力的なゲームが提供できる。 Furthermore, compared to a method in which items are prepared in advance, a wider variety of items can be provided. If the story or profile, etc., changes, the items also change, so even if user 4 plays the game repeatedly, user 4 will not get bored of the game. In this way, an attractive game can be provided to user 4.
[変形例]
なお、ゲームの種類は、ノベルゲームに限られない。例えば、ゲームの種類は、RPG、スポーツ、アクション、パズル、又は、格闘等を含むゲームでもよい。更に、上記のゲームでなくともよい。
[Modification]
The type of game is not limited to a novel game. For example, the type of game may be a game including RPG, sports, action, puzzle, or fighting. Furthermore, the game may not be one of the above games.
例えば、ゲーム内要素は、キャラクタ等でもよい。したがって、ゲーム内に登場するキャラクタ等がストーリ、又は、プロフィール等に応じて変更されてもよい。 For example, the in-game element may be a character, etc. Therefore, the characters that appear in the game may change depending on the story, profile, etc.
上記の説明では、未知ストーリデータDU12を第2学習済みモデルA22が生成する構成で説明したが、実施形態は、これに限られない。例えば、未知ストーリデータDU12は、管理者5等がテキストを入力する操作をしてストーリを示す文章を作成(AIが生成したストーリをベースに改良するものを含む。)して、第1学習済みモデルA21に入力してもよい。
In the above description, the unknown story data DU12 is generated by the second trained model A22, but the embodiment is not limited to this. For example, the unknown story data DU12 may be input to the first trained model A21 by an
したがって、ストーリ生成器12は、AIを用いる構成に限られず、管理者5等がテキストを編集する操作を支援するプログラムを実行する装置等でもよい。
Therefore, the story generator 12 is not limited to a configuration using AI, but may be a device that executes a program to assist the
なお、ストーリ生成器12は、サーバ11等が兼ねてもよいし、サーバ11等とは別の情報処理装置でもよい。
The story generator 12 may be the same as the
[その他の実施形態]
上記の例では、情報処理装置は、学習モデルに対する事前処理、及び、学習済みモデルを用いて実行処理の両方を行う。ただし、事前処理、及び、実行処理は、同じの情報処理装置が行わなくともよい。また、事前処理、及び、実行処理も、1つの情報処理装置で一貫して実行しなくともよい。すなわち、各処理、及び、データの記憶等は、複数の情報処理装置で構成する情報システム等で行ってもよい。
[Other embodiments]
In the above example, the information processing device performs both pre-processing for the learning model and execution processing using the learned model. However, the pre-processing and execution processing do not have to be performed by the same information processing device. In addition, the pre-processing and execution processing do not have to be consistently performed by one information processing device. In other words, each process and data storage, etc. may be performed by an information system, etc., composed of multiple information processing devices.
なお、学習処理は、実行処理の後、又は、実行処理の前に追加して更に行われてもよい。 The learning process may be additionally performed after the execution process or before the execution process.
上記のような処理は、サーバ11、及び、ユーザ端末20以外の情報処理装置が補助的に行ってもよい。
The above-mentioned processing may be performed auxiliary by an information processing device other than the
図12は、補助装置を用いる構成例を示す図である。図1に示す例と比較すると、図12に示す構成は、補助装置60が加わる点が異なる。なお、補助装置60は、一時的に用いる構成でもよい。
Figure 12 is a diagram showing an example of a configuration using an auxiliary device. Compared to the example shown in Figure 1, the configuration shown in Figure 12 differs in that an
補助装置60は、ユーザ端末20(この例では、ユーザ端末20A付近に設置しているが、他の装置近くにあってもよい。)等の近くに設置される情報処理装置である。そして、補助装置60は、特定の処理をユーザ端末20、又は、サーバ11に代わって一部又は全部を実行する。
The
例えば、補助装置60は、グラフィック処理に特化したデバイスを備えて、グラフィック処理を高速で行う。このように、補助装置60等を設置して、所謂エッジコンピューティング(Edge Computing)等が行われてもよい。このように、前述する処理は、様々な情報処理装置のハードウェアリソースを活用して実行されてもよい。したがって、前述する処理は、前述したのとは異なる情報処理装置が実行してもよい。
For example, the
前述の処理、及び、本実施形態で実行される処理に用いるデータは、情報処理システムによって実行、及び、記憶されてもよい。例えば、情報処理システムは、処理又は記憶を冗長、分散、並列、又は、これらの組み合わせを実現するため、複数の情報処理装置で実行又は記憶してもよい。したがって、本発明は、前述に示すハードウェア構成以外の装置、及び、前述に示す装置以外のシステムで実現されてもよい。 The above-described processes and the data used in the processes executed in this embodiment may be executed and stored by an information processing system. For example, the information processing system may execute or store the processes or storage in a redundant, distributed, parallel, or combination thereof manner in multiple information processing devices. Therefore, the present invention may be realized in devices other than the hardware configurations shown above and in systems other than the devices shown above.
また、本発明に係るプログラムは、単一のプログラムに限定されず、複数のプログラムの集合体でもよい。また、本発明に係るプログラムは、単一の装置で実行されるものに限定されず、複数の情報処理装置で分担して実行されてもよい。更に、各情報処理装置の役割分担は、前述の例に限定されない。すなわち、前述した処理の一部、又は、全部が前述した情報処理装置とは異なる情報処理装置が実行してもよい。 The program according to the present invention is not limited to a single program, but may be a collection of multiple programs. The program according to the present invention is not limited to being executed by a single device, but may be shared and executed by multiple information processing devices. Furthermore, the division of roles among the information processing devices is not limited to the above example. In other words, some or all of the above-mentioned processes may be executed by an information processing device different from the above-mentioned information processing device.
更に、プログラムによって実現される各手段の一部、又は、全部は、集積回路等のハードウェアで実現することもできる。更に、プログラムは、コンピュータによって読み出し可能な非一過性の記録媒体に記録されて提供されてもよい。記録媒体とは、例えば、ハードディスク、SDカード(登録商標)、DVD等の光学ディスク、又は、インターネット上のサーバ等を指す。したがって、プログラムは、インターネット等の電気通信回線を介して配信されでもよい。 Furthermore, a part or all of the means realized by the program can be realized by hardware such as an integrated circuit. Furthermore, the program may be provided by being recorded on a non-transitory recording medium that can be read by a computer. A recording medium refers to, for example, a hard disk, an SD card (registered trademark), an optical disk such as a DVD, or a server on the Internet. Therefore, the program may be distributed via a telecommunications line such as the Internet.
また、情報処理システムを構成する情報処理装置等は、海外にあってもよい。すなわち、情報処理システムが実行する処理のうち、一部の処理を実行する情報処理装置が海外にあってもよい。 In addition, the information processing devices that make up the information processing system may be located overseas. In other words, the information processing devices that perform some of the processes performed by the information processing system may be located overseas.
なお、本発明は、前述に例示する各実施形態に限定されない。したがって、本発明は、技術的な要旨を逸脱しない範囲で、構成要素の追加、又は、変形が可能である。ゆえに、特許請求の範囲に記載された技術思想に含まれる技術的事項のすべてが本発明の対象となる。なお、前述に例示する実施形態は、実施において好適な具体例である。そして、当業者であれば、開示した内容から様々な変形例を実現で可能であって、このような変形例は、特許請求の範囲に記載された技術的範囲に含まれる。 The present invention is not limited to the above-mentioned embodiments. Therefore, the present invention can be modified or have additional components added without departing from the technical gist of the invention. Therefore, all technical matters included in the technical ideas described in the claims are covered by the present invention. The above-mentioned embodiments are preferred examples. Furthermore, a person skilled in the art can realize various modifications from the disclosed contents, and such modifications are included in the technical scope described in the claims.
1 :システム
1F11 :ストーリデータ生成手段
1F12 :第1学習データ入力手段
1F13 :学習手段
1F21 :未知ストーリデータ生成手段
1F22 :第1未知データ入力手段
1F23 :実行手段
1F24 :進行手段
4 :ユーザ
5 :管理者
11 :サーバ
12 :ストーリ生成器
20 :ユーザ端末
60 :補助装置
61 :学習装置
62 :実行装置
A1 :学習モデル
A11 :第1学習モデル
A12 :第2学習モデル
A2 :学習済みモデル
A21 :第1学習済みモデル
A22 :第2学習済みモデル
D1 :第1未知データ
D2 :第2未知データ
D3 :出力データ
D4 :ビッグデータ
DL1 :第1学習データ
DL11 :ストーリデータ
DL12 :ログデータ
DL121 :画像データ
DL122 :プロフィールデータ
DL13 :第1正解データ
DL2 :第2学習データ
DL21 :キーワード
DL22 :第2正解データ
DU1 :第1未知データ
DU11 :未知ログデータ
DU12 :未知ストーリデータ
DU2 :第2未知データ
DU21 :未知キーワード
1: System 1F11: Story data generation means 1F12: First learning data input means 1F13: Learning means 1F21: Unknown story data generation means 1F22: First unknown data input means 1F23: Execution means 1F24: Progression means 4: User 5: Administrator 11: Server 12: Story generator 20: User terminal 60: Auxiliary device 61: Learning device 62: Execution device A1: Learning model A11: First learning model A12: Second learning model A2: Trained model A21: First trained model A22: Second trained model D1: First unknown data D2: Second unknown data D3: Output data D4: Big data DL1: First learning data DL11: Story data DL12: Log data DL121: Image data DL122: Profile data DL13 : First correct answer data DL2 : Second learning data DL21 : Keyword DL22 : Second correct answer data DU1 : First unknown data DU11 : Unknown log data DU12 : Unknown story data DU2 : Second unknown data DU21 : Unknown keyword
Claims (4)
ゲームに関する未知キーワード、及び、前記ゲームのプレイに関する未知ログデータが入力されると、ゲーム内要素を含む前記ゲームのストーリに関する未知ストーリデータを生成する第1生成手段と、
ストーリデータ、及び、ログデータを含む第1学習データを用いて学習した第1学習済みモデルに対し、前記未知ストーリデータ、及び、前記未知ログデータを含む未知データを入力する入力手段と、
前記未知データが入力されると、前記未知データに基づき、前記ゲーム内要素に関する出力データを生成する第2生成手段と、
前記出力データに基づき、前記ゲーム内要素が登場する前記ゲームを進行させる進行手段として機能させるプログラム。 Computer,
a first generating means for generating unknown story data relating to a story of the game including an in-game element when unknown keywords relating to a game and unknown log data relating to a play of the game are input;
an input means for inputting unknown data including unknown story data and unknown log data to a first trained model trained using first training data including story data and log data;
a second generation means for generating output data relating to the in-game element based on the unknown data when the unknown data is input;
A program that functions as a progression means for progressing the game in which the in-game element appears based on the output data.
前記ゲームにおける出力画面の画像データ、又は、前記ゲームにおいて登場するキャラクタ、若しくは、ユーザのプロフィールに関するプロフィールデータを含む
請求項1に記載のプログラム。 The unknown log data is
2. The program according to claim 1, further comprising image data of an output screen in the game, or profile data relating to a character appearing in the game, or a user's profile.
前記ゲームに関するキーワード、前記ログデータ、及び、前記ゲームのストーリに関する第1正解データを含む第2学習データを用いて第2学習モデルを学習させた第2学習済みモデルを用い、
前記第2学習済みモデルは、
前記未知ログデータ、及び、前記未知キーワードが入力されると、前記ストーリデータを生成するように学習した生成AIである
請求項1に記載のプログラム。 The first generating means is
using a second trained model obtained by training a second learning model using second learning data including keywords related to the game, the log data, and first correct answer data related to a story of the game;
The second trained model is
2. The program according to claim 1, which is a generation AI that is trained to generate the story data when the unknown log data and the unknown keyword are input.
前記ストーリデータ、及び、前記ログデータを含む第1学習データを入力する第1学習データ入力手段と、
前記第1学習データを用いて、第1学習モデルを学習させて第1学習済みモデルを生成する学習手段と、
前記ゲームに関する未知キーワード、及び、前記ゲームのプレイに関する未知ログデータが入力されると、前記ゲーム内要素を含む前記ゲームのストーリに関する未知ストーリデータを生成する未知ストーリデータ生成手段と、
前記第1学習済みモデルに対し、前記未知ストーリデータ、及び、前記未知ログデータを含む未知データを入力する未知データ入力手段と、
前記未知データが入力されると、前記未知データに基づき、前記ゲーム内要素に関する出力データを生成する出力データ生成手段と、
前記出力データに基づき、前記ゲーム内要素が登場する前記ゲームを進行させる進行手段とを備えるシステム。 a story data generating means for generating story data relating to a story of the game including in-game elements when a keyword relating to the game and log data relating to play of the game are input;
a first learning data input means for inputting first learning data including the story data and the log data;
A learning means for learning a first learning model using the first learning data to generate a first trained model;
an unknown story data generating means for generating unknown story data regarding a story of the game including the in-game elements when unknown keywords related to the game and unknown log data related to play of the game are input;
an unknown data input means for inputting unknown data including the unknown story data and the unknown log data to the first trained model;
an output data generating means for generating output data relating to the in-game element based on the unknown data when the unknown data is input;
and a progression means for progressing the game in which the in-game element appears based on the output data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023187205A JP7493664B1 (en) | 2023-10-31 | 2023-10-31 | Program and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023187205A JP7493664B1 (en) | 2023-10-31 | 2023-10-31 | Program and system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7493664B1 true JP7493664B1 (en) | 2024-05-31 |
Family
ID=91227025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023187205A Active JP7493664B1 (en) | 2023-10-31 | 2023-10-31 | Program and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7493664B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020069377A (en) | 2018-10-26 | 2020-05-07 | 株式会社鈴康 | Information processing method, information processing device, and computer program |
JP2020166528A (en) | 2019-03-29 | 2020-10-08 | 株式会社コーエーテクモゲームス | Game operation learning program, game program, game play program, and game operation learning method |
JP2021534931A (en) | 2018-11-05 | 2021-12-16 | ソニー・インタラクティブエンタテインメント エルエルシー | Training of artificial intelligence (AI) model using cloud gaming network |
JP2023508058A (en) | 2019-12-23 | 2023-02-28 | ス イ、サン | Item production service provision system for creating artificial intelligence-based dynamic game environment |
-
2023
- 2023-10-31 JP JP2023187205A patent/JP7493664B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020069377A (en) | 2018-10-26 | 2020-05-07 | 株式会社鈴康 | Information processing method, information processing device, and computer program |
JP2021534931A (en) | 2018-11-05 | 2021-12-16 | ソニー・インタラクティブエンタテインメント エルエルシー | Training of artificial intelligence (AI) model using cloud gaming network |
JP2020166528A (en) | 2019-03-29 | 2020-10-08 | 株式会社コーエーテクモゲームス | Game operation learning program, game program, game play program, and game operation learning method |
JP2023508058A (en) | 2019-12-23 | 2023-02-28 | ス イ、サン | Item production service provision system for creating artificial intelligence-based dynamic game environment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108888958B (en) | Virtual object control method, device, equipment and storage medium in virtual scene | |
KR102190684B1 (en) | Interactive voice-controlled companion application for a video game | |
Ouellette | Playing with the guys: Masculinity and relationships in video games | |
WO2021049254A1 (en) | Information processing method, information processing device, and program | |
JP2021037060A (en) | System, method, and program for providing predetermined game, and method for creating classification of decks | |
JP7493664B1 (en) | Program and system | |
CN114618157A (en) | Data compensation method and device in game, electronic equipment and storage medium | |
Villareale et al. | iNNk: A multi-player game to deceive a neural network | |
Cowley et al. | Adaptive artificial intelligence in games: issues, requirements, and a solution through behavlets-based general player modelling | |
JP7565764B2 (en) | Game program, recording medium, game processing method, and information processing device | |
CN113509724B (en) | Recording medium, information processing apparatus and method | |
Junius et al. | Playing with the strings: designing puppitor as an acting interface for digital games | |
JP2019177084A (en) | Server system and game system | |
JP7530496B1 (en) | program | |
JP7519518B1 (en) | Program and system | |
US20240325924A1 (en) | Game development via generative ai | |
Treanor et al. | Playable experiences at AIIDE 2017 | |
JP7155447B2 (en) | A method for generating a trained model for predicting the action selected by the user, etc. | |
WO2022224932A1 (en) | Method for generating trained model for predicting action to be selected by user | |
Salge et al. | Applications of Artificial Intelligence in Live Action Role-Playing Games (LARP) | |
WO2022158512A1 (en) | Method for generating trained model for predicting action to be selected by user | |
KR20210032838A (en) | Game apparatus and method using emotion | |
JP7158771B1 (en) | Systems, methods and programs for supporting competitive betting | |
Nananukul et al. | What if Red can talk? Dynamic dialogue generation using large language models | |
US20240367056A1 (en) | Game player model use provision apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240306 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240521 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7493664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |