Nothing Special   »   [go: up one dir, main page]

JP7493664B1 - Program and system - Google Patents

Program and system Download PDF

Info

Publication number
JP7493664B1
JP7493664B1 JP2023187205A JP2023187205A JP7493664B1 JP 7493664 B1 JP7493664 B1 JP 7493664B1 JP 2023187205 A JP2023187205 A JP 2023187205A JP 2023187205 A JP2023187205 A JP 2023187205A JP 7493664 B1 JP7493664 B1 JP 7493664B1
Authority
JP
Japan
Prior art keywords
data
unknown
game
story
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023187205A
Other languages
Japanese (ja)
Inventor
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2023187205A priority Critical patent/JP7493664B1/en
Application granted granted Critical
Publication of JP7493664B1 publication Critical patent/JP7493664B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】ゲームで扱うアイテム等のゲーム内要素に関する設定作業の負荷を軽減させる。【解決手段】プログラムは、コンピュータを、ゲームに関する未知キーワード、及び、前記ゲームのプレイに関する未知ログデータが入力されると、ゲーム内要素を含む前記ゲームのストーリに関する未知ストーリデータを生成する第1生成手段と、ストーリデータ、及び、ログデータを含む第1学習データを用いて学習した第1学習済みモデルに対し、前記未知ストーリデータ、及び、前記未知ログデータを含む未知データを入力する入力手段と、前記未知データが入力されると、前記未知データに基づき、前記ゲーム内要素に関する出力データを生成する第2生成手段と、前記出力データに基づき、前記ゲーム内要素が登場する前記ゲームを進行させる進行手段として機能させる。【選択図】図11[Problem] To reduce the load of setting up in-game elements such as items handled in a game. [Solution] The program causes a computer to function as: a first generation means for generating unknown story data relating to the story of the game including in-game elements when unknown keywords related to the game and unknown log data related to play of the game are input; an input means for inputting unknown data including the unknown story data and the unknown log data to a first trained model trained using first training data including story data and log data; a second generation means for generating output data relating to the in-game elements based on the unknown data when the unknown data is input; and a progress means for progressing the game in which the in-game elements appear based on the output data. [Selected Figure] Figure 11

Description

本発明は、プログラム、及び、システムに関する。 The present invention relates to a program and a system.

従来、コンピュータを利用したゲーム(以下単に「ゲーム」という。)内において、ゲーム内で使用するアイテム(item)をユーザのプレイに応じて付与する技術が知られている。 Conventionally, in computer-based games (hereinafter simply referred to as "games"), a technique is known that provides a user with items to be used in the game depending on how the user plays the game.

例えば、ゲーム内、すなわち、仮想空間にあるカジノにおいて、カジノゲームで勝利すると、プレイヤは仮想通貨を取得する。そして、仮想通貨の量が所定量を超えると、プレイヤに通知がされる。そして、仮想通貨は、ゲーム内における交換所で、ゲーム内で使用可能なアイテムと交換が可能である。このようにして、プレイヤに仮想通貨を獲得させるモチベーションを持たせる技術が知られている(例えば、特許文献1等である)。 For example, when a player wins a casino game within a game, i.e., in a casino in a virtual space, the player acquires virtual currency. When the amount of virtual currency exceeds a predetermined amount, the player is notified. The virtual currency can then be exchanged at an exchange office within the game for items that can be used within the game. In this way, technology is known that motivates players to acquire virtual currency (for example, see Patent Document 1, etc.).

特開2016-29957号公報JP 2016-29957 A

しかしながら、従来の技術は、アイテム等のゲーム内要素を登場、交換、使用、付与、売買、改良、又は、取得等とするような状況において、これらの各状況に応じた事前の設定をゲームの開発段階で規定しておく必要がある。つまり、一のゲーム内要素について、各状況に対応する挙動を1つ1つ設定する必要があり、状況が増えれば増えるほどゲーム内要素を事前に設定する作業負荷が増加していくことになっていた。 However, with conventional technology, when in-game elements such as items are introduced, exchanged, used, granted, bought and sold, improved, or acquired, it is necessary to define settings in advance for each of these situations during the game development stage. In other words, for each in-game element, it is necessary to set up behaviors that correspond to each situation one by one, and the more situations there are, the greater the workload of setting up in-game elements in advance.

本発明は、ゲームで扱うアイテム等のゲーム内要素に関する設定作業の負荷を軽減させることを目的とする。 The present invention aims to reduce the burden of configuration work related to in-game elements such as items used in the game.

本発明によって上記の課題を解決するため、プログラムは、コンピュータを、ゲームに関する未知キーワード、及び、前記ゲームのプレイに関する未知ログデータが入力されると、ゲーム内要素を含む前記ゲームのストーリに関する未知ストーリデータを生成する第1生成手段と、ストーリデータ、及び、ログデータを含む第1学習データを用いて学習した第1学習済みモデルに対し、前記未知ストーリデータ、及び、前記未知ログデータを含む未知データを入力する入力手段と、前記未知データが入力されると、前記未知データに基づき、前記ゲーム内要素に関する出力データを生成する第2生成手段と、前記出力データに基づき、前記ゲーム内要素が登場する前記ゲームを進行させる進行手段として機能させる。 To solve the above problems, the present invention provides a program that causes a computer to function as: a first generation means that generates unknown story data related to the story of the game including in-game elements when unknown keywords related to the game and unknown log data related to the game play are input; an input means that inputs unknown data including the unknown story data and the unknown log data to a first trained model trained using first training data including story data and log data; a second generation means that generates output data related to the in-game elements based on the unknown data when the unknown data is input; and a progression means that progresses the game in which the in-game elements appear based on the output data.

本発明によれば、ゲームで扱うアイテム等のゲーム内要素に関する設定作業の負荷を軽減できる。 This invention can reduce the burden of configuration work related to in-game elements such as items used in the game.

本実施形態に係るシステム構成例を示す図である。FIG. 1 is a diagram illustrating an example of a system configuration according to an embodiment of the present invention. 事前処理例を示す図である。FIG. 13 is a diagram illustrating an example of pre-processing. 実行処理例を示す図である。FIG. 11 illustrates an example of an execution process. AIの学習、及び、実行の全体処理例を示す図である。A diagram showing an example of the overall process of AI learning and execution. 情報処理装置のハードウェア構成例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an information processing device. AIの構成例を示すネットワーク図である。FIG. 1 is a network diagram showing an example of an AI configuration. RPGにおける第1学習モデルの学習処理の例を示す図である。A figure showing an example of a learning process of a first learning model in an RPG. RPGにおける第2学習モデルの学習処理の例を示す図である。A figure showing an example of a learning process of a second learning model in an RPG. RPGにおける実行処理の例を示す図である。FIG. 11 is a diagram showing an example of an execution process in an RPG. 全体処理例を示す図である。FIG. 13 is a diagram illustrating an example of the entire process. 機能構成例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration. 補助装置を用いる構成例を示す図である。FIG. 13 is a diagram showing a configuration example in which an auxiliary device is used.

以下、実施形態を図面に基づいて説明する。 The following describes the embodiment with reference to the drawings.

[システム構成例]
図1は、本実施形態に係るシステム構成例を示す図である。例えば、図1に示すように、システム1は、ユーザ端末20A、20B、20C(以下、これらを総称して、「ユーザ端末20」と表記することがある。)と、サーバ11とを主に備える。
[System configuration example]
Fig. 1 is a diagram showing an example of a system configuration according to the present embodiment. For example, as shown in Fig. 1, the system 1 mainly includes user terminals 20A, 20B, and 20C (hereinafter, these may be collectively referred to as "user terminals 20") and a server 11.

以下、サーバ11を管理する者を「管理者5」という。また、ユーザ端末20A、20B、及び、20Cを操作するそれぞれの者を「ユーザ4A」、「ユーザ4B」、「ユーザ4C」(以下、これらを総称して、「ユーザ4」と表記することがある。)という。 Hereinafter, the person who manages the server 11 will be referred to as the "administrator 5." In addition, the people who operate the user terminals 20A, 20B, and 20C will be referred to as the "user 4A," "user 4B," and "user 4C" (hereinafter, these may be collectively referred to as "user 4").

管理者5は、システム1による情報処理サービスを運営する役割の者である。一方で、ユーザ4は、システム1による情報処理サービスを利用する者である。また、管理者5、及び、ユーザ4は、管理装置の例であるサーバ11、又は、ユーザ端末20のどちらの情報処理装置を操作するかが異なる。以下、ユーザ4がゲームのプレイヤとなり、管理者5がゲーム(例えば、ゲームの生成、変更、及び、配信等を行う。)、及び、サーバ11を管理する。 The administrator 5 is a person who operates the information processing service provided by the system 1. On the other hand, the user 4 is a person who uses the information processing service provided by the system 1. The administrator 5 and the user 4 differ in which information processing device they operate: the server 11, which is an example of a management device, or the user terminal 20. Hereinafter, the user 4 will be the player of the game, and the administrator 5 will manage the game (for example, generating, modifying, and distributing the game) and the server 11.

なお、図1に示す例は、ユーザ端末20が3つ、かつ、サーバ11が1つの例であるが、サーバ11の台数、ユーザ端末20の台数、管理者5の人数、及び、ユーザ4の人数は問わない。 Note that the example shown in FIG. 1 has three user terminals 20 and one server 11, but the number of servers 11, the number of user terminals 20, the number of administrators 5, and the number of users 4 are not important.

サーバ11、及び、ユーザ端末20は、通信ネットワーク2を介して相互通信可能に接続する。例えば、通信ネットワーク2は、インターネット、移動体通信システム(例えば、4G(4th Generation、第4世代移動通信規格)、又は、5G(5th Generation、第5世代移動通信規格)等による公衆回線である。)、Wi-Fi(登録商標)等の無線ネットワーク、又は、これらの組み合わせである。 The server 11 and the user terminal 20 are connected to each other so that they can communicate with each other via a communication network 2. For example, the communication network 2 is the Internet, a mobile communication system (for example, a public line such as 4G (4th Generation, 4th generation mobile communication standard) or 5G (5th Generation, 5th generation mobile communication standard)), a wireless network such as Wi-Fi (registered trademark), or a combination of these.

ユーザ端末20は、サーバ11からゲームをプレイするためのプログラム(以下、「ゲームプログラム」という。)をダウンロード、又は、サーバ11にアクセスするとサーバ11がゲームサービスを提供する。なお、ゲームをプレイする上でサーバ11と通信がなくともよい。すなわち、ユーザ端末20は、プログラムをダウンロード、又は、メディアからインストールしてゲームをプレイする環境を構築してもよい。また、ゲームは、ユーザ端末20以外の情報処理装置でプレイされてもよい。 The user terminal 20 downloads a program for playing the game (hereinafter referred to as the "game program") from the server 11, or accesses the server 11, which then provides a game service. Note that communication with the server 11 is not required to play the game. In other words, the user terminal 20 may download the program or install it from a medium to create an environment for playing the game. The game may also be played on an information processing device other than the user terminal 20.

[AI(人工知能、Artificial Intelligence)の学習、及び、実行の例]
以下、AIは、「事前処理」(「学習処理」という場合もある。)によって学習する。学習段階、すなわち、「事前処理」におけるAIを「学習モデルA1」という。以下、2つの学習モデルA1があり、「第1学習モデルA11」、及び、「第2学習モデルA12」という。また、「第1学習モデルA11」、及び、「第2学習モデルA12」を総じて「学習モデルA1」という場合がある。
[Examples of AI (Artificial Intelligence) Learning and Execution]
Hereinafter, the AI learns through "pre-processing" (sometimes referred to as "learning processing"). The AI in the learning stage, i.e., "pre-processing", is referred to as the "learning model A1". Hereinafter, there are two learning models A1, which are referred to as the "first learning model A11" and the "second learning model A12". Furthermore, the "first learning model A11" and the "second learning model A12" may be collectively referred to as the "learning model A1".

そして、学習モデルA1は、ある程度、学習が進むと、「学習済みモデルA2」となる。以下、学習済みモデルA2を用いて出力処理を実行する実行段階を「実行処理」とする。また、「第1学習モデルA11」が学習すると、「第1学習済みモデルA21」となる。同様に、「第2学習モデルA12」が学習すると、「第2学習済みモデルA22」となる。以下、「第1学習済みモデルA21」、及び、「第2学習済みモデルA22」を総じて「学習済みモデルA2」という場合がある。 Then, once learning has progressed to a certain extent, the learning model A1 becomes the "trained model A2." Hereinafter, the execution stage in which output processing is executed using the trained model A2 will be referred to as the "execution process." Furthermore, once the "first learning model A11" has trained, it becomes the "first trained model A21." Similarly, once the "second learning model A12" has trained, it becomes the "second trained model A22." Hereinafter, the "first trained model A21" and the "second trained model A22" may be collectively referred to as the "trained model A2."

「事前処理」は、「実行処理」より前に行われる。ただし、「実行処理」をする上で引き続き「事前処理」、すなわち、学習済みモデルA2が学習を行ってもよい。 "Pre-processing" is performed before "execution processing". However, "pre-processing", i.e., trained model A2 may continue to train, before "execution processing" is performed.

[事前処理例]
図2は、事前処理例を示す図である。例えば、事前処理は、サーバ11で行われる。
[Pre-processing example]
2 is a diagram showing an example of the pre-processing. For example, the pre-processing is performed by the server 11.

第1学習モデルA11は、第1学習データDL1を入力して学習を行う。同様に、第2学習モデルA12は、第2学習データDL2を入力して学習を行う。すなわち、学習モデルA1は、所謂「教師あり」の学習を行う。 The first learning model A11 learns by inputting the first learning data DL1. Similarly, the second learning model A12 learns by inputting the second learning data DL2. In other words, the learning model A1 learns in a so-called "supervised" manner.

第1学習データDL1は、ログデータDL12、ストーリデータDL11、及び、第1正解データDL13を含む。 The first learning data DL1 includes log data DL12, story data DL11, and first correct answer data DL13.

そして、第1学習データDL1は、ログデータDL12、及び、ストーリデータDL11に対して、「正解」となる第1正解データDL13を対応付けしたデータである。このように、ログデータDL12、及び、ストーリデータDL11は、正解が既知のデータである。 The first learning data DL1 is data in which the log data DL12 and the story data DL11 are associated with the first correct answer data DL13, which is the "correct answer." In this way, the log data DL12 and the story data DL11 are data in which the correct answer is already known.

第1学習データDL1、ストーリデータDL11、ログデータDL12、及び、第1正解データDL13の詳細は後述する。 Details of the first learning data DL1, story data DL11, log data DL12, and first correct answer data DL13 will be described later.

上記のような学習処理により、第1学習モデルA11は、第1学習データDL1が入力されると、ログデータDL12とストーリデータDL11の組み合わせに対して、第1正解データDL13が示す「正解」との相関関係を学習する。 Through the above-described learning process, when the first learning data DL1 is input, the first learning model A11 learns the correlation between the combination of the log data DL12 and the story data DL11 and the "correct answer" indicated by the first correct answer data DL13.

第2学習データDL2は、第1学習データDL1と同様に、ログデータDL12を含む。したがって、ログデータDL12は、データを複製、又は、使い回しで第1学習データDL1、及び、第2学習データDL2の両方で使用される。 The second learning data DL2, like the first learning data DL1, includes log data DL12. Therefore, the log data DL12 is used in both the first learning data DL1 and the second learning data DL2 by duplicating or reusing the data.

加えて、第2学習データDL2は、キーワードDL21、及び、第2正解データDL22を含む。 In addition, the second learning data DL2 includes keywords DL21 and second correct answer data DL22.

第2学習データDL2、キーワードDL21、及び、第2正解データDL22の詳細は後述する。 Details of the second learning data DL2, the keywords DL21, and the second answer data DL22 will be described later.

そして、第2学習データDL2は、ログデータDL12、及び、キーワードDL21に対して、「正解」となる第2正解データDL22を対応付けしたデータである。このように、ログデータDL12、及び、キーワードDL21は、正解が既知のデータである。 The second learning data DL2 is data in which the log data DL12 and the keyword DL21 are associated with the second correct answer data DL22, which is the "correct answer." In this way, the log data DL12 and the keyword DL21 are data for which the correct answer is already known.

第2正解データDL22は、ストーリデータDL11と同様の内容を示すデータである。したがって、第2正解データDL22は、複製、又は、使い回しで第1学習データDL1、及び、第2学習データDL2の両方で使用される。ただし、第2正解データDL22は、第2学習データDL2では「正解」を示す正解データであるのに対し、第1学習データDL1では、ストーリデータDL11は、入力となるデータである。このように、同じ内容のデータでも、第2正解データDL22、及び、ストーリデータDL11は、学習処理において、役割が異なる。 The second correct answer data DL22 is data showing the same content as the story data DL11. Therefore, the second correct answer data DL22 is used in both the first learning data DL1 and the second learning data DL2 by being duplicated or reused. However, while the second correct answer data DL22 is correct answer data showing the "correct answer" in the second learning data DL2, in the first learning data DL1, the story data DL11 is input data. In this way, even though the data has the same content, the second correct answer data DL22 and the story data DL11 have different roles in the learning process.

更に、学習モデルA1は、ビッグデータD4で学習するのが望ましい。例えば、ビッグデータD4は、インターネット上のデータ等である。ただし、ビッグデータD4は、管理者5等が入力するデータでもよい。このように、ビッグデータD4で学習すると、人間が書くような自然な文章、及び、データ等を生成するAIを生成できる。 Furthermore, it is preferable that the learning model A1 learns with big data D4. For example, the big data D4 is data on the Internet. However, the big data D4 may also be data input by an administrator 5 or the like. In this way, by learning with the big data D4, it is possible to generate an AI that generates natural sentences and data that resemble those written by a human.

[実行処理例]
図3は、実行処理例を示す図である。例えば、実行処理は、ユーザ端末20、サーバ11、又は、ユーザ端末20とサーバ11等のように複数の情報処理装置が協働して行う。
[Example of execution process]
3 is a diagram showing an example of the execution process. For example, the execution process is performed by a plurality of information processing devices, such as the user terminal 20, the server 11, or the user terminal 20 and the server 11, in cooperation with each other.

学習済みモデルA2は、事前処理による学習によって学習モデルA1が学習した状態である。すなわち、図2に示す事前処理が実行されると、学習済みモデルA2が生成される。 The trained model A2 is in a state where the trained model A1 has been trained through pre-processing. In other words, when the pre-processing shown in FIG. 2 is executed, the trained model A2 is generated.

第1学習済みモデルA21は、第1未知データDU1が入力されると、出力データD3を生成する。 When the first unknown data DU1 is input, the first trained model A21 generates output data D3.

第1未知データDU1は、「正解」が未知である、ログデータ(以下「未知ログデータDU11」という。)とストーリデータ(以下「未知ストーリデータDU12」という。)の組み合わせのデータである。 The first unknown data DU1 is a combination of log data (hereinafter referred to as "unknown log data DU11") and story data (hereinafter referred to as "unknown story data DU12"), where the "correct answer" is unknown.

第1未知データDU1、未知ログデータDU11、未知ストーリデータDU12、及び、出力データD3の詳細は後述する。 Details of the first unknown data DU1, the unknown log data DU11, the unknown story data DU12, and the output data D3 will be described later.

第2学習済みモデルA22は、第2未知データDU2が入力されると、未知ストーリデータDU12を生成する。 When the second unknown data DU2 is input, the second trained model A22 generates unknown story data DU12.

第2未知データDU2は、「正解」が未知である、未知ログデータDU11とキーワード(以下「未知キーワードDU21」という。)の組み合わせのデータである。なお、未知ログデータDU11は、学習処理におけるログデータDL12と同様に、第1未知データDU1と第2未知データDU2に複製、又は、使い回しをして同じデータを使用する。 The second unknown data DU2 is data that is a combination of unknown log data DU11 and a keyword (hereinafter referred to as "unknown keyword DU21"), where the "correct answer" is unknown. Note that the unknown log data DU11 is copied or reused as the first unknown data DU1 and the second unknown data DU2, similar to the log data DL12 in the learning process, to use the same data.

第2学習済みモデルA22が生成した未知ストーリデータDU12は、第1未知データDU1として、第1学習済みモデルA21に入力される。 The unknown story data DU12 generated by the second trained model A22 is input to the first trained model A21 as the first unknown data DU1.

上記の構成は、ストーリ生成器12が未知ストーリデータDU12を生成する前処理を行う構成である。なお、上記の構成では、AIを前処理用と後処理用で分けて2つのAIとしているが、AIは、まとめて1つ、又は、3つ以上に分ける構成でもよい。 The above configuration is a configuration in which the story generator 12 performs pre-processing to generate unknown story data DU12. Note that in the above configuration, the AI is divided into two AIs, one for pre-processing and one for post-processing, but the AI may be divided into one AI or three or more AIs.

出力データD3が生成されると、サーバ11は、出力データD3に基づき、ユーザ端末20にゲームを配信する。なお、ゲームは、出力データD3がユーザ端末20に送信されるでもよい。ゲームに出力データD3の内容が反映されるのであれば、ゲームを配信する構成、及び、出力データD3を保持するデータ構成等は問わない。 When the output data D3 is generated, the server 11 distributes the game to the user terminal 20 based on the output data D3. Note that the game may be transmitted as output data D3 to the user terminal 20. As long as the content of the output data D3 is reflected in the game, the configuration for distributing the game and the data configuration for holding the output data D3 are not important.

図4は、AIの学習、及び、実行の全体処理例を示す図である。図2に示す事前処理、及び、図3に示す実行処理の関係は、図4に示すような関係となる。 Figure 4 shows an example of the overall process of AI learning and execution. The relationship between the pre-processing shown in Figure 2 and the execution process shown in Figure 3 is as shown in Figure 4.

なお、事前処理、及び、実行処理を図に例示するような連続する順序で実行しなくともよい。したがって、事前処理によって準備を行う期間と、その後、実行処理を行う期間を連続させることは必須ではない。ゆえに、実行処理は、学習済みモデルA2を一旦作成した後であれば、事前処理から時間が経過した後に実行処理を行うようにしてもよい。また、学習済みモデルA2が一度生成された後であれば、学習済みモデルA2を転用して実行処理が行われてもよい。 Note that the pre-processing and execution processing do not have to be performed in the consecutive order as illustrated in the figure. Therefore, it is not necessary to consecutively perform the period in which preparation is performed by the pre-processing and the period in which the execution processing is performed thereafter. Therefore, once the trained model A2 has been created, the execution processing may be performed after a period of time has elapsed since the pre-processing. Furthermore, once the trained model A2 has been generated, the execution processing may be performed by repurposing the trained model A2.

学習処理と実行処理では、第1学習データDL1と第1未知データDU1が異なる。更に、学習処理と実行処理では、第2学習データDL2と第2未知データDU2が異なる。また、AIは、学習段階では、学習モデルA1であったのが、ある程度学習が進むと、学習済みモデルA2となる。このように、ビッグデータD4等を学習データとして学習した学習済みモデルA2は、所謂「生成AI」である。 The first learning data DL1 and the first unknown data DU1 are different in the learning process and the execution process. Furthermore, the second learning data DL2 and the second unknown data DU2 are different in the learning process and the execution process. Also, in the learning stage, the AI is a learning model A1, but once learning has progressed to a certain extent, it becomes a trained model A2. In this way, the trained model A2 that has been trained using big data D4 and the like as training data is what is known as a "generative AI."

各学習データは、「正解」が既知であるのに対し、各未知データは、「正解」が未知となる。具体的には、第1学習データDL1は、第1正解データDL13を含むため、ログデータDL12とストーリデータDL11の組み合わせに第1正解データDL13が対応付けされているのに対し、第1未知データDU1は、第1正解データDL13を含まない。したがって、学習処理では、ログデータDL12とストーリデータDL11の組み合わせと、第1正解データDL13の関係が既知である。そのため、第1学習モデルA11は、第1学習データDL1を入力すると、ログデータDL12とストーリデータDL11の組み合わせと、「正解」の相関関係を学習できる。 The "correct answer" of each piece of learning data is known, whereas the "correct answer" of each piece of unknown data is unknown. Specifically, since the first learning data DL1 includes the first correct answer data DL13, the first correct answer data DL13 is associated with the combination of the log data DL12 and the story data DL11, whereas the first unknown data DU1 does not include the first correct answer data DL13. Therefore, in the learning process, the relationship between the combination of the log data DL12 and the story data DL11 and the first correct answer data DL13 is known. Therefore, when the first learning model A11 inputs the first learning data DL1, it can learn the correlation between the combination of the log data DL12 and the story data DL11 and the "correct answer."

同様に、第2学習データDL2は、第2正解データDL22を含むため、ログデータDL12とキーワードDL21の組み合わせに第2正解データDL22が対応付けされているのに対し、第2未知データDU2は、第2正解データDL22を含まない。したがって、学習処理では、ログデータDL12とキーワードDL21の組み合わせと、第2正解データDL22の関係が既知である。そのため、第2学習モデルA12は、第2学習データDL2を入力すると、ログデータDL12とキーワードDL21の組み合わせと、「正解」の相関関係を学習できる。 Similarly, the second learning data DL2 includes the second correct answer data DL22, and therefore the second correct answer data DL22 is associated with the combination of the log data DL12 and the keyword DL21, whereas the second unknown data DU2 does not include the second correct answer data DL22. Therefore, in the learning process, the relationship between the combination of the log data DL12 and the keyword DL21 and the second correct answer data DL22 is known. Therefore, when the second learning model A12 receives the second learning data DL2, it can learn the correlation between the combination of the log data DL12 and the keyword DL21 and the "correct answer."

一方で、第1未知データDU1には、第1正解データDL13が含まれず、第1未知データDU1に対する「正解」が未知である。そして、第1学習済みモデルA21は、事前処理で学習したログデータDL12とストーリデータDL11の組み合わせと、第1正解データDL13の相関関係に基づき、第1未知データDU1に対して出力データD3を生成する。 On the other hand, the first unknown data DU1 does not include the first correct answer data DL13, and the "correct answer" for the first unknown data DU1 is unknown. The first trained model A21 then generates output data D3 for the first unknown data DU1 based on the correlation between the combination of the log data DL12 and story data DL11 trained in pre-processing and the first correct answer data DL13.

同様に、第2未知データDU2には、第2正解データDL22が含まれず、第2未知データDU2に対する「正解」が未知である。そして、第2学習済みモデルA22は、事前処理で学習したログデータDL12とキーワードDL21の組み合わせと、第2正解データDL22の相関関係に基づき、第2未知データDU2に対して未知ストーリデータDU12を生成する。 Similarly, the second unknown data DU2 does not include the second correct answer data DL22, and the "correct answer" for the second unknown data DU2 is unknown. The second trained model A22 generates unknown story data DU12 for the second unknown data DU2 based on the correlation between the combination of the log data DL12 and the keyword DL21 trained in pre-processing and the second correct answer data DL22.

実行処理は、一部の実行がテーブル等を用いる処理でもよい。このように、テーブルを用いる構成、所謂ルールベースでは、事前処理は、テーブル(ルックアップテーブル(Look Up Table、LUT)等ともいう。)、又は、数式等を入力する準備を行う処理である。 The execution process may be a process in which a part of the execution uses a table or the like. In this way, in a configuration that uses a table, that is, a so-called rule-based configuration, the pre-processing is a process that prepares for inputting a table (also called a look-up table (LUT) or a formula, etc.).

[情報処理装置のハードウェア構成例]
図5は、情報処理装置のハードウェア構成図である。情報処理装置は、サーバ11、及び、ユーザ端末20等である。以下、情報処理装置は、サーバ11と同じハードウェア構成であるとする。例えば、情報処理装置は、ワークステーション、又は、パーソナルコンピュータ等の汎用コンピュータである。ただし、それぞれの情報処理装置は、ハードウェア構成が異なってもよい。
[Example of hardware configuration of information processing device]
5 is a hardware configuration diagram of an information processing device. The information processing device is a server 11, a user terminal 20, etc. Hereinafter, it is assumed that the information processing device has the same hardware configuration as the server 11. For example, the information processing device is a workstation or a general-purpose computer such as a personal computer. However, each information processing device may have a different hardware configuration.

サーバ11は、プロセッサ111と、メモリ112と、ストレージ113と、入出力インタフェース114と、通信インタフェース115とを主に備える。また、サーバ11の各構成要素は、通信バス116に接続する。 The server 11 mainly comprises a processor 111, a memory 112, a storage 113, an input/output interface 114, and a communication interface 115. In addition, each component of the server 11 is connected to a communication bus 116.

プロセッサ111は、メモリ112又はストレージ113に格納されているサーバプログラム11Pに含まれる一連の命令を実行することによって、処理、及び、制御を実現する。 The processor 111 performs processing and control by executing a series of instructions contained in the server program 11P stored in the memory 112 or storage 113.

プロセッサ111は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、又は、これらの組み合わせ等の演算装置、及び、制御装置である。 The processor 111 is, for example, a calculation device and a control device such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processing Unit), an FPGA (Field-Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), or a combination of these.

メモリ112は、サーバプログラム11P、及び、データ等を記憶する主記憶装置である。例えば、サーバプログラム11Pは、ストレージ113からロードされる。また、データは、サーバ11に入力されたデータと、プロセッサ111によって生成されたデータとを含む。例えば、メモリ112は、RAM(Random Access Memory)、又は、その他の揮発メモリである。 The memory 112 is a main storage device that stores the server program 11P and data, etc. For example, the server program 11P is loaded from the storage 113. The data includes data input to the server 11 and data generated by the processor 111. For example, the memory 112 is a RAM (Random Access Memory) or other volatile memory.

ストレージ113は、サーバプログラム11P、及び、データ等を記憶する補助記憶装置である。ストレージ113は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、又は、その他の不揮発記憶装置である。また、ストレージ113は、メモリカードのように着脱可能な記憶装置でもよい。更に、他の例として、ストレージ113は、外部記憶装置であってもよい。このような構成によれば、例えば、アミューズメント施設のように複数のユーザ端末20が使用される場面において、サーバプログラム11P、又は、データの更新等を一括して行うことが可能になる。 Storage 113 is an auxiliary storage device that stores server program 11P and data, etc. Storage 113 is, for example, a ROM (Read-Only Memory), a hard disk drive, a flash memory, or other non-volatile storage device. Storage 113 may also be a removable storage device such as a memory card. As another example, storage 113 may be an external storage device. With this configuration, for example, in a situation where multiple user terminals 20 are used, such as an amusement facility, it becomes possible to collectively update server program 11P or data.

入出力インタフェース114は、モニタ、入力装置(例えば、キーボード、又は、ポインティングデバイス等である。)、外部記憶装置、スピーカ、カメラ、マイク、及び、センサ等の外部装置をサーバ11に接続するインタフェースである。 The input/output interface 114 is an interface that connects external devices such as a monitor, an input device (e.g., a keyboard or a pointing device), an external storage device, a speaker, a camera, a microphone, and a sensor to the server 11.

また、プロセッサ111は、入出力インタフェース114を通じて外部装置と通信する。入出力インタフェース114は、例えば、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)、無線、及び、その他の端子である。 The processor 111 also communicates with external devices through the input/output interface 114. The input/output interface 114 is, for example, a Universal Serial Bus (USB), a Digital Visual Interface (DVI), a High-Definition Multimedia Interface (HDMI (registered trademark)), wireless, and other terminals.

通信インタフェース115は、通信ネットワーク2に接続する他の装置(例えば、ユーザ端末20等である。)と通信する。例えば、通信インタフェース115は、LAN(Local Area Network)等の有線通信インタフェース、Wi-Fi(登録商標)(Wireless Fidelity)、Bluetooth(登録商標)、又は、NFC(Near Field Communication)等の無線通信インタフェースである。 The communication interface 115 communicates with other devices (such as the user terminal 20) connected to the communication network 2. For example, the communication interface 115 is a wired communication interface such as a LAN (Local Area Network), or a wireless communication interface such as Wi-Fi (registered trademark) (Wireless Fidelity), Bluetooth (registered trademark), or NFC (Near Field Communication).

ただし、情報処理装置は、上記のハードウェア構成に限られない。例えば、ユーザ端末20は、カメラ等のセンサを更に備えてもよい。そして、ユーザ端末20がセンサで取得する様々なデータがサーバ11に送信されてもよい。 However, the information processing device is not limited to the above hardware configuration. For example, the user terminal 20 may further include a sensor such as a camera. Various data acquired by the user terminal 20 through the sensor may be transmitted to the server 11.

[学習モデル、及び、学習済みモデルの構成例]
図6は、AIの構成例を示すネットワーク図である。学習モデルA1、及び、学習済みモデルA2は、例えば、以下のようなネットワークで示す構成のAIである。
[Examples of the configuration of learning models and trained models]
6 is a network diagram showing an example of an AI configuration. The learning model A1 and the trained model A2 are, for example, an AI having a configuration shown in the following network.

以下、学習モデルA1、及び、学習済みモデルA2は、サーバ11上、すなわち、クラウド上に実装される例で説明する。ただし、学習モデルA1、及び、学習済みモデルA2の一部、又は、全部は、ユーザ端末20等に実装されてもよい。 In the following, the learning model A1 and the trained model A2 are described as being implemented on the server 11, i.e., on the cloud. However, part or all of the learning model A1 and the trained model A2 may be implemented on the user terminal 20, etc.

ネットワーク300は、例えば、入力層L1、中間層L2(「隠れ層」等ともいう。)、及び、出力層L3等を有する構成である。 The network 300 has, for example, an input layer L1, an intermediate layer L2 (also called a "hidden layer"), and an output layer L3.

入力層L1は、データを入力する層である。 The input layer L1 is the layer that inputs data.

中間層L2は、入力層L1で入力するデータを重み、及び、バイアス等に基づいて変換する。このように中間層L2で処理された結果が出力層L3へ伝えられる。 The intermediate layer L2 converts the data input in the input layer L1 based on weights, biases, etc. The results of processing in this way in the intermediate layer L2 are transmitted to the output layer L3.

出力層L3は、出力内容等を出力する層である。 The output layer L3 is the layer that outputs the output contents, etc.

そして、学習により、重みの係数、及び、学習で変化させるパラメータ等が最適化される。なお、ネットワーク300は、図示するネットワーク構造に限られない。つまり、AIは、他の機械学習によって実現されてもよい。 Then, the weighting coefficients and the parameters to be changed by learning are optimized through learning. Note that the network 300 is not limited to the network structure shown in the figure. In other words, the AI may be realized by other machine learning methods.

例えば、AIは、「教師なし」の機械学習等により、次元削減(例えば、3次元以上の関係を3次元以下程度の簡略な計算で求まる関係に変える処理である。)等の前処理を行う構成等でもよい。入力と出力の関係は、1次式等の単純な計算で処理されるのが望ましい。このような計算であると、計算コストを少なくできる。 For example, the AI may be configured to perform preprocessing such as dimensionality reduction (for example, a process that converts a relationship of three or more dimensions into a relationship that can be determined by simple calculations of three dimensions or less) using "unsupervised" machine learning. It is desirable to process the relationship between input and output using simple calculations such as linear expressions. Such calculations can reduce computational costs.

また、AIは、ドロップアウト等といった過学習(「過剰適合」又は「過適合」等ともいう。)(overfitting)を軽減化させる処理が行われてもよい。他にも、次元削減、及び、正規化等の前処理が行われてもよい。 The AI may also undergo processing to reduce overfitting (also called "overfitting" or "over-fitting"), such as dropout. Other preprocessing such as dimensionality reduction and normalization may also be performed.

AIは、CNN(畳み込みニューラルネットワーク、Convolution Neural Network)のネットワーク構造等があってもよい。他にも、例えば、ネットワーク構造は、LLM(Large Language Model 大規模言語モデル)、RNN(再帰型ニューラルネットワーク、Recurrent Neural Network)又はLSTM(Long Short-Term Memory)等の構成を有してもよい。すなわち、AIは、ディープラーニング以外のネットワーク構造等であってもよい。 The AI may have a network structure such as a CNN (Convolution Neural Network). In addition, for example, the network structure may have a configuration such as an LLM (Large Language Model), an RNN (Recurrent Neural Network), or an LSTM (Long Short-Term Memory). In other words, the AI may have a network structure other than deep learning.

また、AIは、ハイパパラメータを有する構成であってもよい。すなわち、AIは、一部の設定をユーザ等が行う構成でもよい。更に、AIは、学習対象とする特徴量を特定してもよいし、ユーザが学習対象とする一部又は全部の特徴量を設定してもよい。 Also, the AI may be configured to have hyperparameters. In other words, the AI may be configured such that some of the settings are performed by a user or the like. Furthermore, the AI may specify the features to be learned, or the user may set some or all of the features to be learned.

更に、学習モデルA1、及び、学習済みモデルA2は、他の機械学習を利用してもよい。例えば、学習モデルA1、及び、学習済みモデルA2は、教師なしのモデルにより、正規化等を前処理で行ってもよい。更に、学習は、強化学習(Reinforcement Learning、AIに選択をさせ、選択に対する評価(報酬)を与えて、評価が大きくなるような学習方法をいう。)等であってもよい。 Furthermore, the learning model A1 and the trained model A2 may use other machine learning. For example, the learning model A1 and the trained model A2 may be unsupervised models, and normalization or the like may be performed in preprocessing. Furthermore, learning may be reinforcement learning (a learning method in which an AI is made to make a choice and an evaluation (reward) is given for the choice, so that the evaluation becomes large), etc.

学習では、データの拡張等が行われてもよい。すなわち、学習モデルA1の学習に用いる学習データを増やすため、1つの実験データ等を拡張させて、複数の学習データにする前処理が行われてもよい。このようにして、学習データを増やせると、より学習モデルA1の学習を進めることができる。 In learning, data expansion, etc. may be performed. That is, in order to increase the amount of learning data used in learning the learning model A1, pre-processing may be performed to expand a single piece of experimental data, etc., into multiple pieces of learning data. Increasing the amount of learning data in this way allows the learning of the learning model A1 to progress further.

また、学習モデルA1、及び、学習済みモデルA2は、転移学習(Transfer Learning)、又は、ファインチューニング(Fine tuning)等を行う構成でもよい。すなわち、ユーザ端末20は、装置ごとに異なる実行環境となる場合が多いため、実行環境に合わせて装置ごとに設定が異なってもよい。例えば、AIの基本構成は、別の情報処理装置で学習する。その後、各々の情報処理装置は、各々の実行環境に最適化するため、追加して学習、又は、設定等がされてもよい。 The learning model A1 and the trained model A2 may be configured to perform transfer learning or fine tuning. That is, since the user terminal 20 often has a different execution environment for each device, the settings may be different for each device according to the execution environment. For example, the basic configuration of the AI is trained on another information processing device. After that, each information processing device may be trained or configured additionally to optimize it for its respective execution environment.

[RPG(Role-Playing Game)における学習処理の例]
以下、RPGを対象にした例で説明する。RPGでは、ゲームを進行させると、イベント等が生じ、様々な要素が登場する。以下、ゲーム内で登場する要素を「ゲーム内要素」という。
[Example of learning process in RPG (Role-Playing Game)]
The following will be described using an example of an RPG. In an RPG, as the game progresses, events occur and various elements appear. Hereinafter, elements that appear within the game will be referred to as "in-game elements."

ゲーム内要素は、具体的には、ゲームのストーリ上で登場する、アイテム、キャラクタ、スキル(技)、魔法、・・・等である。ゲーム内要素は、具体的には、ゲームのストーリ上で登場する、アイテム、キャラクタ、スキル(技)、魔法、・・・等、ゲームを構成する各種の要素を含む。ゲーム内要素は、アイテム、又は、スキルのようにプレイにおいて操作する対象となる場合もあるし、ユーザ4による操作がされない対象の場合もある。 Specifically, in-game elements include items, characters, skills, magic, etc. that appear in the story of the game.Specifically, in-game elements include various elements that make up the game, such as items, characters, skills, magic, etc. that appear in the story of the game.In-game elements may be objects that can be operated during play, such as items or skills, or they may not be objects that can be operated by the user 4.

例えば、アイテムは、ゲームを進行させるイベントに必要なイベントアイテムや、敵を攻撃することができる攻撃アイテムの他、キャラクタの体力や状態異常を回復させる回復アイテム、キャラクタの攻撃力や防御力、すばやさ等の各種パラメータを向上させる(所謂、バフ効果を発揮させる。)、又は、敵の各種パラメータを低下させる(所謂、デバフ効果を発揮させる等である。)といった補助アイテム等を含む、ゲーム内要素の一つである。 For example, items are one of the in-game elements, and include event items necessary for events that progress through the game, attack items that can attack enemies, recovery items that restore a character's physical strength or abnormal conditions, and auxiliary items that improve various parameters such as a character's attack power, defense power, and speed (providing a so-called buff effect) or that lower various enemy parameters (providing a so-called debuff effect, etc.).

なお、アイテムは上記に限らず、武器や防具、アクセサリ等の装備品の他、デッキを構成するカード、アイテム合成、又は、モンスター等の合成に用いられるような各種の素材アイテム等であってもよい。また、アイテムは、必ずしもゲームの進行上取得が必須でない、ゲーム内では使用することができないアイテム(例えば、所定の敵を撃破(所定数撃破等を意味する。)した等のゲーム内における所定条件の成就を称える勲章やバッジ等である。)を含んでもよい。 Note that items are not limited to the above, and may include equipment such as weapons, armor, and accessories, as well as cards that make up a deck, and various material items used for item synthesis or monster synthesis. Items may also include items that are not necessarily required for game progress and cannot be used within the game (for example, medals or badges that recognize the achievement of a certain condition within the game, such as defeating a certain enemy (meaning defeating a certain number of enemies, etc.)).

また、キャラクタは、ゲーム内の人間や動物、ロボット等であって、ゲームを進行させる上でイベントを発生させるのに何らかのきっかけを作る、主人公の仲間となってパーティを形成する、又は、ストーリを構成する等の要素である。なお、キャラクタには、プレイヤが操作できるプレイアブルなキャラクタ、プレイヤが操作できないノンプレイアブルなキャラクタ(いわゆるNPC)を含む。また、必ずしも実在するものに限られず、亜人や獣人、アンドロイド等のゲームの世界観に合わせて設定されたオブジェクトであってもよい。 Characters are people, animals, robots, etc. in the game, and are elements that trigger events to occur as the game progresses, join the protagonist and form a party, or make up the story. Characters include playable characters that the player can control, and non-playable characters (so-called NPCs) that the player cannot control. Characters are not necessarily limited to real characters, and can be objects that are set up to fit the worldview of the game, such as demi-humans, beastmen, and androids.

スキル(技)、又は、魔法(ゲームによって名称は様々である。)は、ユーザ4の操作に基づき発動し、ゲーム内における戦闘等を有利に進めることができるコマンド等を含む要素である。なお、スキルや魔法について、必ずしも有利となるものだけに限られず、例えば、火耐性+50となるが、氷耐性は-50、といったような、一部のパラメータは強化されるが別のパラメータは弱化されるようなものも含む。また、操作によらずに発動するいわゆる「パッシブスキル」のようなものも含む。 Skills (techniques) or magic (the names vary depending on the game) are elements that include commands and the like that are activated based on the operation of the user 4 and allow the user to gain an advantage in battles and the like within the game. Note that skills and magic are not necessarily limited to those that provide an advantage, and include those that strengthen some parameters while weakening others, such as fire resistance +50 but ice resistance -50. They also include so-called "passive skills" that are activated without the user being prompted to perform an operation.

以下、ゲーム内要素を「アイテム」とする例で説明する。そして、以下の例では、出力データD3は、アイテムがどのようなものであるか(例えば、使用するとどのような効果が生じるか等の仕様である。)を示し、出力データD3があればユーザ端末20でプレイされるゲーム内にアイテムを登場させることができるとする。 The following description will be given using an example in which the in-game element is an "item." In the following example, output data D3 indicates what the item is (for example, the specifications of what effect will be produced when it is used), and with output data D3 it is possible to make the item appear in the game being played on user terminal 20.

[第1学習データ、ストーリデータ、ログデータ、及び、第1正解データの例]
図7は、RPGにおける第1学習モデルの学習処理の例を示す図である。例えば、第1学習モデルA11を学習させるのに、以下のようなデータを学習に用いる。
[Examples of first learning data, story data, log data, and first correct answer data]
7 is a diagram showing an example of a learning process of a first learning model in an RPG. For example, the following data is used for learning the first learning model A11.

ログデータDL12は、例えば、ゲームがプレイされると、ゲームの進行に合わせて生成される。なお、ログデータDL12は、ゲームを開始する前の時点におけるゲームを進めようとする設定、及び、予定等でもよい。一方で、ログデータDL12は、ゲームを途中まで進行させた場合等では、ゲームを開始させた最初の時点から進行させた時点までの記録等である。 For example, when a game is played, the log data DL12 is generated in accordance with the progress of the game. Note that the log data DL12 may be settings and plans for progressing through the game before the game is started. On the other hand, when the game has progressed partway through, the log data DL12 is a record of the game from the start of the game to the progress of the game.

ログデータDL12は、例えば、画像データDL121、及び、プロフィールデータDL122等を含むデータ構成である。ただし、各データは、ファイル等が分かれてなくともよく、1つのデータに複数の内容を含むデータ構成でもよい。また、ログデータDL12は、ゲームにおける各種の設定等を示す。 Log data DL12 is a data configuration that includes, for example, image data DL121 and profile data DL122. However, each piece of data does not have to be in a separate file, and a single piece of data may include multiple contents. Log data DL12 also indicates various settings in the game.

画像データDL121は、例えば、出力画面(ユーザ4に未公開の画面を含む。)、キャラクタの外観、又は、様々なアイテムの外観等を示すデータである。なお、画像データDL121は、画像解析がされてパラメータが抽出されてもよい。 The image data DL121 is data showing, for example, an output screen (including a screen not yet disclosed to the user 4), the appearance of a character, or the appearance of various items. Note that the image data DL121 may be subjected to image analysis to extract parameters.

プロフィールデータDL122は、ゲームにおいて登場するキャラクタ、又は、ユーザ4のプロフィールを示す。プロフィールデータDL122が、どのキャラクタ、又は、ユーザ4のプロフィールを示すのかは、ゲームの設定、又は、入力項目等によって異なる。 The profile data DL122 indicates the profile of a character appearing in the game or of user 4. Which character or user 4's profile the profile data DL122 indicates varies depending on the game settings, input items, etc.

例えば、プロフィールデータDL122は、ゲーム開始の際に、ユーザ4が入力する。ただし、プロフィールデータDL122は、ユーザ4の設定でなく事前の設定でもよいし、ユーザ端末20、又は、他のデータベース等から取得されてもよい。 For example, the profile data DL122 is input by the user 4 when starting the game. However, the profile data DL122 may be set in advance rather than set by the user 4, or may be obtained from the user terminal 20 or another database, etc.

具体的には、プロフィールデータDL122は、名前、出身、性別、年齢、職業、及び、友人関係等の設定項目である。どのようなプロフィールの項目とするかは事前に設定される。 Specifically, the profile data DL122 includes items such as name, place of origin, sex, age, occupation, and friendships. The types of profile items are set in advance.

名前は、例えば、ユーザ4の本名、略称、又は、変名等である。また、名前は、キャラクタに設定するニックネーム等の識別情報でもよい。同様に、出身、性別、年齢、職業、及び、友人関係は、ユーザ4の設定でもよいし、ゲーム上の架空の設定でもよい。 The name may be, for example, the real name, abbreviation, or pseudonym of the user 4. The name may also be identification information such as a nickname set for the character. Similarly, the place of origin, gender, age, occupation, and friendships may be settings of the user 4, or may be fictitious settings in the game.

ストーリデータDL11は、例えば、ストーリを文章で示すテキストデータである。ただし、ストーリデータDL11には、画像等があってもよい。 Story data DL11 is, for example, text data that shows the story in sentences. However, story data DL11 may also include images, etc.

第1正解データDL13は、ゲームに登場させるアイテムを示すデータである。具体的には、第1正解データDL13は、アイテムの外観、名称、使用した場合の効果等といった仕様である。第1正解データDL13、すなわち、アイテムを登場させるための仕様は、ゲームによって異なる。したがって、第1正解データDL13は、ゲーム内にアイテムを登場させるのに要する項目を含むデータである。 The first correct answer data DL13 is data that indicates the items to be featured in the game. Specifically, the first correct answer data DL13 is specifications such as the item's appearance, name, effect when used, etc. The first correct answer data DL13, i.e., the specifications for making an item appear, differs depending on the game. Therefore, the first correct answer data DL13 is data that includes items required for an item to appear in the game.

以上のような学習を行うと、第1学習モデルA11は、ストーリ、及び、プロフィール等から、どのようなアイテムを生成するのかの相関関係を学習する。上記の通り、アイテムを生成する上で、ストーリ以外に、補助データとして、プロフィール、及び、画像等を入力すると、アイテムの生成に補助データの情報が考慮される。 By carrying out the above-mentioned learning, the first learning model A11 learns the correlation of what kind of item to generate from the story, profile, etc. As described above, when generating an item, if a profile, image, etc. are input as auxiliary data in addition to the story, the information in the auxiliary data is taken into consideration when generating the item.

[第2学習データ、キーワード、ログデータ、及び、第2正解データの例]
図8は、RPGにおける第2学習モデルの学習処理の例を示す図である。例えば、第2学習モデルA12を学習させるのに、以下のようなデータを学習に用いる。
[Examples of second learning data, keywords, log data, and second correct answer data]
8 is a diagram showing an example of a learning process of the second learning model in the RPG. For example, the following data is used for learning the second learning model A12.

ログデータDL12は、例えば、第1学習モデルA11、すなわち、図7に示す学習処理と同様である。ただし、ログデータDL12は、第1学習モデルA11の学習処理とはデータの内容が異なる、又は、データ量が異なるようにしてもよい。 The log data DL12 is, for example, similar to the first learning model A11, i.e., the learning process shown in FIG. 7. However, the log data DL12 may have different data content or a different amount of data from the learning process of the first learning model A11.

キーワードDL21は、ストーリデータDL11を生成するのに参考にされる単語、又は、文章である。例えば、キーワードDL21は、ゲーム内要素の意味、ゲーム内要素の特徴、キャラクタにおきる出来事、ストーリに登場させたい要素、又は、ストーリの要点等である。 Keywords DL21 are words or sentences that are used as references when generating story data DL11. For example, keywords DL21 are the meanings of in-game elements, characteristics of in-game elements, events that occur to characters, elements that are desired to appear in the story, or key points of the story.

ストーリデータDL11は、例えば、ストーリを文章で示すテキストデータである。すなわち、ストーリデータDL11は、図7に示す学習処理と同様である。 The story data DL11 is, for example, text data that shows the story in sentences. In other words, the story data DL11 is similar to the learning process shown in FIG. 7.

例えば、キーワードDL21が入力されると、キーワードDL21が含まれるストーリが生成されるように、第2学習モデルA12は学習する。なお、キーワードDL21がストーリデータDL11に直接含まれなくともよく、キーワードDL21は、ストーリにおいて間接的に表現されてもよい。 For example, when keyword DL21 is input, the second learning model A12 learns to generate a story that includes keyword DL21. Note that keyword DL21 does not have to be directly included in story data DL11, and keyword DL21 may be indirectly expressed in the story.

また、ログデータDL12も踏まえてストーリが生成される。例えば、プロフィールデータDL122における「性別」、又は、「出身」等のプロフィールにおけるパラメータが異なると、パラメータによってアイテムの効果、仕様、種類、名称、又は、登場の仕方等が変化するようにストーリデータDL11が生成される。 The story is also generated based on the log data DL12. For example, if the parameters in the profile, such as "gender" or "origin" in the profile data DL122, are different, the story data DL11 is generated so that the effect, specifications, type, name, or appearance of the item changes depending on the parameter.

以上のような学習を行うと、第2学習モデルA12は、キーワードDL21、及び、プロフィール等から、どのようなストーリを生成するのかの相関関係を学習する。上記の通り、ストーリを生成する上で、プロフィールデータDL122以外に、補助データとして、周辺情報、及び、画像等を入力すると、ストーリの生成に補助データの情報が考慮される。 By carrying out the above-mentioned learning, the second learning model A12 learns the correlation of what kind of story to generate from the keywords DL21 and the profile, etc. As described above, when generating a story, if peripheral information, images, etc. are input as auxiliary data in addition to the profile data DL122, the information in the auxiliary data is taken into consideration when generating the story.

なお、ストーリの生成は、AI以外の構成で実現してもよい。例えば、「性別」又は「年齢」等によって登場させたいアイテムの種類等を固定する場合には、プロフィールデータDL122から、AIを経ずに、固定する条件(例えば、アイテムの種類等である。)を第1学習済みモデルA21に入力する構成(例えば、補助データで入力される。)でもよい。このように、固定した条件が入力できると、登場させるアイテムは、一定のプロフィールでは、これに対応した特定の条件下でアイテムが登場するようにできる。 It should be noted that story generation may be achieved by a configuration other than AI. For example, when fixing the type of item to be featured based on "gender" or "age" or the like, the fixing conditions (e.g., type of item) may be input from the profile data DL122 to the first trained model A21 (e.g., input as auxiliary data) without going through AI. In this way, when fixed conditions can be input, the items to be featured can be made to appear under specific conditions corresponding to these in a certain profile.

具体的には、「職業」が特定の職種である場合には、必ず「武器」のアイテムになり、一方で、別の職種であれば、必ず「防具」のアイテムになる等の条件がつけられる。 Specifically, if the "occupation" is a specific job type, the item will always be a "weapon" item, and on the other hand, if the job type is different, the item will always be an "armor" item.

[RPGにおける実行処理の例]
図9は、RPGにおける実行処理の例を示す図である。図7、及び、図8に示すような学習処理により、学習済みモデルA2が生成された後、以下のように実行処理が実行される。
[Example of execution process in RPG]
9 is a diagram showing an example of an execution process in an RPG. After a trained model A2 is generated by the learning process shown in FIG. 7 and FIG. 8, the execution process is executed as follows.

第2未知データDU2、すなわち、未知ログデータDU11、及び、未知キーワードDU21は、データが入力される時点では正解が不明である。そして、実行処理では、第2学習済みモデルA22は、学習した、キーワードDL21及びログデータDL12の組み合わせと、第2正解データDL22の相関関係に基づき、未知ログデータDU11、及び、未知キーワードDU21の組み合わせを踏まえて、未知ストーリデータDU12を生成する。そして、未知ストーリデータDU12は、第2学習済みモデルA22によって生成された後、第1学習済みモデルA21に入力される。 The second unknown data DU2, i.e., the unknown log data DU11 and the unknown keyword DU21, are unknown at the time the data is input. In the execution process, the second trained model A22 generates unknown story data DU12 based on the correlation between the learned combination of the keyword DL21 and the log data DL12 and the second correct answer data DL22, and taking into account the combination of the unknown log data DU11 and the unknown keyword DU21. After being generated by the second trained model A22, the unknown story data DU12 is input to the first trained model A21.

なお、未知ストーリデータDU12は、生成された後、第1学習済みモデルA21に入力される前に、管理者5等がストーリを編集してもよい。 In addition, after the unknown story data DU12 is generated, the administrator 5 or the like may edit the story before it is input to the first trained model A21.

次に、第1学習済みモデルA21に、未知ログデータDU11、及び、未知ストーリデータDU12が第1未知データDU1として入力される。第1未知データDU1、すなわち、未知ログデータDU11、及び、未知ストーリデータDU12の組み合わせは、データが入力される時点では正解が不明である。 Next, unknown log data DU11 and unknown story data DU12 are input as first unknown data DU1 to the first trained model A21. The correct answer for the first unknown data DU1, i.e., the combination of unknown log data DU11 and unknown story data DU12, is unknown at the time the data is input.

そして、実行処理では、第1学習済みモデルA21は、学習した、ストーリデータDL11及びログデータDL12の組み合わせと、第1正解データDL13の相関関係に基づき、未知ログデータDU11、及び、未知ストーリデータDU12の組み合わせを踏まえて、出力データD3を生成する。 Then, in the execution process, the first trained model A21 generates output data D3 based on the trained combination of story data DL11 and log data DL12 and the correlation between the first correct answer data DL13, taking into account the combination of unknown log data DU11 and unknown story data DU12.

そして、出力データD3が生成されると、以降、出力データD3に基づき生成したアイテムが登場するゲームがプレイできる。例えば、ゲームは、ユーザ端末20等でプレイできる。 When the output data D3 is generated, a game featuring the item generated based on the output data D3 can be played. For example, the game can be played on a user terminal 20, etc.

[全体処理例]
図10は、全体処理例を示す図である。以下の例では、全体処理は、事前処理と実行処理を連続して行う。具体的には、ステップS11乃至ステップS14が学習処理である。また、ステップS21乃至ステップS24が実行処理である。ただし、全体処理には、これら以外の処理が含まれてもよい。
[Overall processing example]
10 is a diagram showing an example of the overall process. In the following example, the overall process is a sequence of a pre-process and an execution process. Specifically, steps S11 to S14 are the learning process. Steps S21 to S24 are the execution process. However, the overall process may include other processes.

以下、ステップS11とステップS12、及び、ステップS13とステップS14、すなわち、第1学習モデルA11の学習処理と第2学習モデルA12の学習処理は、並列で行うとする。ただし、これらの学習処理は、並列でなく、前後して行われてもよい。例えば、第2学習モデルA12を先に学習して、第2学習済みモデルA22とした後、第2学習済みモデルA22を用いて第1学習モデルA11の学習処理を実行するといった順序でもよい。 In the following, steps S11 and S12, and steps S13 and S14, i.e., the learning process of the first learning model A11 and the learning process of the second learning model A12, are performed in parallel. However, these learning processes may be performed one after the other, rather than in parallel. For example, the second learning model A12 may be trained first to become the second trained model A22, and then the learning process of the first learning model A11 may be performed using the second trained model A22.

ステップS11では、サーバ11は、第1学習データDL1を入力する。 In step S11, the server 11 inputs the first learning data DL1.

ステップS12では、サーバ11は、第1学習データDL1を入力して、第1学習モデルA11を学習させて第1学習済みモデルA21を生成する。 In step S12, the server 11 inputs the first learning data DL1 and trains the first learning model A11 to generate the first trained model A21.

ステップS13では、サーバ11は、第2学習データDL2を入力する。 In step S13, the server 11 inputs the second learning data DL2.

ステップS14では、サーバ11は、第2学習データDL2を入力して、第2学習モデルA12を学習させて第2学習済みモデルA22を生成する。 In step S14, the server 11 inputs the second learning data DL2 and trains the second learning model A12 to generate the second trained model A22.

ステップS11乃至ステップS14を行うと、図7、及び、図8に示す学習処理となる。以上のように、ある程度学習処理を行うと、学習モデルA1が学習して学習済みモデルA2となる。次に、学習処理によって生成された学習済みモデルA2を用いて以下のように実行処理が行われる。 When steps S11 to S14 are performed, the learning process shown in FIG. 7 and FIG. 8 is performed. As described above, when the learning process is performed to a certain extent, the learning model A1 learns and becomes the trained model A2. Next, the execution process is performed as follows using the trained model A2 generated by the learning process.

ステップS21では、サーバ11は、第2未知データDU2を第2学習済みモデルA22に入力する。 In step S21, the server 11 inputs the second unknown data DU2 into the second trained model A22.

ステップS22では、サーバ11は、第2学習済みモデルA22を用いて未知ストーリデータDU12を生成する。 In step S22, the server 11 generates unknown story data DU12 using the second trained model A22.

ステップS23では、サーバ11は、第1学習済みモデルA21を用いて出力データD3を生成する。以降、サーバ11は、出力データD3に基づき、ゲームをユーザ端末20に提供する。 In step S23, the server 11 generates output data D3 using the first trained model A21. Thereafter, the server 11 provides the game to the user terminal 20 based on the output data D3.

ステップS24では、サーバ11は、出力データD3に基づき、ゲーム内要素が登場するようにゲームを進行させる。 In step S24, the server 11 progresses the game so that in-game elements appear based on the output data D3.

[機能構成例]
図11は、機能構成例を示す図である。例えば、システム1は、学習装置61、及び、実行装置62を備える生成AIシステムである。
[Functional configuration example]
11 is a diagram illustrating an example of a functional configuration. For example, the system 1 is a generative AI system including a learning device 61 and an execution device 62.

学習装置61は、ストーリデータ生成手段1F11、第1学習データ入力手段1F12、及び、学習手段1F13を備える。 The learning device 61 includes a story data generation means 1F11, a first learning data input means 1F12, and a learning means 1F13.

ストーリデータ生成手段1F11は、キーワードDL21、及び、ログデータDL12が入力されると、ストーリデータDL11を生成するストーリデータ生成手順を行う。例えば、ストーリデータ生成手段1F11は、ストーリ生成器12等で実現する。 When the keyword DL21 and the log data DL12 are input, the story data generation means 1F11 performs a story data generation procedure to generate the story data DL11. For example, the story data generation means 1F11 is realized by a story generator 12, etc.

第1学習データ入力手段1F12は、ストーリデータDL11、ログデータDL12、及び、第1正解データDL13を含む第1学習データDL1を入力する第1学習データ入力手順を行う。例えば、第1学習データ入力手段1F12は、通信インタフェース115等で実現する。 The first learning data input means 1F12 performs a first learning data input procedure to input the first learning data DL1 including the story data DL11, the log data DL12, and the first correct answer data DL13. For example, the first learning data input means 1F12 is realized by the communication interface 115, etc.

学習手段1F13は、第1学習データDL1を用いて第1学習モデルA11を学習させて、第1学習済みモデルA21を生成する学習手順を行う。例えば、学習手段1F13は、プロセッサ111等で実現する。 The learning means 1F13 performs a learning procedure in which the first learning model A11 is trained using the first learning data DL1 to generate the first trained model A21. For example, the learning means 1F13 is realized by the processor 111, etc.

実行装置62は、未知ストーリデータ生成手段1F21、第1未知データ入力手段1F22、実行手段1F23、及び、進行手段1F24を備える。未知ストーリデータ生成手段1F21は、第1生成手段の例である。また、実行手段1F23は、第2生成手段、及び、出力データ生成手段の例である。 The execution device 62 includes an unknown story data generation means 1F21, a first unknown data input means 1F22, an execution means 1F23, and a progress means 1F24. The unknown story data generation means 1F21 is an example of a first generation means. The execution means 1F23 is an example of a second generation means and an output data generation means.

未知ストーリデータ生成手段1F21は、未知キーワードDU21、及び、未知ログデータDU11が入力されると、未知ストーリデータDU12を生成する未知ストーリデータ生成手順を行う。例えば、未知ストーリデータ生成手段1F21は、ストーリ生成器12等で実現する。 When unknown keywords DU21 and unknown log data DU11 are input, the unknown story data generating means 1F21 performs an unknown story data generating procedure to generate unknown story data DU12. For example, the unknown story data generating means 1F21 is realized by a story generator 12 or the like.

第1未知データ入力手段1F22は、未知ストーリデータDU12、及び、未知ログデータDU11を含む第1未知データDU1を入力する第1未知データ入力手順を行う。例えば、第1未知データ入力手段1F22は、通信インタフェース115等で実現する。 The first unknown data input means 1F22 performs a first unknown data input procedure for inputting the first unknown data DU1 including the unknown story data DU12 and the unknown log data DU11. For example, the first unknown data input means 1F22 is realized by the communication interface 115 or the like.

実行手段1F23は、第1学習済みモデルA21を用いて、出力データD3を生成する実行手順を行う。例えば、実行手段1F23は、プロセッサ111等で実現する。 The execution means 1F23 performs an execution procedure to generate output data D3 using the first trained model A21. For example, the execution means 1F23 is realized by the processor 111, etc.

進行手段1F24は、出力データD3に基づき、ユーザ端末20でゲームを進行させる進行手順を行う。例えば、進行手段1F24は、プロセッサ111等で実現する。 The progression means 1F24 performs a progression procedure for progressing the game on the user terminal 20 based on the output data D3. For example, the progression means 1F24 is realized by the processor 111, etc.

学習装置61、及び、実行装置62は、例えば、サーバ11である。このように、学習装置61、及び、実行装置62は、1台の情報処理装置が兼ねてもよい。ただし、学習装置61、及び、実行装置62は、異なる情報処理装置でもよい。 The learning device 61 and the execution device 62 are, for example, the server 11. In this way, the learning device 61 and the execution device 62 may be a single information processing device. However, the learning device 61 and the execution device 62 may be different information processing devices.

以上のような構成であると、ストーリの素となるキーワード、及び、ストーリを生成する上で周辺の設定等を示すログデータ等が入力されると、キャラクタ等に合わせたストーリが生成される。そして、ストーリ、及び、周辺の設定等に応じたアイテム等のゲーム内要素が生成される。具体的には、ストーリが生成され、ストーリに登場するアイテムが、実際にゲーム内で登場するようにできる。このようにゲームに登場させるゲーム内要素をキャラクタ等の様々な要因に応じて異なるように揃える場合でも、ストーリに合わせてアイテムが生成されるため、ゲームで扱うゲーム内要素に関する設定作業の負荷を軽減させることができる。 With the above configuration, when keywords that are the basis of the story and log data indicating the surrounding settings for generating the story are input, a story is generated that matches the characters, etc. Then, in-game elements such as items are generated that correspond to the story and the surrounding settings, etc. Specifically, a story is generated, and items that appear in the story can be made to actually appear in the game. In this way, even if the in-game elements that appear in the game are arranged differently depending on various factors such as the characters, since items are generated to match the story, the load of the setting work related to the in-game elements handled in the game can be reduced.

また、アイテムは、キャラクタのプロフィール等に応じて生成されるため、オリジナリティのあるアイテムとなる。例えば、繰り返しゲームをする場合、又は、プレイヤが異なる場合等には、プレイごとに異なるストーリ、及び、アイテムが生成できる。 In addition, items are generated based on the character's profile, making them unique items. For example, if the game is played repeatedly or by different players, different stories and items can be generated for each playthrough.

また、事前にアイテムを用意する方法と比較して、アイテムの種類を豊富にすることができる。ストーリ、又は、プロフィール等が変われば、アイテムも変化するため、ゲームを繰り返しプレイする等の場合でも、ユーザ4がゲームに飽きないようにできる。このようにして、ユーザ4に対して魅力的なゲームが提供できる。 Furthermore, compared to a method in which items are prepared in advance, a wider variety of items can be provided. If the story or profile, etc., changes, the items also change, so even if user 4 plays the game repeatedly, user 4 will not get bored of the game. In this way, an attractive game can be provided to user 4.

[変形例]
なお、ゲームの種類は、ノベルゲームに限られない。例えば、ゲームの種類は、RPG、スポーツ、アクション、パズル、又は、格闘等を含むゲームでもよい。更に、上記のゲームでなくともよい。
[Modification]
The type of game is not limited to a novel game. For example, the type of game may be a game including RPG, sports, action, puzzle, or fighting. Furthermore, the game may not be one of the above games.

例えば、ゲーム内要素は、キャラクタ等でもよい。したがって、ゲーム内に登場するキャラクタ等がストーリ、又は、プロフィール等に応じて変更されてもよい。 For example, the in-game element may be a character, etc. Therefore, the characters that appear in the game may change depending on the story, profile, etc.

上記の説明では、未知ストーリデータDU12を第2学習済みモデルA22が生成する構成で説明したが、実施形態は、これに限られない。例えば、未知ストーリデータDU12は、管理者5等がテキストを入力する操作をしてストーリを示す文章を作成(AIが生成したストーリをベースに改良するものを含む。)して、第1学習済みモデルA21に入力してもよい。 In the above description, the unknown story data DU12 is generated by the second trained model A22, but the embodiment is not limited to this. For example, the unknown story data DU12 may be input to the first trained model A21 by an administrator 5 or the like inputting text to create a sentence indicating a story (including a story that is improved based on a story generated by AI).

したがって、ストーリ生成器12は、AIを用いる構成に限られず、管理者5等がテキストを編集する操作を支援するプログラムを実行する装置等でもよい。 Therefore, the story generator 12 is not limited to a configuration using AI, but may be a device that executes a program to assist the administrator 5 or the like in editing text.

なお、ストーリ生成器12は、サーバ11等が兼ねてもよいし、サーバ11等とは別の情報処理装置でもよい。 The story generator 12 may be the same as the server 11, or may be an information processing device separate from the server 11.

[その他の実施形態]
上記の例では、情報処理装置は、学習モデルに対する事前処理、及び、学習済みモデルを用いて実行処理の両方を行う。ただし、事前処理、及び、実行処理は、同じの情報処理装置が行わなくともよい。また、事前処理、及び、実行処理も、1つの情報処理装置で一貫して実行しなくともよい。すなわち、各処理、及び、データの記憶等は、複数の情報処理装置で構成する情報システム等で行ってもよい。
[Other embodiments]
In the above example, the information processing device performs both pre-processing for the learning model and execution processing using the learned model. However, the pre-processing and execution processing do not have to be performed by the same information processing device. In addition, the pre-processing and execution processing do not have to be consistently performed by one information processing device. In other words, each process and data storage, etc. may be performed by an information system, etc., composed of multiple information processing devices.

なお、学習処理は、実行処理の後、又は、実行処理の前に追加して更に行われてもよい。 The learning process may be additionally performed after the execution process or before the execution process.

上記のような処理は、サーバ11、及び、ユーザ端末20以外の情報処理装置が補助的に行ってもよい。 The above-mentioned processing may be performed auxiliary by an information processing device other than the server 11 and the user terminal 20.

図12は、補助装置を用いる構成例を示す図である。図1に示す例と比較すると、図12に示す構成は、補助装置60が加わる点が異なる。なお、補助装置60は、一時的に用いる構成でもよい。 Figure 12 is a diagram showing an example of a configuration using an auxiliary device. Compared to the example shown in Figure 1, the configuration shown in Figure 12 differs in that an auxiliary device 60 is added. Note that the auxiliary device 60 may be a configuration that is used temporarily.

補助装置60は、ユーザ端末20(この例では、ユーザ端末20A付近に設置しているが、他の装置近くにあってもよい。)等の近くに設置される情報処理装置である。そして、補助装置60は、特定の処理をユーザ端末20、又は、サーバ11に代わって一部又は全部を実行する。 The auxiliary device 60 is an information processing device that is installed near the user terminal 20 (in this example, it is installed near the user terminal 20A, but it may be installed near another device). The auxiliary device 60 then executes a specific process in part or in whole on behalf of the user terminal 20 or the server 11.

例えば、補助装置60は、グラフィック処理に特化したデバイスを備えて、グラフィック処理を高速で行う。このように、補助装置60等を設置して、所謂エッジコンピューティング(Edge Computing)等が行われてもよい。このように、前述する処理は、様々な情報処理装置のハードウェアリソースを活用して実行されてもよい。したがって、前述する処理は、前述したのとは異なる情報処理装置が実行してもよい。 For example, the auxiliary device 60 is equipped with a device specialized for graphic processing and performs graphic processing at high speed. In this way, so-called edge computing may be performed by installing the auxiliary device 60 or the like. In this way, the above-mentioned processing may be executed by utilizing the hardware resources of various information processing devices. Therefore, the above-mentioned processing may be executed by an information processing device different from the one described above.

前述の処理、及び、本実施形態で実行される処理に用いるデータは、情報処理システムによって実行、及び、記憶されてもよい。例えば、情報処理システムは、処理又は記憶を冗長、分散、並列、又は、これらの組み合わせを実現するため、複数の情報処理装置で実行又は記憶してもよい。したがって、本発明は、前述に示すハードウェア構成以外の装置、及び、前述に示す装置以外のシステムで実現されてもよい。 The above-described processes and the data used in the processes executed in this embodiment may be executed and stored by an information processing system. For example, the information processing system may execute or store the processes or storage in a redundant, distributed, parallel, or combination thereof manner in multiple information processing devices. Therefore, the present invention may be realized in devices other than the hardware configurations shown above and in systems other than the devices shown above.

また、本発明に係るプログラムは、単一のプログラムに限定されず、複数のプログラムの集合体でもよい。また、本発明に係るプログラムは、単一の装置で実行されるものに限定されず、複数の情報処理装置で分担して実行されてもよい。更に、各情報処理装置の役割分担は、前述の例に限定されない。すなわち、前述した処理の一部、又は、全部が前述した情報処理装置とは異なる情報処理装置が実行してもよい。 The program according to the present invention is not limited to a single program, but may be a collection of multiple programs. The program according to the present invention is not limited to being executed by a single device, but may be shared and executed by multiple information processing devices. Furthermore, the division of roles among the information processing devices is not limited to the above example. In other words, some or all of the above-mentioned processes may be executed by an information processing device different from the above-mentioned information processing device.

更に、プログラムによって実現される各手段の一部、又は、全部は、集積回路等のハードウェアで実現することもできる。更に、プログラムは、コンピュータによって読み出し可能な非一過性の記録媒体に記録されて提供されてもよい。記録媒体とは、例えば、ハードディスク、SDカード(登録商標)、DVD等の光学ディスク、又は、インターネット上のサーバ等を指す。したがって、プログラムは、インターネット等の電気通信回線を介して配信されでもよい。 Furthermore, a part or all of the means realized by the program can be realized by hardware such as an integrated circuit. Furthermore, the program may be provided by being recorded on a non-transitory recording medium that can be read by a computer. A recording medium refers to, for example, a hard disk, an SD card (registered trademark), an optical disk such as a DVD, or a server on the Internet. Therefore, the program may be distributed via a telecommunications line such as the Internet.

また、情報処理システムを構成する情報処理装置等は、海外にあってもよい。すなわち、情報処理システムが実行する処理のうち、一部の処理を実行する情報処理装置が海外にあってもよい。 In addition, the information processing devices that make up the information processing system may be located overseas. In other words, the information processing devices that perform some of the processes performed by the information processing system may be located overseas.

なお、本発明は、前述に例示する各実施形態に限定されない。したがって、本発明は、技術的な要旨を逸脱しない範囲で、構成要素の追加、又は、変形が可能である。ゆえに、特許請求の範囲に記載された技術思想に含まれる技術的事項のすべてが本発明の対象となる。なお、前述に例示する実施形態は、実施において好適な具体例である。そして、当業者であれば、開示した内容から様々な変形例を実現で可能であって、このような変形例は、特許請求の範囲に記載された技術的範囲に含まれる。 The present invention is not limited to the above-mentioned embodiments. Therefore, the present invention can be modified or have additional components added without departing from the technical gist of the invention. Therefore, all technical matters included in the technical ideas described in the claims are covered by the present invention. The above-mentioned embodiments are preferred examples. Furthermore, a person skilled in the art can realize various modifications from the disclosed contents, and such modifications are included in the technical scope described in the claims.

1 :システム
1F11 :ストーリデータ生成手段
1F12 :第1学習データ入力手段
1F13 :学習手段
1F21 :未知ストーリデータ生成手段
1F22 :第1未知データ入力手段
1F23 :実行手段
1F24 :進行手段
4 :ユーザ
5 :管理者
11 :サーバ
12 :ストーリ生成器
20 :ユーザ端末
60 :補助装置
61 :学習装置
62 :実行装置
A1 :学習モデル
A11 :第1学習モデル
A12 :第2学習モデル
A2 :学習済みモデル
A21 :第1学習済みモデル
A22 :第2学習済みモデル
D1 :第1未知データ
D2 :第2未知データ
D3 :出力データ
D4 :ビッグデータ
DL1 :第1学習データ
DL11 :ストーリデータ
DL12 :ログデータ
DL121 :画像データ
DL122 :プロフィールデータ
DL13 :第1正解データ
DL2 :第2学習データ
DL21 :キーワード
DL22 :第2正解データ
DU1 :第1未知データ
DU11 :未知ログデータ
DU12 :未知ストーリデータ
DU2 :第2未知データ
DU21 :未知キーワード
1: System 1F11: Story data generation means 1F12: First learning data input means 1F13: Learning means 1F21: Unknown story data generation means 1F22: First unknown data input means 1F23: Execution means 1F24: Progression means 4: User 5: Administrator 11: Server 12: Story generator 20: User terminal 60: Auxiliary device 61: Learning device 62: Execution device A1: Learning model A11: First learning model A12: Second learning model A2: Trained model A21: First trained model A22: Second trained model D1: First unknown data D2: Second unknown data D3: Output data D4: Big data DL1: First learning data DL11: Story data DL12: Log data DL121: Image data DL122: Profile data DL13 : First correct answer data DL2 : Second learning data DL21 : Keyword DL22 : Second correct answer data DU1 : First unknown data DU11 : Unknown log data DU12 : Unknown story data DU2 : Second unknown data DU21 : Unknown keyword

Claims (4)

コンピュータを、
ゲームに関する未知キーワード、及び、前記ゲームのプレイに関する未知ログデータが入力されると、ゲーム内要素を含む前記ゲームのストーリに関する未知ストーリデータを生成する第1生成手段と、
ストーリデータ、及び、ログデータを含む第1学習データを用いて学習した第1学習済みモデルに対し、前記未知ストーリデータ、及び、前記未知ログデータを含む未知データを入力する入力手段と、
前記未知データが入力されると、前記未知データに基づき、前記ゲーム内要素に関する出力データを生成する第2生成手段と、
前記出力データに基づき、前記ゲーム内要素が登場する前記ゲームを進行させる進行手段として機能させるプログラム。
Computer,
a first generating means for generating unknown story data relating to a story of the game including an in-game element when unknown keywords relating to a game and unknown log data relating to a play of the game are input;
an input means for inputting unknown data including unknown story data and unknown log data to a first trained model trained using first training data including story data and log data;
a second generation means for generating output data relating to the in-game element based on the unknown data when the unknown data is input;
A program that functions as a progression means for progressing the game in which the in-game element appears based on the output data.
前記未知ログデータは、
前記ゲームにおける出力画面の画像データ、又は、前記ゲームにおいて登場するキャラクタ、若しくは、ユーザのプロフィールに関するプロフィールデータを含む
請求項1に記載のプログラム。
The unknown log data is
2. The program according to claim 1, further comprising image data of an output screen in the game, or profile data relating to a character appearing in the game, or a user's profile.
前記第1生成手段は、
前記ゲームに関するキーワード、前記ログデータ、及び、前記ゲームのストーリに関する第1正解データを含む第2学習データを用いて第2学習モデルを学習させた第2学習済みモデルを用い、
前記第2学習済みモデルは、
前記未知ログデータ、及び、前記未知キーワードが入力されると、前記ストーリデータを生成するように学習した生成AIである
請求項1に記載のプログラム。
The first generating means is
using a second trained model obtained by training a second learning model using second learning data including keywords related to the game, the log data, and first correct answer data related to a story of the game;
The second trained model is
2. The program according to claim 1, which is a generation AI that is trained to generate the story data when the unknown log data and the unknown keyword are input.
ゲームに関するキーワード、及び、前記ゲームのプレイに関するログデータが入力されると、ゲーム内要素を含む前記ゲームのストーリに関するストーリデータを生成するストーリデータ生成手段と、
前記ストーリデータ、及び、前記ログデータを含む第1学習データを入力する第1学習データ入力手段と、
前記第1学習データを用いて、第1学習モデルを学習させて第1学習済みモデルを生成する学習手段と、
前記ゲームに関する未知キーワード、及び、前記ゲームのプレイに関する未知ログデータが入力されると、前記ゲーム内要素を含む前記ゲームのストーリに関する未知ストーリデータを生成する未知ストーリデータ生成手段と、
前記第1学習済みモデルに対し、前記未知ストーリデータ、及び、前記未知ログデータを含む未知データを入力する未知データ入力手段と、
前記未知データが入力されると、前記未知データに基づき、前記ゲーム内要素に関する出力データを生成する出力データ生成手段と、
前記出力データに基づき、前記ゲーム内要素が登場する前記ゲームを進行させる進行手段とを備えるシステム。
a story data generating means for generating story data relating to a story of the game including in-game elements when a keyword relating to the game and log data relating to play of the game are input;
a first learning data input means for inputting first learning data including the story data and the log data;
A learning means for learning a first learning model using the first learning data to generate a first trained model;
an unknown story data generating means for generating unknown story data regarding a story of the game including the in-game elements when unknown keywords related to the game and unknown log data related to play of the game are input;
an unknown data input means for inputting unknown data including the unknown story data and the unknown log data to the first trained model;
an output data generating means for generating output data relating to the in-game element based on the unknown data when the unknown data is input;
and a progression means for progressing the game in which the in-game element appears based on the output data.
JP2023187205A 2023-10-31 2023-10-31 Program and system Active JP7493664B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023187205A JP7493664B1 (en) 2023-10-31 2023-10-31 Program and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023187205A JP7493664B1 (en) 2023-10-31 2023-10-31 Program and system

Publications (1)

Publication Number Publication Date
JP7493664B1 true JP7493664B1 (en) 2024-05-31

Family

ID=91227025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023187205A Active JP7493664B1 (en) 2023-10-31 2023-10-31 Program and system

Country Status (1)

Country Link
JP (1) JP7493664B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069377A (en) 2018-10-26 2020-05-07 株式会社鈴康 Information processing method, information processing device, and computer program
JP2020166528A (en) 2019-03-29 2020-10-08 株式会社コーエーテクモゲームス Game operation learning program, game program, game play program, and game operation learning method
JP2021534931A (en) 2018-11-05 2021-12-16 ソニー・インタラクティブエンタテインメント エルエルシー Training of artificial intelligence (AI) model using cloud gaming network
JP2023508058A (en) 2019-12-23 2023-02-28 ス イ、サン Item production service provision system for creating artificial intelligence-based dynamic game environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069377A (en) 2018-10-26 2020-05-07 株式会社鈴康 Information processing method, information processing device, and computer program
JP2021534931A (en) 2018-11-05 2021-12-16 ソニー・インタラクティブエンタテインメント エルエルシー Training of artificial intelligence (AI) model using cloud gaming network
JP2020166528A (en) 2019-03-29 2020-10-08 株式会社コーエーテクモゲームス Game operation learning program, game program, game play program, and game operation learning method
JP2023508058A (en) 2019-12-23 2023-02-28 ス イ、サン Item production service provision system for creating artificial intelligence-based dynamic game environment

Similar Documents

Publication Publication Date Title
CN108888958B (en) Virtual object control method, device, equipment and storage medium in virtual scene
KR102190684B1 (en) Interactive voice-controlled companion application for a video game
Ouellette Playing with the guys: Masculinity and relationships in video games
WO2021049254A1 (en) Information processing method, information processing device, and program
JP2021037060A (en) System, method, and program for providing predetermined game, and method for creating classification of decks
JP7493664B1 (en) Program and system
CN114618157A (en) Data compensation method and device in game, electronic equipment and storage medium
Villareale et al. iNNk: A multi-player game to deceive a neural network
Cowley et al. Adaptive artificial intelligence in games: issues, requirements, and a solution through behavlets-based general player modelling
JP7565764B2 (en) Game program, recording medium, game processing method, and information processing device
CN113509724B (en) Recording medium, information processing apparatus and method
Junius et al. Playing with the strings: designing puppitor as an acting interface for digital games
JP2019177084A (en) Server system and game system
JP7530496B1 (en) program
JP7519518B1 (en) Program and system
US20240325924A1 (en) Game development via generative ai
Treanor et al. Playable experiences at AIIDE 2017
JP7155447B2 (en) A method for generating a trained model for predicting the action selected by the user, etc.
WO2022224932A1 (en) Method for generating trained model for predicting action to be selected by user
Salge et al. Applications of Artificial Intelligence in Live Action Role-Playing Games (LARP)
WO2022158512A1 (en) Method for generating trained model for predicting action to be selected by user
KR20210032838A (en) Game apparatus and method using emotion
JP7158771B1 (en) Systems, methods and programs for supporting competitive betting
Nananukul et al. What if Red can talk? Dynamic dialogue generation using large language models
US20240367056A1 (en) Game player model use provision apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240306

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240521

R150 Certificate of patent or registration of utility model

Ref document number: 7493664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150