Nothing Special   »   [go: up one dir, main page]

JP2020149196A - パーソナリティ予測装置、および学習データ収集装置 - Google Patents

パーソナリティ予測装置、および学習データ収集装置 Download PDF

Info

Publication number
JP2020149196A
JP2020149196A JP2019044659A JP2019044659A JP2020149196A JP 2020149196 A JP2020149196 A JP 2020149196A JP 2019044659 A JP2019044659 A JP 2019044659A JP 2019044659 A JP2019044659 A JP 2019044659A JP 2020149196 A JP2020149196 A JP 2020149196A
Authority
JP
Japan
Prior art keywords
personality
learning
model
value
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019044659A
Other languages
English (en)
Inventor
雅彦 春野
Masahiko Haruno
雅彦 春野
数馬 森
Kazuma Mori
数馬 森
秀紀 柏岡
Hidenori Kashioka
秀紀 柏岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2019044659A priority Critical patent/JP2020149196A/ja
Publication of JP2020149196A publication Critical patent/JP2020149196A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】広域ネットワークを介して取得可能なデータを用いたパーソナリティ予測を詳細化する。【解決手段】本発明に係るパーソナリティ予測装置は、記憶部と、制御部とを備える。記憶部には、説明変数を目的変数に対応させる少なくとも1つのモデルRM1〜RMTが保存されている。制御部は、説明変数を受けて、少なくとも1つのモデルRM1〜RMTを用いて目的変数を出力する。目的変数は、パーソナリティ値paを含む。説明変数は、広域ネットワークに接続された装置のユーザが当該装置に対して行った操作の種類と操作が行われた時刻情報とから得られる第1特徴量naを含む。【選択図】図8

Description

本発明は、広域ネットワークを介して取得可能なデータからパーソナリティを予測するパーソナリティ予測装置、およびパーソナリティの機械学習に必要な学習データを収集する学習データ収集装置に関する。
従来、広域ネットワークを介して取得可能なデータからパーソナリティを予測するパーソナリティ予測装置が知られている。たとえば、非特許文献1には、実験参加者がFacebook(登録商標)において行った「いいね」に関するデータをLASSO(Least Absolute Shrinkage and Selection Operator)線形回帰モデルを用いて機械学習し、開放性、外向性、誠実性、外向性、協調性、および神経症傾向の5つの観点からなるビッグファイブを当該実験参加者に関して判定する構成が開示されている。
Wu Youyoua, Michal Kosinskib, and David Stillwella, "Computer-based personality judgments are more accurate than those made by humans", Proceedings of the National Academy of Sciences (PNAS), 2015
個人のパーソナリティは、当該個人の様々な行動に反映される。SNS(Social Network Service)およびIoT(Internet of Things)機器の普及に伴い、個人のパーソナリティが反映されたデータを、広域ネットワークを介して収集し易くなる。個人がFacebookにおいて行った「いいね」に関するデータは、その一例に過ぎない。非特許文献1に開示されているパーソナリティ予測の構成には、さらなる詳細なパーソナリティ予測の実現に向けて改善の余地がある。
本発明は、上述のような課題を解決するためになされたものであり、その目的は、広域ネットワークを介して取得可能なデータを用いたパーソナリティ予測を詳細化することである。
本発明に係るパーソナリティ予測装置は、記憶部と、制御部とを備える。記憶部には、説明変数を目的変数に対応させる少なくとも1つのモデルが保存されている。制御部は、説明変数を受けて、少なくとも1つのモデルを用いて目的変数を出力する。目的変数は、パーソナリティ値を含む。説明変数は、広域ネットワークに接続された装置のユーザが当該装置に対して行った操作の種類と操作が行われた時刻情報とから得られる第1特徴量を含む。
本発明に係る学習データ収集装置は、モデルを機械学習によって生成するための学習データを、広域ネットワークを介して収集する。モデルの目的変数は、パーソナリティ値を含む。モデルの説明変数は、前記広域ネットワークに接続された装置のユーザが当該装置に対して行った操作の種類と前記操作が行われた時刻情報とから得られる特徴量を含む。前記学習データ収集装置は、制御部と、記憶部とを備える。前記制御部は、前記広域ネットワークに接続された端末装置のユーザにパーソナリティ診断テストを行って前記端末装置のユーザのパーソナリティの実測値を取得し、前記実測値と前記特徴量とを関連付けて学習データとして前記記憶部に保存する。
本発明に係るパーソナリティ予測装置および学習データ収集装置によれば、広域ネットワークに接続された装置のユーザが当該装置に対して行った操作の種類と操作が行われた時刻情報とから得られる特徴量を用いることにより、広域ネットワークを介して取得可能なデータを用いたパーソナリティ予測を詳細化することができる。
実施の形態に係るパーソナリティ予測装置がインターネットに接続されている様子を示す図である。 パーソナリティ診断テストの一例を示す図である。 ユーザのSNSにおける行動の時系列を示す図である。 単語ベクトルの一例を示す図である。 図1のパーソナリティ予測装置の機能ブロック図である。 図5の制御部によって行われる学習処理の概要を示す図である。 図6の各学習処理の流れを示すフローチャートである。 図5の制御部によって行われるパーソナリティ予測処理の概要を示す図である。 パーソナリティ予測装置による言語性IQの予測値と言語性IQの実測値との対応関係を示す図である。 インターネットにIoT機器が接続されている様子を示す図である。 図10の電子レンジ、洗濯機、およびテレビに対するユーザの操作の時系列を示す図である。
以下、実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は原則として繰り返さない。
図1は、実施の形態に係るパーソナリティ予測装置100がインターネット800(広域ネットワーク)に接続されている様子を示す図である。図1に示されるように、インターネット800には、パーソナリティ予測装置100、SNS(Social Network Service)サーバ200、デスクトップコンピュータ51(端末装置)、スマートフォン52(端末装置)、およびノート型パーソナルコンピュータ53(端末装置)が接続されている。ユーザSb1〜Sb3はそれぞれ、デスクトップコンピュータ51、スマートフォン52、およびノート型パーソナルコンピュータ53のユーザである。
パーソナリティ予測装置100は、学習データ収集装置を兼ねる。パーソナリティ予測装置と学習データ収集装置とは、別個の装置であっても構わない。パーソナリティ予測装置100は、ユーザSb1〜Sb3を含む複数の被験者から複数の学習データを収集する。パーソナリティ予測装置100は、インターネット800を介して、図2に示されるようなパーソナリティ診断テストをインターネット800に接続されている端末に送信する。デスクトップコンピュータ51、スマートフォン52(端末装置)、およびノート型パーソナルコンピュータ53の各々は、パーソナリティ予測装置100から受信したパーソナリティ診断テストを画面に表示する。ユーザSb1〜Sb3は、デスクトップコンピュータ51、スマートフォン52(端末装置)、およびノート型パーソナルコンピュータ53においてパーソナリティ診断テストの各項目に回答し、回答結果をパーソナリティ予測装置100に送信する。
パーソナリティ予測装置100は、パーソナリティ診断テストの回答結果を用いて被験者のパーソナリティを実測し、正規化されたパーソナリティ値として算出する。パーソナリティ診断テストの回答結果を用いて算出されたパーソナリティ値を、以下では実測値と呼ぶ。パーソナリティ値は、連続値でもよいし、分類値でもよい。パーソナリティ診断テストによって、「Positive or Negative personality」(たとえばBig5)、「Intelligence」(たとえばRaven IQ)、「Clinical personality」(たとえばPDI)、および「Socioeconomic」(たとえばリスク回避)の各カテゴリから選択された86種類のパーソナリティが実測される。
複数の被験者の各々は、SNSにアカウントを有する。パーソナリティ予測装置100は、SNSが公開するAPI(Application Programming Interface)を用いて、複数の被験者の各々について、SNSに投稿したテキスト情報、およびSNSにおける行動に関する情報を取得し、当該被験者のパーソナリティ値の実測値とともに学習データを作成する。SNSにおける行動に関する情報には、各被験者が行った行動(操作)の種類、および当該行動が行われた時刻情報が含まれる。なお、SNSとしては、たとえばFacebook(登録商標)、Twitter(登録商標)、Instagram(登録商標)、およびLINE(登録商標)を挙げることができる。
図3は、ユーザSb1のSNSにおける行動の時系列を示す図である。図3に示されるように、ユーザSb1は、時刻t1、t2およびt3においてスマートフォン60(端末装置)からSNSにおいて或る行動(たとえば「いいね」の選択、あるいは文章あるいは画像の投稿)をしている。複数の被験者の各々がインターネット800に接続された端末装置を介してSNSにおいて行った行動の種類および当該行動が行われた時刻情報から得られるネットワーク情報(第1特徴量)が、学習データに含まれる。当該ネットワーク情報には、各被験者の行動パターンを表す情報として、当該被験者がSNSにおいて活動する時間帯(たとえば早朝、昼、夕方、あるいは深夜)、およびSNSにおける行動の時間間隔(たとえば平均,ばらつき)が含まれる。
被験者の行動の順序には、当該被験者の行動パターンが顕著に反映される。パーソナリティ予測装置100においては、被験者がSNSにおいて行った行動の順序を当該行動の時刻情報から導出することができるため、行動の種類のみからパーソナリティを予測する場合よりも、より詳細なパーソナリティ予測を行うことができる。
パーソナリティ予測装置100は、SNSサーバから取得したテキスト情報に対して形態素解析を行って言語情報(第2特徴量)を抽出する。言語情報には、単語ベクトルが含まれる。図4には、「今日」、「は」、「暑い」、「日」、および「だった」という品詞を次元に含む単語ベクトルが示されている。単語ベクトルから算出される、各次元の語数の平均値、分散値、および単語ベクトルに含まれる感情語(ポジティブ語あるいはネガティブ語)の数も言語情報に含まれる。
単語ベクトルの各次元の用語は、被験者のパーソナリティに応じて差が生じやすい用語であることが望ましい。そのため、複数の被験者の全テキスト情報に現れる用語の回数が予め定められた範囲に含まれる用語が単語ベクトルの次元に含まれる用語として選択されることが望ましい。また、単語ベクトルの次元に含まれる用語は、名詞、形容詞、動詞、および副詞に限定されてもよいし、「今日は」、「暑い日」のようなバイグラムが用いられてもよい。
図5は、図1のパーソナリティ予測装置100の機能ブロック図である。図5に示されるように、パーソナリティ予測装置100は、記憶部101と、制御部102と、RAM(Random Access Memory)103と、ネットワークインターフェイス104と、表示部105とを含む。
記憶部101には、たとえばオペレーティングシステムのプログラム、パーソナリティ予測アプリケーションのプログラム、パーソナリティ学習プログラム、複数の学習データ、および複数のモデルが保存されている。複数のモデルの各々は、ネットワーク情報および言語情報を含む説明変数を、パーソナリティ値を含む説明変数に対応させる。記憶部101は、たとえば、ハードディスクあるいは外付けの記憶媒体である。
制御部102は、記憶部101に保存されている各種プログラムを実行することにより、パーソナリティ予測装置100の機能を実現する。制御部102は、CPU(Central Processing Unit)のようなコンピュータを含む。RAM103は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。制御部102は、ネットワークインターフェイス104を介して、インターネットに接続されている外部装置へデータを送信するとともに、当該外部装置からのデータを受信する。
表示部105は、たとえば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、またはその他の表示機器を含む。表示部105は、不図示のタッチセンサと組み合わされてタッチパネルとして構成されてもよい。表示部105には、各種アプリケーションのGUI(Graphical User Interface)が表示される。
図6は、図5の制御部102によって行われる学習処理の概要を示す図である。図5に示されるように、制御部102は、複数の学習データに対して複数回の学習を行って各学習においてモデルを生成するアンサンブル学習を行う。具体的には、アンサンブル学習の一種であるブースティングの一例として、制御部102は、T(>1)回の学習処理を逐次的に行って各学習においてモデルを生成するAdaBoost(Adaptive Boosting)を行う。なお、制御部102は、アンサンブル学習としてバギング、あるいはランダムフォレストを行ってもよい。また、制御部102がアンサンブル学習以外の学習を行ってもよいし、生成されるモデルが1つでもよい。
各学習処理においては、K個の学習データD〜Dが使用され、LASSOを正則化項とする線形回帰分析が行われる。T回の学習処理によって生成されるモデルRM〜RMの各々は、LASSO線形回帰モデルである。LASSOを正則化項として用いることにより、過学習を抑制することができるとともに、モデルRM〜RMの説明変数の次元を削減(スパース化)することができる。なお、各学習処理は、教師データとモデルの説明変数(予測データ)との誤差を最小化する教師あり学習であればどのような学習法でもよく、たとえばディープニューラルネットワークを用いた深層学習であってもよい。
学習データDには、被験者Sbのネットワーク情報n、言語情報s、およびパーソナリティの実測値mが含まれている。奇数回目の学習処理においては、ネットワーク情報nとパーソナリティの実測値mとの対応関係が学習される。偶数回目の学習においては、言語情報sとパーソナリティの実測値mとの対応関係が学習される。
AdaBoostにおいては、各学習データに重み(重要度)w(i)が付される。重みw(i)は、j回目の学習における学習データDの重みを意味する。重みの初期値w(i)は、1/Kに初期化される。
図7は、図6の各学習処理の流れを示すフローチャートである。図7に示される処理は、j回目の学習処理であり、AdaBoostを行う不図示のメインルーチンから呼び出される。以下では、ステップを単にSと記載する。
図7に示されるように、制御部102は、S101において各学習データの重みを以下の式(1)に従って正規化し、処理をS102に進める。
制御部102は、S102において線形回帰分析において以下の式(2)に示される重み付きの誤り率εを最小化することにより、モデルRMを生成する。誤り率εは、2分の1よりも小さい。制御部102は、モデルRMを記憶部101に保存して、処理をS103に進める。以下の式(3)は、説明変数xに対応するモデルRMの説明変数(予測値)と実測値との二乗誤差dを示す。式(3)の説明変数xは、奇数回目(jが奇数)の学習処理においてはネットワーク情報nであり、偶数回目(jが偶数)の学習処理においては言語情報sである。
式(2)に示されるように、正規化された重みπ(i)が相対的に大きい程、対応する二乗誤差dを小さくすることが誤差εの最小化に寄与する。そのため、線形回帰分析においては、重みπ(i)が相対的に大きい程、二乗誤差dが小さくなるようにモデルRMが生成される。すなわち、j回目の学習処理においては、重みw(i)が相対的に大きい学習データが集中的に学習される。
制御部102は、S103において、以下の式(4)に従ってモデルRMの信頼度αを算出し、モデルRMと信頼度αとを関連付けて記憶部101に保存し、処理をS104に進める。信頼度αは、誤り率εが小さいほど大きい。式(5)に示される変数βは、誤り率εが2分の1よりも小さいことから、1よりも小さい。
制御部102は、S104において各学習データの重みw(i)を以下の式(6)に従って順次更新した後、処理をメインルーチンに返す。(j+1)回目の学習処理においては、重みwj+1(i)が使用される。
変数βは1よりも小さいため、二乗誤差dが小さいほど、学習データDの重みは小さくなる。その結果、二乗誤差dが相対的に大きい学習データDの重みは、次の(j+1)回目の学習において相対的に大きくなる。すなわち、(j+1)回目の学習処理においては、モデルRMの二乗誤差が相対的に大きい学習データが集中的に学習される。
図8は、図5の制御部102によって行われるパーソナリティ予測処理の概要を示す図である。図8に示されるように、制御部102は、説明変数としてネットワーク情報nおよび言語情報sを受けて、目的変数としてパーソナリティ値pを出力する。パーソナリティ値pは、以下の式(7)に示されるように、モデルRM〜RMの出力を各モデルの信頼度に応じて加重平均された値である。
図9は、パーソナリティ予測装置100による言語性IQ(Intelligence Quotient)の予測値と言語性IQの実測値との対応関係を示す図である。図9においては、被験者のパーソナリティの予測値と実測値とが1つの点としてプロットされている。図9に示されるように、言語性IQの予測値と言語性IQの実測値との相関係数Rは0.385であり、p値は0.01より小さい。一般に相関係数が0.2より大きい場合、両者には相間があり、予測値によって実測値を予測可能であるとされる。そのため、パーソナリティ予測装置100によって言語性IQが予測可能であるといえる。
なお、パーソナリティ予測装置100によって予測可能なパーソナリティは、言語性IQに限定されない。パーソナリティ予測装置100によれば、Big5以外にも、たとえば、自閉症、共感性、および不安傾向等の予測が可能である。
パーソナリティ予測装置100においては、被験者の行動の時刻情報として、SNSにおいて行った行動の時刻情報を用いる場合について説明した。被験者の行動の時刻情報は、SNSにおいて行った行動の時刻情報に限定されず、たとえばIoT機器への操作の時刻情報であってもよい。
図10は、インターネット800にIoT機器が接続されている様子を示す図である。図10に示されるように、インターネット800には、電子レンジ61(装置)、洗濯機62(装置)、およびテレビ63(装置)が接続されている。電子レンジ61、洗濯機62、およびテレビ63は、IoT機器に含まれる。
図11は、図10の電子レンジ61、洗濯機62、およびテレビ63に対するユーザSb2の操作の時系列を示す図である。図11に示されるように、ユーザSb2は、時刻t11において電子レンジ61による暖めを開始している。ユーザSb2は、時刻t12において洗濯機62による洗濯を開始している。ユーザSb2は、時刻t13においてリモコンを用いてテレビ63をつけている。ユーザSb2が電子レンジ61、洗濯機62、およびテレビ63に対して行った操作、および当該操作が行われた時刻情報から得られる特徴量(第1特徴量)が、学習データに含まれてもよい。すなわち、パーソナリティ予測装置100においては、パーソナリティ予測の対象者がIoT機器に対して行った操作および当該操作から得られる特徴量(第1特徴量)が当該対象者のパーソナリティ予測に用いられてもよい。
以上、実施の形態に係るパーソナリティ予測装置によれば、パーソナリティ予測を詳細化することができる。
今回開示された各実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
51 デスクトップコンピュータ、52,60 スマートフォン、53 ノート型パーソナルコンピュータ、61 電子レンジ、62 洗濯機、63 テレビ、100 パーソナリティ予測装置、101 記憶部、102 制御部、103 RAM、104 ネットワークインターフェイス、105 表示部、200 SNSサーバ、800 インターネット。

Claims (6)

  1. 説明変数を目的変数に対応させる少なくとも1つのモデルが保存された記憶部と、
    前記説明変数を受けて、前記少なくとも1つのモデルを用いて前記目的変数を出力する制御部とを備え、
    前記目的変数は、パーソナリティ値を含み、
    前記説明変数は、広域ネットワークに接続された装置のユーザが当該装置に対して行った操作の種類と前記操作が行われた時刻情報とから得られる第1特徴量を含む、パーソナリティ予測装置。
  2. 前記説明変数は、前記ユーザが前記広域ネットワークに接続された端末装置から前記広域ネットワークに接続されたSNS(Social Network Service)のサーバに送信した文章の形態素解析から得られる第2特徴量と、
    前記第1特徴量は、前記ユーザが前記SNSにおいて行った行動の種類および時刻情報から生成され、
    前記制御部は、前記第1特徴量および前記第2特徴量を前記サーバから取得する、請求項1に記載のパーソナリティ予測装置。
  3. 前記記憶部には、複数の学習データが保存され、
    前記複数の学習データの各々は、複数人の各々のパーソナリティの実測値、ならびに前記複数人の各々に対応する前記第1特徴量および前記第2特徴量が関連付けられた学習データであり、
    前記制御部は、前記複数の学習データに対して複数回の学習を行って各学習においてモデルを生成するアンサンブル学習を行って、前記少なくとも1つのモデルを生成し、前記少なくとも1つのモデルの各々の出力を加重平均した値を前記パーソナリティ値として出力する、請求項2に記載のパーソナリティ予測装置。
  4. 前記アンサンブル学習は、各回の学習におい前記複数の学習データの各々について、当該学習データから予測されるパーソナリティの予測値と当該学習データの実測値との誤差が大きい程、当該学習データの重みを相対的に増加させて、次回の学習における誤差の最小化に反映させるAdaBoost(Adaptive Boosting)であり、
    前記制御部は、前記第1特徴量から予測されるパーソナリティの予測値と実測値との誤差を最小化する学習、および前記第2特徴量から予測されるパーソナリティの予測値と実測値との誤差を最小化する学習を交互に行い、
    前記少なくとも1つのモデルの各々の出力を前記少なくとも1つのモデルの各々の信頼度に応じて加重平均した値を前記パーソナリティ値として出力する、請求項3に記載のパーソナリティ予測装置。
  5. 前記少なくとも1つのモデルは、正則化項としてLASSO(Least Absolute Shrinkage and Selection Operator)が用いられる線形回帰モデルである、請求項1〜4のいずれか1項に記載のパーソナリティ予測装置。
  6. モデルを機械学習によって生成するための学習データを、広域ネットワークを介して収集する学習データ収集装置であって、
    前記モデルの目的変数は、パーソナリティ値を含み、
    前記モデルの説明変数は、前記広域ネットワークに接続された装置のユーザが当該装置に対して行った操作の種類と前記操作が行われた時刻情報とから得られる特徴量を含み、
    前記学習データ収集装置は、
    制御部と、
    記憶部とを備え、
    前記制御部は、前記広域ネットワークに接続された端末装置のユーザにパーソナリティ診断テストを行って前記端末装置のユーザのパーソナリティの実測値を取得し、前記実測値と前記特徴量とを関連付けて学習データとして前記記憶部に保存する、学習データ収集装置。
JP2019044659A 2019-03-12 2019-03-12 パーソナリティ予測装置、および学習データ収集装置 Pending JP2020149196A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019044659A JP2020149196A (ja) 2019-03-12 2019-03-12 パーソナリティ予測装置、および学習データ収集装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044659A JP2020149196A (ja) 2019-03-12 2019-03-12 パーソナリティ予測装置、および学習データ収集装置

Publications (1)

Publication Number Publication Date
JP2020149196A true JP2020149196A (ja) 2020-09-17

Family

ID=72430111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044659A Pending JP2020149196A (ja) 2019-03-12 2019-03-12 パーソナリティ予測装置、および学習データ収集装置

Country Status (1)

Country Link
JP (1) JP2020149196A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171500A (ja) * 2012-02-22 2013-09-02 Nippon Telegr & Teleph Corp <Ntt> 分析装置、分析方法及び分析プログラム
JP2013196425A (ja) * 2012-03-21 2013-09-30 Kddi Corp 性格表示システム、性格表示方法及び性格表示プログラム
US20150310344A1 (en) * 2014-04-29 2015-10-29 Wipro Limited System and method for predicting personality traits using disc profiling and big five personality techniques
JP2016149136A (ja) * 2016-03-02 2016-08-18 ソニー株式会社 情報処理システム、情報処理方法、及びプログラム
JP2016530651A (ja) * 2013-09-10 2016-09-29 フェイスブック,インク. ソーシャル・ネットワーキング・システムのユーザについての感情極性
JP2017051118A (ja) * 2015-09-08 2017-03-16 国立研究開発法人農業・食品産業技術総合研究機構 特性推定モデル生成装置および方法、解析対象の特性推定装置および方法
JPWO2016017086A1 (ja) * 2014-07-31 2017-05-18 日本電気株式会社 行動特性予測システム、行動特性予測器、方法およびプログラム
JP2017215921A (ja) * 2016-05-30 2017-12-07 株式会社タオセンター 応募者採用支援システム、応募者採用支援方法、及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171500A (ja) * 2012-02-22 2013-09-02 Nippon Telegr & Teleph Corp <Ntt> 分析装置、分析方法及び分析プログラム
JP2013196425A (ja) * 2012-03-21 2013-09-30 Kddi Corp 性格表示システム、性格表示方法及び性格表示プログラム
JP2016530651A (ja) * 2013-09-10 2016-09-29 フェイスブック,インク. ソーシャル・ネットワーキング・システムのユーザについての感情極性
US20150310344A1 (en) * 2014-04-29 2015-10-29 Wipro Limited System and method for predicting personality traits using disc profiling and big five personality techniques
JPWO2016017086A1 (ja) * 2014-07-31 2017-05-18 日本電気株式会社 行動特性予測システム、行動特性予測器、方法およびプログラム
JP2017051118A (ja) * 2015-09-08 2017-03-16 国立研究開発法人農業・食品産業技術総合研究機構 特性推定モデル生成装置および方法、解析対象の特性推定装置および方法
JP2016149136A (ja) * 2016-03-02 2016-08-18 ソニー株式会社 情報処理システム、情報処理方法、及びプログラム
JP2017215921A (ja) * 2016-05-30 2017-12-07 株式会社タオセンター 応募者採用支援システム、応募者採用支援方法、及びプログラム

Similar Documents

Publication Publication Date Title
Namasudra et al. Nonlinear neural network based forecasting model for predicting COVID-19 cases
Kusner et al. The long road to fairer algorithms
Lage et al. Human-in-the-loop interpretability prior
Freeman et al. A perceptual pathway to bias: Interracial exposure reduces abrupt shifts in real-time race perception that predict mixed-race bias
Cho et al. Autoregressive generalized linear mixed effect models with crossed random effects: An application to intensive binary time series eye-tracking data
Arashpour et al. Predicting individual learning performance using machine‐learning hybridized with the teaching‐learning‐based optimization
Weigel et al. Relational maintenance, satisfaction, and commitment in marriages: An actor-partner analysis
Derbyshire Answers to questions on uncertainty in geography: Old lessons and new scenario tools
Niu et al. Does BERT rediscover a classical NLP pipeline?
Schroeder et al. A patient-centered proposal for bayesian analysis of self-experiments for health
Shen et al. A scenario-driven decision support system for serious crime investigation
Li et al. Conditional borrowing external data to establish a hybrid control arm in randomized clinical trials
Campitelli et al. Three strategies for the critical use of statistical methods in psychological research
Park et al. A novel approach for usability evaluation of mobile applications
Priyatharshini et al. A self-learning fuzzy rule-based system for risk-level assessment of coronary heart disease
Herdener et al. Anchoring and adjustment in uncertain spatial trajectory prediction
Kanyongo et al. Machine learning approaches to medication adherence amongst NCD patients: A systematic literature review
Chekili et al. Demographic Inference in the Digital Age: Using Neural Networks to Assess Gender and Ethnicity at Scale
Ram et al. Binding the person-specific approach to modern AI in the human screenome project: moving past generalizability to transferability
Beesley et al. The effect of predictive history on the learning of sub-sequence contingencies
JP2020149196A (ja) パーソナリティ予測装置、および学習データ収集装置
US11176491B2 (en) Intelligent learning for explaining anomalies
Wang et al. Post-prediction inference
Kush et al. A Text-Based Measure of Transactive Memory System Strength
Seisenbekova et al. The use of the bayesian approach in the formation of the student’s competence in the ict direction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230711