JP2017174403A - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP2017174403A JP2017174403A JP2017011253A JP2017011253A JP2017174403A JP 2017174403 A JP2017174403 A JP 2017174403A JP 2017011253 A JP2017011253 A JP 2017011253A JP 2017011253 A JP2017011253 A JP 2017011253A JP 2017174403 A JP2017174403 A JP 2017174403A
- Authority
- JP
- Japan
- Prior art keywords
- group
- user
- information
- anonymization
- service
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、ユーザのコンテキストを推定して、状況にあった情報やサービスを推薦することが行われている。こうしたシステムや技術は、Personal Assistant、Context Aware Computing等と様々に呼ばれているが、ここではPersonal Context Assisntant(以下、PCA)と呼ぶことにする。
例えばPCAとしては、話題のニュースや都道府県等に関連したニュースを、通勤時間や現在地に基づいて提供することが行われている。また、位置情報を基に空港への到着等を検知するとタクシーの配車を依頼することを推薦すること等も考えられている。
しかし、サービスを推薦して、ユーザがそのサービスの利用を行っても、サービスによっては待ち時間を要することがある。例えば、タクシーの配車であれば、通知を見てから配車依頼を行うと、空港でタクシー到着まで待つ必要がある。
このように、ユーザがサービスを必要とするタイミングと、サービス提供者がサービスを提供できるタイミングと、にギャップが生じているために、待ち時間が発生する。
そのため、このタイミングギャップを解消するために、将来的には、システムが先回りしてサービスを準備・実行するようになると考える。例えば、特許文献1では、注文される前に商品を近くにまで出荷しておくことで、注文から配達までの時間短縮を実現すること等が提案されている。
システムが先回りしてサービスを準備するには、サービス提供元が準備をできるようにする必要がある。そのためのプラットフォームとして、コンテキストをサービス提供元と共有する仕組みができると予想する。
このとき、コンテキストを無条件に共有すると、正当な目的以外にコンテキストを使用する意思を有するサービス提供元がコンテキストを蓄積することが考えられる。このとき、ユーザの行動履歴がサービス提供側に残ってしまう。そのため、プライバシが保護されない。しかし、コンテキストをサービス利用の可能性が高まる直前まで共有しない場合、タイミングギャップが大きくなってしまう。
Conventionally, information and services suitable for a situation are recommended by estimating a user's context. These systems and technologies are variously called Personal Assistant, Context Aware Computing, etc., but here they are called Personal Context Assistant (hereinafter, PCA).
For example, as PCA, news related to hot topics or prefectures is provided based on commuting time or current location. It is also considered to recommend that taxi be dispatched when arrival at the airport is detected based on the location information.
However, even if a service is recommended and a user uses the service, a waiting time may be required depending on the service. For example, in the case of taxi dispatch, if a request for dispatch is made after seeing the notification, it is necessary to wait until the taxi arrives at the airport.
As described above, since there is a gap between the timing when the user needs the service and the timing when the service provider can provide the service, a waiting time occurs.
Therefore, in order to eliminate this timing gap, it is considered that the system will prepare and execute services ahead of time in the future. For example,
In order for the system to proactively prepare the service, the service provider needs to be able to prepare. As a platform for that, we expect to have a mechanism for sharing contexts with service providers.
At this time, if the context is unconditionally shared, it is conceivable that the service provider having the intention to use the context other than the legitimate purpose accumulates the context. At this time, the user's behavior history remains on the service provider side. Therefore, privacy is not protected. However, if the context is not shared until just before the possibility of using the service increases, the timing gap becomes large.
従来、プライバシを保護するためには匿名化技術があった(例えば、特許文献2)。特許文献2では、個々のデータがk匿名化の要求レベルを有するときに、全てのデータの要求レベルを満足しつつ、情報価値の低下を防ぐ匿名化方法を提案している。より具体的には、特許文献2の技術では、情報価値の低下を防ぐために、類似するデータをグループに分割して、要求レベルを満たすときグループを再度分割していくことを繰り返す。特許文献2の技術では、要求レベルを満たす最小のグループ単位で、匿名化の処理を行う。これによって、個々のデータが求める要求レベルを満たしつつ、情報価値の低下を防ぐ匿名化を行っている。
Conventionally, there has been an anonymization technique for protecting privacy (for example, Patent Document 2).
ユーザのコンテキストをより精度高く提供すれば、タイミングギャップをより小さくできる。そのため、サービスを利用する確率が高いとき、ユーザのコンテキストをより精度高く提供すべきである。
そこで、利用確率の高いユーザのコンテキストをより精度高く残すために、特許文献2における匿名化の要求レベルとして、サービスに利用確率を用いることが考えられる。つまり、サービスの利用確率が高いときほど、匿名化の要求レベルを下げることを行うことが考えられる。
しかしながら、特許文献2では、匿名化の要求レベルが低いユーザと高いユーザとを合わせて匿名化する。そのため、場合によっては、匿名化の要求レベルを低く希望するユーザが、匿名化の要求レベルが高いユーザに要求レベルを合わされてしまうことが起こりえる。このとき、匿名化の要求レベルを低くして、サービスの準備をより進めておいてほしいと希望したユーザの目的が達成されない問題が起きる。
本発明は、プライバシ保護とタイミングギャップ解消とを両立させることを目的とする。
If the user context is provided with higher accuracy, the timing gap can be made smaller. Therefore, when the probability of using the service is high, the user context should be provided with higher accuracy.
Therefore, in order to leave the context of a user with a high use probability with higher accuracy, it is conceivable to use the use probability for the service as the request level for anonymization in
However, in
An object of the present invention is to achieve both privacy protection and timing gap resolution.
本発明は、ユーザごとにサービスの利用可能性を推定する推定手段と、前記利用可能性と複数のユーザのコンテキスト情報であって前記サービスに応じたコンテキスト情報の類似性とに基づき前記複数のユーザをグループに分類する分類手段と、グループに含まれるユーザのコンテキスト情報に基づき前記グループごとに前記サービスの提供元に開示する開示情報を生成する生成手段と、を有する。 The present invention provides an estimation means for estimating service availability for each user, and the plurality of users based on the availability and the similarity of context information of the plurality of users corresponding to the service. And a generating unit that generates disclosure information to be disclosed to the service provider for each group based on context information of users included in the group.
本発明によれば、プライバシ保護とタイミングギャップ解消とを両立させることができる。 According to the present invention, both privacy protection and timing gap elimination can be achieved.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施形態1>
本実施形態の情報処理システムのシステム構成について、図1を用いて説明する。
PCAクライアント101は、クライアントであり、コンテキスト情報を取得してPCAサーバ102へと送信する。PCAクライアント101は、例えば、ユーザが保有するスマートフォン等のモバイルデバイスである。コンテキスト情報としては、例えば、GPS(Global Positioning System)で得た緯度経度等の位置情報や、ジャイロセンサで得た角速度、磁気センサで得た方位、加速度センサで得た加速度等である。また、コンテキスト情報としては、例えば、ユーザの心拍等のバイタル、又は揺れ等から推定される集中度等の情報、デバイスの使用状況等の情報、近接通信等で取得される近くにあるデバイスやモノ等に関する情報等である。
PCAサーバ102は、複数のPCAクライアント101から得たコンテキスト情報を匿名化して、複数のサービス103へコンテキスト情報を提供する。PCAサーバ102は、例えば、サーバ装置等である。又は、PCAサーバ102は、例えば、クラウド環境に構築された仮想サーバ等であってもよい。
また、PCAサーバ102は、PCAクライアント101から得たコンテキスト情報を加工して、より高次のコンテキスト情報を生成することを行ってもよい。そして、PCAサーバ102は、その高次のコンテキスト情報を匿名化して、サービス103へ提供するようにしてもよい。
高次のコンテキスト情報の生成処理については、図3のコンテキスト加工部302の説明において説明する。
サービス103は、匿名化されたコンテキスト情報に基づいて、ユーザに合わせたサービスの準備を行う。例えば、タクシーサービス等あれば、ユーザの位置情報等が匿名化して得られるため、その情報に基づいてタクシーの巡回ルートを変更する等を行う。
<
The system configuration of the information processing system of this embodiment will be described with reference to FIG.
The PCA
The PCA
The PCA
High-order context information generation processing will be described in the description of the
The service 103 prepares a service according to the user based on the anonymized context information. For example, if there is a taxi service or the like, the user's location information and the like can be obtained by anonymizing, so the taxi route is changed based on the information.
本実施形態のサーバ装置やクライアント装置を構成するコンピュータの構成について、図2を参照して説明する。サーバ装置やクライアント装置はそれぞれ単一のコンピュータで実現してもよいし、必要に応じた複数のコンピュータに各機能を分散して実現するようにしてもよい。複数のコンピュータで構成される場合は、互いに通信可能なようにLocal Area Network(LAN)等で接続されている。
CPU201は、コンピュータ200全体を制御するCentral Processing Unit(CPU)である。ROM202は、変更を必要としないプログラムやパラメータを格納するRead Only Memory(ROM)である。RAM203は、外部装置等から供給されるプログラムやデータを一時記憶するRandom Access Memory(RAM)である。外部記憶装置204は、コンピュータ200に固定して設置されたハードディスクやメモリカードである。又は、外部記憶装置204は、外部記憶装置204には、コンピュータ200から着脱可能なフレキシブルディスク(FD)やCompact Disk(CD)等の光ディスク、磁気や光カード、ICカード、メモリカード等を含んでもよい。入力デバイスインターフェイス205は、ユーザの操作を受け、データを入力するポインティングデバイスやキーボード等の入力デバイス209とのインターフェイスである。出力デバイスインターフェイス206は、コンピュータ200の保持するデータや供給されたデータを表示するためのモニタ210とのインターフェイスである。通信インターフェイス207は、インターネット等のネットワーク回線211に接続するためのネットワークインターフェイスである。システムバス208は、201〜207の各ユニットを通信可能に接続するシステムバスである。
本実施形態のクライアント装置であるPCAクライアント101においては、センサ等を含んでいる。例えば、センサとは、GPSセンサ、ジャイロセンサ、磁気センサ、加速度センサ等である。また、心拍等を取得するバイタルセンサは他装置の形態をとり、PCAクライアント101は、通信インターフェイス等からデータを取得するように構成してもよい。また、PCAクライアント101がスマートフォン等の形態であれば、通話部等や撮像部等を含むものになる。
サーバ装置のCPU201がサーバ装置のROM202又は外部記憶装置204に記憶されたプログラムに基づき処理を実行することによって後述する図3に示すサーバ装置の機能、図5〜7のフローチャートの処理が実現される。
A configuration of a computer constituting the server device and the client device according to the present embodiment will be described with reference to FIG. Each of the server device and the client device may be realized by a single computer, or may be realized by distributing functions to a plurality of computers as necessary. When configured by a plurality of computers, they are connected by a local area network (LAN) or the like so that they can communicate with each other.
The
The
When the
本実施形態ではPCAサーバ102が、PCAクライアント101から収集したコンテキスト情報を匿名化して、サービス103へと情報を開示する。以下、本実施形態における、開示する情報を生成するシステムの機能構成について図3を用いて説明する。本実施形態ではPCAサーバ102に図3に示す機能が実装されているものとするが、PCAクライアント101等に機能の一部を分散する構成としてもよい。
コンテキスト受信部301は、PCAクライアント101からコンテキスト情報を受信する。より具体的には、コンテキスト受信部301は、通信インターフェイス207を介して、位置情報等のコンテキスト情報を受信する。
コンテキスト加工部302は、コンテキスト情報を加工して、高次なコンテキスト情報を生成する。
例えば、コンテキスト加工部302は、PCAクライアント101から緯度経度が得られたとき、その緯度経度を住所等の情報に変換することを行ってもよい。
また、コンテキスト加工部302は、周囲のモノや人との関係性に関する情報を生成してもよい。例えば、コンテキスト加工部302は、複数のユーザから得られた位置情報の軌跡から、同一の軌跡を描くユーザ同士が一緒に行動していること等を推定して、同行者の情報を生成すること等を行ってもよい。又は、コンテキスト加工部302は、近接通信で得られたモノを特定して、モノを携帯していること等を特定してもよい。例えば、コンテキスト加工部302は、スマートウォッチ等の携帯等を特定してもよい。
又は、コンテキスト加工部302は、身体状態に関する情報を生成してもよい。例えば、コンテキスト加工部302は、位置情報や加速度センサ等から歩行しているのか、自動車に乗っているのか等の移動状態を推定し、身体状態に関する情報を生成してもよい。又は、コンテキスト加工部302は、歩行状態の継続時間等から疲労度等を推定し、身体状態に関する情報を生成してもよい。
又は、コンテキスト加工部302は、心理状態に関する情報を生成してもよい。例えば、コンテキスト加工部302は、職場等の集中すべき環境にいるが集中度が低いことから、集中したいと考えている等といったことを推定し、心理状態に関する情報を生成してもよい。又は、心理状態としては嗜好等でもよい。例えば、コンテキスト加工部302は、過去の購買履歴等から、ユーザが望む商品の情報等を生成する。又は、コンテキスト加工部302は、予め入力された「ほしいものリスト」等を基に、ユーザが望む商品等を生成してもよい。
本実施形態では、コンテキスト情報としては、いつ・どこで・何を・誰としているのか等の状況を指す情報に加えて、ユーザと人・モノとの関係性、ユーザの心身状態等を指す情報とする。
コンテキスト加工部302の機能は、PCAクライアント101とPCAサーバ102とで分散して実現するようにしてもよい。
ユーザ管理部303は、ユーザ情報やユーザのコンテキスト情報を管理する。より具体的には、コンテキスト受信部301やコンテキスト加工部302で取得したコンテキスト情報を、ユーザ管理部303は、外部記憶装置204に保存して管理する。
サービス管理部304は、ユーザ情報を開示するサービスを管理する。より具体的には、サービス管理部304は、サービスの情報に関するリストを、外部記憶装置204に保存して管理する。
In this embodiment, the
The
The
For example, when the latitude / longitude is obtained from the
Further, the
Or the
Or the
In this embodiment, as context information, in addition to information indicating the situation such as when, where, what, and who, information indicating the relationship between the user and the person / thing, the state of mind and body of the user, and the like To do.
The functions of the
The
The
開示情報生成部305は、サービスの提供元に開示するコンテキスト情報を生成する。より具体的な処理方法は次の通りである。まず、開示情報生成部305は、ユーザのサービスの利用確率を推定して、利用確率ごとにユーザをレイヤに分ける。利用確率は、利用可能性の一例である。次に、開示情報生成部305は、レイヤごとに匿名化する情報でユーザをグループに分ける。開示情報生成部305は、グループごとに匿名化処理を行うことで、開示するコンテキスト情報を生成する。詳細な処理内容については、図5のフローチャートを用いて後述する。
開示情報生成部305は、コンテキスト取得部306、利用確率算出部307、利用確率分類部308、匿名化分類部309、匿名化情報生成部310より構成される。
コンテキスト取得部306は、匿名化を行う前のユーザのコンテキスト情報を取得する。より具体的には、コンテキスト取得部306は、ユーザ管理部303から、ユーザのコンテキスト情報を検索して取得する。
利用確率算出部307は、ユーザごとにサービスの利用確率を算出する。より具体的には、利用確率算出部307は、サービス管理部304で管理されているサービスごとに、サービスの利用確率を推定する。例えば、利用確率算出部307は、タクシーサービス等であれば、タクシーの配車依頼を行う確率を推定する。より具体的には、利用確率算出部307は、普段の行動からタクシーに乗る状況を学習して、現在の状況からその状況に到達する確率を算出する。例えば、ショッピングモールで買い物を行った後に、外が雨の場合において、タクシーを呼ぶことが多いとする。例えば、利用確率算出部307は、ショッピングモールにユーザがいることを位置情報等で特定して、外部の天気の降水確率等から、タクシーを呼ぶ確率を算出することができる。但し、利用確率の算出方法はこれらに限定されるものではない。
利用確率分類部308は、利用確率算出部307で求めたユーザの利用確率が、同程度のユーザごとに分けることを行う。本実施形態では、この分類をレイヤと呼ぶ。例えば、利用確率分類部308は、同程度とする利用確率の区間を、サービスごとに予め定めておいたものを利用する。利用確率分類部308は、この利用確率の区間等を、サービス103から取得したものを利用するようにしてもよい。
The disclosure
The disclosure
The
The usage
The usage
匿名化分類部309は、利用確率分類部308で得たレイヤごとに、匿名化対象のコンテキスト情報の類似性に基づいてユーザをグループに分類する。このとき、匿名化分類部309は、グループのサイズはレイヤごとに予め定められた値を用いる。又は、匿名化分類部309は、利用確率に基づいてグループのサイズを決定するようにする。詳細なグループサイズの決定方法は、フローチャート図5〜7を説明した後に述べる。
コンテキスト情報の類似性としては、コンテキスト情報が「年齢」等の数値であれば、数値の差の逆数等を類似性にできる。また、コンテキスト情報が「位置情報」等のベクトルであれば、ベクトル間の距離の逆数等を類似性とできる。又は、コサイン類似度等をとってもよい。また、コンテキスト情報が「性別」等のカテゴリカルなデータである場合は、一致しているか否かで類似度を定義できる。
また、階層を持ったカテゴリカルなデータである場合もある。このとき、何階層目までが一致するかを用いて、一致する階層数を類似度としてもよい。又は、階層木をたどって片方のデータからもう片方のデータまで移動するときに必要な移動回数等をデータ間の距離として、距離の逆数等で類似度を定義してもよい。
また、コンテキスト情報がベクトルやカテゴリカルなデータ等の複数から構成される場合は、ベクトルデータをカテゴリカルなデータに変換して、カテゴリカルなデータ同士が一致する回数等からデータの類似度を決定してもよい。又は、コンテキスト情報を構成するデータごとに類似度を求め、類似度の重みづけ和等をとってもよい。本実施形態におけるコンテキスト情報の類似性の定義はこれらに限定されるものではない。
コンテキスト情報に基づいたユーザの分類方法としては、k−meansやスペクトラルクラスタリング等のクラスタリング手法でコンテキスト情報の類似性に基づいて分類してもよい。又は、k匿名化手法で良く用いられる一般化階層木を用いる手法を利用してもよい。本実施形態におけるユーザの分類方法はこれらに限定されるものではない。
匿名化情報生成部310は、匿名化分類部309で得たグループごとに、開示するコンテキスト情報を生成する。例えば、匿名化情報生成部310は、開示するコンテキスト情報が位置情報であれば、グループを構成するユーザの位置情報の重心等を求める。加えて、匿名化情報生成部310は、重心からグループを構成するユーザまでの最大距離を半径等として求めて開示する情報としてもよい。また、匿名化情報生成部310は、開示するコンテキスト情報が住所等の属性値であれば、番地を省略する等の一般化を行う。但し、匿名化情報の生成処理については、これらに限定されるものではない。
The
As the similarity of the context information, if the context information is a numerical value such as “age”, the reciprocal of the difference between the numerical values can be made similar. If the context information is a vector such as “position information”, the reciprocal of the distance between the vectors can be regarded as similarity. Or you may take cosine similarity. Further, when the context information is categorical data such as “sex”, the similarity can be defined based on whether or not they match.
Moreover, it may be categorical data having a hierarchy. At this time, the number of matching hierarchies may be used as the similarity by using how many hierarchies match. Alternatively, the degree of similarity may be defined by the reciprocal of the distance, etc., with the number of movements required when moving from one data to the other data following the hierarchical tree.
In addition, when the context information is composed of a plurality of vectors, categorical data, etc., vector data is converted into categorical data, and the similarity of data is determined based on the number of times categorical data matches. May be. Alternatively, the similarity may be obtained for each data constituting the context information, and the weighted sum of the similarities may be taken. The definition of the similarity of context information in the present embodiment is not limited to these.
As a user classification method based on context information, classification may be performed based on the similarity of context information by a clustering technique such as k-means or spectral clustering. Alternatively, a method using a generalized hierarchical tree often used in the k anonymization method may be used. The user classification method in the present embodiment is not limited to these.
The anonymization
コンテキスト開示部311は、匿名化情報生成部310が生成したコンテキスト情報をサービスに開示をする。例えば、コンテキスト開示部311は、位置情報を匿名化して開示する場合においては、匿名化情報生成部310で重心と半径とを求めているため、これをユーザIDと関連付けて開示を行う。又は、コンテキスト開示部311は、グループ単位に情報を開示するようにしてもよく、匿名化分類部309で生成したグループにIDを付与して、グループIDに重心と半径とユーザIDリストとを紐付けて開示するようにしてもよい。但し、コンテキスト情報の開示方法は、これらに限定されるものではない。
関連付けるユーザIDはサービスに閉じたものとすることが望ましく、PCAサーバ内でのユーザIDを用いない方が望ましい。なぜならば、本実施形態では、開示されたコンテキスト情報から一定以上の人数以下には絞り込めないように、コンテキスト情報を生成している。しかし、PCA全体でユーザを一意に特定できるIDを利用すると、特定性が生まれてしまう。一方で、サービスに閉じたIDであれば、サービスに開示されていないコンテキスト情報との紐付けを行うには、サービスのユーザIDを用いることはできない。そのため、コンテキスト情報の一致をとって、データを結合することになる。しかし、コンテキスト情報は匿名化されているため、一定数以上には絞り込むことができない。そのため、ユーザが想定する以上にサービスに対して情報が開示されることがなくなる。
但し、PCAサーバ内でのユーザIDを用いるようにしてもよい。このとき、サービスに開示されていないコンテキスト情報であっても、ユーザIDを用いることで、容易に結合することができてしまう。しかし、開示されるコンテキスト情報は、匿名化の過程で、精度が落ちているため、ある程度のプライバシを保護できる。
開示される情報にユーザIDを含む必要はなく、コンテキスト情報だけを開示するようにしてもよい。但し、開示する情報の構成については、これらに限定されるものではない。
The
The associated user ID is preferably closed to the service, and it is preferable not to use the user ID in the PCA server. This is because, in the present embodiment, context information is generated so that the disclosed context information cannot be narrowed down to a certain number of people or less. However, if an ID that can uniquely identify a user in the entire PCA is used, specificity is born. On the other hand, if the ID is closed to the service, the user ID of the service cannot be used for association with the context information that is not disclosed in the service. Therefore, the data is combined by matching the context information. However, since the context information is anonymized, it cannot be narrowed down beyond a certain number. Therefore, information is not disclosed to the service more than the user assumes.
However, a user ID in the PCA server may be used. At this time, even context information that is not disclosed in the service can be easily combined by using the user ID. However, since the accuracy of the disclosed context information is reduced in the process of anonymization, a certain degree of privacy can be protected.
It is not necessary to include the user ID in the disclosed information, and only the context information may be disclosed. However, the configuration of information to be disclosed is not limited to these.
次に、本実施形態における開示情報生成処理について、フローチャート図5を用いて説明する。本処理は、開示情報生成部305によって実行され、サービスへ開示するコンテキスト情報を生成する。そのため、本処理では、サービスをパラメータとして指定して、処理を実行する。加えて、サービスごとに設定されたパラメータも与えて実行する。パラメータについて図4(a)を用いて説明する。第一のパラメータは、ユーザをレイヤに分ける際に利用する利用確率の区間である。この例では、4つのレイヤに分けるための区間が定められている。第二のパラメータは、レイヤごとのコンテキスト情報の開示可否を定義している。「否」は情報を開示しないことを示す。「可(保護)」は匿名化したうえで情報を開示することを示す。「可(素値)」は匿名化を行わずに、情報を開示してよいことを示す。第三のパラメータは、匿名化グループサイズであり、レイヤ内で生成する匿名化グループのサイズを指定している。第四のパラメータの限界誤差は、レイヤ内で生成する匿名化情報の限界とすべき誤差を指定している。詳細は、図6のフローチャートを用いて後述する。限界誤差は設定誤差の一例である。符号は本実施形態で説明に使用するシンボルであり、パラメータではない。
以下の説明では、位置情報を匿名化する場合を例に説明を行う。以下、図5のフローチャートに従って説明する。
S501では、利用確率算出部307は、ユーザごとにサービスの利用確率を推定する。より具体的には、利用確率算出部307は、利用確率算出部307を用いて、サービスを利用する確率をユーザごとに推定する。
S502では、利用確率分類部308は、ユーザを利用確率でレイヤに分ける。より具体的には、利用確率分類部308は、図4(a)に示す利用確率の区間を用いて、ユーザがどの利用確率の区間に該当するかを決定する。
S503では、利用確率分類部308は、匿名化対象のレイヤを特定する。より具体的には、利用確率分類部308は、図4(a)に示す開示可否を参照して、「可(保護)」となっているレイヤを特定する。
S504では、匿名化分類部309は、S503で特定されたレイヤを対象として、匿名化グループ作成処理を行う。詳細は、図6のフローチャートを用いて後述する。
S505では、匿名化情報生成部310は、匿名化グループごとに開示情報を生成する。例えば、匿名化情報生成部310は、開示するコンテキスト情報が位置情報であれば、グループを構成するユーザの位置情報の重心と半径とを開示情報とする。
S503で匿名化対象とされなかったレイヤのユーザ情報に関しては、匿名化情報生成部310は、開示可否のパラメータに基づいて開示方法を決定する。より具体的には、匿名化情報生成部310は、「否」のレイヤのユーザに関しては、情報を開示しない。一方で、「可(素値)」のユーザに関しては、そのまま情報を開示することを行う。
即ち、匿名化情報生成部310は、後述するグループの利用確率に基づき開示情報の匿名化の強弱を変える。より具体的に説明すると、匿名化情報生成部310は、グループの利用確率が高いほど開示情報の匿名化を弱くし(例えば、開示情報を素値のままとし)、グループの利用確率が低いほど開示情報の匿名化を高くする(例えば、開示情報を開示しない)。
Next, the disclosure information generation processing in this embodiment will be described with reference to the flowchart of FIG. This process is executed by the disclosure
In the following description, a case where position information is anonymized will be described as an example. Hereinafter, a description will be given according to the flowchart of FIG.
In S501, the use
In S502, the use
In S503, the use
In S504, the
In S505, the anonymization
For the user information of the layer that has not been anonymized in S503, the anonymization
That is, the anonymized
次に、本実施形態における匿名化グループ作成処理について、図6のフローチャートを用いて説明する。本処理では、匿名化対象とされたレイヤごとに、ユーザ集合の分割を繰り返すことで、匿名化グループを作成することを行う。以下、ステップごとに説明する。
S601では、匿名化分類部309は、図5のS503で特定された匿名化対象のレイヤを順に処理するためのループであり、匿名化対象のレイヤには1から順に番号が割り当てられているものとする。匿名化分類部309は、レイヤを変数iを用いて参照するため、はじめにiを1に初期化する。更に、匿名化分類部309は、iがレイヤ数以下であるときS602へ移り、これを満たさないときループを抜けてS609へ移る。
S602では、匿名化分類部309は、レイヤiのユーザを1グループとして分割候補グループリストに登録する。
S603では、匿名化分類部309は、分割候補グループリストからグループを取り出してコンテキスト情報の類似性に基づき分割する。匿名化分類部309は、取り出したグループは分割候補グループリストから削除する。匿名化分類部309は、分割方法としては、k−means等の分割クラスタリング手法を用いて2つにグループを分割する。又は、匿名化分類部309は、スペクトラルクラスタリング等の手法を用いて分割してもよい。グループの分割方法はこれらに限定されるものではない。
S604では、匿名化分類部309は、S603で分割された結果を評価して、分割を行ってもよいか否かを判定する。より具体的には、匿名化分類部309は、パラメータとして与えられた匿名化グループサイズの条件を、分割後のグループのサイズが満たしていることを確認する。例えば、図4(a)に示す例では、利用確率の区間が0.4以上0.7未満では、匿名化グループのサイズは「6以上」であることが条件として設定されている。匿名化分類部309は、各々の分割後グループで、分割後のグループのサイズが条件を満たしているとき、分割可能(OK)と判断して、S605へ移る。匿名化分類部309は、それ以外の場合は、S606へ移る。
S605では、匿名化分類部309は、分割候補グループリストに分割したグループを登録する。
S606では、匿名化分類部309は、S603の分割をキャンセルして、分割前のグループを完成グループリストに登録する。
S607では、匿名化分類部309は、分割候補グループリストにグループがあるか否かを判定する。匿名化分類部309は、グループがあるときS603へ移り、それ以外は、S608へ移る。
S608は、レイヤのループの終端であり、匿名化分類部309は、iに1を加算してS601へ戻る。
S609では、匿名化分類部309は、限界誤差グループ解体処理を行う。詳細は、図7のフローチャートを用いて説明する。
Next, the anonymization group creation process in this embodiment will be described with reference to the flowchart of FIG. In this process, an anonymization group is created by repeating the division of the user set for each layer that is to be anonymized. Hereinafter, each step will be described.
In S601, the
In S602, the
In step S603, the
In S604, the
In S605, the
In S606, the
In S607, the
S608 is the end of the loop of the layer, and the
In S609, the
次に、本実施形態における限界誤差グループ解体処理について、図7のフローチャートを用いて説明する。本処理の開始時点では、匿名化グループ作成処理(図6)のS609の直前において、匿名化グループが完成グループリストに登録された状態にある。本処理では、このリストのグループの誤差を評価して、誤差の大きいグループを解体して、他のグループに統合することで、誤差を小さくすることを試みる。誤差の評価にはパラメータの限界誤差を用いる。図4(a)に示すように、限界誤差はレイヤごとに設定された値である。
S701は、レイヤを下位層から順に処理するためのループである。ここで、レイヤは利用確率の区間が小さい方を下位層と呼んでいる。例えば、図4(a)では2行目の方が3行目よりも利用確率の区間が小さいことから、2行目の方が下位層に位置付けられる。レイヤには下位層から順に1から順の番号が割り当てられているものとする。匿名化分類部309は、レイヤを変数iを用いて参照するため、はじめにiを1に初期化する。更に、匿名化分類部309は、iがレイヤ数以下であるときS702へ移り、これを満たさないときループを抜けて、本処理を終了する。
S702では、匿名化分類部309は、レイヤiにある限界誤差を超えるグループを解体グループとして特定する。図4(a)の例で説明すれば、例えばレイヤiが利用確率の区間が0.4以上0.7未満のレイヤであったとき、限界誤差は1000mと定義されている。そのため、ここでは、匿名化分類部309は、グループの半径を誤差として利用して、この半径が1000mを超えるグループを解体候補として利用する。
Next, the limit error group disassembly process in the present embodiment will be described with reference to the flowchart of FIG. At the start of this process, the anonymization group is registered in the completed group list immediately before S609 in the anonymization group creation process (FIG. 6). In this processing, the error of the group in this list is evaluated, and the group with a large error is disassembled and integrated with other groups to try to reduce the error. Parameter error is used for error evaluation. As shown in FIG. 4A, the limit error is a value set for each layer.
S701 is a loop for processing layers in order from the lower layer. Here, the layer has a smaller usage probability interval called a lower layer. For example, in FIG. 4 (a), the second row is positioned in the lower layer because the second row has a smaller use probability interval than the third row. Assume that layers are assigned numbers in order from 1 in order from the lower layer. Since the
In S702, the
S703は、S702で特定された解体グループを順に処理するためのループである。解体グループには1から順に番号が割り当てられているものとする。匿名化分類部309は、解体グループを変数jを用いて参照するため、はじめにjを1に初期化する。更に、解体グループjがグループ数以下であるとき、S704へ移り、これを満たさないときループを抜けて、S714へ移る。
S704では、匿名化分類部309は、解体グループからユーザを除外したときの誤差を、ユーザごとに求める。そして、匿名化分類部309は、誤差が最も小さくなるユーザをユーザmとする。このとき、匿名化分類部309は、ユーザmは処理済みとしてフラグを立てておく。加えて、匿名化分類部309は、ユーザmを選ぶときは、未処理のユーザから選ぶことにする。
S705では、匿名化分類部309は、ユーザmを除外すると解体グループの誤差が小さくなるか否かを判定する。加えて、匿名化分類部309は、ユーザmを除いたときに、匿名化グループサイズの条件を満たすことを判定する。匿名化分類部309は、誤差が小さくなりつつ、条件も満たすとき(YES)、S706へ移り、それ以外は(NO)、S712へ移る。
S706では、匿名化分類部309は、限界誤差を下回る「レイヤiのグループ」と「レイヤiより下位レイヤのグループ」とを吸収先グループとして特定する。レイヤiの上位レイヤを含まない理由は、レイヤiのユーザが求める匿名化グループサイズは、上位レイヤより大きいため、上位レイヤ側に統合すると、レイヤiのユーザの条件を満たすことができなくなるためである。一方で、下位レイヤはレイヤiのユーザの匿名化グループのサイズよりは大きいことが確実であるため、下位レイヤ側のグループには統合することができるためである。
S703 is a loop for sequentially processing the dismantling groups specified in S702. It is assumed that numbers are assigned to the dismantling groups in order from 1. Since the
In S704, the
In S705, the
In step S <b> 706, the
S707では、匿名化分類部309は、S706で特定した吸収先グループにユーザmを含めたときの誤差を求める。そして、匿名化分類部309は、最も小さい誤差が限界誤差を下回るとき、それを吸収先グループnとする。
S708では、匿名化分類部309は、S707で吸収先グループnが見つかったか否かを判定する。匿名化分類部309は、見つかったとき(YES)、S709へ移り、それ以外は(NO)、S711へ移る。
S709では、匿名化分類部309は、吸収先グループnにユーザmを含める。
S710では、匿名化分類部309は、ユーザmを解体グループから除外したときの誤差が、限界誤差を下回るか否かを求める。匿名化分類部309は、限界誤差を下回るとき(YES)、S712へ移り、それ以外は(NO)、S711へ移る。
S711では、匿名化分類部309は、解体グループjに未処理のユーザが残っているか否かを判定する。匿名化分類部309は、処理済みのフラグはS704で付与されているものを使う。匿名化分類部309は、未処理ユーザがあるとき(YES)、S704へ移り、それ以外は(NO)、S712へ移る。
In S707, the
In S708, the
In S709, the
In S710, the
In S711, the
S712では、匿名化分類部309は、解体グループjの全てのユーザを処理できないとき、匿名化グループサイズを満たすように、解体をキャンセルしていく。より具体的には、匿名化分類部309は、S704〜S711の処理によって、解体グループのユーザを、限界誤差を満たせる他のグループへと移動させていく。しかし、解体グループにユーザが残ることがあり得る。例えば、限界誤差を満たせる他のグループがないときは、解体グループにユーザが残る。このとき、解体グループに残ったユーザが、匿名化グループサイズの条件を満たさないとき、この解体グループの匿名化を達成できなくなる。そこで、このような場合、匿名化分類部309は、解体グループの限界誤差を小さくすることを断念して、匿名化グループサイズの条件を満たせる状態にまで処理を戻す。より具体的には、S709では、匿名化分類部309は、吸収先グループnにユーザmを含めることをスタックに記憶しておく。S712では、匿名化分類部309は、スタックからどのグループにユーザを含めたかを読みだして、順にユーザを解体グループに戻していく。匿名化分類部309は、解体グループが匿名化グループサイズの条件を満たすまで、順にグループに戻す。これによって、パラメータで指定された匿名化グループのサイズの条件を満たすことができるようになり、グループの匿名性を優先的に守ることができるようになる。
S713は、解体先グループループの終端であり、匿名化分類部309は、jに1を加算してS703へ戻る。
S714は、下位レイヤからのループ処理であり、匿名化分類部309は、iに1を加算してS701へ戻る。
In S712, the
S713 is the end of the dismantling destination group loop, and the
S714 is a loop process from the lower layer, and the
以上の図7のフローチャートの処理について、位置情報を匿名化して開示するケースを例に、図8を用いてより具体的に説明をする。図8(a)はユーザの位置情報の分布を表した図である。図中の○△×はユーザのサービスの利用確率を表している。利用確率との対応は図4(a)の符号に示すとおりである。
図8(a)はユーザの位置情報の分布を表した図である。図8中の○△×はユーザのサービスの利用確率を表している。利用確率との対応は図4(a)の符号に示すとおりである。図8(a)に示す状態は開示情報生成処理(S501)を終えた状態にある。
図8(b)は、更に処理を進めて、限界誤差グループ解体処理(S609)を行う直前まで処理が進んだ状態を示している。2種類の破線はそれぞれ匿名化グループを示している。細かい破線1402bの匿名化グループは利用確率が△で表されるレイヤの匿名化グループであり、粗い破線1404bの匿名化グループは利用確率が○で表されるレイヤの匿名化グループである。利用確率が×で表現されるレイヤは情報を開示しないため、図8(b)中から削除されている。なお、1401bは後の説明で利用する各グループの限界誤差を示している。
以降、図8(b)に示す情報が誤差限界グループ解体処理に入力されたことを前提として、図7のフローチャートの処理についてより具体的に説明する。まず、S701では、匿名化分類部309は、利用確率△のレイヤを選択する。そしてS702では、匿名化分類部309は、誤差限界を超えるグループを特定する。しかし、この例では利用確率△のレイヤのグループは何れも誤差限界を下回るため、匿名化分類部309は、S703からS713までの処理をスキップする。そして、S714では、匿名化分類部309は、次の利用確率○のレイヤを処理対象にし、S701へ戻る。
The process of the flowchart of FIG. 7 will be described more specifically with reference to FIG. 8 using an example of anonymizing and disclosing position information. FIG. 8A is a diagram showing a distribution of user position information. In the figure, .DELTA..DELTA.X represents the use probability of the user service. Correspondence with the use probability is as shown by reference numerals in FIG.
FIG. 8A is a diagram showing a distribution of user position information. In FIG. 8, ◯ Δ × represents the use probability of the user's service. Correspondence with the use probability is as shown by reference numerals in FIG. The state shown in FIG. 8A is a state in which the disclosure information generation process (S501) is completed.
FIG. 8B shows a state in which the process is further advanced to the point immediately before the limit error group disassembly process (S609) is performed. Each of the two types of broken lines indicates an anonymization group. The anonymization group of the fine
Hereinafter, the processing of the flowchart of FIG. 7 will be described more specifically on the assumption that the information illustrated in FIG. 8B is input to the error limit group disassembly processing. First, in S701, the
次の利用確率○のレイヤにはグループ1404b〜1407bの4つのグループがある。S702では、匿名化分類部309は、誤差限界を超えるグループ1404bだけを選択する。S703からS713まででは、匿名化分類部309は、このグループからユーザを他のグループに移動させることで、グループ1404bの誤差を小さくする。1404bにはユーザが1408b〜1412bの5人が存在する。S704では、匿名化分類部309は、グループから除外すると最も誤差を小さくするユーザを選択する。この例では、匿名化分類部309は、1408bに示すユーザを選択する。S705では、匿名化分類部309は、ユーザ1408bを除外するとグループ1404bの誤差が小さくなると判定する。S706では、匿名化分類部309は、グループ1402b〜1403b、1405b〜1407bのグループを吸収先グループの候補として特定する。S707では、匿名化分類部309は、ユーザ1407bを含めたときに、誤差が最も小さく、誤差限界も下回るグループを選択する。この例では、匿名化分類部309は、ユーザ1408bをグループ1403bに含めることができると判断する。したがって、S708では、匿名化分類部309は、吸収先グループが見つかったと判定し、S709に進む。S709では、匿名化分類部309は、ユーザ1408bをグループ1404bからグループ1403bに移動して、双方の誤差を修正する。その結果、図8(c)に示すような匿名化グループの状態となる。グループ1404bは誤差が小さくなり、グループ1403bは誤差が大きくなるように修正されていることが分かる。
ユーザ1408bを移動してもグループ1404bの誤差は限界誤差500mを超えるため、S710では、匿名化分類部309は、NOと判断する。まだ処理していないユーザが4人存在するため、S711では、匿名化分類部309は、YESと判断する。
There are four groups of
Even if the
S704〜S708では、匿名化分類部309は、再び同様の処理を繰り返す。つまり、匿名化分類部309は、除外すると誤差が小さくなるユーザとして、ユーザ1409bを特定する。そして、匿名化分類部309は、ユーザ1409bを移動しても誤差が限界誤差を超えないグループとしてグループ1403bを特定する。そして、S709では、匿名化分類部309は、グループ1404bからグループ1403bへユーザ1409bを移動し、双方のグループの誤差を更新する。その結果、図8(d)に示すような匿名化グループの状態となる。グループ1404bは誤差が小さくなっている。一方で、グループ1403bは誤差に影響を与えなかったため、誤差は変わっていない。
S710では、グループ1404bの誤差は限界誤差500mを下回ったため、匿名化分類部309は、YESと判断する。S712では、グループ1404bは全てのユーザを処理できていないが、匿名化グループのサイズを満たすため、匿名化分類部309は、解体をキャンセルしない。
解体候補となっているグループは1404b以外は存在しないため、匿名化分類部309は、S713を抜ける。更に、利用確率○よりも上位のレイヤは存在しないため、匿名化分類部309は、S714も同様に抜けて、図7に示すフローチャートの処理を終える。
上記処理において、解体グループのユーザを下位レイヤの吸収先グループに移すとき、吸収先グループの誤差は、上位レイヤの誤差限界を満たすようにしてもよい。より具体的に説明すると、S707では、匿名化分類部309は、解体グループに属しているユーザmを、下位レイヤのグループに含めたときの誤差を求め、その誤差が「上位レイヤの誤差限界」を下回るグループを吸収先グループnとして求めることを行う。これによって、上位レイヤから下位レイヤのグループに移されたユーザの開示情報の情報品質低下を防ぐことができる。
以上のように、図7のフローチャートの処理では、誤差限界を上回るグループがある場合、誤差に余裕のあるグループにユーザを移動する。これによって、誤差限界を満たすようにグループを調整することができる。
以上の開示情報生成処理(図5)において利用されているパラメータである匿名化グループサイズ(図4(a))は、グループを構成するユーザのサービスの利用確率を考慮して決定されていることが望ましい。
In S704 to S708, the
In S710, since the error of the
Since there are no groups that are candidates for dismantling except for 1404b, the
In the above processing, when the user of the dismantling group is moved to the absorption destination group of the lower layer, the error of the absorption destination group may satisfy the error limit of the upper layer. More specifically, in S707, the
As described above, in the process of the flowchart of FIG. 7, when there is a group exceeding the error limit, the user is moved to a group having a margin for error. This allows the group to be adjusted to meet the error limit.
The anonymized group size (FIG. 4 (a)), which is a parameter used in the above disclosed information generation process (FIG. 5), is determined in consideration of the use probability of the services of the users making up the group. Is desirable.
例えば、グループを構成するユーザの何れか1人がサービスを実行する確率を「グループの利用確率」と定義する。このグループの利用確率が所定の要求確率以上になるように設定するようにしてもよい。グループの何れか1人のユーザがサービスを利用する確率は図4(c)に示す式により求めることができる。図4(b)は要求確率を95%としたときに、ユーザのサービスを利用する確率に対して、何人のユーザが匿名化グループに属していれば95%以上を達成できるかを示した情報である。匿名化分類部309は、レイヤの利用確率の区間を決定後に、図4(b)に示すような情報を基に、匿名化グループのサイズを決定することができる。例えば、匿名化分類部309は、利用確率の区間が0.4以上0.7未満に対しては、図4(b)の0.4以上0.7未満を参照して、最も大きい匿名化グループのサイズを用いる。この例では6となるため、匿名化グループのサイズは6以上として設定される。匿名化分類部309が、このようにして設定することで、匿名化グループの何れか1人のユーザがサービスを利用する確率を、要求確率95%以上に設定することができる。
これによって、匿名化された情報に合わせてサービスが準備を行うようになったとしても、要求確率のもとで少なくとも1人はサービスを享受する可能性があり、サービス提供側にとって有効な情報を生成する匿名化ができる。
又は、匿名化分類部309は、グループの利用確率を、グループを構成するユーザの利用確率の和で近似してもよい。これによって、簡便な計算によってグループの利用確率を求めることができるようになる。
匿名化分類部309は、上記の要求確率をサービスから取得するようにしてもよい。また、匿名化分類部309は、グループの利用確率は、グループのうち1人が利用する確率ではなく、グループのうち少なくともN人が利用する確率等としてもよい。
本実施形態では、匿名化分類部309は、パラメータとして匿名化グループのサイズを決定してから処理を行っている。しかしながら、匿名化分類部309は、匿名化グループのサイズを決定せずに、要求確率のみを決定しておき処理するようにしてもよい。より具体的には、匿名化分類部309は、図6のS604における判定時に、分割後のグループの構成ユーザを用いて、図4(c)に示す数式を用いて、少なくとも1人のユーザがサービスを利用する確率(グループの利用確率)を算出する。匿名化分類部309は、各々の分割後グループで、グループの利用確率が要求確率を上回るとき、分割可能と判断する。一方で、匿名化分類部309は、要求確率を下回るとき、分割不可能と判断する。
また、限界誤差グループ解体処理(図7)においても、S712で、匿名化分類部309は、匿名化グループサイズの条件を満たすまで解体をキャンセルするところを、要求確率を満たすまで解体をキャンセルするようにする。
これによって、予め匿名化グループのサイズを決定している場合に比べて、より精度高く要求確率を匿名化グループが充足しているか否かを判定できるようになる。一方で、予め匿名化グループのサイズを決定している場合は、S604での処理が簡便になるため、より高速に処理ができるようになるという効果が得られる。
For example, the probability that any one of the users constituting the group will execute the service is defined as a “group use probability”. You may make it set so that the utilization probability of this group may become more than a predetermined | prescribed request | requirement probability. The probability that any one user in the group uses the service can be obtained by the equation shown in FIG. FIG. 4B shows information indicating how many users can achieve 95% or more if the user's service is used if the request probability is 95% if the user belongs to the anonymization group. It is. The
As a result, even if the service prepares for anonymized information, there is a possibility that at least one person will enjoy the service with the probability of request. Generate anonymization.
Or the anonymization classification |
The
In the present embodiment, the
Also in the marginal error group disassembly process (FIG. 7), in S712, the
This makes it possible to determine whether or not the anonymization group satisfies the request probability with higher accuracy than when the size of the anonymization group is determined in advance. On the other hand, when the size of the anonymization group is determined in advance, since the process in S604 is simplified, an effect that the process can be performed at a higher speed is obtained.
次に、タクシーサービスに対して位置情報を開示する例について図9〜図11を用いて説明する。
図9(a)はある時刻Tにおけるユーザの位置情報の分布を表した図である。図中の○△×はユーザのタクシーサービスの利用確率を表している。利用確率との対応は図4(a)の符号に示すとおりである。図9(a)に示す状態は開示情報生成処理(図5)のS501を終えた状態にある。
図9(b)は、更にS502〜S504を終えて、匿名化グループを作成した状態を示している。2種類の破線はそれぞれ匿名化グループを示している。細かい破線801bの匿名化グループは利用確率が△で表されるレイヤの匿名化グループであり、粗い破線802bの匿名化グループは利用確率が○で表されるレイヤの匿名化グループである。利用確率が×で表現されるレイヤは情報を開示しないため、図中から削除している。
図9(c)は、更にS505を終えて匿名化情報を生成した状態であり、タクシーサービスに提供される情報のイメージを示したものである。匿名化グループごとに重心と半径とが算出され、開示するコンテキスト情報として生成される。タクシーサービスには、匿名化グループごとに、重心・半径・グループの確率・構成するユーザID・ユーザのサービス利用確率等が開示されることになる。グループの確率は、構成するユーザのサービスの利用確率を用いて、何れか1人のユーザがサービスを実行する確率を求めたものである。ユーザIDはタクシーサービスに閉じたIDである。そのため、タクシーサービス以外が保有するデータと組み合わせて利用はできない。
こうした情報をタクシーサービスが受け取ると、図9(c)の破線で表されるエリア内をタクシーが巡回するように巡回ルートを決定できるようになる。加えて、タクシーサービス側にユーザIDを開示することで、ユーザIDに紐付けた属性情報等をタクシーサービス側が有しているとき、それを基にタクシーの準備等ができる。例えば、タクシー内にサイネージを有するとき、サイネージに流す広告をユーザに合わせたものを予めダウンロードして準備しておくこと等ができるようになる。
但し、サービスに開示する情報の項目や形態は、これらに限定されるものではない。
Next, an example of disclosing location information for a taxi service will be described with reference to FIGS.
FIG. 9A is a diagram showing a distribution of user position information at a certain time T. FIG. ○ △ × in the figure represents the use probability of the user's taxi service. Correspondence with the use probability is as shown by reference numerals in FIG. The state shown in FIG. 9A is a state after S501 of the disclosure information generation process (FIG. 5).
FIG. 9B shows a state where S502 to S504 are further completed and an anonymization group is created. Each of the two types of broken lines indicates an anonymization group. The anonymization group of the fine
FIG. 9C shows a state where the anonymized information is generated after S505 is further completed, and shows an image of information provided to the taxi service. The center of gravity and the radius are calculated for each anonymization group, and are generated as disclosed context information. In the taxi service, for each anonymized group, the center of gravity, the radius, the probability of the group, the configured user ID, the service usage probability of the user, and the like are disclosed. The probability of the group is obtained by using the service usage probability of the constituent users to determine the probability that any one user will execute the service. The user ID is an ID closed to the taxi service. Therefore, it cannot be used in combination with data held by other than taxi service.
When such information is received by the taxi service, the patrol route can be determined so that the taxi patrols the area indicated by the broken line in FIG. In addition, by disclosing the user ID to the taxi service side, when the taxi service side has attribute information associated with the user ID, it is possible to prepare a taxi based on the attribute information. For example, when having a signage in a taxi, it is possible to pre-download and prepare advertisements tailored to the user.
However, the items and forms of information disclosed to the service are not limited to these.
図10(a)は図9(a)より少し進んだ時刻である時刻T+1におけるユーザの位置情報の分布と、ユーザの利用確率と、を表した図である。図10中の黒塗りにされた符号(●と★)は時刻Tから利用確率が変化部分である。何れも時刻Tよりも利用確率が高まった状態になっている。また、時刻Tにおいて、破線で表わされるエリアを巡回するように決定していたため、破線のエリアの数だけタクシーが出現している。
図10(b)は時刻T+1の状態での匿名化グループの状態を示している。利用確率の高まったユーザ901bと902bとは匿名化グループを時刻Tと比べて変えている。そのため、開示する情報の精度が高くなる。一方で、ユーザ903bは匿名化グループを変えていない。これは、同一のレイヤにあるユーザと匿名化グループを形成すると、誤差が大きくなりすぎる。そのため、限界誤差グループの解体処理によって、下位レイヤの匿名化グループにユーザを割り当てるように処理されたためである。
図10(c)は時刻T+1でタクシーサービスに提供される情報のイメージを示したものである。タクシーサービスからは、配車依頼をしたユーザ901bの位置情報を分かるようになり、近くで準備をしていたタクシー901cが迎えに行くことで、ユーザの待ち時間を少なくすることができる。
FIG. 10A shows the distribution of the user's position information and the user's use probability at
FIG. 10B shows the state of the anonymization group in the state at
FIG. 10 (c) shows an image of information provided to the taxi service at
図11(a)は、図10(a)と同様の情報を時刻を時刻T+2に進めた状態で示したものである。タクシー901cとユーザ901bとはユーザの目的地へと向かったため、図11中からは消えている。加えて、黒塗りにされた符号(★)が時刻T+1から利用確率が変化した部分である。
図11(b)は、匿名化グループの状態を示しており、ユーザ1001bは1人で匿名化グループを形成するようになる。
図11(c)は、タクシーサービスに提供される情報のイメージであり、近くに配車されていたタクシー1001cをユーザ1001bに向かわせる。加えて、エリア1002cを補うタクシーがいなくなるため、別のタクシーをエリア1002cに向かわせることを行う。
このように、タクシーの利用確率が高まるにつれて、情報の精度が高まっていく。より具体的には、位置情報の精度が高まっていく。これによって、利用確率の高い状態においては、より個人化された準備がされるようになる。より具体的には、ユーザに近いところをタクシーが巡回するようになる。その結果、タクシーの配車を依頼したときに、待ち時間が少なくなるという効果が得られる。
FIG. 11A shows the same information as in FIG. 10A with the time advanced to
FIG.11 (b) has shown the state of the anonymization group, and the
FIG. 11C is an image of information provided to the taxi service, and directs the
Thus, as the taxi utilization probability increases, the accuracy of information increases. More specifically, the accuracy of position information increases. As a result, in a state where the use probability is high, a more personalized preparation is made. More specifically, a taxi goes around the user. As a result, there is an effect that waiting time is reduced when taxi dispatch is requested.
次に、コンテキスト情報が複数であり、属性情報等を含む場合の例について述べる。この例では、シューズショップサービスに対して、来店する可能性のある客(PCAクライアントのユーザ)が望む靴の情報を共有する例について図12〜図14を用いて説明する。
シューズショップは客に靴を販売する店舗である。客は店舗を訪れたときに、自身の望む靴を見たり試着したりすることを望む。そのため、希望の靴の在庫が訪れた店にないとき、店員が近隣の他店舗に取りに行くため、その間待たされるということが起こる。こうした問題を解決するために、シューズショップサービスでは、店頭に来店する客の情報に合わせて、靴を用意しておくことを行う。これによって、客が店舗を訪れたときに、希望の靴がないために、待たされることを防ぐ。
PCAサーバで匿名化する前のコンテキスト情報について、図13(a)を用いて説明する。これは主にユーザがほしいと思っている靴の情報である。これら情報は、ユーザの普段の行動から推定されるものであってもよい。例えば、オンラインショッピング等では、ほしいものリストを作成しておくことが行われている。コンテキスト取得部306は、ほしいものリストからコンテキスト情報を作成してもよい。又は、コンテキスト取得部306は、ユーザがいくつかのシューズショップを巡る中でコンテキスト情報を獲得してもよい。但し、コンテキスト情報の獲得方法はこれらに限定されるものではない。
Next, an example in which there is a plurality of context information and attribute information etc. will be described. In this example, an example of sharing shoe information desired by a visitor (PCA client user) who has the possibility of visiting the shoe shop service will be described with reference to FIGS.
A shoe shop is a store that sells shoes to customers. When customers visit the store, they want to see and try on their shoes. For this reason, when the desired shoe stock is not in the visited store, the store clerk goes to another store in the vicinity, so that he / she is kept waiting. In order to solve these problems, the shoe shop service prepares shoes according to the information of customers who visit the store. This prevents the customer from waiting because the desired shoe is not available when the customer visits the store.
The context information before anonymizing with the PCA server will be described with reference to FIG. This is mainly information about shoes that the user wants. Such information may be estimated from the user's usual behavior. For example, in online shopping or the like, a wish list is created. The
図13(a)中の列の各項目について説明する。
ユーザIDは、ユーザを一意に特定するための情報であり、既にユーザに関する情報をサービスが有しているときは、その情報と紐付けて処理するためのものである。例えば、ユーザが既にショップの会員等であれば、ショップには年齢・性別・以前に購入した品等の情報が蓄積されているため、これらと紐付けて処理することで、より様々な準備ができる。例えば、以前に購入した商品と同じにならないように用意をしておくこと等ができる。
利用確率は、ユーザが来店する確率であり、ここでは符号で表現されている。この符号と利用確率の対応は図12に示すとおりである。
カテゴリとサブカテゴリとは、靴の種類に関する情報である。カテゴリが上位の分類であり、その下位分類がサブカテゴリである。
色分類と色とは、靴の色に関する情報である。色分類が上位の分類であり、その下位分類が色である。
サイズは、靴のサイズに関する情報である。
図13(a)はある時刻Tにおけるコンテキスト情報を表している。これに対して、開示情報生成部305は、開示情報生成処理を行うことで「カテゴリ、サブカテゴリ、色分類、色、サイズ」を匿名化して、図13(b)の情報を生成する。このとき開示情報生成処理では、図12に示すパラメータを用いる。このパラメータは図4(a)に示すものとほぼ同じである。但し、限界誤差が匿名化したいコンテキスト情報に合わせて変えられている。より具体的には、ここでは限界誤差を匿名化した項目(列)の個数としている。つまり、利用確率の符号△で表現されるデータに対しては、匿名化される項目数は4以下が望ましいことを示している。
Each item in the column in FIG. 13A will be described.
The user ID is information for uniquely identifying the user. When the service already has information on the user, the user ID is associated with the information and processed. For example, if the user is already a member of the shop, the shop stores information such as age, gender, and previously purchased items. it can. For example, it can be prepared not to be the same as a previously purchased product.
The use probability is a probability that the user visits the store, and is expressed by a code here. The correspondence between this code and the use probability is as shown in FIG.
A category and a subcategory are information regarding the type of shoe. The category is an upper classification, and the lower classification is a subcategory.
The color classification and the color are information on the color of the shoe. The color classification is an upper classification, and the lower classification is a color.
The size is information regarding the size of the shoe.
FIG. 13A shows context information at a certain time T. FIG. On the other hand, the disclosure
以下、図5に示す開示情報生成処理について、ステップごとに説明する。
S501では、利用確率算出部307は、利用確率を推定する。例えば、利用確率算出部307は、ユーザと店舗との距離と利用確率の対応を予め作成しておき、遠くの距離に対して小さな確率を割り当て、近くの距離に対して大きな確率を割り当てるように設定するようにしてもよい。例えば、利用確率算出部307は、店舗を中心とした正規分布等を設定することで、これは実現ができる。又は、利用確率算出部307は、PCAサーバに集積されるコンテキスト情報を用いて、PCAサーバが地点間の巡回モデルを作成しておくようにしてもよい。例えば、利用確率算出部307は、ユーザから集められる位置情報を基に、地点間の移動確率を巡回モデルとして作成しておく。そして、利用確率算出部307は、ユーザが現在いる地点からシューズショップまでの移動確率を巡回モデルに基づき求める。但し、利用確率の推定方法はこれらに限定されるものではない。
S502では、利用確率分類部308は、ユーザを利用確率ごとにレイヤに分ける。この例では利用確率△と○の2つに分けられることになる。
S503では、利用確率分類部308は、匿名化対象のレイヤを特定する。図12によると利用確率の符号△と○で表されるレイヤが対象であるため、図13(a)では全てのレイヤが匿名化対象となる。
Hereinafter, the disclosure information generation process illustrated in FIG. 5 will be described step by step.
In S501, the use
In S502, the use
In S503, the use
S504では、匿名化分類部309は、匿名化グループ作成処理を行う。まず開示情報生成部305は、利用確率の符号△のデータだけに着目して、匿名化グループサイズの条件を満たす最小のサイズにまでユーザを分割することを繰り返す。この例では、User01〜User08とUser012〜User18との2つのグループが作成される。次に、開示情報生成部305は、利用確率の符号○のデータに着目して、処理を行う。するとUser09〜User11とUser19〜User21との2つのグループが作成される。
S505では、匿名化情報生成部310は、匿名化グループごとに開示情報を生成する。匿名化情報生成部310は、上記4つのグループごとに、各項目を処理する。より具体的には、匿名化情報生成部310は、「カテゴリ、サブカテゴリ、色分類、色」に対しては、グループ内のすべてのデータが同じ値であるときは、その値を残し、異なる場合は「*」に置換する。これによって、元の値が何か分からないように匿名化をする。匿名化情報生成部310は、サイズに対しては、グループ内のデータの範囲に変換する。これによって、各データのサイズを分からないようにする。
以上によって図13(b)に示す開示用のコンテキスト情報が生成される。この情報がシューズショップサービスに開示される。これによって、シューズショップサービスは、ショップ内の在庫と照らし合わせて、このリストにある靴が在庫にないときは、近隣の店舗から取り寄せることを行う。
In S504, the
In S505, the anonymization
Thus, the context information for disclosure shown in FIG. 13B is generated. This information is disclosed to the shoe shop service. As a result, the shoe shop service compares with the stock in the shop, and if the shoes on this list are not in stock, they are ordered from nearby stores.
図14(a)は図13に示す状態から時間が進んだ時刻T+1における開示用のコンテキスト情報を示している。時刻T+1においてはUser12の利用確率が上昇したため、利用確率の符号が△から○へと変化している。ここでは分かりやすいように符号を黒で塗りつぶしている。
利用確率の上昇の結果、S504で作成される匿名化グループが変化する。より具体的には、利用確率の符号△のデータでは、匿名化グループが、User12が抜けたことで、User01〜User08とUser013〜User18とに変わる。更に、利用確率の符号○のデータでは、匿名化グループが、User12が増えたことで、User09〜User12とUser19〜User21とに変化する。
そして、匿名化グループごとに開示情報が生成される。例えば、User12を含むUser09〜User12のグループは、色が*に置きかえられ、サイズがグループのデータの区間へと置きかえられる。
これによって、User12の開示されるコンテキスト情報は、時刻Tでは加工されて分からなかったサブカテゴリと色分類が分かるようになる。
図14(b)は更に時刻がT+2へと進んだ状態を示している。時刻T+2では、User12の利用確率が更に上昇したため、利用確率の符号が○から☆へと変化している。ここでは分かりやすいように符号を黒で塗りつぶしている。
利用確率の上昇の結果、S504で作成される匿名化グループが変化する。より具体的には、利用確率の符号△のデータの匿名化グループは変化しない。しかし、利用確率の符号○のデータでは、匿名化グループが、User12が減ったことで、User09〜User11とUser19〜User21とに変化する。そして、利用確率の☆のデータは、匿名化グループのサイズは1であることが条件なため、User1だけの匿名化グループが形成される。
そして、匿名化グループごとに開示情報が生成される。しかし、User12を含む匿名化グループは、User12しかデータがないため、そのままの値が開示されることになる。
これによって、User12の開示されるコンテキスト情報は、時刻T+1では加工されて分からなかった色とサイズが分かるようになる。
このように、User12のように、利用確率が上昇するにつれて、そのユーザの情報の精度が高まる。より具体的には、「カテゴリ、サブカテゴリ、色分類、色」はその値が分かるようになる。「サイズ」はその区間が狭まっていく。これによって、利用確率の高い状態においては、より個人化された準備がされるようになる。より具体的には、ユーザが開示した情報に適合する靴が予め店舗に用意されるようになる。その結果、店舗を訪れたときに、望む靴が在庫にないという事態が避けられ、待ち時間少なく商品を見たり試着したりすることができるようになる。
FIG. 14A shows the context information for disclosure at time T + 1 when time has advanced from the state shown in FIG. At
As a result of the increase in usage probability, the anonymization group created in S504 changes. More specifically, in the data of the usage probability code Δ, the anonymization group is changed to User01 to User08 and User013 to User18 due to the absence of User12. Furthermore, in the data of the use probability code ◯, the anonymization group is changed to User 09 to User 12 and User 19 to User 21 due to the increase of User 12.
Then, disclosure information is generated for each anonymization group. For example, in the group of User 09 to User 12 including User 12, the color is replaced with * and the size is replaced with the data section of the group.
As a result, the context information disclosed by the User 12 can be recognized at the time T, and the subcategory and the color classification that are not known.
FIG. 14B shows a state in which the time has further advanced to T + 2. At
As a result of the increase in usage probability, the anonymization group created in S504 changes. More specifically, the anonymization group of the data of the use probability code Δ does not change. However, in the data of the use probability code ◯, the anonymization group changes to User 09 to User 11 and User 19 to User 21 because User 12 has decreased. And since the data of the use probability ☆ is on condition that the size of the anonymization group is 1, an anonymization group of only User1 is formed.
Then, disclosure information is generated for each anonymization group. However, since the anonymization group including User 12 has data only for User 12, the value as it is is disclosed.
As a result, the context information disclosed by the User 12 can be known at the
Thus, as with User 12, as the use probability increases, the accuracy of the user's information increases. More specifically, the values of “category, subcategory, color classification, color” can be known. “Size” narrows the section. As a result, in a state where the use probability is high, a more personalized preparation is made. More specifically, shoes that match the information disclosed by the user are prepared in advance in the store. As a result, it is possible to avoid a situation where the desired shoes are not in stock when visiting the store, and to see or try on the product with less waiting time.
タクシーサービスやシューズショップサービスの例においては、コンテキスト情報は変化せずに、利用確率のみが変化する場合について述べた。しかし、コンテキスト情報も時々刻々と変化する。つまり、タクシーサービスであれば、ユーザが移動することで位置情報は変化していく。また、シューズショップサービスでは、望みの靴の情報も複数のお店を見る過程で変化していく。
また、この例では、利用確率が上昇する例について述べたが、利用確率が低下する場合もある。利用確率が低下すると、情報の精度は低くなる。タクシーサービスの例では、開示情報の重心座標がユーザの位置情報と異なりが大きくなることがある。シューズショップサービスの例では、「カテゴリ、サブカテゴリ、色分類、色」はその値が分からなくなり、「サイズ」はその区間が広がるといったことが起きる。これによって、利用確率が低下したユーザの情報が匿名化されるようになる。
一度開示された情報が匿名化で隠されたとしても、開示したときの情報をサービス側が記憶している場合もあり得る。しかし、コンテキスト情報は時々刻々と変化するため、開示以降の変化に対しては追従をすることができなくなる。
以上によって、ユーザがサービスを利用する確率に合わせて情報の精度を変えることで、匿名化とサービス準備との両立を図ることができる。
特に、開示情報生成部305は、匿名化グループを構成して、同グループのユーザのコンテキスト情報を同じものにする匿名化を行う。これによって、グループ内のユーザは他のユーザとの区別がつかなくなる。これによって、プライバシを保護できるようになる。
In the examples of taxi service and shoe shop service, the case where only the use probability changes without changing the context information has been described. However, context information also changes from moment to moment. That is, in the case of a taxi service, the location information changes as the user moves. Also, in the shoe shop service, the information on the shoes you want changes as you browse multiple shops.
In this example, an example in which the use probability increases is described, but the use probability may decrease. As the use probability decreases, the accuracy of information decreases. In the example of the taxi service, the center-of-gravity coordinates of the disclosure information may be different from the user position information. In the example of the shoe shop service, the value of “category, subcategory, color classification, color” is unknown, and “size” has a wide range. As a result, the information of the user whose use probability has decreased is anonymized.
Even if the information once disclosed is hidden by anonymization, the service side may store the information when disclosed. However, since the context information changes from moment to moment, it becomes impossible to follow changes after disclosure.
As described above, it is possible to achieve both anonymization and service preparation by changing the accuracy of information according to the probability that the user uses the service.
In particular, the disclosure
本実施形態では、ユーザIDを含めてサービス側にコンテキスト情報を開示している。しかし、このユーザIDはサービスに閉じたユーザIDである。そのため、他サービスが保有するデータと紐付けるには、共通に開示されたコンテキスト情報との一致をとって、データを結合する必要がある。しかし、コンテキスト情報は匿名化されているため、一定数以上には絞り込むことができない。
また、本実施形態では、利用確率でユーザをレイヤに分けることで、利用確率が同程度のユーザ同士で匿名化を行う。これによって、利用確率が高いユーザが、利用確率の低いユーザの匿名化の要求レベルに合わせて情報の精度が落とされてしまうことを防ぐことができる。
加えて、本実施形態では、匿名化グループのサイズを、グループの利用確率に基づいて決定する。これによって、匿名化後の情報がサービス側にとっても有益になるようにすることができる。加えて、本実施形態では、グループの利用確率を、グループを構成するユーザのうち少なくとも1人がサービスを利用する確率とする。このとき、提供された情報に対する準備が、何れかのユーザ1人に要求確率のもとで使われるため、無駄になる可能性を確率的に制御できるようになる。
加えて、本実施形態では、利用確率のレイヤごとに限界誤差を定めておき、限界誤差を超えるグループを解体して、別のグループへとユーザを割り当てる。これによって、利用確率ごとに誤差が限界誤差より大きくなることを抑制できる。特に、本実施形態では、別のグループへの割り当ての際に、ユーザの属するレイヤよりも下位のレイヤのグループへの割り当ても含めている。これによって、誤差が限界誤差よりも大きくなることをより抑制できる。
In the present embodiment, context information is disclosed to the service side including the user ID. However, this user ID is a user ID closed to the service. For this reason, in order to associate with data held by another service, it is necessary to match the data with the context information disclosed in common and combine the data. However, since the context information is anonymized, it cannot be narrowed down beyond a certain number.
Moreover, in this embodiment, anonymization is performed between users having the same usage probability by dividing the users into layers based on the usage probability. Thereby, it is possible to prevent a user with a high use probability from degrading the accuracy of information in accordance with the request level for anonymization of a user with a low use probability.
In addition, in this embodiment, the size of the anonymization group is determined based on the use probability of the group. Thereby, the information after anonymization can be useful for the service side. In addition, in this embodiment, the group use probability is a probability that at least one of the users configuring the group will use the service. At this time, since the preparation for the provided information is used for one of the users with a request probability, the possibility of being wasted can be controlled stochastically.
In addition, in this embodiment, a limit error is defined for each layer of use probability, a group exceeding the limit error is disassembled, and a user is assigned to another group. Thereby, it is possible to suppress the error from becoming larger than the limit error for each use probability. In particular, in the present embodiment, the assignment to a group in a lower layer than the layer to which the user belongs is included in the assignment to another group. This can further suppress the error from becoming larger than the limit error.
本実施形態では、利用確率に基づいて開示情報を生成していた。しかし、利用確率に限定されるものではなく、ユーザのサービスの要求度であればよい。より具体的には、確率のような0〜1の連続値ではなく、0〜1という制限のない連続値であったり、「高」「中」「低」などのカテゴリカル値であったりしてもよい。本実施形態における要求度はこれらに限定されるものではない。
また、本実施形態ではシステムが推定することによって求められていたが、ユーザが入力したものを利用してもよい。より具体的には、PCAサーバ102は、PCAクライアント101のモニタ等に要求度を入力するUIを表示させ、ユーザ入力を受け取るようにしてもよい。例えば、PCAサーバ102は、要求度を5段階等でPCAクライアント101のモニタ等に提示して、スライダー等のUIによりユーザに入力させたものを用いてもよい。段階については、PCAサーバ102は、図4(a)に示す開示情報を生成する際のパラメータを用いて、レイヤ数に一致するように生成してもよい。又は、PCAサーバ102は、要求度を色味等で表示して、要求度を高めたり低めたりするためのボタンを通して入力させるようにしてもよい。又は、例えば、PCAサーバ102は、PCAクライアント101のモニタ等を介して利用確率を受け付けるようにしてもよいし、要求度を表現する連続値やカテゴリカル値を受け付けるようにしてもよい。推定は誤ることもあるため、ユーザがサービスを強く希望しているときは、PCAサーバ102は、PCAクライアント101のモニタ等を介したユーザ操作に基づき、要求度を高く入力する。又は、自身の情報が開示されることを嫌うときは、PCAサーバ102は、PCAクライアント101のモニタ等を介したユーザ操作に基づき、能動的に要求度を低く入力する。これによって、ユーザ意図を反映した情報開示を行うことができる。
In the present embodiment, the disclosure information is generated based on the use probability. However, it is not limited to the use probability, and may be a user service request level. More specifically, it is not a continuous value of 0 to 1 such as a probability but a continuous value of 0 to 1 or a categorical value such as “high”, “medium”, and “low”. May be. The required degree in this embodiment is not limited to these.
Further, in the present embodiment, it is obtained by estimation by the system, but what is input by the user may be used. More specifically, the
<実施形態2>
実施形態1では利用確率が高いとき、サービスへと情報を開示していた。しかしながら、利用確率を高く推定されたユーザであっても、一定以上の情報開示を望まないこともある。そこで、ユーザが指定した開示条件を満たすように開示情報を生成する。本実施形態では、ユーザが入力した開示条件の一つである「匿名化要求」を満たすように開示情報を生成する方法を示す。そこで、本実施形態では、ユーザが入力した匿名化要求を満たすように開示情報を生成する方法を示す。
<
In the first embodiment, when the use probability is high, information is disclosed to the service. However, even a user whose usage probability is highly estimated may not want to disclose more than a certain amount of information. Therefore, the disclosure information is generated so as to satisfy the disclosure condition specified by the user. In the present embodiment, a method for generating disclosure information so as to satisfy an “anonymization request” which is one of disclosure conditions input by a user is shown. Therefore, in the present embodiment, a method for generating the disclosure information so as to satisfy the anonymization request input by the user is shown.
本実施形態における、開示する情報を生成するシステムの機能構成について説明する。
本実施形態では、実施形態1の構成に加えて、匿名化要求入力部が存在する。加えて、匿名化分類部309と匿名化情報生成部310とが異なる。以下、順に説明を行う。
本実施形態の匿名化要求入力部は、ユーザの情報を開示する際に満たすべき匿名化の条件を入力する。例えば、匿名化要求入力部は、ユーザの情報を開示する際には匿名化グループサイズは3人以上必要であるという条件を入力する。又は、匿名化要求入力部は、ある地域や時間帯では、匿名化グループサイズは3人以上必要であるという条件でもよい。これによって、家等にいる場合は、家の所在を明らかにしないように匿名化グループを大きくできる。例えば、匿名化要求入力部は、PCAサーバ102のモニタ、入力デバイス等を介して入力された匿名化要求の条件を受け取ってもよい。また、匿名化要求入力部は、PCAクライアント101のモニタ、入力デバイス等を介して入力された匿名化要求の条件を、ネットワークを介して受け取ってもよい。
又は、匿名化要求入力部は、開示情報のあいまいさの条件を入力してもよい。つまり、位置情報をもとに開示情報として中心座標と半径とを開示するときは、匿名化要求入力部は、その半径サイズの最低値の条件を入力してもよい。又は、属性情報を開示するときは、匿名化要求入力部は、匿名化された項目の個数の最低値を条件として入力してもよい。又は、匿名化要求入力部は、必ず匿名化されるべき項目等を入力してもよい。また、匿名化要求入力部は、地域や時間帯等の条件を含めて、開示情報のあいまいさの条件を入力するようにしてもよい。例えば、匿名化要求入力部は、ある地域においては、位置情報を開示する際は、最低の半径サイズは100m以上にする等である。又は、匿名化要求入力部は、ある地域においては、位置情報は開示しない等としてもよい。
なお、匿名化要求はこれらに限定されるものではない。
A functional configuration of a system for generating information to be disclosed in the present embodiment will be described.
In the present embodiment, in addition to the configuration of the first embodiment, there is an anonymization request input unit. In addition, the
The anonymization request input unit of the present embodiment inputs anonymization conditions that should be satisfied when disclosing user information. For example, the anonymization request input unit inputs a condition that three or more anonymization group sizes are required when disclosing user information. Alternatively, the anonymization request input unit may be a condition that anonymization group size is required for three or more people in a certain region or time zone. This makes it possible to increase the anonymization group so as not to reveal the location of the house when at home. For example, the anonymization request input unit may receive an anonymization request condition input via a monitor, an input device, or the like of the
Alternatively, the anonymization request input unit may input the ambiguity condition of the disclosure information. That is, when disclosing center coordinates and a radius as disclosure information based on position information, the anonymization request input unit may input a condition for the minimum value of the radius size. Alternatively, when disclosing attribute information, the anonymization request input unit may input the minimum value of the number of anonymized items as a condition. Alternatively, the anonymization request input unit may input items that should be anonymized without fail. Further, the anonymization request input unit may input the ambiguity condition of the disclosure information including the conditions such as the region and the time zone. For example, when anonymization request input unit discloses position information in a certain area, the minimum radius size is set to 100 m or more. Alternatively, the anonymization request input unit may not disclose position information in a certain area.
The anonymization request is not limited to these.
本実施形態の匿名化分類部309は、匿名化要求を満たすように、利用確率分類部308で得たレイヤごとに、匿名化対象のコンテキスト情報の類似性に基づいてユーザをグループに分類する。匿名化グループサイズに関する条件が指定されている場合、匿名化分類部309は、条件を満たすように匿名化グループを作成する。より具体的には、実施形態1の図5の、S501とS502との間において、匿名化分類部309は、匿名化要求を満たすように利用確率を修正する。例えば、匿名化要求が「匿名化グループサイズは3人以上」という条件であり、S501において利用確率1と推定されたユーザが存在した場合、匿名化分類部309は、以下のように修正を行う。即ち、匿名化分類部309は、図4(a)のパラメータを基に、利用確率を0.7以上1未満の値として0.8等と修正する。また、匿名化要求が地域や時間帯等を有していれば、匿名化分類部309は、それら条件を満たすときのみ利用確率を修正する。
本実施形態の匿名化情報生成部310は、匿名化分類部309で得たグループごとに、匿名化要求を満たすように開示するコンテキスト情報を生成する。開示情報のあいまいさの条件が指定されている場合に、匿名化情報生成部310は、条件を満たすように開示情報を加工する。より具体的には、実施形態1の図5のS505の直後において、開示情報がユーザの匿名化要求を満たさないとき、匿名化情報生成部310は、更なるあいまい化を行う。例えば、匿名化要求が「位置情報の半径は500m以上」という条件であれば、S505にてユーザごとに求められた開示情報の半径が100mのとき、匿名化情報生成部310は、条件を有するユーザの開示情報の半径を500m等と修正して開示情報とする。
以上によって、ユーザごとに匿名化要求を指定でできるため、一定以上の情報開示を行わないようにできる。
The
The anonymization
As described above, since an anonymization request can be designated for each user, information disclosure beyond a certain level can be prevented.
<実施形態3>
実施形態1では、図4(a)に示すようなパラメータ(開示パラメータ)を予め保持して、開示情報生成部305は、これに従う開示情報を生成していた。そのため、システムの推定する利用確率に基づいて、ユーザ一律に開示情報が生成されていた。しかしながら、ユーザによっては、積極的に情報を開示し、サービスの恩恵を受けることを願うユーザも存在する。そのようなユーザはサービス側の準備に対する要求(準備要求)が高いといえる。また、サービス側からしても、準備要求にこたえるために必要な情報品質等がある。サービス側の準備の段階等もサービスによって異なると考えられる。そこで、本実施形態では開示条件の一つである「準備要求」を満たすように開示情報を生成する方法を示す。特に、サービス側の求める準備要求と、ユーザ側の求める準備要求と、の双方を用いて開示情報を生成する方法について述べる。
<
In the first embodiment, parameters (disclosure parameters) as shown in FIG. 4A are stored in advance, and the disclosure
本実施形態における、開示する情報を生成するシステムの機能構成について説明する。 本実施形態では、実施形態1の構成に加えて、ユーザ準備要求入力部と、サービス準備要求入力部と、開示設定生成部と、が存在する。加えて、匿名化分類部309が異なる。以下、順に説明を行う。
サービス準備要求入力部は、匿名化レベルと情報品質とを入力する。より具体的には、匿名化レベルは、開示可否と匿名化グループサイズとの組合せである。例えば、サービス準備要求入力部は、図4(a)に示すような開示可否と匿名化グループサイズとの組合せを入力する。この例では4つのレベルを入力していることになる。この説明では図4(a)に示す情報を入力する形で説明しているが、匿名化レベルを増やす等してもよい。更に、サービス準備要求入力部は、この匿名化レベルに対応づけて情報品質を入力するようにしてもよい。例えば、情報品質は限界誤差である。又は、情報品質としてグループの利用確率等を用いてもよい。例えば、サービス準備要求入力部は、PCAサーバ102のモニタ、入力デバイス等を介して入力された情報品質を受け取ってもよい。また、サービス準備要求入力部は、PCAクライアント101のモニタ、入力デバイス等を介して入力された情報品質を、ネットワークを介して受け取ってもよい。以下の、サービス準備要求入力部においても同様である。
加えて、サービス準備要求入力部は、初期値となる利用確率の区間を匿名化レベルに対応づけて入力しておいてもよい。更に、サービス準備要求入力部は、各匿名化レベルに対して、サービス側の準備の内容をコメントとして記すようにしてもよい。より具体的には、サービス準備要求入力部は、タクシーサービス等であれば、ユーザの半径1000m以内にタクシーが配車されるようにするという準備に関する情報を記す。この情報は、後述のユーザ準備要求入力部において用いられる。
A functional configuration of a system for generating information to be disclosed in the present embodiment will be described. In the present embodiment, in addition to the configuration of the first embodiment, a user preparation request input unit, a service preparation request input unit, and a disclosure setting generation unit exist. In addition, the
The service preparation request input unit inputs an anonymization level and information quality. More specifically, the anonymization level is a combination of disclosure permission and anonymization group size. For example, the service preparation request input unit inputs a combination of availability of disclosure and anonymized group size as shown in FIG. In this example, four levels are input. In this description, the information shown in FIG. 4A is input, but the anonymization level may be increased. Furthermore, the service preparation request input unit may input information quality in association with the anonymization level. For example, information quality is a marginal error. Alternatively, a group use probability or the like may be used as information quality. For example, the service preparation request input unit may receive information quality input via a monitor, input device, or the like of the
In addition, the service preparation request input unit may input a section of a usage probability that is an initial value in association with an anonymization level. Further, the service preparation request input unit may write the contents of preparation on the service side as a comment for each anonymization level. More specifically, the service preparation request input unit describes information regarding preparation that a taxi is to be dispatched within a radius of 1000 m of the user if the service is a taxi service or the like. This information is used in a user preparation request input unit described later.
ユーザ準備要求入力部は、どこまで情報を開示したいかに関する要求を入力する。より具体的には、ユーザ準備要求入力部は、利用確率に対応する匿名化人数を入力する。例えば、ユーザ準備要求入力部は、「利用確率が0.7以上0.8未満では匿名化グループサイズは3人以上としたい」「利用確率が0.8以上1以下では匿名化グループサイズは1人としたい」というような要求を入力する。又は、ユーザ準備要求入力部は、利用確率に対する誤差限界を入力する。例えば、開示情報が位置情報であれば、ユーザ準備要求入力部は、「利用確率が0.7以上0.8未満では誤差限界は200mとしたい」というような要求を入力する。
システム側は、匿名化レベルを提示して、それに対応させて上記情報を入力させてもよい。より具体的には、ユーザはそれぞれに対して利用確率の区間を設定することや、誤差限界を設定する。このとき、利用確率の区間を対応づけない匿名化レベルがあってもよい。例えば、情報開示に対して寛容なユーザであれば、匿名化が強すぎると感じるレベルに対しては、利用確率の区間を対応づけないこと等ができる。
また、システム側から匿名化レベルを提示するときには、サービス準備要求入力部にて入力されたサービス側の準備内容のコメントを共に表示するようにしてもよい。これによって、プライバシ保護とサービス享受との双方を考慮しながら、ユーザは利用確率の区間を対応づけていくことができる。
The user preparation request input unit inputs a request regarding how much information is desired to be disclosed. More specifically, the user preparation request input unit inputs the anonymized number of people corresponding to the use probability. For example, the user preparation request input unit states that “if the usage probability is 0.7 or more and less than 0.8, the anonymization group size is 3 or more” “if the usage probability is 0.8 or more and 1 or less, the anonymization group size is 1 Enter a request that says "I want to be a person". Alternatively, the user preparation request input unit inputs an error limit for the use probability. For example, if the disclosure information is position information, the user preparation request input unit inputs a request such as “If the use probability is 0.7 or more and less than 0.8, the error limit is 200 m”.
The system side may present the anonymization level and input the information corresponding to it. More specifically, the user sets a use probability interval or sets an error limit for each. At this time, there may be an anonymization level that does not associate intervals of use probabilities. For example, if the user is tolerant of information disclosure, the usage probability interval may not be associated with a level at which anonymization is felt to be too strong.
Further, when the anonymization level is presented from the system side, the comment on the service-side preparation content input by the service preparation request input unit may be displayed together. Thus, the user can associate the usage probability intervals while considering both privacy protection and service enjoyment.
開示パラメータ生成部は、サービス準備要求入力部とユーザ準備要求入力部とで入力された情報を基に、図4(a)に示すような開示情報を生成するための開示パラメータを生成する。実施形態1、2では、開示パラメータはユーザによらず同じであったが、本実施形態ではユーザごとに開示パラメータを生成する。より具体的には、開示パラメータ生成部は、サービス準備要求入力部で入力された匿名化レベルに対して、ユーザ準備要求入力部で得た利用確率の区間を対応付ける。加えて、開示パラメータ生成部は、サービス準備要求入力部で入力された限界誤差を、ユーザ準備要求入力部で入力された限界誤差で上書きする。
また、匿名化レベルが細かすぎる場合、利用確率を対応づけていないユーザが多くなり、各匿名化レベルでの匿名化処理が難しくなることが考えられる。そこで、開示パラメータ生成部は、対応人数等を基にサービス提供側へ出力して、匿名化レベルの対応を丸めて作り直すことを提案してもよい。
本実施形態の匿名化分類部309は、ユーザごとの開示パラメータに従って匿名化グループを作成する。より具体的にはS502にて、匿名化分類部309は、ユーザごとの開示パラメータの利用確率の区間に従ってユーザをレイヤに分けることを行う。レイヤが同じユーザは匿名化グループサイズが同じであるため、以降の処理は限界誤差グループ解体処理(S609及びフローチャート図7)まで同じである。限界誤差グループ解体処理では、ユーザごとに限界誤差が異なるため処理が少し異なる。より具体的にはS704にて、匿名化分類部309は、現在の誤差と限界誤差の差が大きいユーザを優先的に選択する。そして、S707とS710とでは、匿名化分類部309は、ユーザ全ての限界誤差を満たすことを条件として処理を行う。
以上によって、サービス及びユーザが求める準備要求を基に開示情報を生成する。特に、サービス準備要求を設定することで、サービスごとに異なるサービス準備段階と必要な情報品質を反映した開示パラメータを生成できる。加えて、ユーザ準備要求を設定することで、ユーザごとの開示に対する許容性やサービス享受に対する積極性を反映した開示パラメータを生成できる。
本実施形態では、開示パラメータは状況によらずユーザに固定であった。しかしながら、状況に合わせて開示パラメータを変えるように構成してもよい。より具体的には、サービス準備要求入力部とユーザ準備要求入力部とでは、場所や時間帯等の条件を共に入力してもよい。そして、匿名化分類部309では条件に合わせて開示パラメータを切り替えて利用する。
つまり、サービス準備要求入力部では、開示レベルや情報品質は、場所や時間帯等の状況に応じて複数設定する。例えば、タクシーサービス等では、タクシーの少ないエリアでは匿名化レベルを細かく設定しても、対応できないために、匿名化レベルをエリアに合わせて変える。
また、ユーザ準備要求入力部では、時間帯や場所等の状況を条件として、準備要求を指定する。例えば「休日においては」等という条件を基に、より情報を開示するような設定する。これによって、休日のみ特別にサービスを積極的に受けられるような情報開示がなされることになる。反対に、ビジネスに関するサービスに対しては「平日の8:00〜17:00」等を条件とすれば、ビジネス中には特別にサービスを積極的に受けられるような情報開示がなされる。
The disclosure parameter generation unit generates a disclosure parameter for generating disclosure information as illustrated in FIG. 4A based on information input by the service preparation request input unit and the user preparation request input unit. In the first and second embodiments, the disclosure parameter is the same regardless of the user, but in the present embodiment, the disclosure parameter is generated for each user. More specifically, the disclosure parameter generation unit associates the use probability section obtained by the user preparation request input unit with the anonymization level input by the service preparation request input unit. In addition, the disclosure parameter generation unit overwrites the limit error input by the service preparation request input unit with the limit error input by the user preparation request input unit.
Moreover, when the anonymization level is too fine, there are many users who do not associate usage probabilities, and anonymization processing at each anonymization level may be difficult. Therefore, the disclosure parameter generation unit may propose to output to the service providing side based on the number of responding persons and the like to round the correspondence of the anonymization level and recreate it.
The
As described above, the disclosure information is generated based on the service and the preparation request requested by the user. In particular, by setting a service preparation request, it is possible to generate a disclosure parameter that reflects different service preparation stages and necessary information quality for each service. In addition, by setting a user preparation request, it is possible to generate a disclosure parameter that reflects the permissibility of disclosure for each user and the aggressiveness of service reception.
In the present embodiment, the disclosed parameter is fixed to the user regardless of the situation. However, you may comprise so that a disclosed parameter may be changed according to a condition. More specifically, the service preparation request input unit and the user preparation request input unit may input conditions such as a place and a time zone together. And in the anonymization classification |
That is, in the service preparation request input unit, a plurality of disclosure levels and information qualities are set according to the situation such as location and time zone. For example, in a taxi service or the like, even if the anonymization level is set finely in an area with few taxis, it cannot be handled, so the anonymization level is changed according to the area.
In addition, the user preparation request input unit designates a preparation request on condition of conditions such as a time zone and a place. For example, the information is set to be disclosed more on the basis of a condition such as “on holidays”. As a result, information is disclosed so that the service can be positively received only on holidays. On the other hand, for business-related services, if “weekdays from 8:00 to 17:00” or the like is a condition, information is disclosed so that the service can be actively received during business.
本実施形態では、実施形態2に示す匿名化要求を満たす開示情報の生成の方法は含めていなかったが、それを含めるように構成してもよい。より具体的には、開示パラメータ生成部は、匿名化要求入力部の匿名化グループサイズの条件も用いて、開示パラメータを生成するようにしてもよい。又は、匿名化要求入力部から匿名化グループサイズを入力しているが、ユーザ準備要求入力部から入力してもよい。また、匿名化要求入力部で、開示情報のあいまいさの条件を入力する。そして、実施形態2で示すように、匿名化情報生成部310にて、条件を満たす情報生成を行えばよい。
In the present embodiment, the method of generating the disclosure information that satisfies the anonymization request shown in the second embodiment is not included, but it may be configured to include it. More specifically, the disclosure parameter generation unit may generate the disclosure parameter using the anonymization group size condition of the anonymization request input unit. Or although the anonymization group size is input from the anonymization request input part, you may input from a user preparation request input part. In addition, the anonymization request input unit inputs the ambiguity condition of the disclosure information. Then, as shown in the second embodiment, the anonymized
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。 As mentioned above, although preferable embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns.
以上、上述した各実施形態の処理によれば、プライバシ保護とタイミングギャップ解消とを両立させることができる。つまり、ユーザがサービスを利用する確率が低いときは、情報の精度が低くなるため、プライバシが保護される。一方で、ユーザがサービスを利用する確率が高まるにつれて、情報の精度が高まるため、徐々にタイミングギャップを小さくしていくことができる。そのため、サービスを利用する直前にはタイミングギャップを解消した状態を作り出すことができる。 As mentioned above, according to the process of each embodiment mentioned above, privacy protection and timing gap elimination can be made compatible. That is, when the probability that the user uses the service is low, the accuracy of information is low, and privacy is protected. On the other hand, since the accuracy of information increases as the probability that the user uses the service increases, the timing gap can be gradually reduced. Therefore, it is possible to create a state in which the timing gap is eliminated immediately before using the service.
102 PCAサーバ
201 CPU
204 外部記憶装置
210 モニタ
102
204
Claims (13)
前記利用可能性と複数のユーザのコンテキスト情報であって前記サービスに応じたコンテキスト情報の類似性とに基づき前記複数のユーザをグループに分類する分類手段と、
グループに含まれるユーザのコンテキスト情報に基づき前記グループごとに前記サービスの提供元に開示する開示情報を生成する生成手段と、
を有する情報処理装置。 An estimation means for estimating service availability for each user;
Classification means for classifying the plurality of users into groups based on the availability and the context information of the plurality of users and the similarity of the context information according to the service;
Generating means for generating disclosure information disclosed to the service provider for each group based on user context information included in the group;
An information processing apparatus.
前記推定手段は、前記コンテキスト情報に基づきユーザごとにサービスの利用可能性を推定する請求項1記載の情報処理装置。 It further has an acquisition means for acquiring user context information,
The information processing apparatus according to claim 1, wherein the estimation unit estimates service availability for each user based on the context information.
ユーザごとにサービスの利用可能性を推定する推定ステップと、
前記利用可能性と複数のユーザのコンテキスト情報であって前記サービスに応じたコンテキスト情報の類似性とに基づき前記複数のユーザをグループに分類する分類ステップと、
グループに含まれるユーザのコンテキスト情報に基づき前記グループごとに前記サービスの提供元に開示する開示情報を生成する生成ステップと、
を含む情報処理方法。 An information processing method executed by an information processing apparatus,
An estimation step for estimating service availability for each user;
A classification step of classifying the plurality of users into groups based on the availability and the context information of the plurality of users and the similarity of the context information according to the service;
Generating a disclosure information to be disclosed to the service provider for each group based on user context information included in the group;
An information processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/457,001 US20170270422A1 (en) | 2016-03-16 | 2017-03-13 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016052638 | 2016-03-16 | ||
JP2016052638 | 2016-03-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017174403A true JP2017174403A (en) | 2017-09-28 |
Family
ID=59971536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017011253A Withdrawn JP2017174403A (en) | 2016-03-16 | 2017-01-25 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017174403A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6431229B1 (en) * | 2018-03-27 | 2018-11-28 | 株式会社博報堂Dyホールディングス | Information processing system, information processing method, and computer program |
WO2019073959A1 (en) * | 2017-10-10 | 2019-04-18 | 株式会社博報堂Dyホールディングス | Information processing system, data provision system, and related method |
JP2019175419A (en) * | 2018-09-26 | 2019-10-10 | 株式会社博報堂Dyホールディングス | Data providing system, data providing method, and computer program |
JP2023508631A (en) * | 2020-09-29 | 2023-03-03 | グーグル エルエルシー | Protection of access to information in online interactions |
-
2017
- 2017-01-25 JP JP2017011253A patent/JP2017174403A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019073959A1 (en) * | 2017-10-10 | 2019-04-18 | 株式会社博報堂Dyホールディングス | Information processing system, data provision system, and related method |
US11593513B2 (en) | 2017-10-10 | 2023-02-28 | Hakuhodo Dy Holdings Inc. | Information processing system, data provision system, and related method |
JP6431229B1 (en) * | 2018-03-27 | 2018-11-28 | 株式会社博報堂Dyホールディングス | Information processing system, information processing method, and computer program |
JP2019174954A (en) * | 2018-03-27 | 2019-10-10 | 株式会社博報堂Dyホールディングス | Information processing system, information processing method, and computer program |
JP2019175419A (en) * | 2018-09-26 | 2019-10-10 | 株式会社博報堂Dyホールディングス | Data providing system, data providing method, and computer program |
JP2023508631A (en) * | 2020-09-29 | 2023-03-03 | グーグル エルエルシー | Protection of access to information in online interactions |
JP7383142B2 (en) | 2020-09-29 | 2023-11-17 | グーグル エルエルシー | Protecting access to information in online interactions |
US11841978B2 (en) | 2020-09-29 | 2023-12-12 | Google Llc | Protecting access to information in online interactions |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170270422A1 (en) | Information processing apparatus, information processing method, and program | |
JP7475401B2 (en) | Systems and methods for improved data integration in augmented reality architectures - Patents.com | |
US20180315110A1 (en) | Method and Apparatus for Enhanced In-Store Retail Experience Using Location Awareness | |
US11270372B2 (en) | System for improving in-store picking performance and experience by optimizing tote-fill and order batching of items in retail store and method of using same | |
US10726438B2 (en) | Personalized contextual coupon engine | |
US20180240066A1 (en) | Method and system for aggregate shipping | |
KR20210060634A (en) | Systems and methods for personalized land transport | |
US20140195664A1 (en) | Zone Oriented Applications, Systems and Methods | |
JP6545244B2 (en) | Decision device, decision method, and decision program | |
JP2017174403A (en) | Information processing device, information processing method and program | |
US20150204684A1 (en) | Methods and systems of multi-dimensional automated ride-sharing optimization | |
US20210319398A1 (en) | Method and system for aggregate shipping | |
US9811853B2 (en) | Method and system for user based routing | |
US20140095063A1 (en) | Navigation system having point of interest recommendation mechanism and method of operation thereof | |
US20180260864A1 (en) | Merchant-facing Queue Interface | |
JP6725718B2 (en) | Location-based information search method and computer apparatus | |
US20180260849A1 (en) | Multiple-Merchant Community | |
CN115053254A (en) | System and method for personalized ground traffic handling and user intent prediction | |
JP2019114307A (en) | Determination device, determination method, and determination program | |
US20170343368A1 (en) | Machine learning travel management system with wearable device integration | |
CN112749872A (en) | Dynamic delivery of crowd-sourced travel planning information | |
JP5516421B2 (en) | Context collection device, context collection program, and context collection method | |
CN117597905A (en) | Edge computing storage nodes based on user location and activity data separate from cloud computing environments | |
US11270250B2 (en) | Intelligent service and customer matching using an information processing system | |
JP7407519B2 (en) | Decision device, decision method, and decision program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200106 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200707 |