Nothing Special   »   [go: up one dir, main page]

JP2015032253A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2015032253A
JP2015032253A JP2013163350A JP2013163350A JP2015032253A JP 2015032253 A JP2015032253 A JP 2015032253A JP 2013163350 A JP2013163350 A JP 2013163350A JP 2013163350 A JP2013163350 A JP 2013163350A JP 2015032253 A JP2015032253 A JP 2015032253A
Authority
JP
Japan
Prior art keywords
input
area
information
display
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013163350A
Other languages
English (en)
Inventor
周藤 泰広
Yasuhiro Shudo
泰広 周藤
北野 宏明
Hiroaki Kitano
宏明 北野
みどり 河野
Midori Kono
みどり 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013163350A priority Critical patent/JP2015032253A/ja
Priority to US14/320,752 priority patent/US10042541B2/en
Priority to CN201410369816.1A priority patent/CN104346037B/zh
Publication of JP2015032253A publication Critical patent/JP2015032253A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザが情報処理装置の複数の動作によって取得された情報を横断的に利用することを容易にするユーザインターフェースを提供する。【解決手段】ユーザのテキスト入力またはドラッグ&ドロップ入力を受け付ける入力領域と、上記入力領域に付随し、上記入力領域によって受け付けられた入力に基づく第1の動作を実行するための第1のアイコンと、上記入力領域に付随し、上記入力領域によって受け付けられた入力に基づく上記第1の動作とは異なる第2の動作を実行するための第2のアイコンと、上記第1の動作によって取得された情報のための第1の表示領域と、上記第2の動作によって取得された情報のための第2の表示領域とを含む画面をディスプレイに表示させるように構成されるプロセッサを含む情報処理装置が提供される。【選択図】図2

Description

本開示は、情報処理装置および情報処理方法に関する。
近年、タブレットやスマートフォン、PC(Personal Computer)などの情報処理装置を用いたユーザのアクティビティは多様化している。例えば、ユーザは、ネットワーク上にある様々な情報を検索し、閲覧する。また、例えば、ユーザは、ソーシャルメディアなどを介して、ネットワーク上の他のユーザに向けて情報を発信または共有する。そうして発信または共有された情報は、また他のユーザによる検索の対象になりうる。このような中、例えば、特許文献1には、ソーシャルメディアにおいて共有された情報の中から、ユーザにとって特に関心のある情報を検索して提示するための技術が記載されている。
特開2012−243033号公報
しかしながら、特許文献1などに記載されている技術は、例えば情報検索という単一のアクティビティの有効性を高めるものであって、上述したアクティビティの多様化に対応したものではない。ユーザのアクティビティの多様化に対応した技術、例えばユーザが多様なアクティビティを横断的に利用することを容易にするような技術については、まだ十分に提案されているとはいえない
そこで、本開示では、ユーザが情報処理装置の複数の動作によって取得された情報を横断的に利用することを容易にするユーザインターフェースを提供することが可能な、新規かつ改良された情報処理装置および情報処理方法を提案する。
本開示によれば、ユーザのテキスト入力またはドラッグ&ドロップ入力を受け付ける入力領域と、上記入力領域に付随し、上記入力領域によって受け付けられた入力に基づく第1の動作を実行するための第1のアイコンと、上記入力領域に付随し、上記入力領域によって受け付けられた入力に基づく上記第1の動作とは異なる第2の動作を実行するための第2のアイコンと、上記第1の動作によって取得された情報のための第1の表示領域と、上記第2の動作によって取得された情報のための第2の表示領域とを含む画面をディスプレイに表示させるように構成されるプロセッサを含む情報処理装置が提供される。
また、本開示によれば、プロセッサが、ユーザのテキスト入力またはドラッグ&ドロップ入力を受け付ける入力領域と、上記入力領域に付随し、上記入力領域によって受け付けられた入力に基づく第1の動作を実行するための第1のアイコンと、上記入力領域に付随し、上記入力領域によって受け付けられた入力に基づく上記第1の動作とは異なる第2の動作を実行するための第2のアイコンと、上記第1の動作によって取得された情報のための第1の表示領域と、上記第2の動作によって取得された情報のための第2の表示領域とを含む画面をディスプレイに表示させることを含む情報処理方法が提供される。
以上説明したように本開示によれば、ユーザが情報処理装置の複数の動作によって取得された情報を横断的に利用することを容易にするユーザインターフェースを提供することができる。
本開示の第1の実施形態に係る端末装置の概略的な機能構成を示すブロック図である。 本開示の第1の実施形態においてディスプレイに表示される画面の例を示す図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第1の実施形態のユースケースについて説明するための図である。 本開示の第2の実施形態においてディスプレイに表示される画面の例を示す図である。 本開示の第2の実施形態の変形例においてディスプレイに表示される画面の例を示す図である。 本開示の第3の実施形態におけるドラッグ&ドロップ時のブラウザ機能124の処理の例を示すフローチャートである。 本開示の第3の実施形態における検索ボタン押下時のブラウザ機能の処理の例を示すフローチャートである。 本開示の第3の実施形態における検索ボタン押下時のブラウザ機能の処理の例を示すフローチャートである。 本開示の第4の実施形態においてディスプレイに表示される画面の例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.機能構成
1−2.画面表示例
1−3.ユースケース
2.第2の実施形態
3.第3の実施形態
4.第4の実施形態
5.補足
(1.第1の実施形態)
(1−1.機能構成)
図1は、本開示の第1の実施形態に係る端末装置の概略的な機能構成を示すブロック図である。図1に示される端末装置100は、例えば、スマートフォン、タブレット、各種のPC、メディアプレーヤ、ゲーム機、またはテレビなど、ユーザがディスプレイに表示された画像を介して情報をブラウズすることが可能な各種の装置でありうる。端末装置100は、タッチパネル110と、プロセッサ120と、メモリ130と、通信部140とを含む。タッチパネル110は、ディスプレイ112およびタッチセンサ114を含んで構成される。プロセッサ120は、メモリ130に少なくとも一時的に格納されたプログラムに従って動作することによって、表示制御機能122と、ブラウザ機能124とを含む機能を実現する。以下、これらの機能構成についてさらに説明する。
ディスプレイ112は、例えばLCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどによって実現され、プロセッサ120の制御に従って画像を表示する。タッチセンサ114は、ディスプレイ112の表面に配設される静電容量方式などのセンサによって実現され、ディスプレイ112の表面へのユーザの接触を検出する。なお、端末装置100は、タッチセンサ114とともに、またはこれに代えて、マウス、キーボード、タッチパッド、またはボタンなどの入力手段を有してもよい。
表示制御機能122は、ディスプレイ112を制御して、各種の情報を表す画像を表示させる。例えば、表示制御機能122は、メモリ130に格納されたプログラムに従ってGUI(Graphical User Interface)画像をディスプレイ112に表示させる。GUI画像には、例えば、タッチセンサ114などの入力手段を用いたユーザの入力を受け付ける入力領域や、ブラウザ機能124に所定の動作を実行させるためのアイコンなどが含まれる。また、例えば、表示制御機能122は、ブラウザ機能124によって取得された情報を、ディスプレイ112に設定される所定の表示領域に表示させる。
ブラウザ機能124は、通信部140を介してネットワーク上のサーバにアクセスし、各種の情報を取得する。より具体的には、例えば、ブラウザ機能124は、Webブラウザの機能を提供する。ブラウザ機能124は、タッチセンサ114などの入力手段を用いてユーザが入力した情報を含むリクエストをサーバに送信し、該リクエストに対するレスポンスとしてサーバから情報を受信する。ブラウザ機能124は、サーバによって提供されるさまざまなサービスを利用して情報を取得する。例えば、ブラウザ機能124は、検索サービスを利用して情報を取得する。この場合、ユーザが入力した情報は、検索条件として利用されうる。また、例えば、ブラウザ機能124は、ソーシャルメディアを利用して情報を取得する。この場合、ユーザが入力した情報は、ソーシャルメディアへの投稿として利用されうる。
メモリ130は、例えば、RAM(Random Access Memory)またはROM(Read Only Memory)として用いられる半導体メモリ、HDD(Hard Disk Drive)などの磁気ディスク、光ディスク、もしくは光磁気ディスクなどを利用した記憶装置、フラッシュメモリ、またはリムーバブルメディアなどによって実現される。メモリ130には、プロセッサ120が動作するためのプログラムが少なくとも一時的に格納される。このプログラムは、例えばメモリ130に持続的に格納されていてもよく、また通信部140を介してネットワーク上のサーバからダウンロードされて一時的に格納されてもよい。また、メモリ130には、プロセッサ120によって実現される表示制御機能122およびブラウザ機能124によって生成されたデータが、少なくとも一時的に格納されてもよい。
通信部140は、有線または無線の各種通信回路によって実現され、プロセッサ120の制御に従ってネットワーク通信を実行する。通信部140は、例えばインターネットやLAN(Local Area Network)、またはBluetooth(登録商標)などの通信規格に従ってネットワーク通信を実行する。上述の通り、通信部140は、例えばプロセッサ120によって実現されるブラウザ機能124によって利用され、ネットワーク上のサーバとの間で各種の情報を送受信する。
(1−2.画面表示例)
図2は、本開示の第1の実施形態においてディスプレイに表示される画面の例を示す図である。図2を参照すると、端末装置100のディスプレイ112に表示される画面1000には、入力領域1010と、検索ボタン1020と、投稿ボタン1030と、情報表示領域1040とが含まれる。以下、それぞれの表示要素についてさらに説明する。
(入力領域)
入力領域1010は、ユーザのテキスト入力またはドラッグ&ドロップ入力を受け付ける。入力領域1010には、テキスト入力によって入力されたテキスト、および/またはドラッグ&ドロップ入力によって入力されたオブジェクトが表示される。オブジェクトは、例えばアイコンや縮小画像によって表示されてもよい。
ここで、テキスト入力は、端末装置100において、例えば画面1000とは別にディスプレイ112に表示されるバーチャルキーボードや、入力手段として設けられるキーボードなどを介して取得されうる。例えば、カーソル1011が入力領域1010に表示された状態でユーザがテキスト入力を実行した場合に、入力領域1010へのテキスト入力が受け付けられる。
また、ドラッグ&ドロップ入力は、端末装置100において、タッチセンサ114やマウスなどを介して、ディスプレイ112に表示された画像などのオブジェクトをある位置から別の位置まで移動させる操作を介して取得されうる。例えばタッチセンサ114を用いる場合、ディスプレイ112に表示されたオブジェクトへのタッチ操作を継続したままタッチ位置を移動させることによってドラッグが実行され、タッチ操作を解除することによってドロップが実行される。図2では、例として、情報表示領域1040に表示された画像1041の、入力領域1010へのドラッグ&ドロップ入力が示されている。
なお、入力領域1010は、テキスト入力またはドラッグ&ドロップ入力に連続して、さらなるテキスト入力またはドラッグ&ドロップ入力を受け付けてもよい。例えば、入力領域1010は、互いに連続するテキスト入力およびドラッグ&ドロップ入力の両方を受け付けてもよい。これによって、例えば、ユーザは、入力領域1010へのテキスト入力を実行した後に、そのテキストに追加して画像1041をドラッグ&ドロップ入力することが可能でありうる。また、ユーザは、入力領域1010に画像1041をドラッグ&ドロップ入力した後に、その画像に追加してテキストを入力することが可能でありうる。
(検索ボタン)
検索ボタン1020は、入力領域1010に付随して表示される。図示された例では、入力領域1010の左端付近に検索ボタン1020が配置されている。検索ボタン1020は、本実施形態において、入力領域1010によって受け付けられた入力に基づく第1の動作を実行するための第1のアイコンである。例えば、ユーザがタッチセンサ114やマウスなどを介して検索ボタン1020を押下すると、ブラウザ機能124によって、入力領域1010によって受け付けられた入力を条件として用いたネットワーク上での情報検索が実行される。この場合、ブラウザ機能124は、情報検索サービスを提供するサーバに、入力領域1010によって受け付けられた入力を含むリクエストを送信し、該リクエストに対するレスポンスとしてサーバから検索結果の情報を受信する。検索結果の情報は、後述するように情報表示領域1040に表示されうる。
(投稿ボタン)
投稿ボタン1030も、検索ボタン1020と同様に入力領域1010に付随して表示される。図示された例では、入力領域1010の右端付近に投稿ボタン1030が配置されている。投稿ボタン1030は、本実施形態において、入力領域1010によって受け付けられた入力に基づく第1の動作とは異なる第2の動作を実行するための第2のアイコンである。例えば、ユーザがタッチセンサ114やマウスなどを介して投稿ボタン1030を押下すると、ブラウザ機能124によって、入力領域1010によって受け付けられた入力のソーシャルメディアへの投稿が実行される。この場合、ブラウザ機能124は、ソーシャルメディアを提供するサーバに、入力領域1010によって受け付けられた入力を含むリクエストを送信し、該リクエストに対するレスポンスとしてサーバから投稿反映後のソーシャルメディアの状態を示す情報、例えば投稿のタイムライン表示やニュースフィードなどの情報などを受信する。受信された情報は、後述するように情報表示領域1040に表示されうる。
(情報表示領域)
情報表示領域1040は、入力領域1010、検索ボタン1020、および投稿ボタン1030と同じ画面1000内に表示される。図示された例では、情報表示領域1040が、分離した2つの表示領域1040a,1040bを含む。表示領域1040aは、検索ボタン1020の押下時に実行された情報検索によって取得された検索結果の情報を表示する第1の表示領域である。また、表示領域1040bは、投稿ボタン1030の押下時に実行された投稿によって取得されたソーシャルメディアの情報を表示する第2の表示領域である。
ここで、表示領域1040a,1040bの表示は、互いに独立でありうる。例えば、検索ボタン1020の押下時には表示領域1040aが更新され、投稿ボタン1030が押下された場合には表示領域1040bが更新される、といったように、2つの表示領域1040a,1040bは、交互に更新されうる。なお、本実施形態では、検索ボタン1020と投稿ボタン1030とをそれぞれ押下する順序は自由であるため、表示領域1040a,1040bのうちのどちらか一方が連続して更新されてもよい。
(1−3.ユースケース)
以下、図3〜図11を参照して、本開示の第1の実施形態のユースケースについて説明する。なお、説明されるユースケースは例示的なものにすぎず、他にも多数のユースケースが存在しうる。つまり、説明されるユースケースは本実施形態の構成および動作を限定するものではない。
(第1のユースケース)
図3は、画面1000の初期状態において、ユーザが入力領域1010へのテキスト入力を実行した状態を示す図である。この状態において、入力領域1010にはユーザが入力したテキスト1012が表示されている。まだ検索ボタン1020も投稿ボタン1030も押下されていないため、表示領域1040a,1040bは空白である。なお、別の例として、表示領域1040a,1040bには、それぞれ、検索サービスやソーシャルメディアのフロントページなど、予め設定された初期画像が表示されていてもよい。
図4は、図3に示す状態において、ユーザが投稿ボタン1030を押下した状態を示す図である。この状態において、入力領域1010に表示されていたテキスト1012は、投稿が実行されたために消去されうる(引き続き表示されてもよい)。表示領域1040bには、テキスト1012が投稿された後のソーシャルメディアの投稿のタイムライン1042が表示される。
図5は、図4に示す状態において、ユーザが、タイムライン1042に表示された画像1041を入力領域1010にドラッグ&ドロップした状態を示す図である。この状態において、入力領域1010にはユーザがドラッグ&ドロップした画像に対応する画像1013が表示されている。なお、画像1013は、画像1041の縮小画像である。情報表示領域1040の表示は、図4に示す状態と同様である。
このとき、例えば、ブラウザ機能124は、画像1041のドラッグが開始されたときに画像1041に設定されたリンクやソースのURL(Uniform Resource Locator)を取得するとともに、URLによって取得される画像をソースにして画像1013を生成する。さらに、ブラウザ機能124は、入力領域1010で画像1041のドラッグが終了したときに、画像1013を入力領域1010に表示させるとともに、取得されたURLを、後の検索または投稿のために内部的に保持する。
図6は、図5に示す状態において、ユーザが検索ボタン1020を押下した状態を示す図である。検索ボタン1020が押下されたときに、ブラウザ機能124は、例えば画像1041のURLを検索条件としてサーバに送信することによって、画像1041を条件とした情報検索を実行する。この状態において、入力領域1010では、画像1041が引き続き表示されうる(消去されてもよい)。表示領域1040aには、画像1041を条件とした情報検索結果1043が表示される。情報検索結果1043は、例えば検索結果のプレビュー画像や、検索結果へのリンクなどを含みうる。一方、表示領域1040bでは、図4に示す状態で表示されたソーシャルメディアのタイムライン1042が引き続き表示される。
図7は、図5に示す状態において、ユーザが、さらに入力領域1010へのテキスト入力を実行した状態を示す図である。なお、図7に示す状態と図6に示す状態とはパラレルである。この状態において、入力領域1010には、ユーザのドラッグ&ドロップ入力に基づいて表示される画像1013と、その後のテキスト入力に基づいて表示されるテキスト1014とが含まれる。情報表示領域1040の表示は、図4に示す状態と同様である。
図8は、図7に示す状態において、ユーザが投稿ボタン1030を押下した状態を示す図である。投稿ボタン1030が押下されたときに、ブラウザ機能124は、入力領域1010に入力されたテキスト1014とともに、画像1013の元になった画像1041のURLをサーバに送信することによって、テキストと画像1041とをソーシャルメディアに投稿することができる。この状態において、入力領域1010に表示されていた画像1013およびテキスト1014は、投稿が実行されたために消去されうる(引き続き表示されてもよい)。表示領域1040bの表示は、画像1041およびテキスト1014が投稿された後のソーシャルメディアのタイムライン1044へと更新される。
(第2のユースケース)
図9は、図3に示す状態において、ユーザが検索ボタン1020を押下した状態を示す図である。この状態において、入力領域1010では、テキスト1012が引き続き表示されうる(消去されてもよい)。表示領域1040aには、テキスト1012を条件とした情報検索結果1045が表示される。
図10は、図9に示す状態において、ユーザが、情報検索結果1045に表示された画像1046を入力領域1010にドラッグ&ドロップした状態を示す図である。この状態において、入力領域1010には、元々表示されていたテキスト1012に加えて、ユーザがドラッグ&ドロップした画像に対応する画像1015が表示されている。情報表示領域1040の表示は、図9に示す状態と同様である。
図11は、図10に示す状態において、ユーザが投稿ボタン1030を押下した状態を示す図である。この状態において、入力領域1010に表示されていたテキスト1012および画像1015は、投稿が実行されたために消去されうる(引き続き表示されてもよい)。表示領域1040bには、テキスト1012および画像1046が投稿された後のソーシャルメディアのタイムライン1047が表示される。一方、表示領域1040aでは、図9に示す状態で表示された情報検索結果1045が引き続き表示される。
ここで、図示された例のように、ブラウザ機能124は、直前の情報検索の条件として用いられたテキスト1012(It’s so hot)を、例えば「Search with “It’s so hot”」などのように、検索条件であったことが認識されるように自動的に加工した上でソーシャルメディアに投稿してもよい。テキスト1012を加工するか否かは、例えば、投稿の直前に情報検索が実行されたか否か、情報検索の条件として用いられたテキストと投稿されるテキストが一致するか否か、などによって判定されうる。
(まとめ)
以上で説明した本開示の第1の実施形態では、画面1000において、ユーザのテキスト入力またはドラッグ&ドロップを受け付ける入力領域1010と、入力領域1010に付随する検索ボタン1020および投稿ボタン1030とが表示される。検索ボタン1020の押下によって実行される第1の動作はネットワーク上での情報検索であり、投稿ボタン1030の押下によって実行される第2の動作はソーシャルメディアへの投稿である。いずれの動作でも、入力領域1010によって受け付けられた入力が利用される。
このように、互いに異なる動作を実現するための複数の機能アイコンが共通の入力領域に付随して表示されることによって、ユーザは、単一の入力領域への入力に基づいて複数の動作を実行させることができる。例えば、ユーザは、検索ボタン1020を押下して情報検索を実行した後に、検索結果に含まれる画像などを入力領域1010に追加入力した上で投稿ボタン1030を押下することによって、検索結果を容易にソーシャルメディア上で共有することができる。また、例えば、ユーザは、投稿ボタン1030を押下してソーシャルメディアへの投稿を実行した後に、ソーシャルメディアのタイムラインなどに含まれる画像などを入力領域1010に追加入力した上で検索ボタン1020を押下することによって、タイムラインに表示された他のユーザの投稿に含まれる画像などに関連するネットワーク上の情報を容易に検索することができる。
また、本実施形態では、画面1000の情報表示領域1040において、情報検索によって取得された情報を表示する表示領域1040aと、ソーシャルメディアへの投稿によって取得された情報を表示する表示領域1040bとが分離した領域として表示される。これによって、ユーザは、情報検索の結果と、ソーシャルメディアへの投稿の結果とを同時に参照することができ、それぞれの情報を横断的に利用することが容易になる。例えば、何回か連続して検索ボタン1020を押下して情報検索を実行した後でも、その前のソーシャルメディアの状態を表示領域1040bによって参照できるため、ソーシャルメディアに適切な情報を投稿することが容易になる。
(2.第2の実施形態)
次に、図12および図13を参照して、本開示の第2の実施形態について説明する。本実施形態は、上述した第1の実施形態と比較して、画面の構成において相違するが、その他の点については同様の構成を有するため、これらの点についての詳細な説明は省略する。
図12は、本開示の第2の実施形態においてディスプレイに表示される画面の例を示す図である。図12を参照すると、端末装置100のディスプレイ112に表示される画面2000には、入力領域1010と、検索ボタン1020と、投稿ボタン1030と、情報表示領域2040とが含まれる。以下、第1の実施形態と相違する情報表示領域2040について、さらに説明する。
情報表示領域2040は、入力領域1010、検索ボタン1020、および投稿ボタン1030と同じ画面3000内に表示される。第1の実施形態に係る情報表示領域1040との相違として、情報表示領域2040は、単一の表示領域である。情報表示領域2040は、検索ボタン1020の押下時に実行された情報検索によって取得された検索結果、または投稿ボタン1030の押下時に実行された投稿によって取得されたソーシャルメディアの情報のうち、直前に取得されたものを表示する。つまり、本実施形態において、情報検索結果の表示領域とソーシャルメディアの情報の表示領域とは、共通した領域に交互に表示される。
上記で第1の実施形態について説明したように、情報検索結果とソーシャルメディアの情報とは、分離した領域に表示される方が、それぞれの情報を横断的に利用する上では有利である。しかし、例えば、画面2000のサイズが限られていたり、それぞれの情報の表示領域をできるだけ広く確保したいような場合には、本実施形態のように、共通した領域に情報検索結果とソーシャルメディアの情報とを交互に表示する方が有利である場合もありうる。
図13は、本開示の第2の実施形態の変形例においてディスプレイに表示される画面の例を示す図である。図13を参照すると、上記で図12を参照して説明したのと同様の画面2000において、情報表示領域2040に付随してタブ2041が表示されている。タブ2041によって、情報表示領域2040の表示を、直前の情報検索結果と直前のソーシャルメディアの情報との間で切り替えることが可能である。このように、タブ2041を表示することによって、共通した領域に情報検索結果とソーシャルメディアの情報とを表示する場合であっても、それぞれの情報を横断的に利用することが容易になりうる。
(3.第3の実施形態)
次に、図14および図15を参照して、本開示の第3の実施形態について説明する。本実施形態は、上述した第1の実施形態と比較して、画面1000におけるドラッグ&ドロップ時のブラウザ機能124の動作において相違するが、その他の点については同様の構成を有するため、これらの点についての詳細な説明は省略する。なお、以下の説明におけるオブジェクトは、上記の第1の実施形態のユースケースでは画像1041,1046に対応する。
(ドラッグ&ドロップ時)
図14は、本開示の第3の実施形態におけるドラッグ&ドロップ時のブラウザ機能124の処理の例を示すフローチャートである。図示された例では、まず、ブラウザ機能124が、タッチセンサ114やマウスなどを介して、ドラッグが開始されたことを検出する(ステップS101)。このとき、ブラウザ機能124は、表示制御機能122から、ドラッグの開始位置に表示されているオブジェクトについての情報を取得する(ステップS103)。
その後、ブラウザ機能124は、タッチセンサ114やマウスなどを介して、ドロップが実行されたことを検出する(ステップS105)。ここで、ドロップ位置が入力領域1010内であれば(ステップS107)、ブラウザ機能124は、オブジェクトを表す画像を入力領域1010に表示させる(ステップS109)とともに、オブジェクトの種類を検出する(ステップS111)。
ここで、オブジェクトの種類は、例えば画像、音声、または動画などでありうる。ブラウザ機能124は、例えば、オブジェクトに設定されたリンクやソースのURLによって示されるオブジェクトのファイル形式などに基づいてオブジェクトの種類を検出する。ブラウザ機能124は、検出されたオブジェクトの種類を内部的に保持する(ステップS113)。なお、保持されているオブジェクトの種類の情報は、入力領域1010でのユーザ操作(例えばBackspaceやDeleteなど)によって入力領域1010でオブジェクトを表示する画像が消去された場合には、それに伴って破棄されうる。
(検索ボタン押下時)
図15(図15Aおよび図15B)は、本開示の第3の実施形態における検索ボタン押下時のブラウザ機能124の処理の例を示すフローチャートである。図示された例では、まず、ブラウザ機能124が、タッチセンサ114やマウスなどを介して、検索ボタン1020が押下されたことを検出する(ステップS201)。このとき、ブラウザ機能124は、表示制御機能122から、入力領域1010の表示内容についての情報を取得する(ステップS203)。
次に、ブラウザ機能124は、入力領域1010の表示内容に基づいて、情報検索サービスを選択する。ここで、まず、ブラウザ機能124は、入力領域1010にオブジェクトが表示されているか否かを判定する(ステップS205)。ここで、オブジェクトが表示されていなければ、ブラウザ機能124は、キーワード検索サービスを選択する(ステップS207)。一方、オブジェクトが表示されている場合、ブラウザ機能124は、オブジェクトの種類または属性に基づいて、情報検索サービスを選択する。より具体的には、ブラウザ機能124は、オブジェクトの実体を参照し(ステップS209)、オブジェクトに所定の種類のメタデータが付随しているか否かを判定する(ステップS211)。
ここで、メタデータは、画像、音声、または動画などのファイルに付随する付加的なテキストデータであり、例えば、ファイルの作成日時や更新日時、または作成者などのように自動的に生成される情報と、タグのようにユーザによって明示的に付加される情報とを含みうる。上記のステップS211において検出される所定のメタデータは、タグのように明示的に付加された情報でありうる。ステップ211で、オブジェクトに所定のメタデータが付随していると判定された場合、ブラウザ機能124は、メタデータのテキストを条件にして検索を実行するために、キーワード検索サービスを選択する(ステップS207)。
一方、ステップS211で、オブジェクトに所定のメタデータが付随していないと判定された場合、ブラウザ機能124は、オブジェクトそのものを条件にして検索を実行するために、ドラッグ&ドロップ時に検出されたオブジェクトの種類を読み出し(ステップS213)、オブジェクトの種類に基づいて情報検索サービスを選択する。オブジェクトの種類が画像である場合(ステップS215)、ブラウザ機能124は、類似画像検索サービスを選択する(ステップS217)。オブジェクトの種類が音声である場合(ステップS219)、ブラウザ機能124は類似音声検索サービスを選択する(ステップS221)。オブジェクトの種類が動画である場合(ステップS223)、ブラウザ機能124は、類似動画検索サービスを選択する(ステップS225)。
以上のような処理によって適切な検索サービスを選択した上で、ブラウザ機能124は、情報検索を実行する(ステップS227)。
以上で説明した本開示の第3の実施形態では、ドラッグ&ドロップによって入力領域1010に入力された画像などのオブジェクトについて、オブジェクトの種類ごとに適切な検索サービスを選択することができるため、画像に限らず音声、動画などの多様なオブジェクトについて、入力領域1010を用いた検索処理を実行することが容易になる。なお、本実施形態は、上記の第1の実施形態だけではなく、第2の実施形態と組み合わせて実施することも可能である。
本実施形態の変形例として、上記で図15を参照して説明した処理と同様の処理が投稿ボタン1030の押下時にも実行され、投稿先のソーシャルメディアが選択されてもよい。この場合、例えば、投稿対象がテキストの場合、画像の場合、音声の場合、および動画の場合で、それぞれ異なるソーシャルメディアが投稿先として選択されうる。
また、別の変形例として、情報検索サービスが重複して選択されてもよい。例えば、入力領域1010に、テキストと、メタデータが付随した画像とが入力されている場合、ブラウザ機能124は、入力されたテキストおよびメタデータによって示されるテキストを条件にしたキーワード検索と、類似画像検索とを並行して実行してもよい。
(4.第4の実施形態)
次に、図16を参照して、本開示の第4の実施形態について説明する。本実施形態は、上述した第1の実施形態と比較して、画面の構成において相違するが、その他の点については同様の構成を有するため、これらの点についての詳細な説明は省略する。
図16は、本開示の第4の実施形態においてディスプレイに表示される画面の例を示す図である。図16を参照すると、端末装置100のディスプレイ112に表示される画面3000には、入力領域1010と、検索ボタン1020と、投稿ボタン1030と、情報表示領域3040とが含まれる。以下、第1の実施形態と相違する情報表示領域3040について、さらに説明する。
情報表示領域3040は、入力領域1010、検索ボタン1020、および投稿ボタン1030と同じ画面3000内に表示される。図示された例では、情報表示領域3040として、2つの表示領域3040a,3040bが表示されている。表示領域3040bは、第1の実施形態における表示領域1040bと同様に、ソーシャルメディアの情報を表示する。一方、表示領域3040aは、コンテンツ配信サービスに関する情報を表示する。
コンテンツ配信サービスは、例えば、ネットワーク上のサーバに格納されている動画などのコンテンツをユーザに配信するサービスである。このサービスにおいて、ユーザは、コンテンツを、キーワードや関連する他のユーザ、ジャンルなどを用いて検索することが可能である。本実施形態では、検索ボタン1020が押下された場合、ブラウザ機能124が、入力領域1010によって受け付けられた入力に基づいて、サービス上のコンテンツ検索を実行する。
コンテンツ検索の結果は、表示領域3040aに表示される。ユーザは、表示された検索結果に含まれるアイコンやリンクから、コンテンツの視聴を開始することが可能である。視聴されるコンテンツ画像も、表示領域3040aに表示される。なお、図16は、表示領域3040aにコンテンツ画像3041が表示された状態を示している。
さらに、ユーザは、表示領域3040aに表示されたコンテンツ画像3041を視聴しながら、表示領域3040bに表示されるソーシャルメディアのタイムライン3042を用いて他のユーザとのコミュニケーションを楽しむことができる。入力領域1010を利用することによって、ソーシャルメディアにコンテンツのキャプチャ画像3041を投稿することも可能である。
図示された例では、表示領域3040aに表示されたコンテンツ画像3041の一部が、ユーザのドラッグ&ドロップによってキャプチャ画像3043として切り出され、入力領域1010に画像1016として表示されている。これによって、ユーザは、コンテンツ画像に現れる特定の人や物についてキャプチャ画像3043を切り出し、その人や物についてソーシャルメディア上で他のユーザとコミュニケートすることができる。
(5.補足)
上記で説明した実施形態では、端末装置100のプロセッサ120において表示制御機能122およびブラウザ機能124が実現されたが、本開示の実施形態はこのような例には限られない。例えば、表示制御機能またはブラウザ機能のうちの一方または両方は、サーバを構成する情報処理装置のプロセッサで実現されてもよい。
また、上記で説明した実施形態では、検索ボタン1020および投稿ボタン1030がそれぞれ入力領域1010の左端付近および右端付近に配置されたが、本開示の実施形態はこのような例には限られない。検索ボタン1020および投稿ボタン1030として例示されたような第1および第2のアイコンは、入力領域に付随して表示されればよく、入力領域との位置関係はどのようであってもよい。例えば、第1および第2のアイコンは、入力領域の左側、右側、上側、または下側に2つ並んで表示されてもよい。なお、第1および第2のアイコンを入力領域の両端付近に配置する場合、例えば、それぞれのアイコンによって実行される動作の違いをユーザに直感的に伝えることができる。
本開示の実施形態は、例えば、上記で説明したような情報処理装置(端末装置またはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)ユーザのテキスト入力またはドラッグ&ドロップ入力を受け付ける入力領域と、
前記入力領域に付随し、前記入力領域によって受け付けられた入力に基づく第1の動作を実行するための第1のアイコンと、
前記入力領域に付随し、前記入力領域によって受け付けられた入力に基づく前記第1の動作とは異なる第2の動作を実行するための第2のアイコンと、
前記第1の動作によって取得された情報のための第1の表示領域と、
前記第2の動作によって取得された情報のための第2の表示領域と
を含む画面をディスプレイに表示させるように構成されるプロセッサを備える情報処理装置。
(2)前記入力領域は、前記第1の表示領域または前記第2の表示領域に表示されたオブジェクトのドラッグ&ドロップ入力を受け付ける、前記(1)に記載の情報処理装置。
(3)前記プロセッサは、さらに、前記オブジェクトの種類または属性に応じて異なる前記第1の動作を実行するように構成される、前記(2)に記載の情報処理装置。
(4)前記プロセッサは、前記オブジェクトのファイル形式に応じて異なる前記第1の動作を実行するように構成される、前記(3)に記載の情報処理装置。
(5)前記プロセッサは、前記オブジェクトの所定の種類のメタデータが付随しているか否かに応じて異なる前記第1の動作を実行するように構成される、前記(3)または(4)に記載の情報処理装置。
(6)前記第1の動作は、前記入力領域によって受け付けられた入力を条件として用いたネットワーク上での情報検索を含み、
前記プロセッサは、前記オブジェクトの種類または属性に応じて異なる情報検索サービスを選択する、前記(3)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記入力領域は、前記テキスト入力または前記ドラッグ&ドロップ入力に連続して、さらなる前記テキスト入力または前記ドラッグ&ドロップ入力を受け付ける、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記入力領域は、互いに連続する前記テキスト入力および前記ドラッグ&ドロップ入力の両方を受け付ける、前記(7)に記載の情報処理装置。
(9)前記第1のアイコンおよび前記第2のアイコンは、前記入力領域の両端付近にそれぞれ配置される、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記第1の表示領域および前記第2の表示領域は、分離した領域として表示される、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記第1の表示領域および前記第2の表示領域は、共通した領域に切り替え可能に表示される、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(12)前記第1の表示領域および前記第2の表示領域は、共通した領域に交互に表示される、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(13)前記第1の動作は、前記入力領域によって受け付けられた入力を条件として用いたネットワーク上での情報検索を含み、
前記第2の動作は、前記入力領域によって受け付けられた入力のソーシャルメディアへの投稿を含む、
前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)プロセッサが、
ユーザのテキスト入力またはドラッグ&ドロップ入力を受け付ける入力領域と、
前記入力領域に付随し、前記入力領域によって受け付けられた入力に基づく第1の動作を実行するための第1のアイコンと、
前記入力領域に付随し、前記入力領域によって受け付けられた入力に基づく前記第1の動作とは異なる第2の動作を実行するための第2のアイコンと、
前記第1の動作によって取得された情報のための第1の表示領域と、
前記第2の動作によって取得された情報のための第2の表示領域と
を含む画面をディスプレイに表示させることを含む情報処理方法。
100 端末装置
110 タッチパネル
112 ディスプレイ
114 タッチセンサ
120 プロセッサ
122 表示制御機能
124 ブラウザ機能
130 メモリ
140 通信部
1000,2000,3000 画面
1010 入力領域
1020 検索ボタン
1030 投稿ボタン
1040,2040,3040 情報表示領域

Claims (14)

  1. ユーザのテキスト入力またはドラッグ&ドロップ入力を受け付ける入力領域と、
    前記入力領域に付随し、前記入力領域によって受け付けられた入力に基づく第1の動作を実行するための第1のアイコンと、
    前記入力領域に付随し、前記入力領域によって受け付けられた入力に基づく前記第1の動作とは異なる第2の動作を実行するための第2のアイコンと、
    前記第1の動作によって取得された情報のための第1の表示領域と、
    前記第2の動作によって取得された情報のための第2の表示領域と
    を含む画面をディスプレイに表示させるように構成されるプロセッサを備える情報処理装置。
  2. 前記入力領域は、前記第1の表示領域または前記第2の表示領域に表示されたオブジェクトのドラッグ&ドロップ入力を受け付ける、請求項1に記載の情報処理装置。
  3. 前記プロセッサは、さらに、前記オブジェクトの種類または属性に応じて異なる前記第1の動作を実行するように構成される、請求項2に記載の情報処理装置。
  4. 前記プロセッサは、前記オブジェクトのファイル形式に応じて異なる前記第1の動作を実行するように構成される、請求項3に記載の情報処理装置。
  5. 前記プロセッサは、前記オブジェクトの所定の種類のメタデータが付随しているか否かに応じて異なる前記第1の動作を実行するように構成される、請求項3に記載の情報処理装置。
  6. 前記第1の動作は、前記入力領域によって受け付けられた入力を条件として用いたネットワーク上での情報検索を含み、
    前記プロセッサは、前記オブジェクトの種類または属性に応じて異なる情報検索サービスを選択する、請求項3に記載の情報処理装置。
  7. 前記入力領域は、前記テキスト入力または前記ドラッグ&ドロップ入力に連続して、さらなる前記テキスト入力または前記ドラッグ&ドロップ入力を受け付ける、請求項1に記載の情報処理装置。
  8. 前記入力領域は、互いに連続する前記テキスト入力および前記ドラッグ&ドロップ入力の両方を受け付ける、請求項7に記載の情報処理装置。
  9. 前記第1のアイコンおよび前記第2のアイコンは、前記入力領域の両端付近にそれぞれ配置される、請求項1に記載の情報処理装置。
  10. 前記第1の表示領域および前記第2の表示領域は、分離した領域として表示される、請求項1に記載の情報処理装置。
  11. 前記第1の表示領域および前記第2の表示領域は、共通した領域に切り替え可能に表示される、請求項1に記載の情報処理装置。
  12. 前記第1の表示領域および前記第2の表示領域は、共通した領域に交互に表示される、請求項1に記載の情報処理装置。
  13. 前記第1の動作は、前記入力領域によって受け付けられた入力を条件として用いたネットワーク上での情報検索を含み、
    前記第2の動作は、前記入力領域によって受け付けられた入力のソーシャルメディアへの投稿を含む、
    請求項1に記載の情報処理装置。
  14. プロセッサが、
    ユーザのテキスト入力またはドラッグ&ドロップ入力を受け付ける入力領域と、
    前記入力領域に付随し、前記入力領域によって受け付けられた入力に基づく第1の動作を実行するための第1のアイコンと、
    前記入力領域に付随し、前記入力領域によって受け付けられた入力に基づく前記第1の動作とは異なる第2の動作を実行するための第2のアイコンと、
    前記第1の動作によって取得された情報のための第1の表示領域と、
    前記第2の動作によって取得された情報のための第2の表示領域と
    を含む画面をディスプレイに表示させることを含む情報処理方法。
JP2013163350A 2013-08-06 2013-08-06 情報処理装置および情報処理方法 Pending JP2015032253A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013163350A JP2015032253A (ja) 2013-08-06 2013-08-06 情報処理装置および情報処理方法
US14/320,752 US10042541B2 (en) 2013-08-06 2014-07-01 Information processing apparatus and information processing method for utilizing various cross-sectional types of user input
CN201410369816.1A CN104346037B (zh) 2013-08-06 2014-07-30 信息处理设备和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013163350A JP2015032253A (ja) 2013-08-06 2013-08-06 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2015032253A true JP2015032253A (ja) 2015-02-16

Family

ID=52449740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013163350A Pending JP2015032253A (ja) 2013-08-06 2013-08-06 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (1) US10042541B2 (ja)
JP (1) JP2015032253A (ja)
CN (1) CN104346037B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162258A (ja) * 2016-03-10 2017-09-14 富士通株式会社 検索処理プログラム、検索処理方法、及び検索処理装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11816143B2 (en) * 2017-07-18 2023-11-14 Ebay Inc. Integrated image system based on image search feature
JP7119447B2 (ja) * 2018-03-15 2022-08-17 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
EP4435597A2 (en) * 2018-04-17 2024-09-25 Casio Computer Co., Ltd. Display control apparatus, program and display controlling method
US11036806B2 (en) 2018-06-26 2021-06-15 International Business Machines Corporation Search exploration using drag and drop
CN110062287B (zh) * 2019-02-27 2021-10-19 网易传媒科技(北京)有限公司 目标对象控制方法及装置、存储介质、电子设备
US11094371B2 (en) 2019-03-11 2021-08-17 Samsung Electronics Co., Ltd. Memory device for processing operation and method of operating the same
CN113176925B (zh) * 2021-05-24 2022-05-17 浙江热刺激光技术有限公司 一种控制加工设备的方法、装置、设备及存储介质
KR20240104206A (ko) * 2021-12-30 2024-07-04 구글 엘엘씨 비도큐멘트 아이템의 지원형 검색
US20230214427A1 (en) * 2021-12-30 2023-07-06 Google Llc Assisted searching of non-document items

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5819263A (en) * 1996-07-19 1998-10-06 American Express Financial Corporation Financial planning system incorporating relationship and group management
US6282175B1 (en) * 1998-04-23 2001-08-28 Hewlett-Packard Company Method for tracking configuration changes in networks of computer systems through historical monitoring of configuration status of devices on the network.
US6304864B1 (en) * 1999-04-20 2001-10-16 Textwise Llc System for retrieving multimedia information from the internet using multiple evolving intelligent agents
EP1298524A1 (en) * 2001-09-28 2003-04-02 Ricoh Company, Ltd. Conference support apparatus, information processor, teleconference system and computer product
JP4065142B2 (ja) * 2002-05-31 2008-03-19 松下電器産業株式会社 オーサリング装置およびオーサリング方法
US20050097089A1 (en) * 2003-11-05 2005-05-05 Tom Nielsen Persistent user interface for providing navigational functionality
US20050262054A1 (en) * 2004-05-18 2005-11-24 Nokia Corporation Item type specific structured search
EP1960904A2 (en) * 2005-12-06 2008-08-27 Pumpone, LLC A system or method for management and distribution of multimedia presentations
US8208764B2 (en) * 2006-01-21 2012-06-26 Elizabeth Guckenberger Photo automatic linking system and method for accessing, linking, and visualizing “key-face” and/or multiple similar facial images along with associated electronic data via a facial image recognition search engine
US20070209025A1 (en) * 2006-01-25 2007-09-06 Microsoft Corporation User interface for viewing images
US7562311B2 (en) * 2006-02-06 2009-07-14 Yahoo! Inc. Persistent photo tray
US20070244925A1 (en) * 2006-04-12 2007-10-18 Jean-Francois Albouze Intelligent image searching
US8098934B2 (en) * 2006-06-29 2012-01-17 Google Inc. Using extracted image text
US8745480B2 (en) * 2006-09-20 2014-06-03 Arman Ali Anwar On-demand hyperlink computer search tool
US8085995B2 (en) * 2006-12-01 2011-12-27 Google Inc. Identifying images using face recognition
US20080154869A1 (en) * 2006-12-22 2008-06-26 Leclercq Nicolas J C System and method for constructing a search
CA2659698C (en) * 2008-03-21 2020-06-16 Dressbot Inc. System and method for collaborative shopping, business and entertainment
US8762879B1 (en) * 2008-09-01 2014-06-24 Google Inc. Tab management in a browser
US8239359B2 (en) * 2008-09-23 2012-08-07 Disney Enterprises, Inc. System and method for visual search in a video media player
CN101446969A (zh) * 2008-12-15 2009-06-03 腾讯科技(深圳)有限公司 拖拽搜索的方法及系统
US20140181215A1 (en) * 2009-01-13 2014-06-26 Chukwunonso Omoko Method, System and Computer Program Product for Messaging Over a Network
WO2010135746A1 (en) * 2009-05-22 2010-11-25 Facebook, Inc. Unified online conversation application and platform
WO2011040202A1 (ja) * 2009-09-30 2011-04-07 楽天株式会社 画像内に存在しない物品をレコメンドするシステム
US20110128288A1 (en) * 2009-12-02 2011-06-02 David Petrou Region of Interest Selector for Visual Queries
US8805079B2 (en) * 2009-12-02 2014-08-12 Google Inc. Identifying matching canonical documents in response to a visual query and in accordance with geographic information
US8621012B2 (en) * 2010-02-08 2013-12-31 Google Inc. Active e-mails
US8433764B2 (en) * 2010-02-09 2013-04-30 Google Inc. Identification of message recipients
US8185558B1 (en) * 2010-04-19 2012-05-22 Facebook, Inc. Automatically generating nodes and edges in an integrated social graph
US8239366B2 (en) * 2010-09-08 2012-08-07 Nuance Communications, Inc. Method and apparatus for processing spoken search queries
US8516379B2 (en) * 2010-12-31 2013-08-20 Quora, Inc. Methods and systems for soliciting an answer to a question
US20120173566A1 (en) * 2010-12-31 2012-07-05 Quora, Inc. Multi-functional navigation bar
JP5768492B2 (ja) 2011-05-18 2015-08-26 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9177401B2 (en) * 2012-03-08 2015-11-03 Adobe Systems Incorporated System and method for creating custom composite images from layered images in a client-server environment
US20150127748A1 (en) * 2012-04-13 2015-05-07 Google Inc. Recommendations for enhanced content in social posts
US9916396B2 (en) * 2012-05-11 2018-03-13 Google Llc Methods and systems for content-based search
US20160004761A1 (en) * 2012-06-05 2016-01-07 Xincheng Zhang Person-based display of posts in social network
US9098584B1 (en) * 2012-07-19 2015-08-04 Google Inc. Image search privacy protection techniques
US8935246B2 (en) * 2012-08-08 2015-01-13 Google Inc. Identifying textual terms in response to a visual query
US9372871B2 (en) * 2012-08-24 2016-06-21 Google Inc. Combining unstructured image and 3D search results for interactive search and exploration
US9706237B2 (en) * 2013-03-12 2017-07-11 Time Warner Cable Enterprises Llc TV playlist

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162258A (ja) * 2016-03-10 2017-09-14 富士通株式会社 検索処理プログラム、検索処理方法、及び検索処理装置

Also Published As

Publication number Publication date
CN104346037B (zh) 2019-01-01
CN104346037A (zh) 2015-02-11
US10042541B2 (en) 2018-08-07
US20150046860A1 (en) 2015-02-12

Similar Documents

Publication Publication Date Title
JP2015032253A (ja) 情報処理装置および情報処理方法
US20240126804A1 (en) Management of local and remote media items
US8896556B2 (en) Time-based touch interface
US8910076B2 (en) Social media platform
JP6220452B2 (ja) オブジェクトベースのコンテキストメニューの制御
US10430460B2 (en) Metadata-based photo and/or video animation
KR101885775B1 (ko) 컨텐트 캡쳐 방법 및 이를 위한 이동 단말기
KR102079816B1 (ko) 전자장치에서 콘텐츠 큐레이션 서비스를 제공하기 위한 방법 및 장치
US9524332B2 (en) Method and apparatus for integratedly managing contents in portable terminal
EP2602759A2 (en) Electronic device, social tile displaying method, and tile connection method
US10965993B2 (en) Video playback in group communications
JP2018503895A (ja) ウェブコンテンツのタグ付けおよびフィルタリング
KR20130097484A (ko) 데이터 공유 방법 및 이를 위한 이동 단말기
JP2017538992A (ja) アプリケーションを提示およびインストールするための装置、方法、およびグラフィカルユーザインタフェース
KR20130097488A (ko) 정보 제공 방법 및 이를 위한 이동 단말기
US11902651B2 (en) User interfaces for managing visual content in media
KR101685105B1 (ko) 만화 데이터 표시 방법 및 만화 데이터 표시 장치
US20160179899A1 (en) Method of providing content and electronic apparatus performing the method
KR20160030640A (ko) 락스크린 제공 방법 및 장치
KR20130097485A (ko) 캡쳐 데이터 제공 방법 및 이를 위한 이동 단말기
TW201533687A (zh) 在背景顯示區域顯示訂單資訊的方法及裝置
JP2022113740A (ja) 端末、端末の制御方法、及びプログラム
US20220206677A1 (en) Content navigation method and user interface
US20120151413A1 (en) Method and apparatus for providing a mechanism for presentation of relevant content
US12001642B2 (en) User interfaces for managing visual content in media