Nothing Special   »   [go: up one dir, main page]

JPWO2014175395A1 - 装置、方法、及びプログラム - Google Patents

装置、方法、及びプログラム Download PDF

Info

Publication number
JPWO2014175395A1
JPWO2014175395A1 JP2015513835A JP2015513835A JPWO2014175395A1 JP WO2014175395 A1 JPWO2014175395 A1 JP WO2014175395A1 JP 2015513835 A JP2015513835 A JP 2015513835A JP 2015513835 A JP2015513835 A JP 2015513835A JP WO2014175395 A1 JPWO2014175395 A1 JP WO2014175395A1
Authority
JP
Japan
Prior art keywords
touch screen
displayed
smartphone
screen
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015513835A
Other languages
English (en)
Other versions
JP6058790B2 (ja
Inventor
那由 能町
那由 能町
長谷川 純一
純一 長谷川
英子 村上
英子 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Application granted granted Critical
Publication of JP6058790B2 publication Critical patent/JP6058790B2/ja
Publication of JPWO2014175395A1 publication Critical patent/JPWO2014175395A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

スマートフォン(1)は、タッチスクリーンディスプレイ(2)と、タッチスクリーンにより物体がタッチスクリーンディスプレイ(2)に接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なメモオブジェクト(55)をタッチスクリーンディスプレイ(2)に表示された画面上に表示させるコントローラと、を備える。これにより、スマートフォン(1)は、使い勝手を向上させることができる。

Description

本出願は、装置、方法、及びプログラムに関する。特に、本出願は、タッチスクリーンを有する装置、その装置を制御する方法、及びその装置を制御するためのプログラムに関する。
タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスには、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、Windows(登録商標) Phoneである。
国際公開第2008/086302号
タッチスクリーンデバイスを備えた装置、方法、及びプログラムにおいては、使い勝手の向上が求められている。
1つの態様に係る装置は、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、を備える。
1つの態様に係る装置は、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイに対してスワイプが行われると、当該スワイプの軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、を備える。
1つの態様に係る装置は、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイがなぞられると、なぞられた領域に、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、を備える。
1つの態様に係る方法は、タッチスクリーンディスプレイを備える装置を制御する方法であって、前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるステップを含む。
1つの態様に係るプログラムは、タッチスクリーンディスプレイを備える装置に、前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるステップを実行させる。
本発明によれば、使い勝手が向上された装置、方法、及びプログラムを提供することができる。
図1は、実施形態に係るスマートフォンの外観を示す斜視図である。 図2は、実施形態に係るスマートフォンの外観を示す正面図である。 図3は、実施形態に係るスマートフォンの外観を示す背面図である。 図4は、ホーム画面の一例を示す図である。 図5は、実施形態に係るスマートフォンの機能を示すブロック図である。 図6は、実施形態に係るスマートフォンが行う制御の第1の例を示す図である。 図7は、実施形態に係るスマートフォンが行う制御の処理手順を示すフローチャートである。 図8は、メモオブジェクトに文字を入力する処理を示す図である。 図9Aは、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。 図9Bは、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。 図10は、実施形態に係るスマートフォンが行う制御の第3の例を示す図である。 図11Aは、実施形態に係るスマートフォンが行う制御の第4の例を示す図である。 図11Bは、実施形態に係るスマートフォンが行う制御の第4の例を示す図である。 図12は、実施形態に係るスマートフォンが行う制御の第5の例を示す図である。 図13は、実施形態に係るスマートフォンが行う制御の第6の例を示す図である。
図面を参照しつつ実施形態を詳細に説明する。以下では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明する。
(実施形態)
図1から図3を参照しながら、本実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号又は図形等を表示する。
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bが接触を検出する指、ペン、又はスタイラスペン等は単に「指」ということがある。
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。
「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。スマートフォン1は、タッチスクリーン2Bに単数の指が接触するジェスチャをシングルタッチとして判別する。スマートフォン1は、タッチスクリーン2Bに複数の指が接触するジェスチャをマルチタッチとして判別する。スマートフォン1は、マルチタッチの場合、接触が検出された指の本数を検出する。「ロングタッチ」とは、タッチスクリーン2Bに指が一定時間以上触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間以上接触するジェスチャをロングタッチとして判別する。
「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。
「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1 は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
「フリック」は、タッチに続いて指が一方方向へ移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ移動しながらリリースするジェスチャをフリックとして判別する。フリックの移動速度は、スワイプおよびドラッグの移動速度と比較して高速である。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」、指が画面の斜め左上方向へ移動する「斜め左上フリック」、指が画面の斜め左下方向へ移動する「斜め左下フリック」、指が画面の斜め右上方向へ移動する「斜め右上フリック」、指が画面の斜め右下方向へ移動する「斜め右下フリック」等を含む。
「ピンチイン」は、複数の指が近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が近付く方向にスワイプするジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なる。以下では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。
図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。
スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。
アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、配置パターンに基づいて配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。利用者の設定に従って任意の画像が壁紙41として決定されてもよい。
スマートフォン1は、ホーム画面40の数を増減することができる。スマートフォン1は、例えば、ホーム画面40の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面40の数が複数であっても、選択された1つをディスプレイ2Aに表示する。
スマートフォン1は、ホーム画面40上に、1つ又は複数のシンボルを含むロケータ51を表示する。シンボルの数は、ホーム画面40の数と一致する。ロケータ51は、どのホーム画面40が現在表示されているかを示す。ロケータ51において、現在表示されているホーム画面40に対応するシンボルは、他のシンボルと異なる態様で表示される。
図4に示す例では、3つのシンボルを含むロケータ51が表示されている。これは、ホーム画面40の数が3つであることを示す。3つのシンボル各々は、円形である。図4に示す例では、左端のシンボルが他のシンボルと異なる態様で表示されている。すなわち、左端のシンボルを除くシンボルは円形の枠として表示されているが、左端のシンボルは円形の枠の内部が塗りつぶされた状態で表示されている。これは、左端のホーム画面40が現在ディスプレイ2Aに表示されていることを示している。
スマートフォン1は、ホーム画面40を表示中に横方向のジェスチャを検出すると、当該ジェスチャに応じてディスプレイ2Aに表示するホーム画面40を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面40を1つ左のホーム画面40に切り替える。例えば、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面40を1つ右のホーム画面40に切り替える。スマートフォン1が左右方向のフリックジェスチャに応じてホーム画面40を横方向に切り替える処理については、後で詳細に説明する。スマートフォン1は、ホーム画面40を横方向に切り替えると、ロケータ51の表示を、切り替え後のホーム画面40の位置に合わせて更新する。
ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、時刻、天気、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限定されない。
ホーム画面40の上下方向は、ディスプレイ2Aに表示される文字または画像の上下方向を基準とした方向である。よって、ホーム画面40は、タッチスクリーンディスプレイ2の長手方向において領域42に近い側がホーム画面40の上側となり、領域42から遠い側がホーム画面40の下側となる。領域42において電波レベルマーク44が表示されている側がホーム画面40の右側であり、領域42において残量マーク43が表示されている側がホーム画面40の左側である。スマートフォン1は、ホーム画面40に表示される文字または画像の上下方向に基づいて、例えば、ホーム画面40の斜め左上方向、斜め右下方向、左方向、および、右方向を決定する。
図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。
図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュである。
ボタン3A〜3Cは、例えば、ホームボタン、バックボタン、又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
照度センサ4は、照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。
通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
レシーバ7及びスピーカ11は、コントローラ10から送信される音声信号を音声として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の非一過的(non−transitory)な記憶デバイスを含んでよい。ストレージ9は、複数の種類の記憶デバイスを含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メール機能を提供する。電子メール機能は、例えば、電子メールの作成、送信、受信、及び表示等を可能にする。ブラウザアプリケーション9Cは、WEBブラウジング機能を提供する。WEBブラウジング機能は、例えば、WEBページの表示、及びブックマークの編集等を可能にする。設定データ9Zは、スマートフォン1の動作に関する各種の設定機能を提供する。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、ジェスチャに応じて表示させるホーム画面40を変更する機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
コントローラ10は、演算回路である。演算回路は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、又はFPGA(Field−Programmable Gate Array)である。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じてディスプレイ2A及び通信ユニット6等の機能部を制御し、それによって各種機能を実現する。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。機能部は、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。検出部は、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、レシーバ7、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むがこれらに限定されない。
コントローラ10は、例えば、制御プログラム9Aを実行することにより、ジェスチャに応じて表示させるホーム画面40を変更する。
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置である。
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
図5においてストレージ9が記憶するプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図5においてストレージ9が記憶するプログラムの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、又はメモリカードである。
図5に示したスマートフォン1の構成は一例であり、本出願の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてよいし、ボタンを備えなくてもよい。図5に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも一つを検出するための他の種類のセンサを備えてもよい。
以下、図6〜図13を参照しながら、スマートフォン1が、利用者のタッチスクリーンディスプレイ2に対するジェスチャに応じて行う処理について説明する。
図6は、実施形態に係るスマートフォンが行う制御の第1の例を示す図である。図6では、ユーザが、指をホーム画面40の左端近傍の所定領域に接触させた状態で、指を右方向へ移動させている。又は、ユーザが、タッチスクリーンディスプレイ2の表面をなぞっている。このとき、スマートフォン1のコントローラ10は、スワイプを検出する。具体的には、コントローラ10は、ホーム画面40の左端近傍の所定領域内を始点とする右方向へのスワイプを検出する。そして、ユーザが指を右方向へ移動させると、コントローラ10は、当該移動の軌跡に沿って、メモオブジェクト55をホーム画面40に表示する。メモオブジェクト55は、付箋の形状を模したオブジェクトである。メモオブジェクト55は、スワイプの始点であるホーム画面40の左端側に位置する部分がホーム画面40に糊づけされているように表示される。メモオブジェクト55は、ユーザによってなぞられた領域に対応して表示される。
ホーム画面40の左端近傍の所定領域は、例えば、ホーム画面40の左端と、ホーム画面40の左端からホーム画面40の短手方向の長さの20分の1の長さだけ離れた位置の間の領域である。尚、所定領域の位置及び領域の広さは、適宜設定され得る。例えば、所定領域は、ホーム画面40の右端、下端又は上端のいずれかの近傍の領域であってもよい。
コントローラ10は、メモオブジェクト55をホーム画面40に表示する場合、スワイプが行われている最中に、メモオブジェクト55がユーザの指に追随して徐々に長くなる(徐々に伸びていく)ように表示してよい。コントローラ10は、スワイプが行われている最中はメモオブジェクト55を表示せず、スワイプが終了すると、すなわちユーザの指がタッチスクリーン2Bから離れたことを検出すると、その時点で初めてメモオブジェクト55を表示してもよい。コントローラ10は、メモオブジェクト55の長さを、スワイプの軌跡の長さと同じ長さとしてよいし、スワイプの軌跡の長さより短く或いは長くしてもよい。
図7は、実施形態に係るスマートフォンが行う制御の第1の例の処理手順を示すフローチャートである。
スマートフォン1のコントローラ10は、ステップS1で、スワイプを検出する。そして、ステップS2に進む。コントローラ10は、ステップS2として、検出したスワイプの始点がホーム画面40の端部領域内にあるか否かを判定する。ホーム画面40の端部領域は、図6に示す例では、ホーム画面40の左端と、ホーム画面40の左端からホーム画面40の短手方向の長さの20分の1の長さだけ離れた位置の間の領域である。コントローラ10は、検出したスワイプの始点がホーム画面40の端部領域内にあると判定した場合(ステップS2でYes)、ステップS3に進む。コントローラ10は、検出したスワイプの始点がホーム画面40の端部領域内にないと判定した場合(ステップS2でNo)、ステップS4に進む。
コントローラ10は、ステップS3として、ホーム画面40上に、スワイプの軌跡に沿ってメモオブジェクト55を表示する。コントローラ10は、ステップS4として、ホーム画面40を別のホーム画面に変更する。
次に、図8を用いて、メモオブジェクト55に文字を入力する処理について説明する。図8は、メモオブジェクトに文字を入力する処理を示す図である。スマートフォン1のコントローラ10は、図6に示す処理によってメモオブジェクト55を表示させると、図8のステップS11に示す文字入力画面を表示させ、メモオブジェクト55に対する文字の入力を可能とする。文字入力画面は、文字入力領域60とキーボード61とを含む。図8のステップS11は、ユーザにより、文字入力領域60に、「14:00 渋谷」という文字列が入力された様子を示している。
コントローラ10は、メモオブジェクト55を表示させた後、メモオブジェクト55に対するタップを検出すると、文字入力画面に遷移してよい。コントローラ10は、スワイプが終了すると、すなわちユーザの指がタッチスクリーン2Bから離れたことを検出すると、メモオブジェクト55を表示させるとともに自動的に文字入力画面に遷移してもよい。
文字の入力が確定すると、図8のステップS12に示すように、メモオブジェクト55の重要度を設定することもできる。もちろん、重要度を設定する画面に遷移しなくともよい。
そして、ユーザの操作に基づいて文字の入力が確定しメモオブジェクト55の重要度が設定されると、コントローラ10は、図8のステップS13に示すように、メモオブジェクト55をホーム画面40に表示させる。メモオブジェクト55には、図8のステップS11で文字入力領域60に入力された文字が表示されている。図8のステップS13では、メモオブジェクト55が、ホーム画面40に表示される複数のアイコン50のうち一部のアイコンに重ねて表示されている。
図9A及び図9Bは、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。図9Aに示すように、ホーム画面40には、メモアプリケーションに対応するアイコン50が表示されている。そして、ユーザが、指をアイコン50に接触させた状態で、指を右方向へ移動させている。このとき、スマートフォン1のコントローラ10は、アイコン50を始点とする右方向へのスワイプを検出する。そして、ユーザが指を右方向へ移動させると、コントローラ10は、当該移動の軌跡に沿って、横方向に長いメモオブジェクト55をホーム画面40に表示する。図9Aでは、メモオブジェクト55は、アイコン50から引き出されたように表示される。
図9Aでは、ユーザがメモアプリケーションに対応するアイコン50から右方向へのスワイプを行う例を示したが、スワイプの方向はこれに限られない。図9Bでは、ユーザが、アイコン50から下方向へのスワイプを行っている。コントローラ10は、アイコン50を始点とする下方向へのスワイプを検出すると、スワイプの軌跡に沿って、縦方向に長いメモオブジェクト55をホーム画面40に表示させる。
コントローラ10は、スワイプの方向に応じて、メモオブジェクト55に対して文字を縦書きで入力可能とするか或いは横書きで入力可能とするかを決定してよい。すなわち、図9Aのように横長のメモオブジェクト55を表示する場合には、図8のステップS11の文字入力領域60において文字を横書きで入力可能とし、図9Bのように縦長のメモオブジェクト55を表示する場合には、文字入力領域60において文字を縦書きで入力可能としてよい。
図10は、実施形態に係るスマートフォンが行う制御の第3の例を示す図である。図10のステップS21では、メモオブジェクト55aが表示されたホーム画面40aに対して、ユーザが左方向へのスワイプを行っている。このスワイプの始点は、上述したホーム画面40aの端部の所定領域内ではなく、ホーム画面40aの中央近傍である。コントローラ10は、図7のフローチャートに示すように、検出したスワイプの始点がホーム画面40aの端部領域内にないと判定し、図10のステップS22に示すように、ホーム画面40aを、当該ホーム画面40aの右隣のホーム画面であるホーム画面40bに変更する。このとき、コントローラ10は、ホーム画面40bに元々表示されていた、メモオブジェクト55aとは別のメモオブジェクト55bを表示する。
このように、コントローラ10は、メモオブジェクト55aをホーム画面40aに対応付け、ホーム画面40aを変更する(切り替える)ジェスチャが行われると、ディスプレイ2Aに表示されるホーム画面40bに対応付けられたメモオブジェクト55bを表示する。コントローラ10は、例えば、メモオブジェクト55aに対するタップが検出された状態でホーム画面40aを変更する(切り替える)ジェスチャが行われると、ホーム画面40b上にメモオブジェクト55aを表示させてもよい。すなわち、コントローラ10は、メモオブジェクト55aを表示させたまま、ホーム画面を変更してもよい。
図11A及び図11Bは、実施形態に係るスマートフォンが行う制御の第4の例を示す図である。図11Aでは、ホーム画面40にメモオブジェクト55が表示されているときに、ユーザが領域42に対して下方向にスワイプを行っている。コントローラ10は、領域42に対するスワイプを検出すると、スワイプに追随して、ドロワー420を表示させる。ドロワー420は、未読メールがあること、アプリケーションが更新されたこと等の種々の情報が表示される領域である。図11Aに示すように、コントローラ10は、ユーザのスワイプに応じて領域42から引き出されたドロワー420によってメモオブジェクト55が覆われ、その後ユーザがドロワー420に対して領域42に向かう方向(引き出されたドロワー420を領域42へ戻す方向)のスワイプを行うと、メモオブジェクト55を非表示とする。これにより、ホーム画面40の視認性が確保される。
そして、メモオブジェクト55が非表示となった後、図11Bに示すように、ユーザが再度ドロワー420を表示させさらにドロワー420を戻すジェスチャを行うと、メモオブジェクト55がホーム画面40に再度表示される。
図12は、実施形態に係るスマートフォンが行う制御の第5の例を示す図である。図12のステップS31では、ホーム画面40に表示されたメモオブジェクト55に対して、ユーザが左方向へのフリックを行っている。コントローラ10は、メモオブジェクト55に対する左方向のフリックを検出すると、図12のステップS32に示すように、メモオブジェクト55を、該メモオブジェクト55の一部がホーム画面40の端部から延びるようにホーム画面40に表示させる。ここで、図12のステップS31において、メモオブジェクト55に例えば図8のステップS13のように「14:00 渋谷」と入力されていた場合、図12のステップS32に示す状態において、ホーム画面40の端部に位置するメモオブジェクト55の一部に、「渋 14」と表示してよい。すなわち、コントローラ10は、所定の文字列が入力されたメモオブジェクト55を、その一部だけが表示される状態にした場合に、メモオブジェクトの一部に、入力されていた文字列の一部を表示させてよい。これにより、ホーム画面40の視認性を確保しつつ、ユーザがメモオブジェクトの存在も認識することができ、使い勝手が向上する。
図13は、実施形態に係るスマートフォンが行う制御の第6の例を示す図である。図13では、ディスプレイ2Aにロック画面45が表示されている。ロック画面45は、スマートフォン1の不正使用を防止するために設けられる画面である。図13に示すように、ユーザが、ロック画面45に対してスワイプを行っている。コントローラ10は、スワイプを検出すると、当該スワイプの軌跡に沿って、メモオブジェクト55をロック画面45に表示する。
図10を用いて説明したように、スマートフォン1は、複数のホーム画面40を切り替えて表示させることができるため、図7に示すフローチャートに従って、コントローラ10は、ホーム画面40を切り替えるスワイプと、メモオブジェクト55を表示させるスワイプとを区別している。しかし、ロック画面45は、スワイプにより切り替える対象の画面を有さないため、図13に示すように、ロック画面45が表示されている状態では、スワイプがロック画面の中央部を始点とするものであっても、メモオブジェクト55を表示してよい。すなわち、スワイプは、画面の端部領域を始点とするものでなくともよい。
そして、コントローラ10は、ロック画面45にメモオブジェクト55が表示された状態において、メモオブジェクト55に対するタップを検出し、かつロックを解除する操作が行われたことを検出すると、ロック画面45に表示されていたメモオブジェクト55を、ホーム画面40に表示してもよい。
以上説明したように、本実施形態に係るスマートフォン1は、ホーム画面40或いはロック画面45に対するスワイプが行われると、当該スワイプの軌跡に沿って、文字を入力可能なメモオブジェクト55を表示する。これにより、特定のアプリケーションを起動せずとも情報を表示可能なメモオブジェクトを、直観的な操作でホーム画面上に表示させることができ、使い勝手が向上する。図6に示した本実施形態に係るスマートフォン1の制御は、ホーム画面に配置されたアイコンをタップしてメモアプリケーションを起動し、その後所定の操作によりメモオブジェクトをホーム画面に配置する技術と比較すると、メモオブジェクトをホーム画面に配置するための工程数が少ないため、ユーザの使い勝手が向上する。
また、図9に示す制御によれば、ホーム画面40に配置されたメモアプリケーションアイコンを起点としてメモオブジェクトを生成することができるため、ユーザが直観的な操作で容易にメモオブジェクトを画面に配置することができる。
また、本実施形態に係るスマートフォン1は、上述の制御の例に限られず、種々の実施態様が考えられる。例えば、上記の制御例では、メモオブジェクト55に「14:00 渋谷」という時刻に関する情報が入力される例を示した。スマートフォン1のコントローラ10は、このように、時刻が入力されたメモオブジェクト55について、当該入力された時刻が過ぎると自動的に非表示としてよい。或いは、入力された時刻が過ぎると、メモオブジェクト55を、画面から剥がれかけているような態様、色がくすんだような態様、傷が付いたような態様又は折り畳まれたような態様で表示してよい。これにより、ユーザが自分の予定をメモオブジェクト55に入力していた場合に、予定の時刻が過ぎたメモオブジェクト55の表示態様を上記のように変更することで、ユーザに予定の時刻が過ぎたことを通知することができる。結果、通知を受けたユーザは、例えば時刻の過ぎたメモオブジェクト55を削除することができる。
また、コントローラ10は、複数のメモオブジェクト55に入力された情報を比較し、同一或いは類似の情報が入力されていれば、該複数のメモオブジェクト55を、少なくとも両者の一部が重なるように表示してよい。これにより、ホーム画面の視認性を確保することができる。
また、コントローラ10は、ホーム画面40或いはロック画面45において異なる2点でのタップを同時に検出すると、メモオブジェクト55を表示してよい。このとき、メモオブジェクト55の長さを、タップが検出された2点間の距離と同じとしてよい。
また、コントローラ10は、図12に示すような、メモオブジェクト55を生成したときのスワイプと逆方向のスワイプがメモオブジェクト55に対して行われると、当該メモオブジェクト55を削除しても良い。
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
40 ホーム画面
45 ロック画面
50 アイコン
55 メモオブジェクト

Claims (8)

  1. タッチスクリーンディスプレイと、
    前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、
    を備える装置。
  2. 前記コントローラは、ホーム画面を前記タッチスクリーンディスプレイに表示しているときに、前記ホーム画面の端部領域内を始点とする前記移動が検出されると前記オブジェクトを前記ホーム画面上に表示し、前記ホーム画面の端部領域外を始点とする前記移動が検出されると、表示されているホーム画面を別のホーム画面に変更する
    請求項1に記載の装置。
  3. 前記コントローラは、所定のアイコンが表示されるホーム画面を前記タッチスクリーンディスプレイに表示し、前記物体の前記所定のアイコンに対する接触が検出された後前記物体が接触したまま所定の方向に移動したことが検出されると、前記アイコンを始点とし前記移動の軌跡に沿った前記オブジェクトを前記ホーム画面上に表示させる
    請求項1に記載の装置。
  4. 前記コントローラは、前記移動の方向に応じて、前記オブジェクトに対して文字を縦書きで入力可能とするか或いは横書きで入力可能とするかを決定する
    請求項1から請求項3のいずれか一項に記載の装置。
  5. タッチスクリーンディスプレイと、
    前記タッチスクリーンディスプレイに対してスワイプが行われると、当該スワイプの軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、
    を備える装置。
  6. タッチスクリーンディスプレイと、
    前記タッチスクリーンディスプレイがなぞられると、なぞられた領域に、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、
    を備える装置。
  7. タッチスクリーンディスプレイを備える装置を制御する方法であって、
    前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことを検出するステップと、
    検出された当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるステップと
    を含む方法。
  8. タッチスクリーンディスプレイを備える装置に、
    前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことを検出するステップと、
    検出された当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるステップと
    を実行させるプログラム。
JP2015513835A 2013-04-26 2014-04-24 装置、方法、及びプログラム Expired - Fee Related JP6058790B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013093778 2013-04-26
JP2013093778 2013-04-26
PCT/JP2014/061606 WO2014175395A1 (ja) 2013-04-26 2014-04-24 装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6058790B2 JP6058790B2 (ja) 2017-01-11
JPWO2014175395A1 true JPWO2014175395A1 (ja) 2017-02-23

Family

ID=51791961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015513835A Expired - Fee Related JP6058790B2 (ja) 2013-04-26 2014-04-24 装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US9875017B2 (ja)
JP (1) JP6058790B2 (ja)
WO (1) WO2014175395A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102148809B1 (ko) * 2013-04-22 2020-08-27 삼성전자주식회사 단축 아이콘 윈도우 표시 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
EP3276447A4 (en) * 2015-03-23 2019-01-16 Naver Corporation APPARATUS AND METHOD FOR APPLICATION EXECUTION FOR MOBILE DEVICE
JP6676913B2 (ja) * 2015-09-30 2020-04-08 ブラザー工業株式会社 情報処理装置、および制御プログラム
US20170195736A1 (en) 2015-12-31 2017-07-06 Opentv, Inc. Systems and methods for enabling transitions between items of content
KR101981439B1 (ko) * 2016-02-08 2019-05-22 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
RU2658803C2 (ru) * 2016-10-28 2018-06-22 Общество с ограниченной ответственностью "ПИРФ" (ООО "ПИРФ") Способ и система вызова интерфейса пользователя на экране электронного устройства
JP6951940B2 (ja) 2017-10-26 2021-10-20 東芝テック株式会社 コンテンツ表示制御装置及びその情報処理プログラム
KR102603900B1 (ko) * 2018-12-07 2023-11-17 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
JP2020160789A (ja) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 操作装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200805131A (en) * 2006-05-24 2008-01-16 Lg Electronics Inc Touch screen device and method of selecting files thereon
US7864163B2 (en) * 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
WO2010010967A1 (ja) * 2008-07-25 2010-01-28 日本電気株式会社 電子付箋システム
KR101859100B1 (ko) 2011-07-19 2018-05-17 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
JP5712084B2 (ja) * 2011-08-18 2015-05-07 京セラ株式会社 携帯電子機器、制御方法、および、制御プログラム
US20140240101A1 (en) 2011-09-15 2014-08-28 Nec Casio Mobile Communications, Ltd. Device and method for processing write information of electronic tag
US9285980B2 (en) * 2012-03-19 2016-03-15 Htc Corporation Method, apparatus and computer program product for operating items with multiple fingers

Also Published As

Publication number Publication date
WO2014175395A1 (ja) 2014-10-30
US20160077702A1 (en) 2016-03-17
US9875017B2 (en) 2018-01-23
JP6058790B2 (ja) 2017-01-11

Similar Documents

Publication Publication Date Title
JP5775445B2 (ja) 装置、方法、及びプログラム
JP5715042B2 (ja) 装置、方法、及びプログラム
JP6017891B2 (ja) 装置、方法、及びプログラム
JP6002012B2 (ja) 装置、方法、及びプログラム
JP5891083B2 (ja) 装置、方法、及びプログラム
JP6058790B2 (ja) 装置、方法、及びプログラム
JP6110654B2 (ja) 装置、方法、及びプログラム
JP5840045B2 (ja) 装置、方法、及びプログラム
JP2013205963A (ja) 装置、方法、及びプログラム
JP2013131108A (ja) 装置、方法、及びプログラム
JP2013131185A (ja) 装置、方法、及びプログラム
JP2013084260A (ja) 装置、方法、及びプログラム
JP2013134694A (ja) 装置、方法、及びプログラム
JP2013131193A (ja) 装置、方法、及びプログラム
JP2013186726A (ja) 装置、方法、及びプログラム
JP2013200680A (ja) 装置、方法、及びプログラム
JP2013065290A (ja) 装置、方法、及びプログラム
JP5859932B2 (ja) 装置、方法、及びプログラム
JP5775432B2 (ja) 装置、方法、及びプログラム
JP5762885B2 (ja) 装置、方法、及びプログラム
JP2013092891A (ja) 装置、方法、及びプログラム
JP5959372B2 (ja) 装置、方法、及びプログラム
JP6080355B2 (ja) 装置、方法及びプログラム
JP5848971B2 (ja) 装置、方法、及びプログラム
JP5848970B2 (ja) 装置、方法、及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161207

R150 Certificate of patent or registration of utility model

Ref document number: 6058790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees