Nothing Special   »   [go: up one dir, main page]

JP5878042B2 - Apparatus, method, and program - Google Patents

Apparatus, method, and program Download PDF

Info

Publication number
JP5878042B2
JP5878042B2 JP2012048184A JP2012048184A JP5878042B2 JP 5878042 B2 JP5878042 B2 JP 5878042B2 JP 2012048184 A JP2012048184 A JP 2012048184A JP 2012048184 A JP2012048184 A JP 2012048184A JP 5878042 B2 JP5878042 B2 JP 5878042B2
Authority
JP
Japan
Prior art keywords
display
display area
smartphone
touch screen
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012048184A
Other languages
Japanese (ja)
Other versions
JP2013182596A (en
Inventor
茂樹 蛭川
茂樹 蛭川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012048184A priority Critical patent/JP5878042B2/en
Publication of JP2013182596A publication Critical patent/JP2013182596A/en
Application granted granted Critical
Publication of JP5878042B2 publication Critical patent/JP5878042B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、装置、方法、及びプログラムに関する。特に、本出願は、タッチスクリーンを有する装置、その装置を制御する方法、及びその装置を制御するためのプログラムに関する。   The present application relates to an apparatus, a method, and a program. In particular, the present application relates to a device having a touch screen, a method for controlling the device, and a program for controlling the device.

タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスには、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。   Touch screen devices comprising a touch screen are known. Touch screen devices include, for example, smartphones and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1, for example.

タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、Windows(登録商標) Phoneである。   The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. The OS installed in the touch screen device is, for example, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, or Windows (registered trademark) Phone.

国際公開第2008/086302号International Publication No. 2008/086302

タッチスクリーンデバイスの多くは、利用者の誤操作の防止およびセキュリティの観点から、利用者によって操作されない期間がある期間継続するとロック状態へ移行する。タッチスクリーンデバイスは、ロック状態にある場合、特定の操作を除いて、利用者の操作を受け付けない。特定の操作には、例えば、ロック状態を解除するためのロック解除操作が含まれる。   Many touch screen devices shift to a locked state when they are not operated by a user for a certain period of time from the viewpoint of prevention of user's erroneous operation and security. When the touch screen device is in a locked state, it does not accept user operations except for specific operations. The specific operation includes, for example, a lock release operation for releasing the lock state.

ところで、タッチスクリーンデバイスは、ロック状態にある場合、ロック画面を表示させる。このため、ロック状態にある場合、利用者は、ロック状態となる前に表示されていた情報を確認できない。   By the way, when the touch screen device is in the locked state, the lock screen is displayed. For this reason, when in the locked state, the user cannot confirm the information displayed before the locked state is entered.

このような理由により、ロック状態であっても、ロック状態となる前に表示されていた情報を視覚的に確認できる装置、方法、及びプログラムに対する必要性がある。   For these reasons, there is a need for an apparatus, a method, and a program that can visually confirm information displayed before entering the locked state even in the locked state.

1つの態様に係る装置は、第1のオブジェクトを表示するタッチスクリーンディスプレイと、ロック状態にある場合に、前記タッチスクリーンディスプレイに表示されている第1のオブジェクトに対して、該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させるコントローラとを備える。   An apparatus according to an aspect includes a touch screen display that displays a first object, and the first object that is displayed on the touch screen display when the device is in a locked state. And a controller that displays the transparent second object in an overlapping manner.

1つの態様に係る方法は、タッチスクリーンディスプレイを備える装置を制御する方法であって、前記タッチスクリーンディスプレイに第1のオブジェクトを表示させるステップと、ロック状態にある場合に、前記タッチスクリーンディスプレイに表示されている前記第1のオブジェクトに対して、該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させるステップとを含む。   A method according to one aspect is a method of controlling an apparatus comprising a touch screen display, the step of displaying a first object on the touch screen display, and a display on the touch screen display when in a locked state. And displaying a second object that is transparent to the first object on the first object being displayed.

1つの態様に係るプログラムは、タッチスクリーンディスプレイを備える装置に、前記タッチスクリーンディスプレイに第1のオブジェクトを表示させるステップと、ロック状態にある場合に、前記タッチスクリーンディスプレイに表示されている前記第1のオブジェクトに対して、該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させるステップとを実行させる。   A program according to one aspect includes a step of causing a device including a touch screen display to display a first object on the touch screen display, and the first displayed on the touch screen display when in a locked state. And a step of displaying a second object that is transparent to the first object on the object.

図1は、実施形態に係るスマートフォンの外観を示す斜視図である。FIG. 1 is a perspective view illustrating an appearance of a smartphone according to the embodiment. 図2は、実施形態に係るスマートフォンの外観を示す正面図である。FIG. 2 is a front view illustrating an appearance of the smartphone according to the embodiment. 図3は、実施形態に係るスマートフォンの外観を示す背面図である。FIG. 3 is a rear view illustrating an appearance of the smartphone according to the embodiment. 図4は、ホーム画面の一例を示す図である。FIG. 4 is a diagram illustrating an example of the home screen. 図5は、ロック状態にある場合にディスプレイに表示される画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a screen displayed on the display in the locked state. 図6は、スマートフォンの構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of the smartphone. 図7は、オブジェクト排除機能による制御の例を示す図である。FIG. 7 is a diagram illustrating an example of control by the object exclusion function. 図8は、オブジェクト排除機能による制御の例を示す図である。FIG. 8 is a diagram illustrating an example of control by the object exclusion function. 図9は、オブジェクト排除機能による制御の例を示す図である。FIG. 9 is a diagram illustrating an example of control by the object exclusion function. 図10は、アプリケーション実行機能による制御の例を示す図である。FIG. 10 is a diagram illustrating an example of control by the application execution function. 図11は、アプリケーション実行機能による制御の例を示す図である。FIG. 11 is a diagram illustrating an example of control by the application execution function. 図12は、オブジェクト復元機能による制御の例を示す図である。FIG. 12 is a diagram illustrating an example of control by the object restoration function. 図13は、制御プログラムが提供する機能に基づく制御の処理手順を示す図である。FIG. 13 is a diagram illustrating a control processing procedure based on a function provided by the control program. 図14は、制御プログラムが提供する機能に基づく制御の処理手順を示す図である。FIG. 14 is a diagram illustrating a control processing procedure based on a function provided by the control program. 図15は、オブジェクト排除機能による制御の他の例を示す図である。FIG. 15 is a diagram illustrating another example of control by the object exclusion function. 図16は、オブジェクト排除機能による制御の他の例を示す図である。FIG. 16 is a diagram illustrating another example of control by the object exclusion function. 図17は、オブジェクト排除機能による制御の他の例を示す図である。FIG. 17 is a diagram illustrating another example of control by the object exclusion function. 図18は、オブジェクト排除機能による制御の他の例を示す図である。FIG. 18 is a diagram illustrating another example of control by the object exclusion function. 図19は、オブジェクト排除機能による制御の他の例を示す図である。FIG. 19 is a diagram illustrating another example of control by the object exclusion function. 図20は、オブジェクト排除機能による制御の他の例を示す図である。FIG. 20 is a diagram illustrating another example of control by the object exclusion function.

図面を参照しつつ実施形態を詳細に説明する。以下では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明する。   Embodiments will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an apparatus provided with a touch screen.

(実施形態)
図1から図3を参照しながら、本実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The overall configuration of the smartphone 1 according to this embodiment will be described with reference to FIGS. 1 to 3. As shown in FIGS. 1 to 3, the smartphone 1 has a housing 20. The housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4. The front face 1 </ b> A is the front of the housing 20. The back face 1 </ b> B is the back surface of the housing 20. The side faces 1C1 to 1C4 are side surfaces that connect the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The smartphone 1 includes a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A. The smartphone 1 has a speaker 11 and a camera 13 on the back face 1B. The smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C. Hereinafter, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2A includes a display device such as a liquid crystal display (Liquid Crystal Display), an organic EL panel (Organic Electro-Luminescence panel), or an inorganic EL panel (Inorganic Electro-Luminescence panel). The display 2A displays characters, images, symbols, graphics, and the like.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bが接触を検出する指、ペン、又はスタイラスペン等を単に「指」ということがある。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. Hereinafter, in order to simplify the description, a finger, a pen, a stylus pen, or the like that the touch screen 2B detects contact may be simply referred to as “finger”.

スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。   The smartphone 1 determines the type of gesture based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. The gesture is an operation performed on the touch screen 2B. The gesture discriminated by the smartphone 1 includes touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, pinch out, and the like.

「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間以上触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間以上接触するジェスチャをロングタッチとして判別する。   “Touch” is a gesture in which a finger touches the touch screen 2B. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B as a touch. “Long touch” is a gesture in which a finger touches the touch screen 2B for a predetermined time or more. The smartphone 1 determines a gesture in which a finger is in contact with the touch screen 2B for a predetermined time or more as a long touch.

「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。   “Release” is a gesture in which a finger leaves the touch screen 2B. The smartphone 1 determines that a gesture in which a finger leaves the touch screen 2B is a release. “Swipe” is a gesture in which a finger moves while touching the touch screen 2B. The smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen 2B as a swipe.

「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。   A “tap” is a gesture for releasing following a touch. The smartphone 1 determines a gesture for releasing following a touch as a tap. The “double tap” is a gesture in which a gesture for releasing following a touch is continued twice. The smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.

「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。   “Long tap” is a gesture for releasing following a long touch. The smartphone 1 determines a gesture for releasing following a long touch as a long tap. “Drag” is a gesture for performing a swipe starting from an area where a movable object is displayed. The smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.

「フリック」は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャをフリックとして判別する。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。   A “flick” is a gesture that is released while a finger moves at high speed in one direction following a touch. The smartphone 1 determines, as a flick, a gesture that is released while the finger moves in one direction at high speed following the touch. Flick is "upper flick" where the finger moves upward on the screen, "lower flick" where the finger moves downward on the screen, "right flick" where the finger moves rightward on the screen, finger is left on the screen Including “left flick” moving in the direction.

「ピンチイン」は、複数の指が近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が近付く方向にスワイプするジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。   “Pinch-in” is a gesture of swiping in a direction in which a plurality of fingers approach. The smartphone 1 determines, as a pinch-in, a gesture that swipes in a direction in which a plurality of fingers approach. “Pinch out” is a gesture of swiping in a direction in which a plurality of fingers move away. The smartphone 1 determines a gesture of swiping in a direction in which a plurality of fingers move away as a pinch out.

スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なる。以下では、説明を簡単にするために、「タッチスクリーン2Bがジェスチャを検出し、検出されたジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。   The smartphone 1 operates according to these gestures that are determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized. The operation performed by the smartphone 1 according to the determined gesture differs depending on the screen displayed on the display 2A. Hereinafter, in order to simplify the description, “the touch screen 2B detects a gesture and the smartphone 1 determines that the type of the detected gesture is X”, “the smartphone 1 detects X”, or “The controller detects X” may be described.

図4を参照しながら、ディスプレイ2Aに表示されるホーム画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。   An example of a home screen displayed on the display 2A will be described with reference to FIG. FIG. 4 shows an example of the home screen. The home screen may be called a desktop or a standby screen. The home screen is displayed on the display 2A. The home screen is a screen that allows the user to select which application to execute from among the applications installed in the smartphone 1. The smartphone 1 executes the application selected on the home screen in the foreground. The screen of the application executed in the foreground is displayed on the display 2A.

スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。   The smartphone 1 can place an icon on the home screen. A plurality of icons 50 are arranged on the home screen 40 shown in FIG. Each icon 50 is associated with an application installed in the smartphone 1 in advance. When the smartphone 1 detects a gesture for the icon 50, the smartphone 1 executes an application associated with the icon 50. For example, the smartphone 1 executes the mail application when a tap on the icon 50 associated with the mail application is detected.

アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、配置パターンに基づいて配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。利用者の設定に従って任意の画像が壁紙41として決定されてもよい。   The icon 50 includes an image and a character string. The icon 50 may include a symbol or a graphic instead of the image. The icon 50 may not include either an image or a character string. The icons 50 are arranged based on the arrangement pattern. A wallpaper 41 is displayed behind the icon 50. The wallpaper is sometimes called a photo screen or a back screen. The smartphone 1 can use any image as the wallpaper 41. An arbitrary image may be determined as the wallpaper 41 according to the setting of the user.

スマートフォン1は、ホーム画面の数を増減することができる。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面の数が複数であっても、選択された1つをディスプレイ2Aに表示する。   The smartphone 1 can increase or decrease the number of home screens. For example, the smartphone 1 determines the number of home screens according to the setting by the user. The smartphone 1 displays the selected one on the display 2A even if there are a plurality of home screens.

スマートフォン1は、ホーム画面上に、1つ又は複数のロケータを表示する。ロケータの数は、ホーム画面の数と一致する。ロケータは、どのホーム画面が現在表示されているかを示す。現在表示されているホーム画面に対応するロケータは、他のロケータと異なる態様で表示される。   The smartphone 1 displays one or more locators on the home screen. The number of locators matches the number of home screens. The locator indicates which home screen is currently displayed. The locator corresponding to the currently displayed home screen is displayed in a manner different from other locators.

図4に示す例では、4つのロケータ51が表示されている。これは、ホーム画面40の数が4つであることを示す。さらに、図4に示す例では、左から2番目のシンボルが他のシンボルと異なる態様で表示されている。これは、現在、左から2番目のホーム画面がディスプレイ2Aに表示されていることを示している。   In the example shown in FIG. 4, four locators 51 are displayed. This indicates that the number of home screens 40 is four. Further, in the example shown in FIG. 4, the second symbol from the left is displayed in a manner different from other symbols. This indicates that the second home screen from the left is currently displayed on the display 2A.

スマートフォン1は、ホーム画面を表示中にジェスチャを検出すると、ディスプレイ2Aに表示するホーム画面を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に切り替える。例えば、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に切り替える。   When the smartphone 1 detects a gesture while displaying the home screen, the smartphone 1 switches the home screen displayed on the display 2A. For example, when detecting a right flick, the smartphone 1 switches the home screen displayed on the display 2A to the left home screen. For example, when the smartphone 1 detects a left flick, the smartphone 1 switches the home screen displayed on the display 2A to the right home screen.

ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、時刻、天気、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限定されない。   A region 42 is provided at the upper end of the display 2A. In the area 42, a remaining amount mark 43 indicating the remaining amount of the rechargeable battery and a radio wave level mark 44 indicating the electric field strength of the communication radio wave are displayed. The smartphone 1 may display the time, weather, running application, communication system type, telephone status, device mode, event occurring in the device, and the like in the area 42. As described above, the area 42 is used for various notifications to the user. The area 42 may be provided on a screen other than the home screen 40. The position where the region 42 is provided is not limited to the upper end of the display 2A.

スマートフォン1は、ホーム画面40上に、利用者に対する通知52を表示する。図4に示す例では、メールを受信したことを利用者に知らせるための通知を表示している。メールを受信したことを利用者に知らせるための通知を表示する場合には限定されず、例えば、着信があったことを利用者に知らせる通知、またはSMSおよびMMSを受信した通知などをホーム画面上に表示させてもよい。ホーム画面40、ホーム画面40の配置されたアイコン50およびアイコン50に対応するアプリケーションの実行画面などは、第1のオブジェクトの一例である。   The smartphone 1 displays a notification 52 for the user on the home screen 40. In the example shown in FIG. 4, a notification for notifying the user that a mail has been received is displayed. The notification for notifying the user that the mail has been received is not limited. For example, a notification for notifying the user that an incoming call has been received or a notification for receiving SMS and MMS is displayed on the home screen. May be displayed. The home screen 40, the icons 50 arranged on the home screen 40, the execution screen of the application corresponding to the icons 50, and the like are examples of the first object.

図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。   The home screen 40 shown in FIG. 4 is an example, and the forms of various elements, the arrangement of various elements, the number of home screens 40, how to perform various operations on the home screen 40, and the like are as described above. Not necessarily.

図5を参照しながら、スマートフォン1がロック状態にある場合に、ディスプレイ2Aに表示される画面の例について説明する。図5は、スマートフォン1がロック状態にある場合に、ディスプレイ2Aに表示される画面の一例を示す図である。スマートフォン1は、図4に示すホーム画面40の他に、図5に示す画面60をディスプレイ2Aに表示する。スマートフォン1は、利用者によって操作されない期間がある期間継続すると、利用者の誤操作の防止およびセキュリティの観点から、ロック状態へ移行する。ロック状態にある場合、スマートフォン1は、ロック状態に移行する直前にディスプレイ2Aに表示されている第1のオブジェクトに対して、第1のオブジェクトを透過する第2のオブジェクトを重ねて表示する。例えば、ロック状態に移行する直前に第1のオブジェクトとして、ホーム画面40がディスプレイ2Aに表示されている場合、図5に示すように、スマートフォン1は、ホーム画面40の上に、ホーム画面を透過する半透明のオブジェクト61を重ねて表示する。オブジェクト61は、ホーム画面と略同一の面積を有する。オブジェクト61は、第2のオブジェクトの一例である。以下では、図5に示す画面60を、説明の便宜上、ロック画面60と表記する。   An example of a screen displayed on the display 2A when the smartphone 1 is in a locked state will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a screen displayed on the display 2 </ b> A when the smartphone 1 is in a locked state. The smartphone 1 displays a screen 60 shown in FIG. 5 on the display 2A in addition to the home screen 40 shown in FIG. If the smartphone 1 continues for a certain period of time that is not operated by the user, the smartphone 1 shifts to the locked state from the viewpoint of prevention of user's erroneous operation and security. When in the locked state, the smartphone 1 displays the second object that is transparent to the first object on the first object displayed on the display 2A immediately before shifting to the locked state. For example, when the home screen 40 is displayed on the display 2A as the first object immediately before shifting to the locked state, the smartphone 1 transmits the home screen on the home screen 40 as shown in FIG. The translucent object 61 to be displayed is displayed in an overlapping manner. The object 61 has substantially the same area as the home screen. The object 61 is an example of a second object. Hereinafter, the screen 60 shown in FIG. 5 is referred to as a lock screen 60 for convenience of explanation.

図5に示すオブジェクト61は、例えば、半透明の画像レイヤであり、オブジェクト61の背面の情報を透過するので、ロック状態へ移行後、ロック状態に移行する直前にディスプレイ2Aに表示されていた情報を利用者に通知できる。図5に示すオブジェクト61は、ホーム画面40に対するタッチジェスチャをタッチスクリーン2Bにより検出されないようにする。例えば、スマートフォン1は、ホーム画面40にオブジェクト61が重ねられている場合、タッチスクリーン2Bによる検出結果をオブジェクト61に対するタッチジェスチャとして検出する。このように、スマートフォン1は、ホーム画面40にオブジェクト61を重ねて表示することで、ホーム画面40に配置された複数のアイコン50に対する誤操作を防止する。スマートフォン1は、オブジェクト61に対するタッチジェスチャがあった場合に、オブジェクト61の表示領域を減少させる。表示領域の減少により、オブジェクト61が消失した箇所は、部分的にロック状態が解除され、ホーム画面40が鮮明に表示されるとともに、ホーム画面40に対する操作が可能となる。   An object 61 shown in FIG. 5 is, for example, a translucent image layer, and transmits information on the back side of the object 61. Therefore, after the transition to the locked state, the information displayed on the display 2A immediately before the transition to the locked state. Can be notified to the user. 5 prevents the touch gesture on the home screen 40 from being detected by the touch screen 2B. For example, when the object 61 is superimposed on the home screen 40, the smartphone 1 detects the detection result by the touch screen 2 </ b> B as a touch gesture for the object 61. As described above, the smartphone 1 prevents an erroneous operation on the plurality of icons 50 arranged on the home screen 40 by displaying the object 61 on the home screen 40 in an overlapping manner. The smartphone 1 reduces the display area of the object 61 when there is a touch gesture on the object 61. The part where the object 61 disappears due to the reduction of the display area is partially unlocked, the home screen 40 is clearly displayed, and the home screen 40 can be operated.

図6は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。   FIG. 6 is a block diagram illustrating the configuration of the smartphone 1. The smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, a speaker 11, and a camera. 12 and 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, and a gyroscope 17.

タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。   As described above, the touch screen display 2 includes the display 2A and the touch screen 2B. The display 2A displays characters, images, symbols, graphics, or the like. The touch screen 2B detects a gesture.

ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュである。   The button 3 is operated by the user. The button 3 includes buttons 3A to 3F. The controller 10 detects an operation on the button 3 by cooperating with the button 3. The operations on the button 3 are, for example, click, double click, triple click, push, and multi-push.

ボタン3A〜3Cは、例えば、ホームボタン、バックボタン、又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。   The buttons 3A to 3C are, for example, a home button, a back button, or a menu button. The button 3D is, for example, a power on / off button of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. The buttons 3E and 3F are volume buttons, for example.

照度センサ4は、照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。   The illuminance sensor 4 detects illuminance. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.

通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method performed by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As cellular phone communication standards, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS). (Personal Handy-phone System). Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearFunel, etc.). The communication unit 6 may support one or more of the communication standards described above.

レシーバ7及びスピーカ11は、コントローラ10から送信される音声信号を音声として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。   The receiver 7 and the speaker 11 output the audio signal transmitted from the controller 10 as audio. The receiver 7 is used, for example, to output the other party's voice during a call. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other. The microphone 8 converts the voice of the user or the like into a voice signal and transmits it to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の非一過的(non−transitory)な記憶デバイスを含んでよい。ストレージ9は、複数の種類の記憶デバイスを含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage device such as a semiconductor storage device and a magnetic storage device. The storage 9 may include a plurality of types of storage devices. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a screen on the display 2 </ b> A, and causes the controller 10 to execute a process according to a gesture detected by the touch screen 2 </ b> B. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、天気予報アプリケーション9D、使用状況データ9Y、及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メール機能を提供する。電子メール機能は、例えば、電子メールの作成、送信、受信、及び表示等を可能にする。ブラウザアプリケーション9Cは、WEBブラウジング機能を提供する。WEBブラウジング機能は、例えば、WEBページの表示、及びブックマークの編集等を可能にする。天気予報アプリケーション9Dは、天気および天気予報に関する情報を利用者に提供する。使用状況データ9Yは、スマートフォン1にインストールされているアプリケーションの使用状況に関する情報を含む。例えば、使用状況データ9Yは、画面、行、列、画像、名前、インストール日時、使用回数、及び最終使用日時等の項目を有し、スマートフォン1にインストールされているアプリケーション毎にデータを保持する。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。   The storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, a weather forecast application 9D, usage status data 9Y, and setting data 9Z. The mail application 9B provides an electronic mail function. The e-mail function enables, for example, creation, transmission, reception, and display of an e-mail. The browser application 9C provides a WEB browsing function. The WEB browsing function enables, for example, display of a WEB page and editing of a bookmark. The weather forecast application 9D provides the user with information regarding the weather and the weather forecast. The usage status data 9 </ b> Y includes information regarding the usage status of the application installed in the smartphone 1. For example, the usage status data 9 </ b> Y includes items such as a screen, a row, a column, an image, a name, an installation date / time, a usage count, and a final usage date / time, and holds data for each application installed in the smartphone 1. The setting data 9Z includes information related to various settings related to the operation of the smartphone 1.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、ロック状態にある場合に、ディスプレイ2Aに表示されている第1のオブジェクトに対して、該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させる機能が含まれる。さらに、制御プログラム9Aが提供する機能には、タッチスクリーン2Bにより第2のオブジェクトに対するタッチジェスチャが検出された場合には、第2のオブジェクトの表示領域を減少させる機能(オブジェクト排除機能)が含まれる。さらに、制御プログラム9Aが提供する機能には、第2のオブジェクトと重なって表示されていない第1のオブジェクトに対するタッチジェスチャがタッチスクリーン2Bにより検出された場合には、第1のオブジェクトに対応付けられたアプリケーションを実行する機能(アプリケーション実行機能)が含まれる。さらに、制御プログラム9Aが提供する機能には、第2のオブジェクトの表示領域を減少させた後、第1のオブジェクトに対するタッチジェスチャがタッチスクリーン2Bにより検出されることなく一定時間が経過した場合には、第2のオブジェクトの表示領域を増加させる機能(オブジェクト復元機能)が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example. The function provided by the control program 9A is a function for displaying a second object that is transparent to the first object displayed on the display 2A in a state of being locked in a locked state. Is included. Further, the function provided by the control program 9A includes a function (object exclusion function) for reducing the display area of the second object when a touch gesture for the second object is detected by the touch screen 2B. . Further, the function provided by the control program 9A is associated with the first object when a touch gesture for the first object that is not displayed overlapping the second object is detected by the touch screen 2B. A function (application execution function) for executing a specific application is included. Further, the function provided by the control program 9A includes a case where a touch gesture for the first object has not been detected by the touch screen 2B and a certain time has elapsed after the display area of the second object is reduced. , A function of increasing the display area of the second object (object restoration function) is included. The function provided by the control program 9A may be used in combination with a function provided by another program such as the mail application 9B.

コントローラ10は、演算回路である。演算回路は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、又はFPGA(Field−Programmable Gate Array)である。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic circuit. The arithmetic circuit is, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), or an FPGA (Field-Programmable Gate Array). The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。機能部は、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。検出部は、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、レシーバ7、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むがこれらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The controller 10 may change the control according to the detection result of the detection unit. The functional unit includes the display 2A, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto. The detection unit includes, but is not limited to, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the receiver 7, the camera 12, the camera 13, the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、ロック状態にある場合に、ディスプレイ2Aに表示されている第1のオブジェクトに対して、該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させる。さらに、コントローラ10は、タッチスクリーン2Bにより第2のオブジェクトに対するタッチジェスチャが検出された場合には、第2のオブジェクトの表示領域を減少させる。さらに、コントローラ10は、第2のオブジェクトと重なって表示されていない第1のオブジェクトに対するタッチジェスチャがタッチスクリーン2Bにより検出された場合には、第1のオブジェクトに対応付けられたアプリケーションを実行する。さらに、コントローラ10は、第2のオブジェクトの表示領域を減少させた後、第1のオブジェクトに対するタッチジェスチャがタッチスクリーン2Bにより検出されることなく一定時間が経過した場合には、第2のオブジェクトの表示領域を増加させる。   For example, when the controller 10 is in a locked state by executing the control program 9A, the controller 10 sets the second object that is transmitted through the first object to the first object displayed on the display 2A. Overlapping display. Furthermore, when a touch gesture for the second object is detected by the touch screen 2B, the controller 10 decreases the display area of the second object. Furthermore, when a touch gesture for the first object that is not displayed overlapping the second object is detected by the touch screen 2B, the controller 10 executes an application associated with the first object. Furthermore, the controller 10 reduces the display area of the second object, and when a certain amount of time has elapsed without the touch gesture for the first object being detected by the touch screen 2B, the controller 10 Increase the display area.

カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。   The camera 12 is an in-camera that captures an object facing the front face 1A. The camera 13 is an out camera that captures an object facing the back face 1B.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)(登録商標)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置である。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface (registered trademark), Light Peak (Thunderbolt (registered trademark)), or an earphone microphone connector. . The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 are, for example, an external storage, a speaker, and a communication device.

加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects the direction of geomagnetism. The gyroscope 17 detects the angle and angular velocity of the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1.

図6においてストレージ9が記憶するプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図6においてストレージ9が記憶するプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図6においてストレージ9が記憶するプログラムの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、又はメモリカードである。   In FIG. 6, part or all of the program stored in the storage 9 may be downloaded from another device by wireless communication using the communication unit 6. 6 may be stored in a non-transitory storage medium that can be read by a reading device included in the storage 9. 6 may be stored in a non-transitory storage medium that can be read by the reading device connected to the connector 14. The non-transitory storage medium is, for example, an optical disc such as a CD (registered trademark), a DVD (registered trademark), or a Blu-ray (registered trademark), a magneto-optical disk, or a memory card.

図6に示したスマートフォン1の構成は一例であり、本出願の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図6の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてよいし、ボタンを備えなくてもよい。図6に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図6に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。   The configuration of the smartphone 1 illustrated in FIG. 6 is an example, and may be appropriately changed within a range that does not impair the gist of the present application. For example, the number and type of buttons 3 are not limited to the example of FIG. The smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations related to the screen instead of the buttons 3A to 3C. The smartphone 1 may include only one button or may not include a button for operations related to the screen. In the example illustrated in FIG. 6, the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera. In the example illustrated in FIG. 6, the smartphone 1 includes three types of sensors in order to detect the position and orientation, but the smartphone 1 may not include some of these sensors. Alternatively, the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.

図7〜図12を参照しながら、制御プログラム9Aが提供する機能に基づく制御の例について説明する。以下では、制御プログラム9Aが提供する機能のうち、上述したオブジェクト排除機能、アプリケーション実行機能およびオブジェクト復元機能による制御の例について説明する。   An example of control based on the function provided by the control program 9A will be described with reference to FIGS. Below, the example of the control by the object exclusion function, the application execution function, and the object restoration function described above among the functions provided by the control program 9A will be described.

図7〜図9は、オブジェクト排除機能による制御の例を示している。図7〜図9は、オブジェクト61に対する利用者のタッチジェスチャに応じて、オブジェクト61の表示領域が減少していく様子を示している。   7 to 9 show examples of control by the object exclusion function. 7 to 9 show how the display area of the object 61 decreases according to the user's touch gesture with respect to the object 61.

図7に示すステップS11は、ロック画面60のオブジェクト61がタップされた状態を示している。図7に示すステップS12は、オブジェクト61の表示領域が減少して、一部が消失した状態を示している。   Step S11 shown in FIG. 7 shows a state where the object 61 on the lock screen 60 is tapped. Step S12 shown in FIG. 7 shows a state in which the display area of the object 61 has decreased and a part has disappeared.

スマートフォン1は、タッチスクリーン2Bの検出結果を取得する。続いて、スマートフォン1は、図7のステップS11に示すように、オブジェクト61に対するタップを検出した場合には、図7のステップS12に示すように、オブジェクト61の表示領域を減少させる。例えば、スマートフォン1は、ホーム画面40と略同一の面積を有するオブジェクト61の表示領域のうち、オブジェクト61に対する利用者のタップが検出された位置を中心とする表示領域の一部を減少させる。これにより、スマートフォン1は、オブジェクト61の背面にあるホーム画面40の一部を鮮明に表示させることができる。例えば、図7のステップS12に示すように、新着メールがあることを利用者に知らせる通知を鮮明に表示させることができる。さらに、スマートフォン1は、オブジェクト61の消失により鮮明となったホーム画面40の一部を操作可能な状態にできる。言い換えれば、スマートフォン1は、ロック状態を一部解除する。   The smartphone 1 acquires the detection result of the touch screen 2B. Subsequently, when the smartphone 1 detects a tap on the object 61 as shown in step S11 of FIG. 7, the smartphone 1 decreases the display area of the object 61 as shown in step S12 of FIG. For example, the smartphone 1 reduces a part of the display area around the position where the user's tap with respect to the object 61 is detected among the display areas of the object 61 having substantially the same area as the home screen 40. Thereby, the smartphone 1 can clearly display a part of the home screen 40 on the back surface of the object 61. For example, as shown in step S12 of FIG. 7, a notification notifying the user that there is a new mail can be clearly displayed. Furthermore, the smartphone 1 can make a part of the home screen 40 that has become clear due to the disappearance of the object 61 operable. In other words, the smartphone 1 partially releases the locked state.

図7に示すステップS12に続いて、図8に示すステップS13では、表示領域の一部が消失したオブジェクト61がさらにタップされた状態を示している。図8に示すステップS14は、オブジェクト61の表示領域がさらに減少して、一部が消失した状態を示している。   Subsequent to step S12 shown in FIG. 7, step S13 shown in FIG. 8 shows a state where the object 61 whose part of the display area has disappeared is further tapped. Step S14 shown in FIG. 8 shows a state in which the display area of the object 61 is further reduced and a part thereof disappears.

スマートフォン1は、タッチスクリーン2Bの検出結果を取得する。続いて、スマートフォン1は、図8のステップS13に示すように、オブジェクト61に対するタップを検出した場合には、図8のステップS14に示すように、オブジェクト61の表示領域を減少させる。例えば、スマートフォン1は、表示領域の一部が消失しているオブジェクト61の表示領域のうち、オブジェクト61に対する利用者のタップが検出された位置を中心とする表示領域の一部をさらに減少させる。これにより、スマートフォン1は、オブジェクト61の背面にあるホーム画面40の一部をさらに鮮明に表示させることができる。さらに、スマートフォン1は、オブジェクト61の消失により鮮明となったホーム画面40の一部を操作可能な状態にできる。   The smartphone 1 acquires the detection result of the touch screen 2B. Subsequently, when the smartphone 1 detects a tap on the object 61 as shown in step S13 of FIG. 8, the smartphone 1 decreases the display area of the object 61 as shown in step S14 of FIG. For example, the smartphone 1 further reduces a part of the display area around the position where the user's tap with respect to the object 61 is detected among the display areas of the object 61 in which a part of the display area has disappeared. Thereby, the smartphone 1 can display a part of the home screen 40 on the back surface of the object 61 more clearly. Furthermore, the smartphone 1 can make a part of the home screen 40 that has become clear due to the disappearance of the object 61 operable.

図8に示すステップS14に続いて、図9に示すステップS15では、表示領域の一部が消失したオブジェクト61がさらにタップされた状態を示している。図9に示すステップS16は、オブジェクト61の表示領域が完全に消失した状態を示している。   Subsequent to step S14 shown in FIG. 8, in step S15 shown in FIG. 9, the object 61 in which a part of the display area has disappeared is further tapped. Step S16 shown in FIG. 9 shows a state in which the display area of the object 61 has completely disappeared.

スマートフォン1は、タッチスクリーン2Bの検出結果を取得する。続いて、スマートフォン1は、図9のステップS15に示すように、オブジェクト61に対するタップを検出した場合には、図9のステップS16に示すように、オブジェクト61の表示領域を完全に消失させる。例えば、スマートフォン1は、表示領域の一部が消失しているオブジェクト61の表示領域のうち、オブジェクト61に対する利用者のタップが検出された位置を中心とする表示領域をさらに減少させることにより表示領域を消失させる。これにより、スマートフォン1は、オブジェクト61の背面にあるホーム画面40の全てを鮮明に表示させることができる。オブジェクト61が完全に消失した場合、ロック状態が完全に解除される。   The smartphone 1 acquires the detection result of the touch screen 2B. Subsequently, when the smartphone 1 detects a tap on the object 61 as shown in step S15 of FIG. 9, the display area of the object 61 is completely disappeared as shown in step S16 of FIG. For example, the smartphone 1 displays the display area by further reducing the display area around the position where the user's tap on the object 61 is detected among the display areas of the object 61 in which a part of the display area has disappeared. Disappear. Thereby, the smartphone 1 can clearly display all of the home screen 40 on the back surface of the object 61. When the object 61 is completely lost, the locked state is completely released.

図7〜図9に示すように、オブジェクト61の一部又は全部が排除されることにより、ホーム画面40の一部又は全部が操作可能な状態となり、例えば、ホーム画面40に配置されたアイコン50に対応付けられたアプリケーションを実行できる。以下では、図10および図11を参照しつつ、オブジェクト61の表示領域の一部を減少させた後、利用者の操作に応じてアプリケーションを実行する制御(アプリケーション実行機能による制御)の例を説明する。図10および図11は、アプリケーション実行機能による制御の例を示す図である。   As shown in FIGS. 7 to 9, by removing a part or all of the object 61, a part or all of the home screen 40 becomes operable. For example, the icon 50 arranged on the home screen 40 is displayed. The application associated with can be executed. Hereinafter, an example of control (control by the application execution function) of executing an application in accordance with a user operation after reducing a part of the display area of the object 61 with reference to FIGS. 10 and 11 will be described. To do. 10 and 11 are diagrams illustrating an example of control by the application execution function.

図10は、図7のステップS12に示す状態から、ホーム画面40に配置されたアイコン50aに対応付けられたメールアプリケーション9Bを実行する制御の例を示している。図10に示すステップS21は、アイコン50aがドラッグされている状態を示している。図10に示すステップS22は、メールボックスの画面70がディスプレイに表示されている状態を示している。メールボックスの画面70にある画像71は、閲覧されていない受信メールが1通あることを示している。   FIG. 10 shows an example of control for executing the mail application 9B associated with the icon 50a arranged on the home screen 40 from the state shown in step S12 of FIG. Step S21 shown in FIG. 10 shows a state where the icon 50a is being dragged. Step S22 shown in FIG. 10 shows a state in which the mailbox screen 70 is displayed on the display. An image 71 on the mail box screen 70 indicates that there is one received mail that has not been browsed.

スマートフォン1は、タッチスクリーン2Bの検出結果を取得する。続いて、スマートフォン1は、図10のステップS21に示すように、オブジェクト61と重なって表示されていないアイコン50aに対するドラッグを検出した場合には、アイコン50aに対応付けられたメールアプリケーション9Bを実行する。例えば、スマートフォン1は、ドラッグによりアイコン50aが一定距離以上移動した場合に、メールアプリケーション9Bを実行する。そして、図10のステップS22に示すように、スマートフォン1は、ディスプレイ2Aにメールボックスの画面70を表示させる。このようにして、スマートフォン1は、利用者に対して、アプリケーションを容易に実行させることができる。例えば、利用者は、新着メールを確認したい場合に、オブジェクト61の一部を排除した後、簡単な操作を行うことで、メールアプリケーション9Bを実行して新着メールを迅速に確認できる。   The smartphone 1 acquires the detection result of the touch screen 2B. Subsequently, as shown in step S21 of FIG. 10, when the smartphone 1 detects a drag on the icon 50a that is not displayed overlapping the object 61, the smartphone 1 executes the mail application 9B associated with the icon 50a. . For example, the smartphone 1 executes the mail application 9B when the icon 50a moves by a certain distance or more by dragging. Then, as shown in step S <b> 22 of FIG. 10, the smartphone 1 displays a mailbox screen 70 on the display 2 </ b> A. In this way, the smartphone 1 can easily cause the user to execute the application. For example, when the user wants to check new mail, the user can execute the mail application 9B and quickly check new mail by performing a simple operation after removing a part of the object 61.

図11は、図7のステップS12に示す状態から、ホーム画面40に配置されたアイコン50bに対応付けられた天気予報アプリケーション9Dを実行する制御の例を示している。図11に示すステップS31は、アイコン50bがドラッグされている状態を示している。図11に示すステップS32は、天気予報アプリケーション9Dが実行されたときの画面80がディスプレイに表示されている状態を示している。   FIG. 11 shows an example of control for executing the weather forecast application 9D associated with the icon 50b arranged on the home screen 40 from the state shown in step S12 of FIG. Step S31 shown in FIG. 11 shows a state where the icon 50b is being dragged. Step S32 shown in FIG. 11 shows a state in which the screen 80 when the weather forecast application 9D is executed is displayed on the display.

スマートフォン1は、タッチスクリーン2Bの検出結果を取得する。続いて、スマートフォン1は、図11のステップS31に示すように、オブジェクト61と重なって表示されていないアイコン50bに対するドラッグを検出した場合には、アイコン50bに対応付けられた天気予報アプリケーション9Dを実行する。例えば、スマートフォン1は、ドラッグによりアイコン50bが一定距離以上移動した場合に、天気予報アプリケーション9Dを実行する。そして、図11のステップS32に示すように、スマートフォン1は、ディスプレイ2Aに天気予報アプリケーション9Dが実行されたときの画面80を表示させる。このようにして、スマートフォン1は、利用者に対して、アプリケーションを容易に実行させることができる。例えば、利用者は、天気予報を確認したい場合に、オブジェクト61の一部を排除した後、簡単な操作を行うことで、天気予報アプリケーション9Dを実行する天気予報を迅速に確認できる。   The smartphone 1 acquires the detection result of the touch screen 2B. Subsequently, as illustrated in step S31 in FIG. 11, when the smartphone 1 detects dragging on the icon 50b that is not displayed overlapping the object 61, the smartphone 1 executes the weather forecast application 9D associated with the icon 50b. To do. For example, the smartphone 1 executes the weather forecast application 9D when the icon 50b moves by a certain distance or more by dragging. And as shown to step S32 of FIG. 11, the smart phone 1 displays the screen 80 when the weather forecast application 9D is performed on the display 2A. In this way, the smartphone 1 can easily cause the user to execute the application. For example, when the user wants to confirm the weather forecast, the user can quickly confirm the weather forecast for executing the weather forecast application 9D by performing a simple operation after removing a part of the object 61.

図10及び図11では、スマートフォン1は、ドラッグによりアイコン50a又はアイコン50bが一定距離以上移動した場合に、アイコン50a又はアイコン50bに対応付けられたアプリケーションを実行する例を説明したが、これには限定されない。例えば、スマートフォン1は、アイコン50に対するピンチイン、ピンチアウト、ロングタッチなどを検出した場合に、アイコン50に対応付けられたアプリケーションを実行してもよい。   In FIG. 10 and FIG. 11, the smartphone 1 describes an example in which the application associated with the icon 50a or the icon 50b is executed when the icon 50a or the icon 50b moves by a certain distance or more by dragging. It is not limited. For example, the smartphone 1 may execute an application associated with the icon 50 when detecting pinch-in, pinch-out, long touch, or the like for the icon 50.

図7〜図9に示すように、オブジェクト61の一部又は全部が排除された後、例えば、操作可能となったアイコン50などに対して一定時間操作が受け付けられない場合には、減少したオブジェクト61を増加させてもよい。以下では、図12を参照しつつ、オブジェクト61の表示領域の一部を減少させた後、一定時間操作が受け付けられない場合に、オブジェクト61の表示領域を増加させる制御(オブジェクト復元機能による制御)の例を説明する。図12は、オブジェクト復元機能による制御の例を示す図である。   As shown in FIGS. 7 to 9, after a part or all of the object 61 is removed, for example, when an operation cannot be accepted for a certain period of time with respect to the icon 50 that can be operated, the reduced object 61 may be increased. In the following, referring to FIG. 12, after reducing a part of the display area of the object 61, control for increasing the display area of the object 61 when the operation is not accepted for a certain period of time (control by the object restoration function). An example will be described. FIG. 12 is a diagram illustrating an example of control by the object restoration function.

図12は、図7のステップS12に示す状態から、オブジェクト61の表示領域を増加させる制御の例を示している。図12に示すステップS41は、図7のステップS12に示す状態に対応する。図12に示すステップS42は、図7のステップS11に示す状態に対応する。   FIG. 12 shows an example of control for increasing the display area of the object 61 from the state shown in step S12 of FIG. Step S41 shown in FIG. 12 corresponds to the state shown in step S12 of FIG. Step S42 shown in FIG. 12 corresponds to the state shown in step S11 of FIG.

スマートフォン1は、タッチスクリーン2Bの検出結果を取得する。続いて、スマートフォン1は、図12のステップS41に示すように、オブジェクト61の表示領域を減少させた後、一定時間操作が受け付けられない場合には、図12のステップS42に示すように、オブジェクト61の表示領域を増加させ、例えば、元の状態に復元する。このようにして、スマートフォン1は、できるだけ利用者による誤操作などを防止できる。   The smartphone 1 acquires the detection result of the touch screen 2B. Subsequently, as shown in step S41 of FIG. 12, the smartphone 1 reduces the display area of the object 61, and when the operation is not accepted for a certain period of time, as shown in step S42 of FIG. For example, the display area 61 is increased and restored to the original state. In this way, the smartphone 1 can prevent erroneous operations by the user as much as possible.

図12では、スマートフォン1は、オブジェクト61の表示領域を増加させる場合、一度にある程度の領域を増加させる例を説明したが、これには限定されない。例えば、スマートフォン1は、オブジェクト61の表示領域を減少させた後、操作が受け付けられない間、時間の経過とともに、オブジェクト61の表示領域を一定の割合で少しずつ増加させてもよい。このとき、オブジェクト61の表示領域にアイコン50が全て重なるまでは、アイコン50を操作できるようにしてもよい。あるいは、オブジェクト61の表示領域とアイコン50とが少しでも重なった場合には、アイコン50の操作を操作できないようにしてもよい。   In FIG. 12, when the smartphone 1 increases the display area of the object 61, the example has been described in which the area is increased to some extent at a time, but is not limited thereto. For example, the smartphone 1 may decrease the display area of the object 61 and gradually increase the display area of the object 61 at a constant rate as time passes while the operation is not accepted. At this time, the icon 50 may be operated until all the icons 50 overlap the display area of the object 61. Alternatively, when the display area of the object 61 and the icon 50 overlap even a little, the operation of the icon 50 may not be operated.

図13及び図14を参照しながら、制御プログラム9Aが提供する機能に基づく制御の処理手順の例について説明する。図13及び図14は、制御プログラム9Aが提供する機能に基づく制御の処理手順を示す図である。   With reference to FIG. 13 and FIG. 14, an example of a control processing procedure based on the function provided by the control program 9A will be described. 13 and 14 are diagrams showing a control processing procedure based on a function provided by the control program 9A.

まず、図13を用いて、ロック状態に移行する場合に、第2のオブジェクトを表示させる処理手順の一例を説明する。図13に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。図13に示す処理手順は、スマートフォン1の起動中、コントローラ10によって繰り返し実行される。   First, an example of a processing procedure for displaying the second object when shifting to the locked state will be described with reference to FIG. The processing procedure shown in FIG. 13 is realized by the controller 10 executing the control program 9A. The processing procedure illustrated in FIG. 13 is repeatedly executed by the controller 10 while the smartphone 1 is activated.

図13に示すように、コントローラ10は、ステップS101として、ロック状態に移行させるか否かを判定する。例えば、コントローラ10は、操作が行われない時間が一定時間経過した場合には、ロック状態に移行させる。操作には、ボタン3に対する操作入力、タッチスクリーン2Bによるタッチジェスチャの検出、および各センサによるセンサ値の出力などが含まれる。   As illustrated in FIG. 13, the controller 10 determines whether or not to shift to the locked state in step S <b> 101. For example, the controller 10 shifts to the locked state when a certain period of time elapses when no operation is performed. The operation includes operation input to the button 3, detection of a touch gesture by the touch screen 2B, output of sensor values by each sensor, and the like.

コントローラ10は、判定の結果、ロック状態に移行させる場合には(ステップS101、Yes)、ステップS102として、ディスプレイ2Aに表示されている画面に対して、第2のオブジェクトを重ねて表示し、処理を終了する。例えば、コントローラ10は、ディスプレイ2Aに表示されているホーム画面40に対して、ホーム画面40と略同一の面積を有する半透明のオブジェクト61を重ねて表示させる。一方、コントローラ10は、判定の結果、ロック状態に移行させない場合には(ステップS101、No)、そのまま処理を終了する。   As a result of the determination, when the controller 10 shifts to the locked state (step S101, Yes), as step S102, the controller 10 displays the second object so as to overlap the screen displayed on the display 2A. Exit. For example, the controller 10 causes the home screen 40 displayed on the display 2 </ b> A to overlap and display a translucent object 61 having substantially the same area as the home screen 40. On the other hand, if the controller 10 does not shift to the locked state as a result of the determination (step S101, No), the process is ended as it is.

次に、図14を用いて、上述したオブジェクト排除機能(図7〜図9参照)、アプリケーション実行機能(図10及び図11参照)、オブジェクト復元機能(図12参照)による制御の処理手順の一例を説明する。図14に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。図14に示す処理手順は、スマートフォン1がロック状態にある場合に、コントローラ10により、タッチスクリーン2Bの検出結果に基づいて繰り返し実行される。   Next, referring to FIG. 14, an example of the processing procedure of control by the object exclusion function (see FIGS. 7 to 9), the application execution function (see FIGS. 10 and 11), and the object restoration function (see FIG. 12) described above. Will be explained. The processing procedure shown in FIG. 14 is realized by the controller 10 executing the control program 9A. The processing procedure illustrated in FIG. 14 is repeatedly executed by the controller 10 based on the detection result of the touch screen 2B when the smartphone 1 is in the locked state.

図14に示すように、コントローラ10は、ステップS201として、第2のオブジェクトに対するタッチジェスチャに応じて、第2のオブジェクトの表示領域を減少させる。例えば、コントローラ10は、ホーム画面40と略同一の面積を有するオブジェクト61の表示領域のうち、オブジェクト61に対する利用者のタップが検出された位置を中心とする表示領域の一部を減少させる。一方、オブジェクト61に対するタップが検出されない場合、コントローラ10は、オブジェクト61の表示領域を減少させない。続いて、コントローラ10は、ステップS202として、第2のオブジェクトと重なって表示されていない第1のオブジェクトに対するタッチジェスチャが検出されたか否かを判定する。   As shown in FIG. 14, the controller 10 decreases the display area of the second object in step S201 in accordance with the touch gesture for the second object. For example, the controller 10 reduces a part of the display area of the object 61 having substantially the same area as that of the home screen 40 around the position where the user tap on the object 61 is detected. On the other hand, when a tap on the object 61 is not detected, the controller 10 does not decrease the display area of the object 61. Subsequently, in Step S202, the controller 10 determines whether or not a touch gesture for the first object that is not displayed overlapping the second object is detected.

コントローラ10は、判定の結果、第1のオブジェクトに対するタッチジェスチャが検出された場合には(ステップS202、Yes)、ステップS203として、第1のオブジェクトに対応付けられたアプリケーションを実行して、処理を終了する。一方、コントローラ10は、判定の結果、第1のオブジェクトに対するタッチジェスチャが検出されなかった場合には(ステップS202、No)、ステップS204として、第2のオブジェクトの表示領域を減少させてから一定時間が経過したか否かを判定する。   When the touch gesture for the first object is detected as a result of the determination (step S202, Yes), the controller 10 executes the application associated with the first object as step S203, and performs the process. finish. On the other hand, when the touch gesture for the first object is not detected as a result of the determination (step S202, No), the controller 10 determines that the display area of the second object is reduced for a certain period of time as step S204. It is determined whether or not elapses.

コントローラ10は、判定の結果、第2のオブジェクトの表示領域を減少させてから一定時間が経過した場合には(ステップS204、Yes)、ステップS205として、第2のオブジェクトの表示領域を増加させて、処理を終了する。一方、コントローラ10は、判定の結果、第2のオブジェクトの表示領域を減少させてから一定時間が経過していない場合には(ステップS204、No)、上述したステップS201に戻り、処理を継続する。   As a result of the determination, the controller 10 increases the display area of the second object as step S205 when a certain time has elapsed since the display area of the second object was decreased (step S204, Yes). The process is terminated. On the other hand, if the result of determination is that a certain time has not elapsed since the display area of the second object has been reduced (No at step S204), the controller 10 returns to step S201 described above and continues processing. .

上述してきたように、スマートフォン1は、ロック状態にある場合に、ディスプレイ2Aに表示されているホーム画面40に対して、該ホーム画面40を透過する半透明のオブジェクト61を重ねて表示させる。これにより、ロック状態であっても、ロック状態となる前にディスプレイ2Aに表示されていた情報を利用者に通知できる。さらに、スマートフォン1は、タッチスクリーン2Bによりオブジェクト61に対するタッチジェスチャが検出された場合には、オブジェクト61の表示領域を減少させる。これにより、オブジェクト61の背面にあるホーム画面40の一部を鮮明に表示させることができるとともに、ホーム画面40の一部を操作可能な状態にできる。さらに、スマートフォン1は、オブジェクト61と重なって表示されていないアイコン50に対するタッチジェスチャがタッチスクリーン2Bにより検出された場合には、アイコン50に対応付けられたアプリケーションを実行する。これにより、スマートフォン1は、利用者に対して、アプリケーションを容易に実行させることができる。さらに、スマートフォン1は、オブジェクト61の表示領域を減少させた後、アイコン50に対するタッチジェスチャがタッチスクリーン2Bにより検出されることなく一定時間が経過した場合には、オブジェクト61の表示領域を増加させる。これにより、スマートフォン1は、できるだけ利用者による誤操作などを防止できる。   As described above, when the smartphone 1 is in the locked state, the smartphone 1 causes the home screen 40 displayed on the display 2 </ b> A to overlap and display the translucent object 61 that passes through the home screen 40. Thereby, even in the locked state, the information displayed on the display 2A before the locked state can be notified to the user. Furthermore, when a touch gesture on the object 61 is detected by the touch screen 2B, the smartphone 1 decreases the display area of the object 61. Thereby, a part of the home screen 40 on the back surface of the object 61 can be clearly displayed and a part of the home screen 40 can be operated. Furthermore, when a touch gesture for the icon 50 that is not displayed overlapping the object 61 is detected by the touch screen 2 </ b> B, the smartphone 1 executes an application associated with the icon 50. Thereby, the smart phone 1 can make a user perform an application easily. Furthermore, after reducing the display area of the object 61, the smartphone 1 increases the display area of the object 61 when a certain amount of time has elapsed without a touch gesture on the icon 50 being detected by the touch screen 2 </ b> B. Thereby, the smartphone 1 can prevent an erroneous operation by the user as much as possible.

例えば、図7では、オブジェクト61に対するタップを検出した場合には、スマートフォン1は、オブジェクト61の表示領域を減少させる例を説明したが、表示領域を減少させる順序を予め設定しておき、設定された順序で表示領域を減少させてもよい。以下、図15〜図18を参照しつつ、オブジェクト排除機能による制御の例を説明する。   For example, in FIG. 7, when the tap on the object 61 is detected, the smartphone 1 has described an example in which the display area of the object 61 is decreased. However, the order in which the display area is decreased is set and set in advance. The display area may be reduced in the same order. Hereinafter, an example of control by the object exclusion function will be described with reference to FIGS. 15 to 18.

例えば、図15に示すように、オブジェクト61の表示領域のうち、F1→F2→F3の順番で、表示領域を減少させることが予め設定されているものとする。この場合、スマートフォン1は、図16のステップS51に示すように、オブジェクト61に対するタップを検出した場合には、図16のステップS52に示すように、オブジェクト61の表示領域のうち、F1に対応する表示領域を減少させる。続いて、スマートフォン1は、図17のステップS53に示すように、オブジェクト61に対するタップを検出した場合には、図16のステップS54に示すように、オブジェクト61の表示領域のうち、F2に対応する表示領域を減少させる。続いて、スマートフォン1は、図18のステップS55に示すように、オブジェクト61に対するタップを検出した場合には、図18のステップS56に示すように、オブジェクト61の表示領域のうち、F3に対応する表示領域を減少させる。図15〜図18において、オブジェクト61をタップする位置は特に限定されない。   For example, as shown in FIG. 15, it is assumed that the display area is reduced in the order of F 1 → F 2 → F 3 in the display area of the object 61. In this case, when the smartphone 1 detects a tap on the object 61 as shown in step S51 of FIG. 16, it corresponds to F1 in the display area of the object 61 as shown in step S52 of FIG. Reduce the display area. Subsequently, when the smartphone 1 detects a tap on the object 61 as shown in step S53 of FIG. 17, it corresponds to F2 in the display area of the object 61 as shown in step S54 of FIG. Reduce the display area. Subsequently, when the smartphone 1 detects a tap on the object 61 as illustrated in step S55 in FIG. 18, the smartphone 1 corresponds to F3 in the display area of the object 61 as illustrated in step S56 in FIG. Reduce the display area. 15 to 18, the position where the object 61 is tapped is not particularly limited.

例えば、図7では、オブジェクト61に対するタップを検出した場合には、スマートフォン1は、オブジェクト61の表示領域を減少させる例を説明したが、検出されるタップの回数に応じて段階的に表示領域を減少させてもよい。以下、図19及び図20を参照しつつ、オブジェクト排除機能による制御の他の例を説明する。   For example, in FIG. 7, when a tap on the object 61 is detected, the smartphone 1 has described an example in which the display area of the object 61 is decreased. However, the display area is gradually changed according to the number of detected taps. It may be decreased. Hereinafter, another example of control by the object exclusion function will be described with reference to FIGS. 19 and 20.

例えば、スマートフォン1は、図19のステップS61に示すように、オブジェクト61に対するタップを検出した場合には、ステップS62に示すように、オブジェクト61の表示領域を減少させずに、タップにより損傷を受けているかのような視覚効果を有する画像62を表示させる。続いて、スマートフォン1は、ステップS63に示すように、ステップS62の状態からオブジェクト61に対する次のタップを検出した場合には、ステップS64に示すように、タップにより更なる損傷を受けているかのような視覚効果を有する画像62を表示させる。続いて、スマートフォン1は、図20のステップS65に示すように、図19のステップS64の状態からオブジェクト61に対する次のタップを検出した場合には、図20のステップS66に示すように、オブジェクト61の表示領域のうち、画像62を表示させていた箇所を減少させる。   For example, if the smartphone 1 detects a tap on the object 61 as shown in step S61 of FIG. 19, the smartphone 1 is damaged by the tap without reducing the display area of the object 61 as shown in step S62. An image 62 having a visual effect as if it is present is displayed. Subsequently, as shown in step S63, when the smartphone 1 detects the next tap on the object 61 from the state of step S62, as shown in step S64, the smartphone 1 seems to be further damaged by the tap. An image 62 having a visual effect is displayed. Subsequently, when the smartphone 1 detects the next tap on the object 61 from the state in step S64 in FIG. 19 as shown in step S65 in FIG. 20, as shown in step S66 in FIG. In the display area, the portion where the image 62 was displayed is reduced.

上述した実施形態では、スマートフォン1は、ホーム画面40に対して、オブジェクト61を重ねて表示する場合を説明したが、これには限定されない。例えば、ロック状態に移行する直前に、ウェブブラウザなどのアプリケーションを実行していた場合には、アプリケーションの実行画面に対して、オブジェクト61を重ねて表示してもよい。   In embodiment mentioned above, although the smart phone 1 demonstrated the case where the object 61 was superimposed and displayed with respect to the home screen 40, it is not limited to this. For example, when an application such as a web browser is executed immediately before shifting to the locked state, the object 61 may be displayed in an overlapping manner on the execution screen of the application.

上述した実施形態では、オブジェクト61に対するタップを検出した場合には、スマートフォン1は、オブジェクト61の表示領域を減少させる例を説明したが、これには限定されない。スマートフォン1は、オブジェクト61に対するスワイプなど、タップ以外のタッチジェスチャが検出された場合に、オブジェクト61の表示領域を減少させてもよい。   In the above-described embodiment, when the tap on the object 61 is detected, the smartphone 1 has described an example in which the display area of the object 61 is reduced. However, the present invention is not limited to this. The smartphone 1 may reduce the display area of the object 61 when a touch gesture other than a tap, such as a swipe for the object 61, is detected.

上述した実施形態では、ロック状態にある場合、スマートフォン1が、例えば、ロック状態に移行する直前にディスプレイ2Aに表示されているホーム画面40に対して、半透明のオブジェクト61を重ねて表示させる例を説明した。しかしながら、これには限定されず、スマートフォン1は、例えば、半透明のオブジェクト61の代わりに、ドットまたはパターンが描画されたオブジェクトなど、背面にあるホーム画面を透過するオブジェクトであればどのようなものを用いてもよい。あるいは、スマートフォン1は、例えば、ロック状態に移行する直前にディスプレイ2Aに表示されているホーム画面などの第1のオブジェクトをキャプチャし、キャプチャした画像を、第1のオブジェクトに対して重ねて表示してもよい。このようにすれば、半透明のオブジェクト61を表示する場合と同様に、ロック状態に移行する直前にディスプレイ2Aに表示されていた情報を利用者に通知できるとともに、利用者の誤操作も防止できる。   In the above-described embodiment, when the smartphone 1 is in the locked state, for example, the smartphone 1 displays the semi-transparent object 61 on the home screen 40 displayed on the display 2A immediately before shifting to the locked state. Explained. However, the present invention is not limited to this, and the smartphone 1 can be any object that can pass through the home screen on the back, such as an object on which dots or patterns are drawn instead of the translucent object 61. May be used. Alternatively, for example, the smartphone 1 captures a first object such as a home screen displayed on the display 2A immediately before shifting to the locked state, and displays the captured image superimposed on the first object. May be. In this way, as in the case of displaying the translucent object 61, the information displayed on the display 2A immediately before shifting to the locked state can be notified to the user, and the user's erroneous operation can be prevented.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.

例えば、図6に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図6に示した各プログラムは、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 6 may be divided into a plurality of modules. Alternatively, each program shown in FIG. 6 may be combined with another program.

上記の実施形態では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。   In the above embodiment, a smartphone has been described as an example of a device including a touch screen, but the device according to the appended claims is not limited to a smartphone. The device according to the appended claims may be a portable electronic device other than a smartphone. Examples of the portable electronic device include a mobile phone, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, and a game machine. Alternatively, the device according to the appended claims may be a stationary electronic device. The stationary electronic devices are, for example, a desktop personal computer and a television receiver.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9D 天気予報アプリケーション
9Y 使用状況データ
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Mail application 9C Browser application 9D Weather forecast application 9Y Usage status data 9Z Setting data 10 Controller 11 Speaker 12, 13 Camera 14 Connector 15 Acceleration sensor 16 Direction sensor 17 Gyroscope 20 Housing

Claims (8)

第1のオブジェクトを表示するタッチスクリーンディスプレイと、
ロック状態にある場合に、前記タッチスクリーンディスプレイに表示されている第1のオブジェクトに対して、該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させるコントローラと
を備え、
前記タッチスクリーンディスプレイは、前記第2のオブジェクトの表示領域を減少させるための前記第2のオブジェクトに対するタッチジェスチャを検出し、
前記コントローラは、
前記タッチスクリーンディスプレイにより前記タッチジェスチャが検出された場合には、前記第2のオブジェクトの表示領域を減少させて、当該前記第2のオブジェクトの表示領域が減少した領域に位置する前記第1のオブジェクトの一部への操作を可能とし、
前記第2のオブジェクトの表示領域を減少させた後、一定時間経過した場合には、減少した前記第2のオブジェクトの表示領域を復元し、ロック状態に移行させる装置。
A touch screen display for displaying the first object;
A controller that, when in a locked state, displays a second object that is transparent to the first object on the first object displayed on the touch screen display;
The touch screen display detects a touch gesture on the second object to reduce a display area of the second object;
The controller is
When the touch gesture is detected by the touch screen display, the display area of the second object is decreased, and the first object located in the area where the display area of the second object is decreased Operation to a part of
An apparatus that restores the reduced display area of the second object and shifts to the locked state when a predetermined time has elapsed after the display area of the second object is reduced .
タッチジェスチャを検出するタッチスクリーンディスプレイと、
前記タッチスクリーンディスプレイが検出した前記タッチジェスチャに応じて、前記タッチスクリーンディスプレイの表示を制御するコントローラと
を備え、
前記コントローラは、
第1のオブジェクトに、当該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させて、前記第1のオブジェクトへの操作を不可能としているときに、
前記第2のオブジェクトの表示領域を減少させるための前記第2のオブジェクトに対するタッチジェスチャを検出すると、前記第2のオブジェクトの一部の表示領域を減少させて、当該前記第2のオブジェクトの表示領域が減少した領域に位置する前記第1のオブジェクトの一部への操作を可能とし、
前記第2のオブジェクトの表示領域を減少させた後、一定時間経過した場合には、減少した前記第2のオブジェクトの表示領域を復元する装置。
A touch screen display that detects touch gestures;
A controller that controls display of the touch screen display according to the touch gesture detected by the touch screen display;
The controller is
When the second object that is transparent to the first object is displayed on the first object and the operation on the first object is impossible,
Upon detection of the filter Tchijesucha that against the second object to reduce the display area of the second object, said to reduce the portion of the display region of the second object, of the said second object Enabling an operation on a part of the first object located in the area where the display area is reduced;
An apparatus for restoring the reduced display area of the second object when a predetermined time has elapsed after the display area of the second object is reduced .
前記コントローラは、前記タッチスクリーンディスプレイにより前記タッチジェスチャが検出された場合に、前記第2のオブジェクトの各領域に対して予め設定された順序に従って、前記第2のオブジェクトの表示領域を減少させる請求項1または2に記載の装置。   The controller reduces the display area of the second object according to an order preset for each area of the second object when the touch gesture is detected by the touch screen display. The apparatus according to 1 or 2. 前記第1のオブジェクトは、複数のアイコンを含む、請求項1から3のいずれか1つに記載の装置。   The apparatus according to claim 1, wherein the first object includes a plurality of icons. 前記コントローラは、前記複数のアイコンのうち、前記第2のオブジェクトと重なって表示されていない前記第1のオブジェクトに対するタッチジェスチャが前記タッチスクリーンディスプレイにより検出された場合には、前記第1のオブジェクトに対応付けられたアプリケーションを実行するとともに、前記第2のオブジェクトの表示を前記第1のオブジェクトに重ねて表示させない、請求項4に記載の装置。   When the touch gesture for the first object that is not displayed overlapping the second object among the plurality of icons is detected by the touch screen display, the controller displays the first object. The apparatus according to claim 4, wherein the associated application is executed and the display of the second object is not displayed on the first object. 前記コントローラは、前記第2のオブジェクトの表示領域を減少させてから、前記第1のオブジェクトに対するタッチジェスチャが前記タッチスクリーンディスプレイにより検出されることなく前記一定時間が経過した場合には、前記第2のオブジェクトの表示領域を増加させる請求項1から5のいずれか1つに記載の装置。   The controller reduces the display area of the second object, and if the predetermined time elapses without a touch gesture on the first object being detected by the touch screen display, the second object is displayed. The apparatus according to claim 1, wherein the display area of the object is increased. タッチスクリーンディスプレイを備える装置を制御する方法であって、
前記タッチスクリーンディスプレイが検出したタッチジェスチャに応じて、前記タッチスクリーンディスプレイの表示を制御するステップと、
第1のオブジェクトに、当該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させるステップと、
前記第1のオブジェクトへの操作を不可能としているときに、前記第2のオブジェクトの表示領域を減少させるための前記第2のオブジェクトに対するタッチジェスチャを検出すると、前記第2のオブジェクトの一部の表示領域を減少させて、当該前記第2のオブジェクトの表示領域が減少した領域に位置する前記第1のオブジェクトの一部への操作を可能とするステップと、
前記第2のオブジェクトの表示領域を減少させた後、一定時間経過した場合には、減少した前記第2のオブジェクトの表示領域を復元するステップと
を含む方法。
A method for controlling a device comprising a touch screen display, comprising:
Controlling the display of the touch screen display according to a touch gesture detected by the touch screen display;
Displaying a second object that is transparent to the first object on the first object;
When you are not the operation to the first object, upon detecting a filter Tchijesucha that against the second object to reduce the display area of the second object, the second object one Reducing the display area of the part, enabling an operation to a part of the first object located in the area where the display area of the second object is reduced;
Restoring a reduced display area of the second object when a predetermined time has elapsed after reducing the display area of the second object .
タッチスクリーンディスプレイを備える装置に、
前記タッチスクリーンディスプレイが検出したタッチジェスチャに応じて、前記タッチスクリーンディスプレイの表示を制御するステップと、
第1のオブジェクトに、当該第1のオブジェクトを透過する第2のオブジェクトを重ねて表示させるステップと、
前記第1のオブジェクトへの操作を不可能としているときに、前記第2のオブジェクトの表示領域を減少させるための前記第2のオブジェクトに対するタッチジェスチャを検出すると、前記第2のオブジェクトの一部の表示領域を減少させて、当該前記第2のオブジェクトの表示領域が減少した領域に位置する前記第1のオブジェクトの一部への操作を可能とするステップと、
前記第2のオブジェクトの表示領域を減少させた後、一定時間経過した場合には、減少した前記第2のオブジェクトの表示領域を復元するステップと
を実行させるプログラム。
For devices with touch screen displays,
Controlling the display of the touch screen display according to a touch gesture detected by the touch screen display;
Displaying a second object that is transparent to the first object on the first object;
When you are not the operation to the first object, upon detecting a filter Tchijesucha that against the second object to reduce the display area of the second object, the second object one Reducing the display area of the part, enabling an operation to a part of the first object located in the area where the display area of the second object is reduced;
A program for executing a step of restoring the reduced display area of the second object when a predetermined time has elapsed after the display area of the second object is reduced .
JP2012048184A 2012-03-05 2012-03-05 Apparatus, method, and program Expired - Fee Related JP5878042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012048184A JP5878042B2 (en) 2012-03-05 2012-03-05 Apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012048184A JP5878042B2 (en) 2012-03-05 2012-03-05 Apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013182596A JP2013182596A (en) 2013-09-12
JP5878042B2 true JP5878042B2 (en) 2016-03-08

Family

ID=49273171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012048184A Expired - Fee Related JP5878042B2 (en) 2012-03-05 2012-03-05 Apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5878042B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6292953B2 (en) * 2014-04-09 2018-03-14 京セラ株式会社 Electronics
JP6693645B2 (en) * 2016-03-14 2020-05-13 富士通コネクテッドテクノロジーズ株式会社 Display device, display control device, display control program, and display control method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355698B2 (en) * 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
KR101642725B1 (en) * 2010-04-14 2016-08-11 삼성전자 주식회사 Method and apparatus for managing lock function in mobile terminal
KR101673925B1 (en) * 2010-05-26 2016-11-09 삼성전자주식회사 Portable Device having the touch lock status and Operation system thereof
JP5339464B2 (en) * 2010-07-20 2013-11-13 Necインフロンティア株式会社 Display device
JP2012049872A (en) * 2010-08-27 2012-03-08 Kyocera Corp Portable terminal, lock release program and lock release method

Also Published As

Publication number Publication date
JP2013182596A (en) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5891083B2 (en) Apparatus, method, and program
JP5972629B2 (en) Apparatus, method, and program
JP5775445B2 (en) Apparatus, method, and program
JP5809963B2 (en) Apparatus, method, and program
JP5850736B2 (en) Apparatus, method, and program
JP6002012B2 (en) Apparatus, method, and program
JP5762944B2 (en) Apparatus, method, and program
JP5840045B2 (en) Apparatus, method, and program
JP6110654B2 (en) Apparatus, method, and program
JP2013105202A (en) Device, method, and program
JP2013134729A (en) Device, method, and program
JP6058790B2 (en) Apparatus, method, and program
JP2013134694A (en) Device, method, and program
JP2013080345A (en) Device, method, and program
JP2014071724A (en) Electronic apparatus, control method, and control program
JP2013186726A (en) Device, method, and program
JP2013131193A (en) Device, method, and program
JP5739278B2 (en) Apparatus, method, and program
JP5859932B2 (en) Apparatus, method, and program
JP5775432B2 (en) Apparatus, method, and program
JP5878042B2 (en) Apparatus, method, and program
JP2013092891A (en) Device, method, and program
JP5959372B2 (en) Apparatus, method, and program
JP5848971B2 (en) Apparatus, method, and program
JP5848970B2 (en) Apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160127

R150 Certificate of patent or registration of utility model

Ref document number: 5878042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees