Nothing Special   »   [go: up one dir, main page]

JP5951886B2 - 電子機器および入力方法 - Google Patents

電子機器および入力方法 Download PDF

Info

Publication number
JP5951886B2
JP5951886B2 JP2015506407A JP2015506407A JP5951886B2 JP 5951886 B2 JP5951886 B2 JP 5951886B2 JP 2015506407 A JP2015506407 A JP 2015506407A JP 2015506407 A JP2015506407 A JP 2015506407A JP 5951886 B2 JP5951886 B2 JP 5951886B2
Authority
JP
Japan
Prior art keywords
sensor
screen
input
detected
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015506407A
Other languages
English (en)
Other versions
JPWO2014147724A1 (ja
Inventor
幸宏 栗田
幸宏 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of JP5951886B2 publication Critical patent/JP5951886B2/ja
Publication of JPWO2014147724A1 publication Critical patent/JPWO2014147724A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、タッチスクリーンディスプレイを備える電子機器および当該電子機器に適用される入力方法に関する。
近年、タブレット、PDA、スマートフォンといった種々の電子機器が開発されている。この種の電子機器の多くは、ユーザによる入力操作を容易にするために、タッチスクリーンディスプレイを備えている。
ユーザは、タッチスクリーンディスプレイ上に表示されるメニューまたはオブジェクトを指などでタッチすることにより、これらメニューまたはオブジェクトに関連付けられた機能の実行を電子機器に指示することができる。
特開2012−113666号公報
このようなタッチスクリーンディスプレイには、指での操作だけでなく、ペンを用いた操作も受け付けるものがある。ペンを用いた操作は、指での操作よりも位置を精細に指示しやすい場合が多いので、例えば、画面に表示されている細かなオブジェクトを操作することや、文字を手書き入力すること、等に適している。
そのため、ユーザは、タッチスクリーンディスプレイを用いて入力する際に、指での操作とペンを用いた操作とを使い分けている場合がある。
本発明の一形態は、タッチスクリーンディスプレイに対して指での操作とペンを用いた操作とが行われる場合に、それぞれの操作に適した機能を提供できる電子機器および入力方法を提供することを目的とする。
実施形態によれば、電子機器は、タッチスクリーンディスプレイ、検出手段および実行制御手段を具備する。タッチスクリーンディスプレイは、第1センサと第2センサとを備え、画面上にロックの解除を指示するためのオブジェクトを表示する。検出手段は、前記第1センサを介した前記オブジェクトに対する第1操作と、前記第2センサを介した前記オブジェクトに対する第2操作とを検出可能である。実行制御手段は、前記第1操作が検出された場合、複数のアプリケーションプログラムのうちのいずれかを起動可能な画面を表示する第1処理を実行し、前記第2操作が検出された場合、手書き文書を作成するためのアプリケーションプログラムを起動する第2処理を実行する。
図1は、実施形態に係る電子機器の外観を示す斜視図である。 図2は、同実施形態の電子機器のシステム構成を示すブロック図である。 図3は、同実施形態の電子機器によって実行されるアプリケーションプログラムの機能構成を示すブロック図である。 図4は、同実施形態の電子機器における指およびペンによる入力に応じた動作の第1の例を説明するための図である。 図5は、同実施形態の電子機器における指およびペンによる入力に応じた動作の第2の例を説明するための図である。 図6は、同実施形態の電子機器における指およびペンによる入力に応じた動作の第3の例を説明するための図である。 図7は、同実施形態の電子機器によって用いられる動作テーブルの例を示す図である。 図8は、同実施形態の電子機器によって実行される入力処理の手順の例を示すフローチャートである。
以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えば、ペンまたは指によって手書き入力可能な携帯型電子機器である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA等として実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を想定する。タブレットコンピュータ10は、タブレットまたはストレートコンピュータとも称される携帯型電子機器であり、図1に示すように、本体11とタッチスクリーンディスプレイ17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。
本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル(第1センサ)、電磁誘導方式のデジタイザ(第2センサ)などを使用することができるが、これに限られない。第1センサと第2センサは、ペンまたは指と画面上の接触を区別して検出できればどのようなものであってもよく、第1センサと第2センサは単一のH/Wであっても良く、別個のH/Wであっても良い。以下では、デジタイザとタッチパネルの2種類のセンサの双方がタッチスクリーンディスプレイ17に組み込まれている場合を想定する。
デジタイザ及びタッチパネルの各々は、フラットパネルディスプレイの画面と重なるように設けられる。タッチスクリーンディスプレイ17は、指を使用した画面に対するタッチ操作(接触操作)のみならず、ペン10Aを使用した画面に対するタッチ操作(接触操作)も検出することができる。ペン10Aは例えば電磁誘導ペンであってもよい。タッチパネル(第1センサ)は、指とタッチスクリーンディスプレイ17との接触を検知可能である。また、デジタイザ(第2センサ)は、ペン10Aとタッチスクリーンディスプレイ17との接触を検知可能である。ユーザは、ペン10Aまたは指を使用してタッチスクリーンディスプレイ17上で様々なジェスチャ操作、例えば、タップ、ドラッグ、スワイプ、フリック、等を行うことができる。
また、ユーザは、ペン10Aを使用してタッチスクリーンディスプレイ17上で手書き入力操作を行うことができる。手書き入力操作中においては、画面上のペン10Aの動きの軌跡、つまり手書き入力操作によって手書きされるストローク(手書きストロークの軌跡)がリアルタイムに描画され、これによって手書きにより入力された複数の手書きストローク(各手書きストロークの軌跡)が画面上に表示される。
図2は、実施形態におけるタブレットコンピュータ10のシステム構成を示す図である。
タブレットコンピュータ10は、図2に示されるように、CPU101、システムコントローラ102、メインメモリ103、グラフィクスコントローラ104、BIOS−ROM105、記録デバイス106、無線通信デバイス107、エンベデッドコントローラ(EC)108等を備える。
CPU101は、タブレットコンピュータ10内の各種モジュールの動作を制御するプロセッサである。CPU101は、記録デバイス106からメインメモリ103にロードされる各種プログラムを実行する。CPU101により実行されるプログラムには、オペレーティングシステム(OS)201、各種アプリケーションプログラム202が含まれている。アプリケーションプログラム202には、例えば手書き文字認識プログラム、ブラウザプログラム、画像編集プログラム、文書作成プログラム、メーラプログラムなどが含まれる。
また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、メインメモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、シリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。
グラフィクスコントローラ104は、タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。グラフィクスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。LCD17Aの上層には、画面上の指の接触位置を検知するための第1センサとしてタッチパネル17Bが配置されている。さらに、LCD17Aの下層には、画面上のペン10Aの接触位置を検知するための第2センサとしてデジタイザ17Cが配置されている。タッチパネル17Bは、LCD17Aの画面上で入力を行うための静電容量式のポインティングデバイスである。指が接触される画面上の接触位置及び接触位置の動き等はタッチパネル17Bによって検出される。デジタイザ17CはLCD17Aの画面上で入力を行うための電磁誘導式のポインティングデバイスである。ペン10Aが接触される画面上の接触位置及び接触位置の動き等はデジタイザ17Cによって検出される。
OS201は、タッチパネル17Bを制御するドライバプログラムと協働して、画面上に指が接触したこと、およびその接触位置を示す入力イベントを発行する。また、OS201は、デジタイザ17Cを制御するドライバプログラムと協働して、画面上にペン10Aが接触したこと、およびその接触位置を示す入力イベントを発行する。
無線通信デバイス107は、無線LANまたは3G移動通信などの無線通信を実行するように構成されたデバイスである。
EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じてタブレットコンピュータ10を電源オンまたは電源オフする機能を有している。
次に、本実施形態におけるアプリケーションプログラム202により実現される機能構成について、図3を参照しながら説明する。CPU101は、アプリケーションプログラム202を実行することにより、検出部31、実行制御部32等の機能を実現する。なお、図3に示す機能構成は、OS201によって実現されてもよい。すなわち、CPU101は、OS201を実行することにより、検出部31、実行制御部32等の機能を実現することもできる。つまり、図3に示す機能構成は、CPU101によって実行される各種ソフトウェアに組み込まれ得る。
検出部31は、LCD17Aの画面に表示されているオブジェクトに対する操作を検出する。このオブジェクトは、例えば、ボタン、アイコン、入力エリア等の、ユーザによって操作され得るグラフィカルユーザインタフェース(GUI)のオブジェクトである。検出部31は、例えば、タッチパネル(第1センサ)17Bを介した、オブジェクトに対する指を使用した第1操作を検出可能である。また、検出部31は、例えば、デジタイザ(第2センサ)17Cを介した、オブジェクトに対するペン10Aを使用した第2操作を検出可能である。
より具体的には、検出部31は、OS201によって発行された入力イベントを受け取る。上述したように、OS201は、タッチパネル17Bを制御するドライバプログラムと協働して、画面上に指が接触したこと、その接触位置、接触位置の動き等を示す第1入力イベントを発行する。つまり、OS201は、指を使用した画面に対するタッチ操作に応じた第1入力イベントを発行する。検出部31は、発行された第1入力イベントを受け取り、この第1入力イベントに示される指の接触位置が、画面上のオブジェクトに対応する領域内である場合、指を使用したオブジェクトに対する第1操作として検出する。
さらに、OS201は、デジタイザ17Cを制御するドライバプログラムと協働して、画面上にペン10Aが接触したこと、その接触位置、接触位置の動き等を示す第2入力イベントを発行する。つまり、OS201は、ペン10Aを使用した画面に対するタッチ操作に応じた第2入力イベントを発行する。検出部31は、発行された第2入力イベントを受け取り、この第2入力イベントに示されるペン10Aの接触位置が、画面上のオブジェクトに対応する領域内である場合、ペン10Aを使用したオブジェクトに対する第2操作として検出する。
検出部31は、検出された操作(または受け取った入力イベント)を実行制御部32に出力する。
実行制御部32は、検出部31によって検出された操作に基づいて、処理の実行を制御する。実行制御部32は、第1操作が検出された場合、第1処理を実行し、第2操作が検出された場合、第1処理とは異なる第2処理を実行する。
より具体的には、実行制御部32は、検出された操作が第1操作である場合、指を使用した操作に関連付けられた第1処理を実行する。また、実行制御部32は、検出された操作が第2操作である場合、ペン10Aを使用した操作に関連付けられた第2処理を実行する。第1処理は、指を使用した操作に適した機能を提供するために、指での操作に適したGUI(例えば、指で選択しやすいアイコン、ボタン等)を表示する処理を含む。第2処理は、ペン10Aを使用した操作に適した機能を提供するために、ペン10Aでの操作に適したGUI(例えば、ペン10Aで文字や図形を手書きするための入力エリア等)を表示する処理を含む。
図4から図6を参照して、指10Bによる操作とペン10Aによる操作のそれぞれに応じた、アプリケーションプログラム202またはOS201の動作の例について説明する。
図4に示す画面51には、ロックの解除を指示するためのスライドボタン52(オブジェクト)が設けられている。このスライドボタン52では、例えば、ボタン(つまみ)52Aを左から右へスライドさせる操作に応じて、画面51のロックが解除される。ボタン52Aが指10Bでスライドされた場合(指10Bでロックが解除された場合)には、複数のアプリケーションプログラムの内のいずれかを起動可能なデスクトップ画面(ホーム画面とも称する)54が表示され、ボタン52Aがペン10Aでスライドされた場合(ペン10Aでロックが解除された場合)には、手書き文書を作成するためのアプリケーションプログラムが起動され、手書き文書作成のための画面55が表示される。
より具体的には、OS201は、タッチパネル(第1センサ)17Bによって、指10Bを使用してボタン52Aを左から右へスライドさせる操作が検出されたことに応じて、指10Bを使用してボタン52Aを左から右へスライドさせる操作が行われたことを示すイベントを発行する。検出部31(例えば、OS201に設けられた検出部31)は、OS201によって発行されたイベントを受け取り(検出し)、実行制御部32に出力する。
そして、実行制御部32(例えば、OS201に設けられた実行制御部32)は、そのイベントが、指10Bを使用してボタン52Aを左から右へスライドさせる操作が行われたことを示すとき、デスクトップ画面54を表示する。デスクトップ画面54には、例えば、各種のアプリケーションの起動を指示するためのアイコン54Aが表示されている。各アイコン54Aは、指10Bでのタッチ操作に適したサイズで表示されているので、ユーザは、アイコン54Aに対応するアプリケーションの起動を容易に指示することができる。
また、OS201は、デジタイザ(第2センサ)17Cによって、ペン10Aを使用してボタン52Aを左から右へスライドさせる操作が検出されたことに応じて、ペン10Aを使用してボタン52Aを左から右へスライドさせる操作が行われたことを示すイベントを発行する。検出部31は、OS201によって発行されたイベントを受け取り(検出し)、実行制御部32に出力する。
そして、実行制御部32は、そのイベントが、ペン10Aを使用してボタン52Aを左から右へスライドさせる操作が行われたことを示すとき、手書きメモのアプリケーションプログラム(ノートアプリ)を起動する。手書きメモのアプリケーションプログラムが起動されたことに応じて、手書きメモを行うための画面55が表示される。ユーザは、例えば、ペン10Aを用いて画面55上に文字や図形を手書きすることができる。
以上の構成により、指10Bでロックが解除された場合にはデスクトップ画面54が表示され、ペン10Aでロックが解除された場合には、手書きのメモをするための画面55が表示される。これにより、ユーザは、指10Bでロックを解除した場合にはデスクトップ画面54上のアイコン54Aの一つを選択して、対応するアプリケーションの起動を指示でき、また、ペン10Aでロックを解除した場合には表示された画面55上に直ちにメモの手書きを開始することができる。
また、図5に示す画面61には、検索を指示するための検索ボタン62(オブジェクト)が設けられている。この検索ボタン62は、例えば、検索キーとして用いられる文字(文字列)や記号、図形等の入力の開始を指示するために用いられる。この検索ボタン62が指10Bでタップ(タッチ)された場合には、検索キーをキーボード入力するための入力エリア65が表示される。なお、検索ボタン62が指10Bでタップされた場合、ソフトウェアキーボード66がさらに表示されてもよい。検索ボタン62がペン10Aでタップ(タッチ)された場合には、検索キーを手書き入力するための入力エリア68が表示される。
より具体的には、OS201は、タッチパネル(第1センサ)17Bによって、指10Bを使用してボタン62をタップする操作が検出されたことに応じて、指10Bを使用してボタン62をタップする操作が行われたことを示すイベントを発行する。検出部31(例えば、アプリケーション202に設けられた検出部31)は、OS201によって発行されたイベントを受け取り(検出し)、実行制御部32に出力する。
そして、実行制御部32(例えば、アプリケーション202に設けられた実行制御部32)は、そのイベントが、指10Bを使用してボタン62をタップする操作が行われたことを示すとき、ソフトウェアキーボード66とキーボード入力(テキスト入力)を用いる検索画面64とを表示する。なお、実行制御部32は、ソフトウェアキーボード66とキーボード入力を用いる検索画面64とを表示するために、アプリケーション202に対して、対応するコマンド(または、関数、プログラム、等)を実行するように要求(指示)してもよい。キーボード入力を用いる検索画面64には、例えば、キーボード入力のための入力エリア65と検索の実行を指示するための検索ボタン62とが設けられている。ユーザは、例えば、ソフトウェアキーボード66上のキー(ボタン)をタップすることによって、入力エリア65内に検索キー(文字列)を入力し、検索ボタン62をタップすることによって、入力された検索キーを用いた検索(例えば、ウェブ検索、ファイル検索、文書検索、画像検索等)を、アプリケーション202に指示することができる。
また、OS201は、デジタイザ(第2センサ)17Cによって、ペン10Aを使用してボタン62をタップする操作が検出されたことに応じて、ペン10Aを使用してボタン62をタップする操作が行われたことを示すイベントを発行する。検出部31は、OS201によって発行されたイベントを受け取り(検出し)、実行制御部32に出力する。
そして、実行制御部32は、そのイベントが、ペン10Aを使用してボタン62をタップする操作が行われたことを示すとき、手書き入力を用いる検索画面67を表示する。なお、実行制御部32は、手書き入力を用いる検索画面67を表示するために、アプリケーション202に対して、対応するコマンド(または、関数、プログラム、等)を実行するように要求(指示)してもよい。手書き入力を用いる検索画面67には、例えば、手書き入力のための入力エリア68と検索の実行を指示するための検索ボタン62とが設けられている。ユーザは、例えば、ペン10Aを使用して入力エリア68内にストロークを手書きすることによって、検索キー(文字列、記号、図形等)を入力し、検索ボタン62をタップすることによって、入力された検索キーを用いた検索(例えば、ウェブ検索、ファイル検索、文書検索、画像検索、等)を、アプリケーション202に指示することができる。
以上の構成により、指10Bで検索ボタン62がタップされた場合には、ソフトウェアキーボード66とキーボード入力(テキスト入力)を用いる検索画面64とが表示され、検索ボタン62がペン10Aでタップされた場合には、手書き入力を用いる検索画面67が表示される。これにより、ユーザは、指10Bで検索ボタン62をタップした場合にはソフトウェアキーボードを使用して、検索キーを入力でき、ペン10Aで検索ボタン62をタップした場合には手書きにより検索キーを入力することができる。したがって、画面にキーボード入力と手書き入力とを切り替えるためのボタン等を設けることなく、指10Bを使用した入力とペン10Aを使用した入力のそれぞれに適した、直感的なユーザインタフェースを提供することができる。
なお、OS201は、さらに、デジタイザ(第2センサ)17Cによって、ペン10Aを使用して入力エリア65をタップする操作が検出されたことに応じて、ペン10Aを使用して入力エリア65をタップする操作が行われたことを示すイベントを発行してもよい。検出部31は、OS201によって発行されたイベントを受け取り(検出し)、実行制御部32に出力する。実行制御部32は、そのイベントが、ペン10Aを使用して入力エリア65をタップする操作が行われたことを示すとき、手書き入力を用いる検索画面67(入力エリア68)を表示することもできる。
次いで、図6に示す画面71には、LCD17Aの画面の少なくとも一部(例えば、画面の画像のスクリーンショット)の保存を指示するためのスクリーンショットボタン72(オブジェクト)が設けられている。このスクリーンショットボタン72が指10Bでタップ(タッチ)された場合には、LCD17Aの画面の少なくとも一部が保存され、スクリーンショットボタン72がペン10Aでタップ(タッチ)された場合には、LCD17Aの画面の少なくとも一部に手書き入力するためのプログラムが実行され、手書き入力されたストロークと画面の少なくとも一部とが保存される。
より具体的には、OS201は、タッチパネル(第1センサ)17Bによって、指10Bを使用してボタン72をタップする操作が検出されたことに応じて、指10Bを使用してボタン72をタップする操作が行われたことを示すイベントを発行する。検出部31(例えば、アプリケーション202に設けられた検出部31)は、OS201によって発行されたイベントを受け取り(検出し)、実行制御部32に出力する。
そして、実行制御部32(例えば、アプリケーション202に設けられた実行制御部32)は、そのイベントが、指10Bを使用してボタン72をタップする操作が行われたことを示すとき、LCD17Aの画面の少なくとも一部のスクリーンショット(スクリーンショットの画像ファイル)71を記憶媒体41(記録デバイス106等)に保存する。なお、実行制御部32は、スクリーンショット71を保存するために、アプリケーション202に対して、対応するコマンド(または、関数、プログラム、等)を実行するように要求(指示)してもよい。
また、OS201は、デジタイザ(第2センサ)17Cによって、ペン10Aを使用してボタン72をタップする操作が検出されたことに応じて、ペン10Aを使用してボタン72をタップする操作が行われたことを示すイベントを発行する。検出部31は、OS201によって発行されたイベントを受け取り(検出し)、実行制御部32に出力する。
そして、実行制御部32は、そのイベントが、ペン10Aを使用してボタン72をタップする操作が行われたことを示すとき、LCD17Aの画面の少なくとも一部に手書き入力するためのプログラム(例えば、手書き入力のためのユーザインタフェース(UI)を提供するプログラム)を実行し、手書き入力された文字や図形等のストロークを含む手書きメモ74と、画面の少なくとも一部のスクリーンショット73を記憶媒体41に保存する。実行制御部32は、このプログラムを実行することによって、例えば、画面の少なくとも一部に、現在表示されている画面の画像が透過される入力エリアを設定する。これによりユーザは、この入力エリアに対して文字や図形を手書きすることができる。なお、実行制御部32は、手書き入力するためのプログラムを実行し、手書きメモ74が書き込まれたスクリーンショット73を保存するために、アプリケーション202に対して、対応するコマンド(または、関数、プログラム、等)を実行するように要求(指示)してもよい。
以上の構成により、スクリーンショットボタン72が指10Bでタップされた場合には、LCD17Aの画面のスクリーンショット71が保存され、スクリーンショットボタン72がペン10Aでタップされた場合には、LCD17Aの画面のスクリーンショット上に手書き入力するためのUIが提供され、手書きメモ74が書き込まれたスクリーンショット73が保存される。これにより、ユーザは、指10Bでスクリーンショットボタン72をタップした場合には画面のスクリーンショット71を保存でき、また、ペン10Aでスクリーンショットボタン72をタップした場合には、画面のスクリーンショット71に手書きのメモを加えた上で、手書きメモ74が書き込まれたスクリーンショット73を保存することができる。
本実施形態では、図4から図6に示した動作のように、各種のオブジェクトに対して、指10Bを使用した入力に応じた処理と、ペン10Aを使用した入力に応じた処理とを関連付けることができる。
図7は、オブジェクトに対して、指10Bを使用した入力(第1操作)に応じた動作(第1処理)とペン10Aを使用した入力(第2操作)に応じた動作(第2処理)とが関連付けられていることを示す動作情報を含む動作テーブルの例を示す。この動作テーブルでは、各オブジェクトに対して、指10Bを使用した入力、すなわちタッチパネル17Bによって検出された入力に応じた動作と、ペン10Aを使用した入力、すなわちデジタイザ17Cを使用した入力に応じた動作とが関連付けられている。動作テーブルは、例えば、記憶媒体41に格納されている。
動作テーブルでは、例えば、図4に示した例のように、スライドボタン(ロック解除ボタン)52に対して、指10Bを使用した入力による動作として「ホーム画面を表示する」ことが関連付けられ、ペン10Aを使用した入力による動作として「手書きメモのアプリケーションを起動する」ことが関連付けられている。また、図5に示した例のように、検索ボタン62に対して、指10Bを使用した入力による動作として「ソフトウェアキーボードとキーボード入力を用いる検索画面とを表示する」ことが関連付けられ、ペン10Aを使用した入力による動作として「手書き入力を用いる検索画面を表示する」ことが関連付けられている。さらに、図6に示した例のように、スクリーンショットボタン72に対して、指10Bを使用した入力による動作として「ディスプレイのスクリーンショットを保存する」ことが関連付けられ、ペン10Aを使用した入力による動作として「ディスプレイのスクリーンショット上に手書き入力するためのUIを提供し、手書きのメモが書き込まれたスクリーンショットを保存する」ことが関連付けられている。
実行制御部32は、オブジェクトに対する入力(操作)が検出された場合、記憶媒体41に格納された動作テーブルから、当該オブジェクトに対応する動作情報(エントリ)を読み出す。そして、実行制御部32は、読み出された動作情報に基づいて、指10Bを使用した入力に関連付けられた動作と、ペン10Aを使用した入力に関連付けられた動作のいずれか一方が実行されるように制御する。すなわち、実行制御部32は、読み出された動作情報に基づいて、指10Bを使用した入力(第1操作)が検出された場合、指10Bを使用した入力に関連付けられた動作(第1処理)を実行し、ペン10Aを使用した入力(第2操作)が検出された場合、ペン10Aを使用した入力に関連付けられた動作(第2処理)を実行する。
なお、上述の動作テーブルは一例であり、各種のオブジェクトに対して、指10Bを使用した入力とペン10Aを使用した入力とに応じた様々な動作を関連付けることができる。動作テーブルでは、オブジェクトに対して、上述のような動作の内容に限らず、その動作を行うためのコマンド、関数、プログラム等が関連付けられてもよい。また、動作テーブルに含まれる動作情報は、アプリケーション202やOS201によって規定されてもよいし、動作情報を設定するための設定画面等を用いて、ユーザによって設定されてもよい。さらに、1つの画面に表示される複数のオブジェクトの各々に対して、指10Bを使用した入力に応じた動作とペン10Aを使用した入力に応じた動作とを関連付けることもできる。
次いで、図8のフローチャートを参照して、アプリケーションプログラム202(またはOS201)によって実行される入力処理の手順の例について説明する。
まず、検出部31は、OS201から、LCD17Aの画面に表示されているオブジェクトに対する入力イベントを受け取る(ブロックB11)。検出部31は、例えば、指10Bを使用した画面に対するタッチ操作に応じた入力イベント(すなわち、タッチパネル17Bによって検出されるタッチ操作に応じた入力イベント)、またはペン10Aを使用した画面に対するタッチ操作に応じた入力イベント(すなわち、デジタイザ17Cによって検出されるタッチ操作に応じた入力イベント)を受け取る。
次いで、実行制御部32は、検出部31によって受け取られた入力イベントが、ペン10Aによる入力を示すイベントであるか否かを判定する(ブロックB12)。入力イベントは、例えば、そのイベントの内容を表す各種のパラメータを含む。実行制御部32は、それらパラメータを用いて、入力イベントがペン10Aによる入力を示すイベントであるか、指10Bによる入力を示すイベントであるか、等を判定することができる。
入力イベントがペン10Aによる入力を示すイベントである場合(ブロックB12のYES)、実行制御部32は、ペン10Aによる入力に関連付けられた処理を実行する(ブロックB13)。一方、入力イベントがペン10Aによる入力を示すイベントでない場合(ブロックB12のNO)、すなわち、入力イベントが指10Bによる入力を示すイベントである場合、実行制御部32は、指10Bによる入力に関連付けられた処理(例えば、アプリケーション202やOS201の通常の処理)を実行する(ブロックB14)。ペン10Aによる入力に関連付けられた処理と、指10Bによる入力に関連付けられた処理との例は、図4から図7を参照して説明した通りである。
以上説明したように、本実施形態によれば、タッチスクリーンディスプレイに対して指での操作とペンを用いた操作とが行われる場合に、それぞれの操作に適した機能を提供することができる。タッチスクリーンディスプレイ17は、タッチパネル(第1センサ)17Bとデジタイザ(第2センサ)17Cとを備え、画面上にオブジェクトを表示する。検出部31は、タッチパネル17Bを介したオブジェクトに対する第1操作(例えば、指10Bでの操作)を検出し、デジタイザ17Cを介した当該オブジェクトに対する第2操作(例えば、ペン10Aでの操作)を検出する。実行制御部32は、第1操作が検出された場合、第1処理を実行し、第2操作が検出された場合、第1処理とは異なる第2処理を実行する。これにより、第1操作と第2操作のそれぞれに適した機能を提供することができる。
なお、本実施形態の入力処理の手順は全てソフトウェアによって実行することができる。このため、入力処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (15)

  1. 第1センサと第2センサとを備え、画面上にロックの解除を指示するためのオブジェクトを表示するタッチスクリーンディスプレイと、
    前記第1センサを介した前記オブジェクトに対する第1操作と、前記第2センサを介した前記オブジェクトに対する第2操作とを検出可能な検出手段と、
    前記第1操作が検出された場合、複数のアプリケーションプログラムのうちのいずれかを起動可能な画面を表示する第1処理を実行し、前記第2操作が検出された場合、手書き文書を作成するためのアプリケーションプログラムを起動する第2処理を実行する実行制御手段とを具備する電子機器。
  2. 第1センサと第2センサとを備え、画面上に前記画面の少なくとも一部の保存を指示するためのオブジェクトを表示するタッチスクリーンディスプレイと、
    前記第1センサを介した前記オブジェクトに対する第1操作と、前記第2センサを介した前記オブジェクトに対する第2操作とを検出可能な検出手段と、
    前記第1操作が検出された場合、前記画面の少なくとも一部を保存する第1処理を実行し、前記第2操作が検出された場合、前記画面の少なくとも一部に手書き入力するためのプログラムを実行し、手書き入力されたストロークと画面の少なくとも一部とを保存する第2処理を実行する実行制御手段とを具備する電子機器。
  3. 前記第1センサは、指と前記タッチスクリーンディスプレイとの接触を検出可能であって、
    前記第2センサは、ペンと前記タッチスクリーンディスプレイとの接触を検出可能である請求項1または2記載の電子機器。
  4. 前記第1センサはタッチパネルであり、
    前記第2センサはデジタイザである請求項1または2記載の電子機器。
  5. 前記オブジェクトに対して、前記第1操作に応じた前記第1処理と、前記第2操作に応じた前記第2処理とが関連付けられていることを示す動作情報を格納する記憶処理手段をさらに具備し、
    前記実行制御手段は、前記動作情報に基づいて、前記第1操作が検出された場合、前記第1処理を実行し、前記第2操作が検出された場合、前記第2処理を実行する請求項1または2記載の電子機器。
  6. 第1センサと第2センサとを備え、且つ画面にロックの解除を指示するためのオブジェクトを表示するタッチスクリーンディスプレイを用いた入力方法であって、
    前記第1センサを介した前記オブジェクトに対する第1操作と、前記第2センサを介した前記オブジェクトに対する第2操作とを検出し、
    前記第1操作が検出された場合、複数のアプリケーションプログラムのうちのいずれかを起動可能な画面を表示する第1処理を実行し、前記第2操作が検出された場合、手書き文書を作成するためのアプリケーションプログラムを起動する第2処理を実行する入力方法。
  7. 第1センサと第2センサとを備え、且つ画面に前記画面の少なくとも一部の保存を指示するためのオブジェクトを表示するタッチスクリーンディスプレイを用いた入力方法であって、
    前記第1センサを介した前記オブジェクトに対する第1操作と、前記第2センサを介した前記オブジェクトに対する第2操作とを検出し、
    前記第1操作が検出された場合、前記画面の少なくとも一部を保存する第1処理を実行し、前記第2操作が検出された場合、前記画面の少なくとも一部に手書き入力するためのプログラムを実行し、手書き入力されたストロークと画面の少なくとも一部とを保存する第2処理を実行する入力方法。
  8. 前記第1センサは、指と前記タッチスクリーンディスプレイとの接触を検出可能であって、
    前記第2センサは、ペンと前記タッチスクリーンディスプレイとの接触を検出可能である請求項6または7記載の入力方法。
  9. 前記第1センサはタッチパネルであり、
    前記第2センサはデジタイザである請求項6または7記載の入力方法。
  10. 前記オブジェクトに対して、前記第1操作に応じた前記第1処理と、前記第2操作に応じた前記第2処理とが関連付けられていることを示す動作情報を格納し、
    前記動作情報に基づいて、前記第1操作が検出された場合、前記第1処理を実行し、前記第2操作が検出された場合、前記第2処理を実行する請求項6または7記載の入力方法。
  11. 第1センサと第2センサとを備え、且つ画面にロックの解除を指示するためのオブジェクトを表示するタッチスクリーンディスプレイに接続されたコンピュータにより実行されるプログラムであって、前記プログラムは、
    前記第1センサを介した前記オブジェクトに対する第1操作と、前記第2センサを介した前記オブジェクトに対する第2操作とを検出する手順と、
    前記第1操作が検出された場合、複数のアプリケーションプログラムのうちのいずれかを起動可能な画面を表示する第1処理を実行し、前記第2操作が検出された場合、手書き文書を作成するためのアプリケーションプログラムを起動する第2処理を実行する手順とを前記コンピュータに実行させるプログラム。
  12. 第1センサと第2センサとを備え、且つ画面に前記画面の少なくとも一部の保存を指示するためのオブジェクトを表示するタッチスクリーンディスプレイに接続されたコンピュータにより実行されるプログラムであって、前記プログラムは、
    前記第1センサを介した前記オブジェクトに対する第1操作と、前記第2センサを介した前記オブジェクトに対する第2操作とを検出する手順と、
    前記第1操作が検出された場合、前記画面の少なくとも一部を保存する第1処理を実行し、前記第2操作が検出された場合、前記画面の少なくとも一部に手書き入力するためのプログラムを実行し、手書き入力されたストロークと画面の少なくとも一部とを保存する第2処理を実行する手順とを前記コンピュータに実行させるプログラム。
  13. 前記第1センサは、指と前記タッチスクリーンディスプレイとの接触を検出可能であって、
    前記第2センサは、ペンと前記タッチスクリーンディスプレイとの接触を検出可能である請求項11または12記載のプログラム。
  14. 前記第1センサはタッチパネルであり、
    前記第2センサはデジタイザである請求項11または12記載のプログラム。
  15. 前記オブジェクトに対して、前記第1操作に応じた前記第1処理と、前記第2操作に応じた前記第2処理とが関連付けられていることを示す動作情報を格納する手順と、
    前記動作情報に基づいて、前記第1操作が検出された場合、前記第1処理を実行し、前記第2操作が検出された場合、前記第2処理を実行する手順とを前記コンピュータに実行させる請求項11または12記載のプログラム。
JP2015506407A 2013-03-18 2013-03-18 電子機器および入力方法 Active JP5951886B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/057716 WO2014147724A1 (ja) 2013-03-18 2013-03-18 電子機器および入力方法

Publications (2)

Publication Number Publication Date
JP5951886B2 true JP5951886B2 (ja) 2016-07-13
JPWO2014147724A1 JPWO2014147724A1 (ja) 2017-02-16

Family

ID=51579459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015506407A Active JP5951886B2 (ja) 2013-03-18 2013-03-18 電子機器および入力方法

Country Status (3)

Country Link
US (1) US20150138127A1 (ja)
JP (1) JP5951886B2 (ja)
WO (1) WO2014147724A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
KR102138913B1 (ko) * 2013-07-25 2020-07-28 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
KR20160029509A (ko) * 2014-09-05 2016-03-15 삼성전자주식회사 전자 장치 및 전자 장치의 어플리케이션 실행 방법
US9658704B2 (en) 2015-06-10 2017-05-23 Apple Inc. Devices and methods for manipulating user interfaces with a stylus
JP6503957B2 (ja) * 2015-07-21 2019-04-24 富士通コネクテッドテクノロジーズ株式会社 電子機器及び表示制御プログラム
JP6483647B2 (ja) 2016-09-14 2019-03-13 株式会社東芝 レーザ加工装置
WO2018058014A1 (en) 2016-09-23 2018-03-29 Apple Inc. Device, method, and graphical user interface for annotating text
WO2018222247A1 (en) 2017-06-02 2018-12-06 Apple Inc. Device, method, and graphical user interface for annotating content
US11023055B2 (en) 2018-06-01 2021-06-01 Apple Inc. Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
CN110196675B (zh) * 2019-04-17 2022-07-15 华为技术有限公司 一种添加批注的方法及电子设备
JP2023162919A (ja) * 2022-04-27 2023-11-09 レノボ・シンガポール・プライベート・リミテッド 情報処理装置
CN119631045A (zh) 2022-05-10 2025-03-14 苹果公司 输入设备与电子设备之间的交互

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08179872A (ja) * 1994-12-21 1996-07-12 Sharp Corp 入力装置およびその入力方法
JPH09190268A (ja) * 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
JP2008108233A (ja) * 2006-09-28 2008-05-08 Kyocera Corp 携帯端末及びその制御方法
JP2011186550A (ja) * 2010-03-04 2011-09-22 Lenovo Singapore Pte Ltd 座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2599019B2 (ja) * 1990-06-28 1997-04-09 三洋電機株式会社 ペン入力装置
JP3758865B2 (ja) * 1998-12-01 2006-03-22 富士ゼロックス株式会社 座標入力装置
JP2003271310A (ja) * 2002-03-13 2003-09-26 Canon Inc 情報入出力装置、その制御方法および該制御方法を実現するためのプログラム
JP5668355B2 (ja) * 2010-08-04 2015-02-12 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
WO2012153536A1 (ja) * 2011-05-12 2012-11-15 パナソニック株式会社 座標入力装置及び座標入力方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08179872A (ja) * 1994-12-21 1996-07-12 Sharp Corp 入力装置およびその入力方法
JPH09190268A (ja) * 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
JP2008108233A (ja) * 2006-09-28 2008-05-08 Kyocera Corp 携帯端末及びその制御方法
JP2011186550A (ja) * 2010-03-04 2011-09-22 Lenovo Singapore Pte Ltd 座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラム

Also Published As

Publication number Publication date
JPWO2014147724A1 (ja) 2017-02-16
WO2014147724A1 (ja) 2014-09-25
US20150138127A1 (en) 2015-05-21

Similar Documents

Publication Publication Date Title
JP5951886B2 (ja) 電子機器および入力方法
JP6009454B2 (ja) コンピューティング装置の動きを利用するコンピューティング装置と相互作用するときに発生する入力イベントの解釈の強化
US10203869B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
RU2505848C2 (ru) Виртуальная тактильная панель
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP5237980B2 (ja) 座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラム
US20090109187A1 (en) Information processing apparatus, launcher, activation control method and computer program product
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US20150199125A1 (en) Displaying an application image on two or more displays
US8456433B2 (en) Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel
CN106104450A (zh) 选择图形用户界面某一部分的方法
KR20130075849A (ko) 디스플레이 장치 및 이를 이용한 영상 표시 방법
CN104423626A (zh) 信息处理装置以及控制方法
US20140359541A1 (en) Terminal and method for controlling multi-touch operation in the same
TWI497357B (zh) 多點觸控板控制方法
JP2015049593A (ja) 電子機器、方法およびプログラム
US20150153925A1 (en) Method for operating gestures and method for calling cursor
EP2741194A1 (en) Scroll jump interface for touchscreen input/output device
JP6151166B2 (ja) 電子機器および表示方法
CN103809794A (zh) 一种信息处理方法以及电子设备
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
JP2015049861A (ja) 情報処理装置、制御方法、及びプログラム
JP3145773U (ja) タッチパッド入力装置
JP6139647B1 (ja) 情報処理装置、入力判定方法、及びプログラム
Albanese et al. A technique to improve text editing on smartphones

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160608

R151 Written notification of patent or utility model registration

Ref document number: 5951886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350