Nothing Special   »   [go: up one dir, main page]

JP2010257037A - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2010257037A
JP2010257037A JP2009103828A JP2009103828A JP2010257037A JP 2010257037 A JP2010257037 A JP 2010257037A JP 2009103828 A JP2009103828 A JP 2009103828A JP 2009103828 A JP2009103828 A JP 2009103828A JP 2010257037 A JP2010257037 A JP 2010257037A
Authority
JP
Japan
Prior art keywords
zoom
zoomed
unit
specified
zoom rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009103828A
Other languages
English (en)
Inventor
Takaharu Suzuki
貴晴 鈴木
Kazuyuki Yamamoto
一幸 山本
Hidetoshi Kabasawa
秀年 椛澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009103828A priority Critical patent/JP2010257037A/ja
Priority to US12/758,104 priority patent/US8698846B2/en
Priority to CN201010151707.4A priority patent/CN101872607B/zh
Publication of JP2010257037A publication Critical patent/JP2010257037A/ja
Priority to US14/185,187 priority patent/US8952993B2/en
Priority to US14/537,775 priority patent/US20150062009A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/027Arrangements and methods specific for the display of internet documents
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】オブジェクトを迅速にズームすることができるようにする。
【解決手段】画像表示装置12の演算部53の指定部は、オブジェクトを指定する。検知部は、ユーザーにより指定されたズーム率でオブジェクトをズームした場合におけるオブジェクトの少なくとも一部の閾値を越えた変化の発生を検知する。ズーム部は、指定されたズーム率でオブジェクトをズームすると、オブジェクトの少なくとも一部に閾値を越えた変化が発生する場合、オブジェクトの少なくとも一部に閾値を越えた変化が発生する直前のズーム率でオブジェクトをズームする。またズーム部は、指定されたズーム率でオブジェクトをズームしても、オブジェクトの少なくとも一部に閾値を越えた変化が発生しない場合、指定されたズーム率でオブジェクトをズームする。本発明はテレビジョン受像機、その他の情報処理装置に適用することができる。
【選択図】図1

Description

本発明は情報処理装置および方法、並びにプログラムに関し、特にオブジェクトを迅速にズームすることができるようにした情報処理装置および方法、並びにプログラムに関する。
最近パーソナルコンピュータが普及し、多くのユーザーにより使用されるようになってきた。ユーザーは、インターネットを介して各種の情報をパーソナルコンピュータにより享受することができる。
各種の情報は、ディスプレイに表示される。タッチパネル方式のディスプレイの場合、操作画面がディスプレイに表示され、ユーザーはその操作画面のうちの所定のボタンを選択操作することで、そのボタンに割り当てられている機能を実行させることができる。
ところで情報を表示するディスプレイには、さまざまな大きさのものがある。大きいディスプレイに表示される操作画面を、そのままのレイアウトで小さいディスプレイに表示させると、その操作画面のボタンが小さくなる。指に較べてボタンが小さ過ぎると、ユーザーは所望の1個のボタンを確実に選択、操作することが困難になる。
そこで、特許文献1には、ボタンが小さくなり過ぎて指で操作できなくなるのを防止するために、ボタンの大きさの下限値を予め決めておくことが記載されている。すなわち、ボタンの大きさが下限値を超えるほど小さいディスプレイの場合には、操作画面のレイアウトが、大きいディスプレイの場合とは異なるものに変更される。
このように予め下限値を設定しても、多様なユーザーの嗜好には対応することができない。すなわち、一般的にユーザーが使用する機器のディスプレイの大きさは固定されており、変化することはない。その結果、先の提案では、結局、ユーザーにとってボタンの大きさは一定となる。
特開2006−260021号公報
ところで、ボタンに代表されるオブジェクトの大きさの好みは、ユーザー毎に異なる。年配者はオブジェクトに表示されている文字を大きくしたいので、大きいボタンを好む傾向がある。これに対して若者は文字の大きさより、文字とオブジェクトがバランスよく表示されている状態の、小さいオブジェクトを好む傾向がある。そこで、オブジェクトの大きさをユーザーの好みに合わせて変更できるように、オブジェクトの大きさを拡大縮小するズーム機能が設けられていることが多い。
しかし、オブジェクトをユーザーに任意のズーム率でズームさせると、そのオブジェクトに表示されている情報をユーザーが視認することが困難になる場合がある。そこでユーザーは、所定のズーム率を設定してズームし、視認できるかを確認する操作を繰り返すことになる。その結果、適正なズーム率を設定し、そのズーム率でズームするのに時間がかかる場合があった。
本発明はこのような状況に鑑みてなされたものであり、オブジェクトを迅速にズームすることができるようにするものである。
本発明の一側面は、オブジェクトを指定する指定部と、ユーザーにより指定されたズーム率で前記オブジェクトをズームした場合における前記オブジェクトの少なくとも一部の閾値を越えた変化の発生を検知する検知部と、指定された前記ズーム率で前記オブジェクトをズームすると、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する場合、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する直前の前記ズーム率で前記オブジェクトをズームし、指定された前記ズーム率で前記オブジェクトをズームしても、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生しない場合、指定された前記ズーム率で前記オブジェクトをズームするズーム部とを備える情報処理装置である。
前記ズーム率は、入力装置が3次元空間でジェスチャ操作された場合に発生される遠隔制御信号により指定することができる。
前記オブジェクトの少なくとも一部の閾値を越えた変化は、前記オブジェクトの潰れまたはモザイク化とすることができる。
前記オブジェクトが潰れるかまたはモザイク化する直前の前記ズーム率は、前記オブジェクトに表示されている文字、図形または顔を認識することにより決定することができる。
前記入力装置の前記ジェスチャ操作を検出する検出部と、検出された前記ジェスチャ操作に基づいて前記ズーム率を演算する演算部とをさらに備えることができる。
前記ズーム部は、前記オブジェクト上のズームする基準点が指定された場合、前記基準点が対応する仮想平面上おける仮想点を基準とする所定の範囲をズームすることができる。
前記仮想点を中心とする所定の範囲を拡大すると、拡大した範囲の上下左右の端部が、前記仮想平面の外に位置することになる場合、前記仮想平面内の画像が拡大されるように前記仮想平面上おける前記仮想点の位置を補正することができる。
本発明の他の側面は、指定部と、検知部と、ズーム部とを備え、前記指定部は、オブジェクトを指定し、前記検知部は、ユーザーにより指定されたズーム率で前記オブジェクトをズームした場合における前記オブジェクトの少なくとも一部の閾値を越えた変化の発生を検知し、前記ズーム部は、指定された前記ズーム率で前記オブジェクトをズームすると、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する場合、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する直前の前記ズーム率で前記オブジェクトをズームし、指定された前記ズーム率で前記オブジェクトをズームしても、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生しない場合、指定された前記ズーム率で前記オブジェクトをズームする情報処理方法である。
さらに本発明の他の側面は、コンピュータを、オブジェクトを指定する指定手段と、ユーザーにより指定されたズーム率で前記オブジェクトをズームした場合における前記オブジェクトの少なくとも一部の閾値を越えた変化の発生を検知する検知手段と、指定された前記ズーム率で前記オブジェクトをズームすると、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する場合、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する直前の前記ズーム率で前記オブジェクトをズームし、指定された前記ズーム率で前記オブジェクトをズームしても、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生しない場合、指定された前記ズーム率で前記オブジェクトをズームするズーム手段として機能させるためのプログラムである。
本発明の側面においては、指定部または指定手段は、オブジェクトを指定し、検知部または検知手段は、ユーザーにより指定されたズーム率でオブジェクトをズームした場合におけるオブジェクトの少なくとも一部の閾値を越えた変化の発生を検知し、ズーム部または検知手段は、指定されたズーム率でオブジェクトをズームすると、オブジェクトの少なくとも一部に閾値を越えた変化が発生する場合、オブジェクトの少なくとも一部に閾値を越えた変化が発生する直前のズーム率でオブジェクトをズームし、指定されたズーム率でオブジェクトをズームしても、オブジェクトの少なくとも一部に閾値を越えた変化が発生しない場合、指定されたズーム率でオブジェクトをズームする。
以上のように、本発明の一側面によれば、オブジェクトを迅速にズームすることができる。
本発明の情報処理システムの一実施の形態の構成を示すブロック図である。 入力装置の構成を示す斜視図である。 入力装置の演算部の機能的構成を示すブロック図である。 画像表示装置の演算部の機能的構成を示すブロック図である。 コマンド送信処理を説明するフローチャートである。 オブジェクトのズーム処理を説明するフローチャートである。 オブジェクトの表示例を示す図である。 第1のジェスチャを説明する図である。 第2のジェスチャを説明する図である。 第3のジェスチャを説明する図である。 他のジェスチャを説明する図である。 他のジェスチャを説明する図である。 オブジェクトのズーム処理を説明するフローチャートである。 EPG表示処理を説明するフローチャートである。 EPG表示処理を説明するフローチャートである。 ズームポイントを説明する図である。 仮想平面と表示範囲を説明する図である。 ズームポイントを説明する図である。 仮想平面と表示範囲を説明する図である。 ズームポイントを説明する図である。 仮想平面と表示範囲を説明する図である。 表示例を表す図である。 表示例を表す図である。 表示例を表す図である。 表示例を表す図である。
以下、発明を実施するための形態(以下、実施の形態と称する)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(システムの構成)
2.第1の実施の形態(入力装置の構成)
3.第1の実施の形態(入力装置の演算部の機能的構成)
4.第1の実施の形態(画像表示装置の演算部の機能的構成)
5.第1の実施の形態(コマンド送信処理)
6.第1の実施の形態(オブジェクトのズーム処理1)
7.第2の実施の形態(オブジェクトのズーム処理2)
8.第3の実施の形態(EPG表示処理)
9.変形例
<1.第1の実施の形態>
[システムの構成]
図1は、本発明の情報処理システムの一実施の形態の構成を示すブロック図である。
この情報処理システム1は、情報処理装置としての画像表示装置12と、それを遠隔制御するポインティングデバイスあるいはリモートコントローラとしての入力装置11とにより構成されている。
入力装置11は、加速度センサー31、角速度センサー32、ボタン33、演算部34、通信部35、およびアンテナ36を有している。
入力装置11はいわゆる空中リモートコントローラを構成する。加速度センサー31と角速度センサー32は、入力装置11が3次元空間で任意の方向に操作された場合、それぞれ入力装置11の加速度と角速度を検出する。
ボタン33は、ユーザーにより操作される。ボタン33は、図には1つのみが示されているが、実際には複数のボタンで構成される。例えばボタン33は、選択を確定するとき操作される決定ボタン、数字に対応したテンキーなどにより構成される。
例えばマイクロプロセッサなどよりなる演算部34は、加速度センサー31、角速度センサー32、ボタン33の操作結果を検出する。検出結果に対応するコマンド等の信号は、通信部35により増幅、変調され、アンテナ36を介して、電波で画像表示装置12に送信される。
例えばテレビジョン受像機からなる画像表示装置12は、アンテナ51、通信部52、演算部53、および表示部54を有している。
アンテナ51は、入力装置11からの電波を受信する。通信部52は、アンテナ51を介して受信した信号を増幅、復調する。例えばマイクロプロセッサなどよりなる演算部53は、通信部52からの信号に基づき、所定の動作を実行する。表示部54は画像を表示する。なお、図示は省略されているが、画像表示装置12は、テレビジョン放送を受信し、画像を表示部54に表示する機能を有している。
なお、入力装置11と画像表示装置12との間の通信に用いられる媒体は無線であればよく、赤外線を使用することもできる。
[入力装置の構成]
図2は、入力装置の外観の構成を示す斜視図である。入力装置11は、情報処理装置としての画像表示装置12を制御する遠隔操作信号を生成するためにユーザーにより操作される操作部としての本体41を有している。本体41の上面には、1個のボタン33が代表的に示されているが、実際には複数のボタンが設けられている。
ユーザーは入力装置11すなわち本体41を把持し、先頭を画像表示装置12に向けて、3次元空間で任意の方向に操作したり、ボタン33を操作したりする。これにより、ポインタを操作方向に移動させたり、所定のモードを設定したり、所定の動作を指令することができる。
入力装置11の先頭には、MEMS(Micro Electro Mechanical Systems)の技術により製造された、加速度センサー31と角速度センサー32が取り付けられている。X’’Y’’Z’’は、加速度センサー31の相互に垂直な相対座標系の軸である。X’Y’Z’は、角速度センサー32の相互に垂直な相対座標系の軸である。X’’Y’’Z’’軸とX’Y’Z’軸は、それぞれ平行とされている。XYZはそれぞれ相互に垂直な絶対座標系の軸である。Y軸は鉛直方向の軸であり、X軸とZ軸は、水平面内の軸であり、Y軸はこの水平面に対して垂直な鉛直方向の軸である。
典型的には、本体41の先頭(図2における右上方向の端部)を、その先に位置する画像表示装置12の表示部54に向けた状態で、本体41の全体がユーザーにより、3次元空間の任意の方向に操作される。この場合、2軸式振動型角速度センサーで構成される角速度センサー32は、それぞれX’軸とY’軸と平行なピッチ回転軸とヨー回転軸を中心として回転するピッチ角θとヨー角ψの角速度を検出する。あるいは振動型の角速度センサーの代わりに、地磁気式の角度センサーを用いることもできる。加速度センサー31は、X’’軸およびY’’軸の方向の加速度Ax(t),Ay(t)を検出する。加速度センサー31は、加速度をベクトル量として検知することができる。加速度センサー31としては、X’’軸、Y’’軸、およびZ’’軸の3軸を感度軸とする3軸型加速度センサーを用いることもできる。
ユーザーは手で入力装置11を把持し、入力装置11の全体を3次元の自由空間において任意の方向に操作する。すなわち、入力装置11は、いわゆる空中リモートコントローラであり、机上においたまま使用されるのではなく、空中で操作される。入力装置11はその操作された方向を検出し、その操作された方向の操作信号を出力する。また入力装置11は、ボタン33が操作された場合、対応する操作信号を出力する。
[入力装置の演算部の機能的構成]
図3は入力装置11の演算部34の機能的構成を示すブロック図である。演算部34は、取得部101および送信部102を有している。
取得部101は、角速度や加速度の他、操作されたボタンに対応するボタン情報などを取得する。送信部102は、取得された情報に基づくコマンドなどを画像表示装置12に送信する。
[画像表示装置の演算部の機能的構成]
図4は、画像表示装置12の演算部53の機能的構成を示すブロック図である。演算部53は、指定部201、設定部202、検出部203、演算部204、判定部205、検知部206、ズーム部207、取得部208、抽出部209、および実行部210を有している。
指定部201は、オブジェクトを指定する。設定部202は、モードを設定する。検出部203は、ズーム操作を検出する。演算部204は、ズーム率を演算する。判定部205は、各種の判定を行う。検知部206は、表示情報の欠陥を検知する。ズーム部207は、オブジェクトをズームする。取得部208は、表示情報の表示条件を取得する。抽出部209は、仮想平面の領域を抽出する。実行部210は、オブジェクトに対応する処理を実行する。
[コマンド送信処理]
図5は、入力装置11のコマンド送信処理を説明するフローチャートである。以下、図5を参照して、入力装置11のコマンド送信処理を説明する
ステップS1において取得部101は、操作量を取得する。具体的には、加速度センサー31および角速度センサー32の検出出力、並びにボタン33の操作に基づくボタン情報が取得される。
すなわち、角速度センサー32は、ユーザーが入力装置11を3次元の自由空間で把持、操作した場合に発生する運動のY’軸周りとX’軸周りの角速度(ωψ(t),ωθ(t))を出力する。同様に加速度センサー31は、ユーザーが入力装置11を3次元の自由空間で把持、操作した場合に発生する運動のX’’軸とY’’軸の加速度(Ax(t),Ay(t))を出力する。取得部101は、検出された角速度(ωψ(t),ωθ(t))や加速度(Ax(t),Ay(t))を取得する。具体的には、角速度(ωψ(t),ωθ(t))や加速度(Ax(t),Ay(t))が演算部34に内蔵されるA/D変換器によりA/D変換され、取り込まれる。
次にステップS2において送信部102は、ステップS1における取得結果に基づくコマンドを送信する。具体的には、コマンドは、通信部35において変調され、アンテナ36を介して電波で画像表示装置12に送信される。
なお、ここでコマンドとは、必ずしも形式的にコマンドである必要はなく、それに基づき、画像表示装置12が所定の処理を実行できる情報であればよい。
以上の処理が繰り返されることで、ユーザーの操作に基づいて、入力装置11から所定のコマンドが画像表示装置12に送信される。
[オブジェクトのズーム処理1]
図5に示される処理により入力装置11からコマンドが送信されると、画像表示装置12のアンテナ51がその電波を受信する。通信部52はアンテナ51を介して受信したコマンドを復調し、演算部53に供給する。演算部53の取得部208は送信されてきたコマンドを取得する。実行部210はこのコマンドに基づいて対応する処理を実行する。例えばユーザーによりオブジェクトのズームが指示された場合、オブジェクトをズームする処理が実行される。
図6は画像表示装置12が実行するオブジェクトのズーム処理を説明するフローチャートである。以下、この図6を参照して、所定のオブジェクトを指定し、そのオブジェクトをズームする処理について説明する。
ステップS21において指定部201は、オブジェクトを指定する。すなわちユーザーは、表示部54に表示されているオブジェクトをズームする場合、入力装置11を操作して、そのズームするオブジェクトを指定する。具体的には、ポインティングモードにおいて、ポインタで所定のオブジェクトが指定される。この操作に基づく遠隔制御信号が受信された場合、指定されたオブジェクトがズーム対象とされる。
図7は、オブジェクトの表示例を示す図である。図7に示されるように、任意の数のオブジェクト251が表示部54に表示されている状態で、ユーザーはポインタ301によりズーム対象とするオブジェクトを指定する。例えば図7において3角形で示されるオブジェクト251が指定される。
ユーザーはズームするオブジェクトを指定した後、入力装置11を把持して、ズームモードを設定するためのジェスチャ操作をする。
図8は、ズームモードを設定するためのジェスチャを説明する図である。ユーザーはズームモードを設定するとき、第1のジェスチャ操作をする。第1のジェスチャは、図8に示されている。すなわち入力装置11は、最初、入力装置11の正面が上を向く水平な姿勢(符号11Hで示される姿勢)とされる。入力装置11はその状態から、長手方向の軸11Lと垂直な軸11Sを中心として、入力装置11の正面がユーザーに対向するように、その先端が上向きの垂直な姿勢(符号11Vで示される姿勢)に回転される。この第1のジェスチャに対応する遠隔制御信号が受信された場合、ステップS22において設定部202は、ズームモードを設定する。ズームモードが設定されるとき、それまのでモード、例えばポインティングモードは解除される。
入力装置11の長手方向の軸11LのY軸に対する角度αは、図2に示されるZ’’軸方向の加速度Az(t)の大きさから判定することができる。Y軸に対する角度αが予め設定されている閾値(例えば10度)以内であるとき、入力装置11は上向き垂直姿勢であると判定される。例えば、加速度Az(t)と重力加速度gとの差が閾値以下であるとき、すなわち、加速度Az(t)と重力加速度gがほぼ等しいとき、入力装置11は上向き垂直姿勢であると判定することができる。
もちろん、姿勢の判断は、図5のステップS2の処理で送信されてきたその他の各種の情報を利用して行うこともできる。
入力装置11が上向き垂直姿勢ではない場合、すなわち角度αが閾値より大きい場合、ズームモードは設定されず、元のモード(例えばポインティングモード)が継続される。
角度αが閾値以下となり、ズームモードが設定された後、ユーザーは、画面表示をズームするための第2のジェスチャ操作をする。図9は、第2のジェスチャを説明する図である。同図に示されるように、第2のジェスチャは、入力装置11を上向き垂直姿勢のまま、符号11Nで示されるユーザーに近づく位置、または符号11Fで示されるユーザーから遠ざかる位置に、平行移動させる操作である。ステップS23において検出部203は、遠隔制御信号からこのズーム操作を検出する。すなわち第2のジェスチャ操作が検出される。
ステップS24において演算部24は、入力装置11のズーム操作の遠隔制御信号に基づいて、ズーム率を演算する。ズーム率は、例えば図9に示されるような平行移動の距離が長いほど大きくなり、短いほど小さくなる。
ステップS25において判定部205は、ズーム操作は拡大と縮小のいずれであるかを判定する。入力装置11が手前側に移動された場合、すなわちユーザーに近づく方向に移動された場合、縮小するためのズーム操作と判定される。これに対して、入力装置11が奥行き方向に移動された場合、すなわちユーザーから遠ざかる方向に移動された場合、拡大するためのズーム操作と判定される。勿論、この方向は、逆に定義することも可能である。
図9において、入力装置11が符号11で示される位置から符号11Nで示される位置に移動された場合、すなわちユーザーに近づく方向に移動された場合、図2のY’’軸方向の加速度Ay(t)が正(または負)となる。これに対して、入力装置11が奥行き方向(表示部54の方向)に移動された場合、すなわちユーザーから遠ざかる方向に移動された場合、Y’’軸方向の加速度Ay(t)が負(または正)となる。そこで、加速度Ay(t)の極性からこの判定を行うことができる。
入力装置11が手前側に移動した場合、ステップS26において検知部206は、表示情報を認識し、その欠陥を検知する。オブジェクトの欠陥とは、オブジェクトの少なくとも一部の閾値を越えた変化である。例えば、オブジェクトに表示されている表示情報の潰れが検知される。具体的には、ステップS24で演算されたズーム率でオブジェクトを縮小した場合に、そのオブジェクトに表示されている文字、図形、顔の画像などの表示情報が潰れたかが検知される。
ステップS27において判定部205は、ステップS26の検知処理の結果に基づいて、表示情報が潰れたかを判定する。文字や図形の場合、文字の画数や図形を表す線と線の間隔が、所定の閾値以下になったとき、潰れたと判定される。また顔の画像の場合、口、鼻などの所定の部位の輪郭の距離が、所定の閾値以下になったとき、潰れたと判定される。
表示情報が潰れたと判定された場合、ステップS28において演算部204は、ズーム率を大きくする。すなわち、ステップS24で演算されたズーム率ZRで縮小した場合のオブジェクトの大きさをOSとするとき、オブジェクトがそれより大きい大きさOS(>OS)となるように、ズーム率が値ZRより1ステップだけ大きい値ZR(=ZR+1)に変更される。
ステップS26において検知部206は、ステップS28で設定されたズーム率ZRでオブジェクトを縮小した場合の表示情報の潰れを検知する。ステップS27において判定部205は、ステップS26の検知処理の結果に基づいて、表示情報が潰れたかを判定する。
以上のステップS26乃至ステップS28の処理が繰り返される結果、表示情報が潰れる直前のズーム率ZRが求められる。そして、表示情報が潰れる直前のズーム率ZRが求められると、ステップS32においてズーム部207は、求められたズーム率ZRで、指定されたオブジェクトをズームする。その結果、ユーザーは、迅速に、オブジェクトの大きさを、表示されている表示情報を確認することができる最小の大きさにすることができる。
ステップS25において拡大のズーム操作がなされたと判定された場合、すなわち、入力装置11が奥行き側に移動された場合、ステップS29において検知部206は、表示情報を認識し、その欠陥を検知する。ここでも、オブジェクトの少なくとも一部の閾値を越えた変化が欠陥として検知される。例えば、オブジェクトに表示されている表示情報のモザイク化が検知される。具体的には、ステップS24で演算されたズーム率でオブジェクトを拡大した場合に、そのオブジェクトに表示されている文字、図形、顔の画像などの表示情報がモザイク化したかが検知される。
ステップS30において判定部205は、ステップS29の検知処理の結果に基づいて、表示情報がモザイク化したかを判定する。文字や図形の場合、文字の画数や図形を表す線がギザギザの線になったとき、文字がモザイク化したと判定される。また顔の画像の場合、口、鼻などの所定の部位の輪郭の線が、ギザギザの線になったとき、モザイク化したと判定される。
線は複数の画素の連結により構成されるが、拡大しない状態では、線は自然で滑らかな連続としてユーザーに認識される。従って、微視的には、すなわち画素単位で把握すれば、全ての線はギザギザな状態であると考えることができる。しかし、モザイク化の判定の基準としてのギザギザは、このような実際に観察することができない状態を意味するものではない。
モザイク化の判定の基準としてのギザギザとは、自然で滑らかな連続を認識することが困難になる、過剰な拡大であることをユーザーに認識させ、それ以上の拡大を禁止させる基準となるものである。そこで、例えば拡大処理に伴って、輪郭の線を構成する画素、およびその周辺の画素に関して、同じ輝度を有する隣接する複数の画素、および輝度が異なっていたとしても、その差が予め設定された閾値より小さい隣接する複数の画素の集合によりブロックを構成させる。そして、そのブロックの少なくとも1つの辺の長さが、予め設定された閾値より大きくなったとき、表示情報がモザイク化したと判定することができる。
表示情報がモザイク化したと判定された場合、ステップS31において演算部204は、ズーム率を小さくする。すなわち、ステップS24で演算されたズーム率ZRで拡大した場合のオブジェクトの大きさをOSとするとき、オブジェクトがそれより小さい大きさOS(<OS)となるように、ズーム率が値ZRより1ステップだけ小さい値ZR(=ZR−1)に変更される。
ステップS29において検知部206は、ステップS31で設定されたズーム率ZRでオブジェクトを拡大した場合の表示情報のモザイク化を検知する。ステップS30において判定部205は、ステップS29の検知処理の結果に基づいて、表示情報がモザイク化したかを判定する。
以上のステップS29乃至ステップS31の処理が繰り返される結果、表示情報がモザイク化する直前のズーム率ZRが求められる。そして、表示情報がモザイク化する直前のズーム率ZRが求められると、ステップS32においてズーム部207は、求められたズーム率ZRで、指定されたオブジェクトをズームする。その結果、ユーザーは、迅速に、オブジェクトの大きさを、表示されている表示情報を適正に確認することができる最大の大きさにすることができる。
なおユーザーは、ポインティングモードを設定する場合、第3のジェスチャ操作をする。図10は、第3のジェスチャを説明する図である。同図に示されるように、第3のジェスチャは、入力装置11を、入力装置11の正面がユーザーに対向するように、その先端が上向きの垂直な姿勢(符号11Vで示される姿勢)から、入力装置11の長手方向の軸11Lと垂直な軸11Sを中心として、入力装置11の正面が上を向く水平な姿勢(符号11Hで示される姿勢)に回転するジェスチャである。すなわち、第1のジェスチャと逆のジェスチャである。
Z軸に対する角度γが予め設定されている閾値(例えば10度)以内であるとき、入力装置11は水平姿勢であると判定される。換言すれば、入力装置11の長手方向の軸11LとY軸との角度α(=90−γ)が、80度以上のとき、入力装置11は水平姿勢であると判定される。
入力装置11の長手方向の軸11LのZ軸に対する角度γは、図2のZ’’軸方向の加速度Az(t)の大きさから判定することができる。例えば、Z’’軸方向の加速度Az(t)が殆ど0である場合、すなわち重力加速度gのZ’’軸方向の分力が殆どない場合、入力装置11は水平姿勢であると判定される。
このように、ユーザーは、入力装置11の姿勢を3次元空間で所定の方向に変化させるようにジェスチャ操作することで、モードを変更することができる。
なお制御対象とされるモードは、ポインティングモードとズームモードに限られるものではない。スクロールモード、チャンネル送り/戻しモード、音量増減モード、その他のモードを制御対象とすることができる。
また、入力装置11のジェスチャは、図8乃至図10に示した場合に限られるものではない。
図11は、他のジェスチャを説明する図である。図11に示されるように、上向き垂直姿勢のまま、左右方向に平行移動させたり(図11A)、上下方向に平行移動させたり(図11B)する操作を例えば第2のジェスチャとすることができる。
図12は、さらに他のジェスチャを説明する図である。同図に示されるように、入力装置11を、符号11で示される基本となる水平姿勢から、その先端が上向きになるように方向Cに90度回転すると、入力装置11は符号11Cで示される上向き垂直姿勢になる。この姿勢は図8に示した姿勢である。
この他、入力装置11を、水平姿勢から、その先端が下になるように、方向Dに90度回転すると、入力装置11は符号11Dで示される下向き垂直姿勢になる。
また、入力装置11を、水平姿勢から、反時計回転方向Aに90度回転すると、入力装置11は符号11Aで示される反時計回転方向に90度回転した姿勢になる。入力装置11を、水平姿勢から、時計回転方向Bに90度回転すると、入力装置11は符号11Bで示される時計回転方向に90度回転した姿勢になる。入力装置11を、水平姿勢から、時計回転方向Bに180度回転すると、入力装置11は符号11Eで示される裏返しの姿勢になる。
これらのジェスチャを、例えば第1ジェスチャあるいは第3のジェスチャとすることができる。
このようなジェスチャを利用して、上述した場合と同様の機能を実現することができる。このようなジェスチャを第1乃至第3のジェスチャとして組み合わせることで、ユーザーに直感的な操作をさせることが可能となる。
入力装置11の3次元空間における第3のジェスチャ操作に基づきズーム率が決定されるので、ユーザーは、所望のズーム率を指定するために、入力装置11を前後に移動させる距離を微妙に調整する必要がある。しかし、そのような微調整には慣れが必要であり、不慣れな操作者が微調整を行うのは困難である。その結果、不慣れな操作者がジェスチャ操作した場合、ズーム量が極端に大きくまたは小さく設定される。そこで、潰れやモザイク化する直前のズーム率を設定することで、ズーム率の迅速な設定が可能となり、操作性を向上させることができる。
<第2の実施の形態>
[オブジェクトのズーム処理2]
図6の実施の形態においては、表示情報に欠陥があると、常にズーム率が変更される。しかし、ユーザーによっては、表示情報の多少の欠陥の発生を許容する場合がある。このような要請に応えるために、ユーザーに表示情報の表示条件を予め登録させておくことができる。登録された表示条件が、表示情報の潰れやモザイク化を許容していない場合、図6における場合と同様の処理が実行される。しかし、登録された表示条件が、表示情報の潰れやモザイク化を許容している場合、ユーザーにより指定されたズーム率でズームが行われる。以下、図13を参照して、この場合のオブジェクトズーム処理について説明する。
図13は、オブジェクトのズーム処理を説明するフローチャートである。図13のステップS61乃至ステップS75の処理は、図6のステップS21乃至ステップS32の処理と、基本的に同様の処理である。異なっているのは、図6のステップS24とステップS25に対応する図13のステップS64とステップS66の間に、ステップS65が挿入されている点である。また、図6のステップS25とステップS26に対応する図13のステップS66とステップS68の間に、ステップS67が挿入されている点が異なっている。さらに図6のステップS25とステップS29に対応する図13のステップS66とステップS72の間に、ステップS71が挿入されている点が異なっている。
図13においてステップS61乃至ステップS64の処理により、指定されたオブジェクトに対する第2のジェスチャ操作に基づくズーム率が演算された後、ステップS65において取得部208は、表示条件を取得する。この表示条件は、ユーザーにより予め登録されていたものであり、表示情報の潰れあるいはモザイク化を禁止するか、または許容するかを表している。
ステップS66において判定部205は、ステップS63で検出されたズーム操作、すなわち第2のジェスチャ操作は拡大と縮小のいずれであるかを判定する。縮小のズーム操作が行われた場合、ステップS67において判定部205は、表示情報の潰れが禁止されているかを判定する。この判定は、ステップS65で取得された表示条件に基づいて行われる。
表示情報の潰れが禁止されている場合、ステップS68乃至ステップS70、ステップS75の処理が実行される。すなわち、この場合の処理は、図6における場合と同様となり、表示情報が潰れる直前のズーム率でズームが行われる。
これに対して、表示情報の潰れが禁止されていない場合、ステップS68乃至ステップS70の処理は実行されず、直ちにステップS75の処理が実行される。従って、この場合、ステップS64で演算されたズーム率、すなわちユーザーが入力装置11を操作することで指定したズーム率でズームが行われる。
ステップS66において拡大のズーム操作が行われたと判定された場合、ステップS71において判定部205は、表示情報のモザイク化が禁止されているかを判定する。この判定は、ステップS65で取得された表示条件に基づいて行われる。
表示情報のモザイク化が禁止されている場合、ステップS72乃至ステップS75の処理が実行される。すなわち、この場合の処理は、図6における場合と同様となり、表示情報がモザイク化する直前のズーム率でズームが行われる。
これに対して、表示情報のモザイク化が禁止されていない場合、ステップS72乃至ステップS74の処理は実行されず、直ちにステップS75の処理が実行される。従って、この場合、ステップS64で演算されたズーム率、すなわちユーザーが入力装置11を操作することで指定したズーム率でズームが行われる。
このようにこの実施の形態の場合、ユーザーの意図が優先され、ユーザーが表示情報の潰れやモザイク化を許容していない場合、表示情報の潰れやモザイク化がおきる直前のズーム率でズームが行われる。これに対して、ユーザーが表示情報の潰れやモザイク化を許容している場合、ユーザーにより指定されたズーム率でズームが行われる。
<第3の実施の形態>
[EPG表示処理]
次にEPG(Electronic Program Guide)をズームする処理について説明する。
図14と図15は、EPG表示処理を説明するフローチャートである。以下、この図14と図15を参照して、EPG(電子番組ガイド)表示処理について説明する。
ユーザーはEPGを操作する場合、ポインティングモードを設定するために、図10に示されるような第3のジェスチャ操作をする。このジェスチャに対応する遠隔制御信号を受信すると、ステップS201において設定部202は、ポインティングモードを設定する。これによりユーザーはポインタにより任意のオブジェクトを指定することが可能になる。
ステップS202において判定部205は、番組が指定されたかを判定する。すなわちユーザーは、入力装置11を操作して、ポインタ301により表示されている番組表から、所定の番組を選択する。番組が指定された場合、ステップS205において実行部210は、番組に対応する処理を実行する。具体的には、選択された番組が受信され、表示部54に表示される。
番組が指定されない場合、ステップS203において判定部205は、ズームポイントがポインティングされたかを判定する。ズームポイントがポインティングされない場合、ステップS204において判定部205は、一定時間が経過したか、すなわち、無操作の時間が一定時間に達したかを判定する。予め設定された一時間がまだ経過していないとき、処理はステップS202に戻り、それ以降の処理が繰り返される。一定時間が経過したとき、処理は終了される。
ユーザーはEPGをズームする場合、入力装置11を操作して、ズームポイントを指定する。ズームポイントとは、ズームする範囲を規定する基準点である。すなわちEPGが表示されている表示部54の画面内の、ズームする基準の位置がポインタにより指定される。ズームポイントの指定がオブジェクトとしてEPGを指定したことを意味する。ズームポイント指定の遠隔制御信号を受信すると、ステップS206において設定部202は、ズームポイントを設定する。
次にユーザーは、入力装置11で第1のジェスチャ操作をする。第1のジェスチャに対応する遠隔制御信号を受信すると、ステップS207において、設定部202はズームモードを設定する。このときポインティングモードは解除される。さらにユーザーは、図9に示されるような第2のジェスチャ操作をする。ステップS208において検出部203は、第2のジェスチャに基づくズーム操作を検出する。ステップS209において演算部204は、ズーム率を演算する。すなわち、ステップS208で検出された第2のジェスチャ操作に基づくズーム率が演算される。
ステップS210において抽出部209は、ズームポイントに対応する仮想平面の領域を抽出する。以下、図16乃至図21を参照して、この仮想平面の領域を抽出する処理について説明する。
図16は、ズームポイントを説明する図である。説明の便宜上、図示は省略されているが、表示部54にはEPGが表示されている。ポインタ301によりズームポイントP11が指定される。図16においては、ズームポイントP11の水平方向の位置は、表示部54の水平方向の辺に対する分割の割合がa対bとなる点である。また、ズームポイントP11の垂直方向の位置は、表示部54の垂直方向の辺に対する分割の割合がc対dとなる点である。
図17は、仮想平面と抽出された領域を説明する図である。ズームポイントP11が図16に示されるように指定されると、図17に示されるように、仮想平面311から所定の領域312が抽出される。図17において仮想平面311は、EPGが仮想的に存在する範囲を表し、領域312は仮想平面311のうちの、ポイントP12を基準(いまの場合、中心)とする範囲であって、表示部54に示される範囲を表す。
仮想平面311上の仮想点であるポイントP12は、表示部54上のズームポイントP11に対応する点であり、領域312はポイントP12を基準とする表示部54に対応する大きさの領域である。図17に示されるように、ポイントP12の仮想平面311の水平方向の辺に対する分割の割合がA対Bであり、垂直方向の辺に対する分割の割合がC対Dであるとするとき、A:B=a:b、かつ、C:D=c:dとされる。すなわち、仮想領域311上のポイントP12は、表示部54上のズームポイントP11の位置に対応する位置とされる。
図18は、ズームポイントを説明する図である。図18に示される例では、ズームポイントP21の水平方向の位置は、表示部54の水平方向の辺に対する分割の割合がa対bとなる点である。また、ズームポイントP21の垂直方向の位置は、表示部54の垂直方向の辺に対する分割の割合がc対dとなる点である。
図19は、仮想平面と抽出された領域を説明する図である。ズームポイントP21が図18に示されるように指定されると、図19に示されるように、ズームポイントP21に対応するポイントP22を基準とする領域312が、仮想平面311から抽出される。ポイントP22の仮想平面311の水平方向の辺に対する分割の割合はA対Bであり、垂直方向の辺に対する分割の割合はC対Dである。そして、A:B=a:b、かつ、C:D=c:dである。
ただし、図19に示されるように、ポイントP22を中心とする、表示部54の大きさに対応する範囲の領域312の一部は、仮想平面311の外部にはみ出してしまう。仮想平面311の外部にはEPGは存在しない。そこでこの場合、抽出する領域が仮想平面311からはみ出さなくなるように、ポイントP22の外部にはみ出す方向の位置に対して補正処理が行われる。
すなわち、図19に示されるように、ポイントP22の垂直方向の辺に対する分割の割合が、C対DからC’対D’に変更される。その結果、ポイントP22が、ポイントP22’に修正され、抽出される領域312が、表示部54に対応する大きさの、ポイントP22’を中心とする領域312’に修正される。これにより領域312’のはみ出す方向の辺(図19の例の場合、上辺)が、仮想平面311の上辺と一致し、領域312’のすべてが仮想平面311内の領域となる。
図20は、ズームポイントを説明する図である。図20に示される例では、ズームポイントP31の垂直方向の位置は、表示部54の垂直方向の辺に対する分割の割合がc対dとなる点である。また、ズームポイントP31の水平方向の位置は、表示部54の水平方向の辺に対する分割の割合がa対bとなる点である。
図21は、仮想平面と抽出された領域を説明する図である。ズームポイントP31が図20に示されるように指定されると、図21に示されるように、ズームポイントP31に対応するポイントP32を中心とする領域312が、仮想平面311から抽出される。ポイントP32の仮想平面311の水平方向の辺に対する分割の割合はA対Bであり、垂直方向の辺に対する分割の割合はC対Dである。そして、A:B=a:b、かつ、C:D=c:dである。
ただし、図21に示されるように、ポイントP32を中心とする、表示部54の大きさに対応する範囲の領域312の一部は、仮想平面311の外部にはみ出してしまう。そこで、抽出する領域が仮想平面311からはみ出さなくなるように、ポイントP32の外部にはみ出す方向の位置に対して補正処理が行われる。
すなわち、図21に示されるように、ポイントP32の水平方向の辺に対する分割の割合が、A対BからA’対B’に変更される。その結果、ポイントP32が、ポイントP32’に修正され、抽出される領域312が、表示部54に対応する大きさの、ポイントP32’を中心とする領域312’に修正される。これにより領域312’のはみ出す方向の辺(図19の例の場合、右辺)が、仮想平面311の右辺と一致し、領域312’のすべてが仮想平面311内の領域となる。
抽出する領域が仮想平面311の2つの辺からはみ出す場合には、それぞれの方向に対する補正処理が行われる。
ただし、仮想平面311に表示されているのはEPGであり、その性質上、チャンネルと時間帯で構成されるブロックが単位とされる。そこで、チャンネルと時間帯のうちの少なくとも一方の軸では、整数個のブロックが配置される領域が、抽出されるようにしてもよい。
図14と図15の説明に戻る。以上のようにして、ステップS210においてズームポイントに対応する領域の抽出処理が行われた後、ステップS211において判定部205は、ズーム操作は拡大と縮小のいずれであるかを判定する。上述したように、入力装置11が手前側と奥行き方向のいずれの方向に移動されたかが判定される。
入力装置11が手前側に移動した場合、すなわち縮小が指示された場合、ステップS212において検知部206は、表示情報を認識し、その欠陥を検知する。いまの場合、オブジェクトに表示されている表示情報としての文字の潰れが検知される。
ステップS213において判定部205は、ステップS212の検知処理の結果に基づいて、表示情報としての文字が潰れたかを判定する。
文字が潰れたと判定された場合、ステップS214において演算部204は、ズーム率を大きくする。すなわち、ステップS209で演算されたズーム率ZRで縮小した場合のオブジェクトの大きさをOSとするとき、オブジェクトがそれより大きい大きさOS(>OS)となるように、ズーム率が値ZRより1ステップだけ大きい値ZR(=ZR+1)に変更される。
ステップS212において検知部206は、ステップS214で設定されたズーム率ZRでオブジェクトを縮小した場合の文字の潰れを検知する。ステップS213において判定部205は、ステップS212の検知処理の結果に基づいて、文字が潰れたかを判定する。
以上のステップS212乃至ステップS214の処理が繰り返される結果、文字が潰れる直前のズーム率ZRが求められる。そして、文字が潰れる直前のズーム率ZRが求められると、ステップS218においてズーム部207は、求められたズーム率ZRで、指定されたオブジェクトをズームする。その結果、ユーザーは、迅速に、オブジェクトの大きさを、表示されている表示情報としての文字を確認することができる最小の大きさにすることができる。
ステップS211において拡大のズーム操作がなされたと判定された場合、すなわち、入力装置11が奥行き側に移動された場合、ステップS215において検知部206は、表示情報の欠陥を検知する。いまの場合、オブジェクトに表示されている表示情報としての文字のモザイク化が検知される。
ステップS216において判定部205は、ステップS215の検知処理の結果に基づいて、文字がモザイク化したかを判定する。
文字がモザイク化したと判定された場合、ステップS217において演算部204は、ズーム率を小さくする。すなわち、ステップS209で演算されたズーム率ZRで拡大した場合のオブジェクトの大きさをOSとするとき、オブジェクトがそれより小さい大きさOS(<OS)となるように、ズーム率が値ZRより1ステップだけ小さい値ZR(=ZR−1)に変更される。
ステップS215において検知部206は、ステップS217で設定されたズーム率ZRでオブジェクトを拡大した場合の表示情報の欠陥を検知する。具体的には、文字のモザイク化を検知する。ステップS216において判定部205は、ステップS215の検知処理の結果に基づいて、文字がモザイク化したかを判定する。
以上のステップS215乃至ステップS217の処理が繰り返される結果、文字がモザイク化する直前のズーム率ZRが求められる。そして、文字がモザイク化する直前のズーム率ZRが求められると、ステップS218においてズーム部207は、求められたズーム率ZRで、指定されたオブジェクトをズームする。その結果、ユーザーは、迅速に、オブジェクトの大きさを、表示されている文字を適正に確認することができる最大の大きさにすることができる。
ステップS218の処理の後、処理はステップS202に戻り、それ以降の処理が実行される。
図22は、ズーム前のEPGの表示例を表す図である。図23は、ズーム後のEPGの表示例を表す図である。
図22に示されるように、表示部54にはEPGが表示されている。画面の上側には、水平方向に、テレビジョン放送のチャンネルの番号1,3,4,6,8,10,12が表示されている。画面の左側には、垂直方向に、時刻4:00,5:00,6:00,・・・,23:00,24:00が表示されている。図示は省略されているが、各チャンネルの各時間帯には、対応する番組のタイトルなどの情報が表示されている。
図22においては、ポインタ301が位置する点がズームポイントP41として指定されている。ズームポイントP41は、チャンネル10の時間帯4:00で指定されるブロックの左側に位置している。このような状態で、所定量のズーム操作(拡大操作)が行われると、図23に示されるように、時間帯4:00 〜5:00で、チャンネル8,10で指定されるブロックが拡大して表示される。すなわち、時間帯4:00のチャンネル8で放送されている番組に関する情報、および時間帯4:00のチャンネル10で放送されている番組に関する情報が表示される。さらに、時間帯5:00のチャンネル8で放送されている番組に関する情報、および時間帯5:00のチャンネル10で放送されている番組に関する情報が表示される。
この実施の形態の場合、チャンネルと時間帯の両方の軸で、整数個のブロックが配置するように表示されている。ただし、チャンネルの表示範囲は拡大されず、全てのチャンネルの番号1,3,4,6,8,10,12が表示されている。これに対して、時間帯の表示範囲は拡大され、全ての時間帯ではなく、4:00と5:00の時間帯の数字のみが表示されている。
図24は、ズーム後のEPGの表示例を表す図である。図24においては、時間帯の表示範囲だけでなく、チャンネルの表示範囲も拡大されている。すなわち、時間帯の表示範囲としては、全ての時間帯ではなく、4:00と5:00の時間帯の数字のみが表示されている。また、チャンネルの表示範囲としては、全てのチャンネルではなく、8と10のチャンネルの数字のみが表示されている。
このように、拡大表示させることで、ユーザーは番組情報を確実に確認することができる。
図25は、ズーム後のEPGの表示例を表す図である。図22に示される状態からのズームの操作量がさら大きい場合、すなわち、より大きく表示させるための操作が行われた場合、図25に示されるように、時間帯4:00のチャンネル10の1個のブロックの番組情報のみが表示される。
ただし、図22に示されるように表示すると文字が潰れる場合、表示方法の潰れが禁止されているのであれば、チャンネルと時間帯のより狭い範囲が表示される。また、図25に示されるように表示すると文字がモザイク化する場合、表示方法のモザイク化が禁止されているのであれば、図23または図24に示されるように、チャンネルと時間帯のより広い範囲が表示される。
[変形例]
以上においては、画像表示装置12をテレビジョン受像機としたが、パーソナルコンピュータその他の情報処理装置にも、本発明は適用することが可能である。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 情報処理システム, 11 入力装置, 12 画像表示装置, 31 加速度センサー, 32 角速度センサー, 33 ボタン, 34 演算部, 35 通信部, 36,51 アンテナ, 52 通信部, 53 演算部, 54 表示部, 101 取得部, 102 送信部,201 指定部, 202 設定部, 203 検出部, 204 演算部, 205 判定部, 206 検知部, 207 ズーム部, 208 取得部, 209 抽出部, 210 実行部

Claims (9)

  1. オブジェクトを指定する指定部と、
    ユーザーにより指定されたズーム率で前記オブジェクトをズームした場合における前記オブジェクトの少なくとも一部の閾値を越えた変化を検知する検知部と、
    指定された前記ズーム率で前記オブジェクトをズームすると、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する場合、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する直前の前記ズーム率で前記オブジェクトをズームし、指定された前記ズーム率で前記オブジェクトをズームしても、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生しない場合、指定された前記ズーム率で前記オブジェクトをズームするズーム部と
    を備える情報処理装置。
  2. 前記ズーム率は、入力装置が3次元空間でジェスチャ操作された場合に発生される遠隔制御信号により指定される
    請求項1に記載の情報処理装置。
  3. 前記オブジェクトの少なくとも一部の閾値を越えた変化は、前記オブジェクトの潰れまたはモザイク化である
    請求項2に記載の情報処理装置。
  4. 前記オブジェクトが潰れるかまたはモザイク化する直前の前記ズーム率は、前記オブジェクトに表示されている文字、図形または顔を認識することにより決定される
    請求項3に記載の情報処理装置。
  5. 前記入力装置の前記ジェスチャ操作を検出する検出部と、
    検出された前記ジェスチャ操作に基づいて前記ズーム率を演算する演算部と
    をさらに備える請求項4に記載の情報処理装置。
  6. 前記ズーム部は、前記オブジェクト上のズームする基準点が指定された場合、前記基準点が対応する仮想平面上おける仮想点を基準とする所定の範囲をズームする
    請求項5に記載の情報処理装置。
  7. 前記仮想点を中心とする所定の範囲を拡大すると、拡大した範囲の上下左右の端部が、前記仮想平面の外に位置することになる場合、前記仮想平面内の画像が拡大されるように前記仮想平面上おける前記仮想点の位置が補正される
    請求項6に記載の情報処理装置。
  8. 指定部と、
    検知部と、
    ズーム部とを備え、
    前記指定部は、オブジェクトを指定し、
    前記検知部は、ユーザーにより指定されたズーム率で前記オブジェクトをズームした場合における前記オブジェクトの少なくとも一部の閾値を越えた変化を検知し、
    前記ズーム部は、指定された前記ズーム率で前記オブジェクトをズームすると、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する場合、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する直前の前記ズーム率で前記オブジェクトをズームし、指定された前記ズーム率で前記オブジェクトをズームしても、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生しない場合、指定された前記ズーム率で前記オブジェクトをズームする
    情報処理方法。
  9. コンピュータを、
    オブジェクトを指定する指定手段と、
    ユーザーにより指定されたズーム率で前記オブジェクトをズームした場合における前記オブジェクトの少なくとも一部の閾値を越えた変化を検知する検知手段と、
    指定された前記ズーム率で前記オブジェクトをズームすると、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する場合、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生する直前の前記ズーム率で前記オブジェクトをズームし、指定された前記ズーム率で前記オブジェクトをズームしても、前記オブジェクトの少なくとも一部に閾値を越えた変化が発生しない場合、指定された前記ズーム率で前記オブジェクトをズームするズーム手段
    として機能させるためのプログラム。
JP2009103828A 2009-04-22 2009-04-22 情報処理装置および方法、並びにプログラム Withdrawn JP2010257037A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009103828A JP2010257037A (ja) 2009-04-22 2009-04-22 情報処理装置および方法、並びにプログラム
US12/758,104 US8698846B2 (en) 2009-04-22 2010-04-12 Information processing apparatus, method, and program
CN201010151707.4A CN101872607B (zh) 2009-04-22 2010-04-15 信息处理装置、方法
US14/185,187 US8952993B2 (en) 2009-04-22 2014-02-20 Information processing apparatus, method, and program
US14/537,775 US20150062009A1 (en) 2009-04-22 2014-11-10 Information processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009103828A JP2010257037A (ja) 2009-04-22 2009-04-22 情報処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2010257037A true JP2010257037A (ja) 2010-11-11

Family

ID=42991753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009103828A Withdrawn JP2010257037A (ja) 2009-04-22 2009-04-22 情報処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (3) US8698846B2 (ja)
JP (1) JP2010257037A (ja)
CN (1) CN101872607B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253493A (ja) * 2010-06-04 2011-12-15 Sony Corp 操作端末装置、電子機器、および電子機器システム
JP2013541110A (ja) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド ジェスチャベースの入力のスケーリング
JP2014002719A (ja) * 2012-06-20 2014-01-09 Samsung Electronics Co Ltd 遠隔制御装置、ディスプレイ装置およびその制御方法
US8988342B2 (en) 2012-06-20 2015-03-24 Samsung Electronics Co., Ltd. Display apparatus, remote controlling apparatus and control method thereof
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257037A (ja) 2009-04-22 2010-11-11 Sony Corp 情報処理装置および方法、並びにプログラム
EP2395413B1 (en) * 2010-06-09 2018-10-03 The Boeing Company Gesture-based human machine interface
US9007304B2 (en) * 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
KR101830962B1 (ko) * 2010-12-29 2018-02-22 삼성전자주식회사 휴대용 단말기에서 출력 화면을 제어하기 위한 장치 및 방법
FR2985583B1 (fr) * 2012-01-06 2014-01-17 Movea Dispositif de commande gestuelle d'un systeme, et procede associe
DE102012003297A1 (de) * 2012-02-18 2013-08-22 Abb Technology Ag Verfahren zur Anpassung der graphischen Darstellung auf der Bedienoberfläche einer Computeranwenderstation
TWI520595B (zh) * 2013-03-11 2016-02-01 緯創資通股份有限公司 電子節目表的提供方法、多媒體重現系統和電腦可讀取記錄媒體
US10296104B2 (en) * 2016-02-16 2019-05-21 Seiko Epson Corporation Display device, method of controlling display device, and program
WO2018136057A1 (en) * 2017-01-19 2018-07-26 Hewlett-Packard Development Company, L.P. Input pen gesture-based display control
CN106909301B (zh) * 2017-02-13 2020-08-11 北京安云世纪科技有限公司 一种调整触控标识对象的方法及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6320599B1 (en) * 1998-05-11 2001-11-20 Sony Corporation Zooming scale indicator in computer graphics
US6625328B2 (en) * 2001-12-27 2003-09-23 Anvik Corporation Text-moire' minimization
JP3973602B2 (ja) * 2002-07-10 2007-09-12 株式会社リコー 画像処理装置、画像処理方法及びソフトウェアプログラム
US7720302B2 (en) * 2003-09-25 2010-05-18 Fujifilm Corporation Method, apparatus and program for image processing
KR20050037725A (ko) * 2003-10-20 2005-04-25 삼성테크윈 주식회사 휴대용 디지털 장치에서 영상을 디스플레이하는 방법, 및이 방법을 사용한 휴대용 디지털 장치
US7262783B2 (en) * 2004-03-03 2007-08-28 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
JP2005332383A (ja) * 2004-04-23 2005-12-02 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
US7920172B2 (en) * 2005-03-07 2011-04-05 Dxo Labs Method of controlling an action, such as a sharpness modification, using a colour digital image
JP4696612B2 (ja) 2005-03-16 2011-06-08 富士ゼロックス株式会社 表示制御装置およびその表示画面の縮小方法
CN101042300B (zh) * 2006-03-24 2014-06-25 株式会社电装 画面显示装置
JP5129478B2 (ja) * 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
US7742624B2 (en) * 2006-04-25 2010-06-22 Motorola, Inc. Perspective improvement for image and video applications
KR100764698B1 (ko) * 2006-08-07 2007-10-08 삼성전자주식회사 카메라 영상의 패턴인식과 해석에 의한 휴대 단말기의사용자 인터페이스 제어 방법 및 그 단말기
US7640975B2 (en) * 2007-08-01 2010-01-05 Halliburton Energy Services, Inc. Flow control for increased permeability planes in unconsolidated formations
US9335912B2 (en) * 2007-09-07 2016-05-10 Apple Inc. GUI applications for use with 3D remote controller
JP5188138B2 (ja) * 2007-10-15 2013-04-24 キヤノン株式会社 像ぶれ補正装置を有する光学機器
KR101474303B1 (ko) * 2008-04-21 2014-12-18 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
US20100077341A1 (en) * 2008-09-22 2010-03-25 Yahoo! Inc. Smart content presentation
US8096475B2 (en) * 2008-10-16 2012-01-17 Symbol Technologies, Inc. Handheld data capture terminal operable in different data capture modes depending on terminal orientation
JP2010257037A (ja) 2009-04-22 2010-11-11 Sony Corp 情報処理装置および方法、並びにプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253493A (ja) * 2010-06-04 2011-12-15 Sony Corp 操作端末装置、電子機器、および電子機器システム
US9210459B2 (en) 2010-06-04 2015-12-08 Sony Corporation Operation terminal, electronic unit, and electronic unit system
JP2013541110A (ja) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド ジェスチャベースの入力のスケーリング
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
JP2014002719A (ja) * 2012-06-20 2014-01-09 Samsung Electronics Co Ltd 遠隔制御装置、ディスプレイ装置およびその制御方法
US8988342B2 (en) 2012-06-20 2015-03-24 Samsung Electronics Co., Ltd. Display apparatus, remote controlling apparatus and control method thereof
US9223416B2 (en) 2012-06-20 2015-12-29 Samsung Electronics Co., Ltd. Display apparatus, remote controlling apparatus and control method thereof

Also Published As

Publication number Publication date
US20100271400A1 (en) 2010-10-28
CN101872607A (zh) 2010-10-27
US8698846B2 (en) 2014-04-15
US8952993B2 (en) 2015-02-10
US20150062009A1 (en) 2015-03-05
CN101872607B (zh) 2014-09-24
US20140168275A1 (en) 2014-06-19

Similar Documents

Publication Publication Date Title
JP2010257037A (ja) 情報処理装置および方法、並びにプログラム
US11651471B2 (en) Display device, computer program, and computer-implemented method
JP4725526B2 (ja) 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム
JP6144242B2 (ja) 3dリモートコントローラ用のguiアプリケーション
KR101148484B1 (ko) 입력 장치
US20110083112A1 (en) Input apparatus
US8558787B2 (en) Input device and method, information processing device and method, information processing system, and program
US20090262187A1 (en) Input device
EP2268005A2 (en) Display apparatus for providing a user menu and method for providing user interface (ui) applicable thereto
US10051244B2 (en) Display image formation device and display image formation method
US20110072399A1 (en) Method for providing gui which generates gravity map to move pointer and display apparatus using the same
JP2011081506A (ja) 映像表示装置、および、その表示制御方法
US9201515B2 (en) Device and system and method for interacting with target in operation area
KR20120016585A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US20180004314A1 (en) Information processing apparatus, information processing terminal, information processing method and computer program
JP6145738B2 (ja) 表示装置及びコンピュータプログラム
JP2008181198A (ja) 画像表示システム
JP2008181199A (ja) 画像表示システム
US10705698B2 (en) Executing functions associated with icons having overlapping areas
JP5919570B2 (ja) 画像表示装置及び画像表示方法
CN107111930B (zh) 显示装置及其控制方法
JP2018160903A (ja) 表示装置及びコンピュータプログラム
JP6811406B2 (ja) 表示装置及びコンピュータプログラム
JP6344670B2 (ja) 表示装置及びコンピュータプログラム
KR101017098B1 (ko) 휴대 단말 장치에서 그래픽 사용자 인터페이스를 위한 이미지를 디스플레이하는 장치 및 방법

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120703