JP2013008326A - Image processing device and control method therefor - Google Patents
Image processing device and control method therefor Download PDFInfo
- Publication number
- JP2013008326A JP2013008326A JP2011142244A JP2011142244A JP2013008326A JP 2013008326 A JP2013008326 A JP 2013008326A JP 2011142244 A JP2011142244 A JP 2011142244A JP 2011142244 A JP2011142244 A JP 2011142244A JP 2013008326 A JP2013008326 A JP 2013008326A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- touch
- image
- type
- display screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、マルチタッチ操作により、入力操作を行う画像処理に関する。 The present invention relates to image processing for performing an input operation by a multi-touch operation.
近年、表示画面と一体に構成したタッチパネルを操作入力部とし、画面上に表示したグラフィカルユーザーインターフェース(GUI)部材をタッチ操作させる情報処理装置が普及している。特に、デジタルカメラや携帯電話等の小型の情報処理装置はハード操作部材を配置するエリアが限られるため、GUI部材の表示切り替えによって多くの操作項目に対応できるタッチパネルが多く利用されている。
近年ではマルチタッチ操作可能な機器が増加し、特許文献1で提案されているようなタッチパネルを複数の指でタッチした状態での回転操作により、地図を回転させる操作がある。具体的には検出したユーザーによる回転操作の回転角度で地図を回転することで実現している。
2. Description of the Related Art In recent years, information processing apparatuses that use a touch panel configured integrally with a display screen as an operation input unit and perform a touch operation on a graphical user interface (GUI) member displayed on the screen have become widespread. In particular, since a small information processing apparatus such as a digital camera or a mobile phone has a limited area for placing hardware operation members, a touch panel that can handle many operation items by switching display of GUI members is often used.
In recent years, devices capable of multi-touch operation have increased, and there is an operation of rotating a map by a rotation operation in a state where a touch panel as proposed in Patent Document 1 is touched with a plurality of fingers. Specifically, this is realized by rotating the map at the detected rotation angle of the rotation operation by the user.
一方、画像処理により所望の画像を得るためには、画像処理の内容を画面上で確認しながら、画像処理の種類の選択・処理量の調整を、所望の領域に対して一連の操作で簡便に行う必要がある。
しかしながら、従来技術では、画像処理の種類の選択と処理量の調整を一連の操作で行うことができないという課題があった。
本発明は上記課題を鑑みてなされたものであり、マルチタッチ操作により、画像処理の種類の選択と処理量の調整の操作性を向上させることを目的とする。
On the other hand, in order to obtain a desired image by image processing, it is easy to select the type of image processing and adjust the processing amount with a series of operations on the desired area while checking the contents of the image processing on the screen. Need to be done.
However, the conventional technique has a problem in that selection of the type of image processing and adjustment of the processing amount cannot be performed by a series of operations.
The present invention has been made in view of the above problems, and an object of the present invention is to improve the operability of selecting the type of image processing and adjusting the processing amount by a multi-touch operation.
上記の目的を達成する、本発明の画像処理装置は、表示画面上の2点のタッチを認識する認識手段と、前記認識した2点のタッチの距離に基づいて、画像処理の種類を選択する選択手段と、前記2点のタッチのうち、1点のタッチを回転の中心とし、もう一方のタッチの移動により得られる回転角度を取得し、前記回転角度より、処理量を算出する算出手段と、前記画像処理の種類と前記処理量に基づいて、前記表示画面上に表示されている画像に対して、画像処理を行う画像処理手段を有することを特徴とする。 An image processing apparatus according to the present invention that achieves the above object selects a type of image processing based on a recognition means for recognizing two touches on a display screen and a distance between the two touches recognized. Selecting means; and calculating means for obtaining a rotation angle obtained by moving one touch of the two touches and moving the other touch, and calculating a processing amount from the rotation angle; And image processing means for performing image processing on the image displayed on the display screen based on the type of image processing and the processing amount.
本発明によれば、マルチタッチ操作により、画像処理の種類の選択と処理量の調整の操作性が向上する。 According to the present invention, the multi-touch operation improves the operability of selecting the type of image processing and adjusting the processing amount.
<実施形態1>
以下、図面を参照して、本発明の実施形態を説明する。
<Embodiment 1>
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施形態における画像処理装置100のブロック図である。画像処理装置100は、表示部11、タッチパネル部12、表示制御部13、保持部14、算出部15、操作認識部16、画像処理部17有する。
FIG. 1 is a block diagram of an
表示制御部13は、画像処理部17で画像処理が行われた画像や、保持部14で保持している画像を、表示部11へ表示制御を行う。操作認識部16は、タッチパネル部12上で操作されたタッチや回転操作などの認識を行う。算出部15は、操作認識部16で認識した第一のタッチと第二のタッチとの間の距離の算出を行う。ここで、操作認識部16が、最初にタッチを検出した点を、第一のタッチ点とし、2番目にタッチを検出した点を、第二のタッチ点とする。また、算出部15は、操作認識部16で認識した回転操作の回転角度を算出する。画像処理部17は、表示部11に表示された画像を領域ごとに分割したり、距離に基づいて画像処理の種類を特定したり、回転操作の角度に基づいて画像処理を行ったりする。保持部14は、画像や、後述する対応表などを保持している。
The
本実施形態では、表示部11とタッチパネル部12は、タッチパネルディスプレイとして一体に構成される。また、タッチパネル部12は、マルチタッチが可能なパネルであるとする。
In the present embodiment, the
図5は、画像処理装置100におけるフローチャートである。
FIG. 5 is a flowchart in the
ステップS502において、表示制御部13は、保持部14より画像データを読み出し、表示部11上に表示する。ステップS503において、操作認識部16が、ユーザーによる第一のタッチを認識する。ステップS504において、画像処理部17が、表示画面上に表示されている画像データを2以上の領域に分割する。ステップS505において、画像処理部17は、ステップS504で分割された領域のうち、第一のタッチ点が含まれる領域を、画像処理を実施する領域として設定する。ステップS506において、表示制御部13がユーザーによる第一のタッチが含まれる領域と含まれない領域をユーザーが識別可能となるように表示制御を行う。ステップS507において、操作認識部16が、ユーザーによる第二のタッチを認識する。このとき、ユーザーによる第一のタッチがなされたままの状態で、第二のタッチがなされた場合に、第二のタッチが認識されたとする。
In step S <b> 502, the
ステップS508において、算出部15が、第一のタッチ点と第二のタッチ点との距離を算出する。ステップS509において、画像処理部17は、2点間距離と後述する対応表に基づき、画像処理の種類を選択する。
In step S508, the
図4は、2点間距離と選択する画像処理の種類の対応表である。本実施形態では、画像処理の種類として、色調調整で扱う色成分を例として、説明する。また、2点間距離とは、第一のタッチの点Aと第二のタッチの点Bとの距離である。図4の対応表により、画像処理部17は、2点間距離ABが0<AB≦3cmのときは青色成分(B)、3<AB≦6cmのときは緑色成分(G)、6cm<ABのときは赤色成分(R)を画像処理の種類として選択する。2点間距離の小さい方から青色成分(B)、緑色成分(G)、赤色成分(R)が割りあてられており、可視光線の波長域が短い方から青色成分(B)、緑色成分(G)、赤色成分(R)という順序と一致している。そのため、ユーザーは赤色成分(R)の色調調整を行う場合は、2点間距離を大きくすれば良いと類推しやすく、直感的に機能を使い分けることが可能である。
FIG. 4 is a correspondence table between the distance between two points and the type of image processing to be selected. In the present embodiment, a color component handled in color tone adjustment will be described as an example of the type of image processing. The distance between two points is the distance between the point A of the first touch and the point B of the second touch. According to the correspondence table of FIG. 4, the
ステップS510において、操作認識部16が、ユーザーによる回転操作を認識する。回転操作を認識した場合は、ステップS511において、算出部15が、回転操作の回転角度を算出して、取得する。回転角度とは、2点のタッチのうち、1点のタッチを回転の中心とし、もう一方のタッチの移動により得られる角度である。
In step S510, the
ステップS512において、画像処理部17は、回転角度から、画像処理の処理量を求め、ステップS509で選択した画像処理を、実行する。このとき、ステップS505で設定された領域に対して、求めた処理量、画像処理を行う。ここで、画像処理を実行する際の処理量は、「回転角度×1度あたりの処理量」で求める。また、右回りへの回転の場合は、プラスに画像処理を施し、左回りへの回転の場合は、マイナスに画像処理を施す。尚、1度あたりの処理量は、保持部14に保持されている。
In step S512, the
ステップS513において、表示制御部13は、画像処理実施後の画像を表示部11上に表示する。ステップS514において、画像処理部17は、ユーザーによる第一のタッチ、第二のタッチが略同時に解消されてから一定時間経過するなどの所定の終了条件を充足するか判定する。終了条件を充足すると判定された場合は、ステップS515において、画像処理部17は、画像処理実施後の画像を保持部14に記憶し、フローを終了する。
In step S513, the
図6は、回転操作の説明図である。ここでは、第一のタッチ点を、親指でタッチされる点とし、第二のタッチ点を、人差し指でタッチされる点とする例を説明する。 FIG. 6 is an explanatory diagram of the rotation operation. Here, an example will be described in which the first touch point is a point touched with a thumb and the second touch point is a point touched with an index finger.
図6(a)は、表示部11の画面上に画像6001が表示された状態を示す。図6(b)は、ユーザーが画像6001のオブジェクト6002に、親指6012でタッチする様子を示す。親指6012とタッチパネル部12との接触点を点Aとする。図6(b)において、操作認識部16が、ユーザーの親指6012によるタッチパネル12上の第一のタッチを認識すると、画像処理部17が画面上に表示されている画像6001を領域6021と領域6022に分割する。
FIG. 6A shows a state in which an
本実施形態において、画像処理部17は、画素値の変化を分析することにより境界を検出し、画像を2以上の領域に分割する。撮像装置により撮影された写真画像の場合、主被写体は合焦しているため、他の領域より細部が明細となり、輝度周波数の高周波成分が分布する。一方、主被写体以外の部分はレンズ特性により、ぼかされて撮影されるため、高周波成分が存在しないことになる。また、主被写体と背景などを隔てる境界線は、一般に、隣接する画素間の輝度または彩度若しくは色調が、所定の値を超えて変化することに構成される。そこで、境界線で分割された部分ごとに輝度周波数の分布を測定し、高周波成分がまとまっている部分を他の部分より分割すれば、その部分を主被写体領域として分割することが可能である。
In the present embodiment, the
図6(c)は、第一のタッチ点を含まない領域6022にハッチングを施す例である。これにより、画像が領域分割されている状態であることをユーザーが識別可能とするだけでなく、どの領域が選択されているかを示すことができる。
FIG. 6C shows an example in which a
図6(d)は、ユーザーが親指6012をタッチしたまま、人差し指6013をタッチする様子を示す。人差し指6013とタッチパネル部12の接触点を点Bとする。親指6012による第一のタッチが継続されたまま、人差し指6013による第二のタッチを操作認識部16が認識すると、算出部15は点Aと点Bを結ぶ線分ABの距離を算出する。画像処理部17は、この線分ABの距離に応じて、選択された領域6021に対して行う画像処理の種類を選択する。
FIG. 6D shows a state where the user touches the
図6(d)において、2点間距離である線分ABの距離が4.5cmである場合は、対応表に基づいて、画像処理部17は色調調整で扱う色成分(画像処理の種類)を緑色成分(G)と選択する。
In FIG. 6D, when the distance of the line segment AB, which is the distance between two points, is 4.5 cm, based on the correspondence table, the color component (type of image processing) handled by the
図6(e)は、ユーザーが点Aを中心とした回転操作を行った図である。回転操作後、2本指での回転操作の回転角度に応じて色調調整が行われる。ここでは、回転操作は、親指6012(第一のタッチ)を中心に、人差し指6013(第二のタッチ)で円弧を描くように操作を行う場合を例に説明する。 FIG. 6E is a diagram in which the user performs a rotation operation around the point A. FIG. After the rotation operation, the color tone is adjusted according to the rotation angle of the rotation operation with two fingers. Here, the rotation operation will be described by taking as an example a case where an operation is performed so as to draw an arc with the index finger 6013 (second touch) around the thumb 6012 (first touch).
図6(f)は、回転角度を説明する図である。操作認識部16がユーザーによる2本指での回転操作を認識すると、算出部15は回転角度を算出する。回転操作の終点の人差し指6013のタッチ位置を点B’とすると、回転操作の回転角度は∠BAB’として算出される。本実施形態では、右回転は対象パラメータの増加、左回転は対象パラメータの減少に相当する入力操作として操作認識部16は認識する。
FIG. 6F is a diagram for explaining the rotation angle. When the
画像6001は、256階調のRGB値で表される色成分データを有するため、各色成分の値を増加・減少することで色調を調整することが可能である。
Since the
本実施形態では、選択する画像処理の種類として、色調調整の色成分を例に説明したが、これに限定されない。画像処理の種類としては、明るさ、コントラスト、彩度、グラデーション、ダイナミックレンジ、ぼかし量などの調整にも適用することができる。また、画像処理の種類は、画像データの数値を忠実に調整するものに限定されず、フィルター効果等の調整にも適用することができる。フィルター効果とは、画像に特殊な効果を加える機能であり、例えば、トイカメラ風、ジオラマ風といった画像を特殊レンズや画像加工ソフトでの複雑な作業を要さずに得られるものである。 In this embodiment, the color component for color tone adjustment has been described as an example of the type of image processing to be selected. However, the present invention is not limited to this. The types of image processing can be applied to adjustments such as brightness, contrast, saturation, gradation, dynamic range, and blurring amount. The type of image processing is not limited to the one that faithfully adjusts the numerical value of the image data, and can also be applied to adjustments such as a filter effect. The filter effect is a function for adding a special effect to an image. For example, an image such as a toy camera style or a diorama style can be obtained without requiring complicated work with a special lens or image processing software.
以上に説明したとおり、第一のタッチで画像処理を行う領域を指定し、第二のタッチの第一のタッチとの間隔を変化させることで、画像処理の種類を選択し、回転操作の回転角度で処理量をコントロールすることが可能となる。
画像処理装置100は、2点間距離による画像処理種類の選択、回転操作の回転角度によるパラメータ調整の操作の際に、補助表示を行うことが可能である。図3は、画像処理装置100が表示する補助表示例を示す図である。
As described above, the area for image processing is designated by the first touch, the interval between the second touch and the first touch is changed, the type of image processing is selected, and the rotation operation is rotated. The amount of processing can be controlled by the angle.
The
図3(a)は、2点間距離により画像処理種類の選択を行う際に表示する補助表示である。図3において、親指9012、人差し指9013の2点のタッチを操作認識部16が認識すると、算出部15が算出する線分ABの距離情報に基づき、表示制御部13が線分ABに沿って補助表示9031を表示するよう制御する。図3においては、線分ABが7cmであり、図4の対応表によれば、選択される画像処理の内容は赤色成分(R)であるため、補助表示9031の該当する部分が反転表示されている。ユーザーは補助表示を見ることで、現在どの画像処理の種類が選択されているかだけでなく、どれくらい指の間隔を変化させると、他の画像処理の種類に選択を変更できるかを知ることができる。
FIG. 3A is an auxiliary display displayed when selecting an image processing type based on a distance between two points. In FIG. 3, when the
図3(b)は、回転操作の回転角度によるパラメータ調整の操作の際に表示する補助表示である。図3(a)の状態から、操作認識部16が2点での回転操作を認識すると、算出部15が算出した線分ABの距離情報に基づき、表示制御部13が線分ABを直径とする円形の補助表示9032を表示するよう制御する。補助表示9032の表示については、回転操作によって調整される画像処理の種類に応じて変更するものとする。本実施形態では画像処理の種類として色調調整を例に説明を行っており、回転操作により色成分の数値の増減が調整される。補助表示9032のうち、回転操作の起点である点B近傍に現在の数値9101を表示する。さらに、左回転の操作を行うと数値を減少させる操作であることを示す数値9102、右回転の操作を行うと数値を増加させる操作であることを示す数値9103も表示する。これらの補助表示によって、ユーザーは操作方法を直感的に理解しやすい。扱う画像処理の種類によっては、回転操作の起点の近傍に現在の設定を表示し、その左右に操作によって調整される値を表示するように変更することも可能である。
FIG. 3B is an auxiliary display that is displayed in the parameter adjustment operation based on the rotation angle of the rotation operation. When the
このように、ユーザーが行わなければならない操作方法を類推しやすい補助表示を行うことで、画像処理装置の操作方法をより直感的に行う事が可能となる。 In this way, by performing the auxiliary display that makes it easy to infer the operation method that the user must perform, the operation method of the image processing apparatus can be performed more intuitively.
<変形例>
実施形態1では、画像中の領域分割を境界検出により行ったが、ユーザーの任意操作によって指定することも可能である。例えば、ユーザーがタッチパネル12上で被写体の縁を囲むようになぞり操作した軌跡を操作認識部16が認識し、画像処理部17が該軌跡の内側と外側の領域に画像を分割するよう制御することができる。ここで、なぞり操作とは、タッチしながら、タッチしている点を動かす操作である。
<Modification>
In the first embodiment, the region division in the image is performed by the boundary detection. However, it is possible to designate the region by an arbitrary operation by the user. For example, the
図7は、なぞり操作で領域を分割する例の説明図である。画像7001のうち、オブジェクト7002の外周を境に領域を分割する場合、図7(a)のように、ユーザーは人差し指7013でオブジェクト7002の外周をなぞり操作により領域を指定する。図7(b)のように、軌跡が閉じた図形として認識されると、画像処理部17は軌跡7031を境界とし、軌跡の内側と外側の領域に分割を行う。閉じた図形の認識には、なぞり操作の起点と終点が一致する、タッチ点が軌跡と交差する等、各種条件を設定することができる。また、閉じた図形の認識に、表示画面の枠を用いてもよい。
FIG. 7 is an explanatory diagram of an example of dividing an area by a tracing operation. In the case where an area of the
図7(c)は、なぞり操作により分割した領域に対し、第一のタッチ点Aを選択した際の図である。図7(c)は、図6(c)と同様、選択されなかった領域に、ハッチング処理を行っている。 FIG. 7C is a diagram when the first touch point A is selected for the region divided by the tracing operation. In FIG. 7C, as in FIG. 6C, the hatching process is performed on the unselected region.
図2は、なぞり操作により分割する領域を決定する際のS504の詳細フローチャートである。 FIG. 2 is a detailed flowchart of S504 when determining a region to be divided by the tracing operation.
S801において、操作認識部16が、画像7001を表示中にユーザーのなぞり操作を検出すると、操作認識部16は軌跡を記憶する。S802において、操作認識部16は該軌跡が閉じた図形であるかを判定する。該軌跡が閉じた図形と判定された場合はS803において、画像処理部17が該軌跡を境界とした領域の分割を行う。S803において閉じた図形でないと判定された場合は、S804において操作認識部16が、なぞり操作の始点と終点を結ぶ線分と軌跡7031で構成される線を領域分割の境界と認識する。
In step S <b> 801, when the
図7(d)は、被写体が画像中に収まっておらず、ユーザーが点Cを始点、点Dを終点とする軌跡7032を描いた場合の例である。閉じた図形の認識に、表示画面の枠も用いた場合は、軌跡7032と線分CDで構成される線を領域分割の境界と認識することができる。
FIG. 7D shows an example where the subject is not in the image and the user has drawn a
このように、ユーザーの任意操作により分割する領域を指定することで、境界検出で領域分割を行うことが難しい画像や、特定の領域のみに画像処理を行いたい場合などに対応することが可能となる。 In this way, by specifying the area to be divided by the user's arbitrary operation, it is possible to deal with images that are difficult to divide by boundary detection or when you want to perform image processing only on specific areas Become.
以上説明したように、本実施形態は、画像処理の内容を確認しながら、画像処理の種類の選択と処理量の調整を所望の領域に対して一連の操作で簡便に行うことができる。 As described above, according to the present embodiment, the type of image processing and the adjustment of the processing amount can be easily performed by performing a series of operations on a desired region while confirming the contents of the image processing.
なお、上述した実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。 Note that the processing of the above-described embodiment may provide a system or apparatus with a storage medium that records software program codes that embody each function. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading out and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれている。 The functions of the above-described embodiments are not only realized by executing the program code read by the computer. Including the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。 Further, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.
Claims (8)
前記認識した2点のタッチの距離に基づいて、画像処理の種類を選択する選択手段と、
前記2点のタッチのうち、1点のタッチを回転の中心とし、もう一方のタッチの移動により得られる回転角度を取得し、前記回転角度より、処理量を算出する算出手段と、
前記画像処理の種類と前記処理量に基づいて、前記表示画面上に表示されている画像に対して、画像処理を行う画像処理手段を有することを特徴とする画像処理装置。 Recognition means for recognizing two touch points on the display screen;
Selection means for selecting the type of image processing based on the recognized distance of the two touch points;
Calculating means for obtaining a rotation angle obtained by moving one touch of the two touches and moving the other touch, and calculating a processing amount from the rotation angle;
An image processing apparatus comprising image processing means for performing image processing on an image displayed on the display screen based on the type of image processing and the processing amount.
前記画像処理手段は、表示画面上に表示されている画像を、複数の領域に分割し、前記複数の領域のうち、前記第一のタッチが含まれる領域に対して、画像処理を行うことを特徴とする請求項1に記載の画像処理装置。 Of the two touches, the first touch is the first touch,
The image processing means divides an image displayed on a display screen into a plurality of regions, and performs image processing on a region including the first touch among the plurality of regions. The image processing apparatus according to claim 1, wherein:
選択手段が、前記認識した2点のタッチの距離に基づいて、画像処理の種類を選択する選択工程と、
算出手段が、前記2点のタッチのうち、1点のタッチを回転の中心とし、もう一方のタッチの移動により得られる回転角度を取得し、前記回転角度より、処理量を算出する算出工程と、
画像処理手段が、前記画像処理の種類と前記処理量に基づいて、前記表示画面上に表示されている画像に対して、画像処理を行う画像処理工程を有することを特徴とする画像処理装置の制御方法。 A recognition step for recognizing a touch of two points on the display screen;
A selection step in which the selection means selects the type of image processing based on the recognized distance of the two touch points;
A calculating step in which the calculation means obtains a rotation angle obtained by moving one touch of the two touches and moves the other touch, and calculates a processing amount from the rotation angle; ,
An image processing unit comprising: an image processing step of performing image processing on an image displayed on the display screen based on the type of image processing and the processing amount. Control method.
前記画像処理工程は、表示画面上に表示されている画像を、複数の領域に分割し、前記複数の領域のうち、前記第一のタッチが含まれる領域に対して、画像処理を行うことを特徴とする請求項5に記載の画像処理装置の制御方法。 Of the two touches, the first touch is the first touch,
The image processing step divides an image displayed on a display screen into a plurality of regions, and performs image processing on a region including the first touch among the plurality of regions. The method of controlling an image processing apparatus according to claim 5, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011142244A JP5769516B2 (en) | 2011-06-27 | 2011-06-27 | Image processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011142244A JP5769516B2 (en) | 2011-06-27 | 2011-06-27 | Image processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013008326A true JP2013008326A (en) | 2013-01-10 |
JP2013008326A5 JP2013008326A5 (en) | 2014-08-14 |
JP5769516B2 JP5769516B2 (en) | 2015-08-26 |
Family
ID=47675596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011142244A Active JP5769516B2 (en) | 2011-06-27 | 2011-06-27 | Image processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5769516B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014067239A (en) * | 2012-09-26 | 2014-04-17 | Brother Ind Ltd | Operation input processing program and operation input processing method |
JP2016015063A (en) * | 2014-07-03 | 2016-01-28 | クラリオン株式会社 | Information processing device and on-vehicle device |
US9361859B2 (en) | 2013-09-02 | 2016-06-07 | Kabushiki Kaisha Toshiba | Information processing device, method, and computer program product |
JP2016517649A (en) * | 2013-03-08 | 2016-06-16 | トムソン ライセンシングThomson Licensing | Method and apparatus for using gestures for shooting effects |
JP2016530659A (en) * | 2013-09-17 | 2016-09-29 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Simultaneous selection of range and value gestures |
US9589539B2 (en) | 2014-04-24 | 2017-03-07 | Kabushiki Kaisha Toshiba | Electronic device, method, and computer program product |
JP2017182632A (en) * | 2016-03-31 | 2017-10-05 | ブラザー工業株式会社 | Image processing program and information processing apparatus |
JP2018057038A (en) * | 2017-12-21 | 2018-04-05 | 株式会社ニコン | Electronic apparatus, image processing method, and image processing program |
JP2019505942A (en) * | 2016-02-22 | 2019-02-28 | ▲広▼州▲視▼▲叡▼▲電▼子科技有限公司Guangzhou Shirui Electronics Co., Ltd. | Touch operation method and system based on interactive electronic whiteboard |
JPWO2020095876A1 (en) * | 2018-11-05 | 2021-09-24 | 京セラドキュメントソリューションズ株式会社 | Image forming device, numerical counting method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07230352A (en) * | 1993-09-16 | 1995-08-29 | Hitachi Ltd | Touch position detecting device and touch instruction processor |
JP2004234661A (en) * | 2003-01-31 | 2004-08-19 | Xerox Corp | Secondary contact type menu navigation method |
JP2008502982A (en) * | 2004-06-17 | 2008-01-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Using two-finger input on a touch screen |
JP2011003074A (en) * | 2009-06-19 | 2011-01-06 | Sharp Corp | Input method, input device and electric apparatus |
US20110093821A1 (en) * | 2009-10-20 | 2011-04-21 | Microsoft Corporation | Displaying gui elements on natural user interfaces |
JP2011108180A (en) * | 2009-11-20 | 2011-06-02 | Sharp Corp | Electronic device, display control method and program |
-
2011
- 2011-06-27 JP JP2011142244A patent/JP5769516B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07230352A (en) * | 1993-09-16 | 1995-08-29 | Hitachi Ltd | Touch position detecting device and touch instruction processor |
JP2004234661A (en) * | 2003-01-31 | 2004-08-19 | Xerox Corp | Secondary contact type menu navigation method |
JP2008502982A (en) * | 2004-06-17 | 2008-01-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Using two-finger input on a touch screen |
JP2011003074A (en) * | 2009-06-19 | 2011-01-06 | Sharp Corp | Input method, input device and electric apparatus |
US20110093821A1 (en) * | 2009-10-20 | 2011-04-21 | Microsoft Corporation | Displaying gui elements on natural user interfaces |
JP2011108180A (en) * | 2009-11-20 | 2011-06-02 | Sharp Corp | Electronic device, display control method and program |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014067239A (en) * | 2012-09-26 | 2014-04-17 | Brother Ind Ltd | Operation input processing program and operation input processing method |
JP2019220207A (en) * | 2013-03-08 | 2019-12-26 | トムソン ライセンシングThomson Licensing | Method and apparatus for using gestures for shot effects |
JP2016517649A (en) * | 2013-03-08 | 2016-06-16 | トムソン ライセンシングThomson Licensing | Method and apparatus for using gestures for shooting effects |
US9361859B2 (en) | 2013-09-02 | 2016-06-07 | Kabushiki Kaisha Toshiba | Information processing device, method, and computer program product |
JP2016530659A (en) * | 2013-09-17 | 2016-09-29 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Simultaneous selection of range and value gestures |
US9589539B2 (en) | 2014-04-24 | 2017-03-07 | Kabushiki Kaisha Toshiba | Electronic device, method, and computer program product |
JP2016015063A (en) * | 2014-07-03 | 2016-01-28 | クラリオン株式会社 | Information processing device and on-vehicle device |
JP2019505942A (en) * | 2016-02-22 | 2019-02-28 | ▲広▼州▲視▼▲叡▼▲電▼子科技有限公司Guangzhou Shirui Electronics Co., Ltd. | Touch operation method and system based on interactive electronic whiteboard |
JP2017182632A (en) * | 2016-03-31 | 2017-10-05 | ブラザー工業株式会社 | Image processing program and information processing apparatus |
US10705697B2 (en) | 2016-03-31 | 2020-07-07 | Brother Kogyo Kabushiki Kaisha | Information processing apparatus configured to edit images, non-transitory computer-readable medium storing instructions therefor, and information processing method for editing images |
JP2018057038A (en) * | 2017-12-21 | 2018-04-05 | 株式会社ニコン | Electronic apparatus, image processing method, and image processing program |
JPWO2020095876A1 (en) * | 2018-11-05 | 2021-09-24 | 京セラドキュメントソリューションズ株式会社 | Image forming device, numerical counting method |
US11523011B2 (en) | 2018-11-05 | 2022-12-06 | Kyocera Document Solutions Inc. | Image forming apparatus and numerical value counting method |
JP7215488B2 (en) | 2018-11-05 | 2023-01-31 | 京セラドキュメントソリューションズ株式会社 | Image forming apparatus, numerical counting method |
Also Published As
Publication number | Publication date |
---|---|
JP5769516B2 (en) | 2015-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5769516B2 (en) | Image processing apparatus and control method thereof | |
US10547778B2 (en) | Image display device for displaying an image in an image display area, and storage medium storing image display program for displaying an image in an image display area | |
US9674425B2 (en) | Image acquisition method and apparatus | |
JP6886939B2 (en) | Information processing device control method, control program and information processing device | |
JP5197777B2 (en) | Interface device, method, and program | |
US9405463B2 (en) | Device and method for gesturally changing object attributes | |
US20180160053A1 (en) | Image processing device that changes extent of image altering by first and second image processing | |
US8542199B2 (en) | Image processing apparatus, image processing method, and program | |
JP2008250804A (en) | Image display device, image change control device, and image change program | |
KR102121905B1 (en) | Method and apparatus for setting background of ui control, and terminal | |
US9535604B2 (en) | Display device, method for controlling display, and recording medium | |
US10754446B2 (en) | Information processing apparatus and information processing method | |
WO2021243788A1 (en) | Screenshot method and apparatus | |
JP5654634B2 (en) | Wallpaper image installation method and digital media controller | |
EP2840517A2 (en) | Method and apparatus for managing images in electronic device | |
US11140306B2 (en) | Method for controlling monitoring camera, and monitoring system employing method | |
US11073974B2 (en) | Electronic device and operation method of parameter selection thereof | |
US20160321968A1 (en) | Information processing method and electronic device | |
JP2015046949A (en) | Display device and computer program | |
TWI653540B (en) | Display apparatus, projector, and display control method | |
JP5880459B2 (en) | Electronic device, display control method and program | |
JP5751276B2 (en) | Information processing apparatus, information processing method, and program | |
JP6406393B2 (en) | Display control apparatus, display control method, and program | |
US20240196093A1 (en) | Imaging apparatus, imaging apparatus control method, and program | |
JP2017204718A (en) | Imaging apparatus and zoom control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140626 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150623 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5769516 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |