WO2018123355A1 - User interface device and electronic device - Google Patents
User interface device and electronic device Download PDFInfo
- Publication number
- WO2018123355A1 WO2018123355A1 PCT/JP2017/041783 JP2017041783W WO2018123355A1 WO 2018123355 A1 WO2018123355 A1 WO 2018123355A1 JP 2017041783 W JP2017041783 W JP 2017041783W WO 2018123355 A1 WO2018123355 A1 WO 2018123355A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- control unit
- touch panel
- menu
- user interface
- display
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
Definitions
- the present invention relates to a user interface device and an electronic device.
- touch panels that can be easily and sensibly operated with a finger or the like have become widespread, and various studies and developments have been made on downsizing, thinning, lightening, power saving, and cost reduction of touch panels.
- a position where an instruction medium such as a finger touches the touch panel referred to as “touch position”
- a resistance film type that detects a change in electrical resistance
- a surface acoustic wave method that uses ultrasonic waves
- an electrostatic A capacitance method for detecting a change in capacitance is known.
- a capacitive touch panel is attracting attention in that it can detect a plurality of touch positions.
- the capacitive touch panel includes a transparent electrode that generates a capacitance and an external circuit that detects a change in the capacitance.
- a touch panel including a pressure-sensitive sensor capable of detecting a pressing force when the touch panel is pressed with a stylus pen, a finger, or the like is being provided.
- Patent Document 1 input determination by pressing on the input operation surface is performed based on a change in capacitance of the upper electrode and lower electrode of the pressure-sensitive sensor displaced by the top plate and the touch panel moving in the pressing direction.
- a technique for determining that an operation has been performed is disclosed.
- Patent Document 2 discloses a sensor device including a pressure-sensitive sensor that does not use an elastic member.
- Patent Document 3 an enlarged image in which an image displayed on the screen is enlarged at a predetermined enlargement display magnification according to the proximity of a finger to the screen is generated, and a part of the image becomes a locally enlarged image.
- a technique for displaying an image on a screen is disclosed.
- JP 2011-134000 A Japanese Unexamined Patent Publication No. 2011-100364 JP 2013-225261 A
- Touch panels are used in various electronic devices.
- an electronic device using a touch panel for example, there is a navigation device that is mounted on a car and displays a map, directions, and the like from the current position of the vehicle to a destination on a display panel.
- a navigation device requires a simple operation.
- the touch panel attached to the conventional navigation device has only a function of detecting the XY coordinates of the touch position, and it is inconvenient because a complicated operation must be performed by the user to obtain a desired result. .
- the pressure sensitive sensor is merely used in an auxiliary manner in order to reliably detect that a finger or the like has touched the touch panel. For this reason, even if it is the touch panel which applied the technique disclosed by patent document 1 and 2, operation itself is the same as that of the touch panel which does not have a conventional pressure-sensitive function, and the inconvenience of operation was not eliminated. . Moreover, since the operation using an external input device etc. is requested
- the present invention has been made in view of such a situation, and an object thereof is to make it possible to easily select a specific layer from a plurality of layers.
- a user interface device includes a display panel that displays an object, a display control unit that performs control to display an object on the display panel according to control information, a touch panel that performs a touch operation using an instruction medium, and a touch operation that is performed.
- a coordinate detector that detects the coordinates of the touch position of the touch panel and outputs coordinate detection information; a pressure sensor that outputs a sensor value that changes according to the pressing force applied to the touch panel by the pointing medium; and a sensor value ,
- a pressure sensitive detection unit that detects that a push-in operation in which the touch panel is pushed by the instruction medium is performed and outputs pressure sensitive detection information, a touch operation determined based on the coordinate detection information, and pressure sensitive Based on the gesture operation that combines the push operation determined based on the detection information, Outputs control information for displaying one layer selected from multiple layers related to the display panel to the display control unit, and determines the touch operation performed on the object through the one layer displayed on the display panel A control unit.
- An electronic apparatus includes the above-described user interface device and an electronic apparatus main body.
- the electronic device main body performs a predetermined process based on content instructed by a touch operation or a gesture operation input from the control unit, and outputs an object on which the predetermined process has been performed to the control unit of the user interface device.
- a user can appropriately change a layer by performing an intuitive gesture operation that combines a touch operation and a push-in operation.
- FIG. 1 is a schematic configuration diagram of a user interface device according to a first embodiment of the present invention. It is explanatory drawing of the operation principle of the pressure-sensitive sensor which concerns on the 1st Embodiment of this invention. It is a flowchart which shows the example of operation which selects the conventional menu item.
- FIG. 1 is an explanatory diagram showing a state when a driver seat and a passenger seat of a vehicle on which the navigation device 1 is mounted are viewed from the rear in the traveling direction toward the front.
- the navigation device 1 (an example of an electronic device) is installed at a position sandwiched between the dashboard 5 and the meter panel 6 and visible to a user who holds the steering wheel 7.
- a shift lever 8 is provided below the navigation device 1.
- the navigation device 1 includes a navigation device body 2 that performs processing necessary for navigation, and a user interface device 3.
- the navigation device body 2 is fitted in a recess formed in the dashboard 5 and cannot be directly recognized by the user.
- the user interface device 3 is disposed at a position where the user can visually recognize, and outputs an instruction input by the user to the navigation device main body 2 and indicates a processing result by the navigation device main body 2 to the user.
- the user interface device 3 is configured to have a sense of unity with the interior shape from the dashboard 5, the meter panel 6 and the shift lever 8 to the base of the windshield 4.
- the user interface device 3 displays information (a map, various icons, etc.) necessary for navigation processing and the like output from the navigation device body 2.
- the instruction medium touching the touch panel 20 is a user's finger.
- a touch operation an operation performed by the user moving his / her finger while touching the touch panel 20
- a pressing operation an operation in which the user presses the touch panel 20 with a finger
- a gesture operation An operation performed by combining the touch operation and the pressing operation.
- the conventional gesture operation is an operation performed only by a touch operation.
- FIG. 2 is a block diagram illustrating an internal configuration example of the user interface device 3. Before describing the internal configuration of the user interface device 3, the operation of the navigation device body 2 will be described.
- the navigation device main body 2 (an example of the electronic device main body) performs predetermined processing based on the instructed content by a touch operation or a gesture operation input from the control unit 10 of the user interface device 3. Then, the navigation device body 2 outputs the object after performing the predetermined processing based on the instruction to the control unit 10 of the user interface device 3.
- Objects that are output from the navigation device body 2 to the user interface device 3 include, for example, maps, character strings, icons, images, and the like.
- the navigation device body 2 performs navigation processing based on the gesture operation performed on the user interface device 3, outputs a map for display by the user interface device 3, and receives a character string input from the user interface device 3. Edit it.
- the user interface device 3 includes a control unit 10, a storage medium control unit 14, a storage medium 15, a communication control unit 16, a coordinate detection unit 17, a pressure sensitive detection unit 18, and a display control unit 19 connected by a bus B.
- the user interface device 3 also includes a touch panel 20 connected to the coordinate detection unit 17, a pressure sensor 30 connected to the pressure detection unit 18, and a display panel 40 connected to the display control unit 19.
- the control unit 10 controls the operation of each unit in the user interface device 3.
- the control unit 10 determines that a touch operation has been performed based on the coordinate detection information input from the coordinate detection unit 17, and outputs information input from the touch position to the navigation device body 2. Further, the control unit 10 determines that the pressing operation in which the touch panel 20 is pressed with a finger is performed based on the pressure-sensitive detection information input from the pressure-sensitive detection unit 18. In addition, the control unit 10 outputs control information for causing the display panel 40 to display the object output from the navigation device body 2 to the user interface device 3 to the display control unit 19.
- control unit 10 displays control information for displaying one layer selected from the plurality of layers related to the object on the display panel 40 based on the gesture operation combining the touch operation and the push-in operation. 19 output. Further, the control unit 10 determines a touch operation (such as a finger movement direction and a touch position) performed on the object through one layer displayed on the display panel 40.
- a touch operation such as a finger movement direction and a touch position
- the control unit 10 includes a CPU 11, a RAM 12, and a ROM 13, and the CPU 11, the RAM 12, and the ROM 13 work together to realize the function of the control unit 10.
- the CPU (Central Processing Unit) 11 is an example of a computer that controls the operation of each unit in the user interface device 3. For example, the CPU 11 executes a program read from the ROM 13 and performs processing related to the gesture operation according to the present embodiment.
- a RAM (Random Access Memory) 12 stores temporary data such as a program executed by the CPU 11.
- ROM (Read Only Memory) 13 stores a program read by the CPU 11 and the like.
- the ROM 13 is used as an example of a computer-readable non-transitory recording medium that stores a program executed by the CPU 11. For this reason, this program is permanently stored in the ROM 13.
- the computer-readable non-transitory recording medium storing the program executed by the CPU 11 may be a recording medium such as a CD-ROM or a DVD-ROM.
- the storage medium control unit 14 controls the storage medium 15.
- the storage medium control unit 14 writes data input from the control unit 10 to the storage medium 15, or reads data stored in the storage medium 15 according to an instruction from the control unit 10 and outputs the data to the control unit 10.
- the storage medium 15 is inserted into a slot or the like provided in the user interface device 3 and stores data written by the storage medium control unit 14 or data is read by the storage medium control unit 14.
- the storage medium 15 stores a navigation program that operates in the navigation apparatus main body 2, upgrade data of a character editing program, and the like.
- the communication control unit 16 controls data communication processing performed through the network N between the navigation device body 2 and the user interface device 3.
- the coordinate detection unit 17 detects the coordinates of the touch position of the touch panel 20 where the touch operation is performed.
- the touch panel 20 is formed in a planar rectangular shape, and the position of the intersection of the X electrode and the Y electrode that intersect each other is coordinate information, and a value corresponding to the change in capacitance at this position is given to the coordinate detection unit 17. Is output.
- the coordinate detection unit 17 detects the coordinate of the location where the coordinate information input from the touch panel 20 has changed as a finger touch position, and outputs coordinate detection information including the coordinate of the touch position to the control unit 10.
- the pressure sensitive detection unit 18 detects that the touch panel 20 is pressed with a finger and the pressure sensitive sensor 30 senses pressure.
- the pressure-sensitive sensor 30 is provided on the back surface of the touch panel 20 and outputs a sensor value that changes according to the pressing force applied to the touch panel 20 by a finger to the pressure-sensitive detection unit 18. Based on the sensor value input from the pressure-sensitive sensor 30, the pressure-sensitive detection unit 18 detects that a pressing operation for pressing the touch panel 20 with a finger is performed, and outputs pressure-sensitive detection information to the control unit 10. To do.
- the display control unit 19 performs control to display, for example, an icon, a map, and the like necessary for navigation on the display panel 40 formed in a planar rectangular shape according to the control information input from the control unit 10.
- FIG. 3 is a schematic configuration diagram of the user interface device 3.
- the position of the pressure-sensitive sensor 30 installed on the touch panel 20 as viewed from above and the position of the frame of the housing 55 are indicated by broken lines.
- Six pressure-sensitive sensors 30 are provided on the back surface of the touch panel 20 on the frame of the housing 55 of the user interface device 3 including the touch panel 20. For this reason, the user does not see the pressure sensor 30 directly.
- a plurality of pressure-sensitive sensors 30 are usually provided, but a plurality of pressure-sensitive sensors 30 are not necessarily provided, and may be one.
- the top plate 50 protects the surface of the touch panel 20.
- a transparent glass substrate, a film, or the like is used for the top plate 50.
- the surface of the top plate 50 is an input operation surface 51 on which a user contacts a finger in order to perform a touch operation.
- the touch panel 20 is configured, for example, by laminating a transparent X electrode substrate 21, an adhesive layer 22, and a Y electrode substrate 23 in this order.
- the top plate 50 and the X electrode substrate 21 are bonded and fixed by an adhesive layer 52.
- Each of the X electrode substrate 21 and the Y electrode substrate 23 has a rectangular shape.
- the X electrode substrate 21 and the Y electrode substrate 23 are bonded by the adhesive layer 22.
- An area where the X direction detection electrode (not shown) formed on the X electrode substrate 21 and the Y direction detection electrode (not shown) formed on the Y electrode substrate 23 overlap each other in a plane is a coordinate detection area on the XY plane.
- the pressure sensitive sensor 30 is disposed in a peripheral area (frame) outside the coordinate detection area on the XY plane of the touch panel 20.
- the pressure-sensitive sensor 30 includes an elastic body 33 made of a dielectric material disposed between the touch panel 20 and the housing 55, and an upper electrode 31 and a lower electrode 35 that are disposed so as to sandwich the elastic body 33 and form a capacitor. Is provided.
- the pressure-sensitive sensor 30 further includes an adhesive layer 32 that bonds and fixes the elastic body 33 and the upper electrode 31, and an adhesive layer 34 that bonds and fixes the elastic body 33 and the lower electrode 35.
- the elastic bodies constituting the six pressure-sensitive sensors 30 are connected to form one frame-shaped elastic body 33, and the six pressure-sensitive sensors 30 form one elastic body 33. Sharing.
- the elastic body 33 By providing the elastic body 33 in a ring shape, it is possible to prevent foreign dust or the like from entering the gap 41 between the touch panel 20 and the housing 55, that is, between the touch panel 20 and the display panel 40.
- the lower electrodes 35 constituting the six pressure sensors 30 are connected to constitute one frame-like lower electrode 35, and the six pressure sensors 30 share one lower electrode 35.
- the upper electrode 31 may also be formed in a frame shape like the lower electrode 35.
- the elastic body 33 for example, a material having a small residual strain and a high restoration rate (restoration speed) is used.
- the material used for the elastic body 33 include silicone rubber and urethane rubber.
- the elastic body 33 may be displaced about 10% at the maximum with respect to the height of the original elastic body 33, for example.
- the elastic body 33 having a thickness of 0.5 mm used for the pressure-sensitive sensor 30 may be displaced by about 10 ⁇ m.
- the elastic body 33 of the pressure sensor 30 is distorted so that the pressure sensor 30 is bonded and fixed.
- the top plate 50 and the touch panel 20 are moved in the pressing direction.
- the pressure sensor 30 is pressed, its thickness is displaced in the pressing direction.
- the back surface of the touch panel 20 approaches the front surface of the display panel 40 by the amount of displacement of the pressure sensor 30, so that a gap 41 is provided between the touch panel 20 and the display panel 40 in consideration of the movement of the touch panel 20. ing.
- the gap 41 is not provided when the touch panel 20 and the display panel 40 are bonded.
- the pressure-sensitive sensor 30 outputs a sensor value corresponding to the capacitance of the capacitor formed by the upper electrode 31 and the lower electrode 35 to the pressure-sensitive detection unit 18.
- FIG. 4 is a diagram for explaining the operating principle of the pressure-sensitive sensor 30.
- the description of the touch panel 20 is omitted.
- An example of the pressure-sensitive sensor 30 that is not pressed with a finger is shown in the upper left of FIG. 4, and an example of the pressure-sensitive sensor 30 that is pressed with a finger is shown in the upper right of FIG.
- the elastic body 33 is distorted so that the thickness decreases.
- the electrostatic capacitance of the pressure sensor 30 changes because the thickness of the pressed pressure sensor 30 changes with respect to the thickness of the pressure sensor 30 which is not pressed.
- the pressure-sensitive detection unit 18 uses the capacitance change rate between the upper electrode 31 and the lower electrode 35 due to the displacement d of the elastic body 33, the touch panel 20 is pressed, and the pressure-sensitive sensor 30 senses pressure.
- the capacitance change rate is obtained based on sensor values output from the upper electrode 31 and the lower electrode 35 by the pressure-sensitive detection unit 18.
- the sensor value is a voltage determined by the capacitance between the upper electrode 31 and the lower electrode 35. That is, the rate of change in capacitance is the static between the upper electrode 31 and the lower electrode 35 of the pressed pressure sensor 30 with respect to the capacitance between the upper electrode 31 and the lower electrode 35 of the pressure sensor 30 that is not pressed. It is obtained as a percentage of electric capacity.
- the pressure-sensitive detection unit 18 obtains a change in capacitance between the upper electrode 31 and the lower electrode 35 based on a sensor value input from the pressure-sensitive sensor 30, that is, obtains a rate of change in capacitance. Is possible.
- the pressure-sensitive detection unit 18 detects the sensor value detected by each pressure-sensitive sensor 30 disposed on the back surface of the touch panel 20 based on the graph showing the relationship between the pressing force at the bottom of FIG. It is converted into a pressing force when the touch panel 20 is pressed. Then, when the pressing force exceeds the pressing threshold, the pressure-sensitive detection unit 18 determines that the user has consciously pressed the touch panel 20 and outputs pressure-sensitive detection information to the control unit 10.
- the pressure-sensitive detection unit 18 may obtain the pressing force based on the total value of the respective capacitance change rates detected by the pressure-sensitive sensors 30. Thereby, it is possible to detect the pressing force with high accuracy without depending on only the touch position on the input operation surface 51. Note that the pressure-sensitive detection unit 18 may obtain the pressing force from an average value obtained by dividing the total value of the capacitance change rates by the number of the pressure-sensitive sensors 30, for example.
- the pressure-sensitive detection unit 18 may output pressure-sensitive detection information that varies depending on the magnitude of the pressing force to the control unit 10. For example, in the lower graph of FIG. 4, the pressing force at which the capacitance change rate is 2.0% is defined as a threshold th1 (an example of the first pressing threshold value), and the pressing force at which the capacitance change rate is 6.0%. Let the pressure be a threshold th2 (an example of a second pressing threshold). If the pressing force is less than the threshold th ⁇ b> 1, it is considered that the capacitance has only changed due to vibration applied to the user interface device 3 through the housing 55. That is, it is assumed that the user does not intentionally press the finger into the touch panel 20.
- the pressure-sensitive detection unit 18 does not determine that the user has pressed the finger into the touch panel 20, and therefore does not output pressure-sensitive detection information. However, if the pressing force is equal to or greater than the threshold th1, the pressure-sensitive detection unit 18 determines that the user has pressed the finger into the touch panel 20, and outputs first pressure-sensitive detection information. Furthermore, if the pressing force is greater than or equal to the threshold th2, the pressure-sensitive detection unit 18 determines that the user has pressed the finger strongly into the touch panel 20, and outputs second pressure-sensitive detection information.
- the pressure-sensitive detection unit 18 uses the first pressure-sensitive detection information or the second pressure-sensitive information based on the pressing force obtained from the capacitance change rate that changes according to the pressing amount of the user pushing the finger into the touch panel 20. Detection information can be output to the control unit 10. As a result, the control unit 10 can perform different processes according to the first pressure detection information or the second pressure detection information input from the pressure detection unit 18. Note that the pressure-sensitive detection information may be only one of the first pressure-sensitive detection information and the second pressure-sensitive detection information. When the first pressure detection information or the second pressure detection information is not distinguished, it is referred to as “pressure detection information”.
- the control unit 10 determines that the finger has been pushed into the touch panel 20 and the determination operation by the user has been performed when the pressure-sensitive detection information is input from the pressure-sensitive detection unit 18. At this time, the control unit 10 vibrates the housing 55 or displays a message on the display panel 40 in order to inform the user that it is in the pressed state. Further, a voice guide may be emitted from a speaker (not shown). Or the control part 10 can also display icons, such as a circle and a square, in the pressed touch position. In this case, the icon may be blinked, or the icon display color may be changed.
- the housing 55 can also generate a click sound or change the touch of the finger when the touch panel 20 is pushed.
- FIGS. 5 and 6 Each step of the conventional flowchart shown in FIG. 5 and the flowchart according to the first embodiment of the present invention shown in FIG. 6 includes user interface devices 3 and 100 in order to explain specific contents of the gesture operation.
- a display example of the screen displayed on the display panel may be shown.
- an instruction icon for a user to specify a menu item through a touch panel is represented by a black arrow.
- the conventional user interface device includes a conventional touch panel or a mouse that can detect only the XY coordinates of the touch position. Then, the user may select a menu item from the main menu arranged on the menu bar using a conventional user interface device. At this time, after selecting the main menu with the instruction icon, the user selects a target menu item from a plurality of menu items belonging to the lower layer for the main menu. However, when the user moves the instruction icon to the desired menu item, if the instruction icon goes out of the menu item display area, the menu item is not displayed, and the menu item must be displayed again by selecting the main menu. I had to.
- FIG. 5 is a flowchart showing an example of an operation for selecting a conventional menu item.
- a control unit (not shown) provided in the conventional user interface device 100 detects that a finger touches the touch panel provided in the user interface device 100 (S1).
- a control unit of a conventional user interface device is simply referred to as a “control unit” without a symbol.
- the control unit determines whether or not the user has performed a menu operation for selecting the main menu from the menu bar (S2).
- the control unit determines that the menu operation is not performed by the user (NO in S2), the operation performed on the touch panel is an operation of moving the instruction icon to a place other than the menu bar. For this reason, the control unit performs the operation of moving the instruction icon to move the instruction icon in accordance with the movement direction of the user's finger (S3), and then ends this process.
- step S2 if it is determined in step S2 that the menu operation has been performed by the user (YES in S2), the menu item included in the lower layer of the main menu indicated by the instruction icon is displayed in the pull-down list in the first menu m1. (S4).
- the screen added to step S4 as a result of the user selecting the FILE menu as the main menu from the menu bar at the upper left of the screen displayed on the conventional user interface device 100, the first menu in the lower layer of the FILE menu is displayed.
- a state in which the menu m1 and the second menu m2 are displayed in the pull-down list is shown. Both the first menu m1 and the second menu m2 are a group of a plurality of menu items.
- Menu items of the first menu m1 include, for example, “NEW”, “OPEN”, and the like, and menu items of the second menu m2 include, for example, “PRINT”.
- the second menu m2 is simultaneously displayed below the first menu m1, but when the display panel is small, a drop-down displayed below the first menu m1. The second menu m2 is not displayed unless the button is clicked or the screen is scrolled.
- the user determines whether or not to select the second menu m2 displayed in the pull-down list (S5).
- the second menu m2 is not selected (NO in S5)
- the user selects a menu item of the first menu m1 (S6).
- the control unit determines the selected menu item and ends the process.
- step S5 when the user selects the second menu m2 (YES in S5), the user moves the instruction icon and displays the second menu m2 (S7).
- the screen added in step S7 shows that the user has selected “PRINT” included in the second menu m2 from the FILE menu item.
- the control unit determines that the menu item of the second menu m2 is selected and the finger is removed from the touch panel, determines the selected menu item (S8), and ends the present process.
- the menu item displayed by the user is selected by selecting the lower layer menu in order to select a menu item finally required by the user.
- the operation to move the instruction icon to was performed.
- the moved instruction icon deviates from the menu item, the selection of the main menu and the lower layer menu becomes invalid.
- the instruction icon must be moved accurately.
- the user In order to select the desired menu item from the pull-down list containing many menu items, the user must move his / her finger greatly, and the finger is accidentally moved from the touch panel at a position different from the intended menu item. It was easy to make an operation mistake.
- FIG. 6 is a flowchart illustrating an example of an operation for selecting a menu item according to the first embodiment.
- a target menu item can be selected from a layer related to the menu item by a simple operation using one finger. That is, the control unit 10 according to the first embodiment displays control information for displaying one layer from a plurality of layers including different menu items when the touch panel 20 is pressed by a finger. Can be output.
- the layers include a first layer and a second layer.
- the first layer includes a first menu m1 that is displayed when a menu operation is performed on the touch panel 20.
- the second layer includes a second menu m2 that is displayed when the touch panel 20 is pressed with a finger on the first menu m1.
- the gesture operation is an operation in which the user presses the finger on the touch panel 20 on the first menu m1 to display the second menu m2, and selects an arbitrary menu item from the second menu m2. is there.
- one layer selected from a plurality of layers related to an object is displayed on the display panel 40.
- one object for example, a file, a graphic, or a character string
- the layer for example, the main menu
- one lower layer is selected from the plurality of lower layers, and this lower layer is selected. Is to display the menu items contained in the layer.
- the coordinate detection unit 17 detects that the touch has been made (S11), and detects the coordinates of the touch position.
- a menu operation for selecting the main menu from the menu bar is performed with the finger touched on the touch panel 20 by the user (S12). If the user does not perform the menu operation (NO in S12), the operation performed on the touch panel 20 is an operation for moving the instruction icon to a place other than the menu bar. For this reason, the control part 10 complete
- the control unit 10 confirms that the finger moved by the user has moved to the menu bar at the top of the screen based on the coordinate detection information input from the coordinate detection unit 17. judge. For example, when the finger moves to the FILE menu on the menu bar, the control unit 10 outputs control information for displaying only the first menu m1 on the display panel 40 to the display control unit 19 (S14). At this time, only the first menu m1 which is a lower layer of the main menu is displayed in the pull-down list.
- step S14 the user selects the FILE menu from the menu bar at the top left of the screen by touch operation, and only the menu items of the first menu m1 ("NEW”, "OPEN”, etc.) are displayed in the pull-down list. The state of being done is shown.
- the user selects an operation of pushing a finger into the touch panel 20.
- the pressure sensor 18 determines whether or not the pressure sensor 30 has detected pressure (S15).
- the control unit 10 selects the menu item of the first menu m1 and releases the finger from the touch panel 20.
- the selected menu item is confirmed (S16), and this process is terminated.
- the control unit 10 determines that the touch panel 20 has been pushed by the finger on the first menu m1. Then, the control unit 10 outputs to the display control unit 19 control information for displaying the second menu m2 in the vicinity of the touch position where the finger is pressed.
- the second menu m2 is displayed at a position overlapping the first menu m1 already displayed on the display panel 40 (S17). For this reason, the user can select the menu item of the second menu m2 with almost no finger moving from the position where the touch panel 20 is pressed (S18). Then, when the menu item of the second menu m2 is selected and the finger is removed from the touch panel 20, the control unit 10 determines the selected menu item and ends this process.
- the first menu m1 or the second menu m2 is selected by a simple gesture operation of pressing the touch panel 20 using one finger, You can select a menu item to do. For this reason, the user can handle the gesture operation according to the present embodiment sensibly and intuitively as compared with the operation of moving the instruction icon greatly in order to select a conventional menu item.
- the second menu m2 is displayed over the first menu m1, the user's line-of-sight movement may be reduced.
- the movement distance of the finger can be shortened and the instruction icon need not be moved, the user can quickly switch between a plurality of layers as well as reduce operation errors.
- the navigation device body 2 may output control information to the user interface device 3 so that it cannot be operated using the user interface device 3 while the vehicle is traveling. Conversely, control information that allows the user interface device 3 to be operated while the vehicle is stopped may be output to the user interface device 3.
- the first menu m1 and the second menu m2 may be displayed using the user interface device 3 according to the first embodiment.
- the second menu m2 is a menu item after “PRINT”, it can be changed to an arbitrary menu item. It is also possible to set three or more lower layers in one menu. In this case, by pressing the touch panel 20 at the position where the user has selected the menu, the layers can be sequentially switched and displayed. For example, in a state where the first menu m1 is displayed, the second menu m2 is displayed if the finger pressing force on the touch panel 20 is greater than or equal to the threshold th1, and the second menu m2 is displayed if the finger pressing force is greater than or equal to the threshold th2. Another menu may be displayed instead of the menu m2. Therefore, the user can select a layer including a target menu item from a plurality of layers.
- the target layer may be selectable by the user using only the threshold th1.
- the lower layer includes a third menu in addition to the first menu m1 and the second menu m2 described above.
- the first menu m1 is switched to the second menu m2 and displayed.
- the second menu m2 Is switched to the third menu and displayed.
- the third menu is displayed when the touch panel 20 is pressed again with a pressing force of the threshold th1 or more. It is switched to 1 menu m1 and displayed.
- the first menu m1, the second menu m2, and the third menu can be cyclically displayed.
- a menu selection area where the user can select various menus may be displayed on any one side of the display panel 40.
- menu items corresponding to the menu displayed in the menu selection area may be displayed on the display panel 40.
- a conventional user interface device equipped with a touch panel that can detect only the XY coordinates of the touch position in order for the user to perform different work for each layer, the target layer is selected from the menu item that lists the switching destination layers. Was selected.
- FIGS. 7 and 8 an operation example using the conventional user interface device 100 and an operation example using the user interface device 3 according to the first embodiment will be described with reference to FIGS. 7 and 8.
- the screen of the user interface device 3, 100 and the front view, the bottom view, and the left side view of the user interface device 3100 at a certain moment are simultaneously displayed within a rectangular broken line. ing.
- a white arrow in the screen indicates the moving direction of the finger.
- FIG. 7 is a flowchart showing an example of a conventional layer switching operation. Note that the processing in steps S21 and S22 in FIG. 7 is the same as the processing in steps S1 and S2 in FIG. 5 in the first embodiment described above, and thus detailed description thereof is omitted.
- step S22 If it is determined in step S22 that the menu operation has been performed by the user (YES in S22), the control unit displays a menu item for switching the layer at the position touched by the user's finger (S23).
- the screen added to step S23 shows that the user selects the layer switching menu from the menu bar at the upper left of the screen, and the name of the switching destination layer included in the layer switching menu is displayed as a menu item in the pull-down list.
- “A” displayed in the center of the screen indicates that the name of the currently displayed layer is “Layer A”.
- the menu items displayed in the pull-down list are the three items of layers A, B, and C.
- step S24 the user selects a menu item for the layer to be switched to (S24).
- the control unit determines that the switching destination layer has been selected from the menu items displayed in the pull-down list.
- the screen added to step S24 shows a state where the user moves the finger along the pull-down list and selects the menu item of layer B.
- control unit switches to the menu item layer selected by the user (S25). Then, when the user removes his / her finger from the touch panel, the control unit determines and displays the switched layer (S26), and ends this process.
- the screen added in step S26 shows how layer B is displayed when the user lifts his / her finger from the touch panel.
- FIG. 8 is a flowchart illustrating an example of a layer switching operation according to the second embodiment.
- the layers can be switched by a simple operation using one finger. That is, when the touch panel 20 is pushed by a finger, the control unit 10 switches the display information to the display control unit 19 so that the display panel 40 displays control information for switching an object from one layer to a single operable layer. Output.
- the gesture operation is an operation in which the user presses the finger on the touch panel 20 to switch the layer and releases the touch panel 20 to confirm the switched layer.
- displaying one layer selected from a plurality of layers related to an object on the display panel 40 means that when there are different layers A, B, C, for example, a plurality of layers A , B, and C, one layer B is selected, and the object is displayed in the layer B so as to be editable. Note that layers A, B, and C are all layers related to the object to be edited.
- the coordinate detection unit 17 detects that the touch has been made (S31), and detects the coordinates of the touch position.
- the screen added in step S31 shows a state in which the user touches the left side of the screen with one finger. At this time, layer A is displayed on the user interface device 3.
- step S32 shows a state in which the user touches the upper left of the screen with one finger and further presses the touch panel 20. Then, the fact that the touch panel 20 has been pressed with a finger is indicated by the finger moving direction represented by the downward arrow with respect to the touch panel 20.
- the pressure-sensitive detection unit 18 determines whether or not the pressure-sensitive sensor 30 has detected pressure based on the sensor value output from the pressure-sensitive sensor 30 (S33). When the pressure detection unit 18 determines that no pressure is detected based on the sensor value (NO in S33), the control unit 10 ends this process.
- the control unit 10 switches the layer and displays control information for displaying the switched layer on the display panel 40. It outputs to the display control part 19 (S34).
- the screen added in step S34 shows a state where the screen is switched from layer A to layer B when the user presses the finger on the touch panel 20.
- step S35 shows a state in which layer B is determined and displayed when the user removes his / her finger from touch panel 20. Thereafter, when the user presses the finger again on the touch panel 20, the layer C switched from the layer B is displayed on the user interface device 3, and the user can determine the layer C.
- the layer switching menu is selected from the menu bar and the menu item of the layer is selected, but the layer can be switched by slightly moving a finger.
- you do not have to move your finger almost you can not only reduce operational errors, but also quickly switch between multiple layers.
- image editing software that can draw characters, figures, etc. by handwriting on photos.
- This software can edit images using photo layers and image editing layers.
- the image editing layer is displayed, the user presses the touch panel 20 to change the image editing layer to the photo layer, thereby changing the display position of the photo, changing the orientation of the photo, or scaling the photo. Is possible. For this reason, layers can be switched by an intuitive operation without selecting a target layer from the layer list as in the prior art.
- the layer to be switched when the touch panel 20 is pressed may be changed. For example, first, when the image editing layer is displayed, when the user presses the touch panel 20 with a finger, the display is switched to the photo layer. Next, when the photo layer is displayed, when the user presses the touch panel 20 with a finger, it may be switched to the image editing layer and displayed.
- control unit 10 displays control information for sequentially switching the plurality of layers and displaying them on the display panel 40 in accordance with the duration for which the touch panel 20 is pressed by a finger. 19 may be output.
- the order of the layers to be switched and displayed at this time is cyclic, for example, layers A, B, C, A, B, C,. As a result, for example, even if an unintended layer is displayed, the user can display the target layer because the layers are switched in order only by keeping the finger pressed.
- the layers may be switched according to the amount of finger pressing into the touch panel 20 by the user. For example, when the image editing layer is displayed and the finger pressing force on the touch panel 20 is equal to or greater than the threshold th1, the photo layer is displayed, and when the finger pressing force is equal to or greater than the threshold th2, another menu (for example, (Background layer) may be displayed. Therefore, the user can select a layer including a target menu item from a plurality of layers.
- a gesture operation may be assigned to the slide show function.
- the next slide may be displayed. Accordingly, the user can smoothly execute the slide show without searching for a button for displaying the next slide.
- FIG. 9 is a flowchart showing an example of a conventional shortcut icon selection operation.
- the control unit included in the conventional user interface device 100 detects that a finger touches the touch panel included in the user interface device 100 (S41).
- the screen added in step S41 shows a state in which the user touches the left side of the screen with one finger.
- control unit determines that the map display selection icon has been selected by the user (S42).
- the screen added to step S42 shows how the map is displayed by selecting the map display selection icon displayed on the upper right of the screen with a finger.
- the control unit determines that the destination selection icon has been selected by the user (S43).
- the destination selection icon is an icon for displaying a function-specific icon used for the user to select and input a destination of the vehicle.
- a map is displayed on the screen added to step S43, and a state in which the user selects a destination selection icon displayed on the upper left of the screen with a finger is shown.
- step S44 determines that the home icon has been selected by the user (S44).
- the screen added to step S44 shows an example in which a plurality of function-specific icons are displayed as the destination selection icon.
- These function-specific icons have a shortcut function for realizing a target function with a simple operation (for example, one click), and are displayed in a rectangular frame at the lower right of the destination selection icon.
- the function-specific icons displayed on the destination selection icon are a list icon (upper right of the frame) indicating that a plurality of destinations registered in advance are displayed as a list, and a search icon indicating that a new destination is to be searched.
- a home icon bottom right of the frame
- the home address is automatically determined as the destination without inputting the home address using a software keyboard or the like.
- control unit determines that the selection of the home icon has been determined by the user (S45).
- a YES button and a NO button for selecting whether or not the home icon selected by the user can be determined are displayed, and the user selects the YES button with a finger.
- a preset home address is determined as the destination.
- FIG. 10 is a flowchart illustrating an example of a shortcut icon selection operation according to the third embodiment.
- a necessary function can be selected by a simple operation using one finger. That is, when the touch panel 20 is pressed with a finger while a map or the like (an example of the first layer) is displayed, the control unit 10 includes a shortcut icon (second layer) including a shortcut menu to which a predetermined function is assigned. The control information for displaying (example) is output to the display control unit 19. And the control part 10 performs the function allocated to the shortcut menu selected with the finger in the state in which the touch panel 20 was pushed by the finger.
- the gesture operation is an operation in which a user presses a finger on the touch panel 20 to display a shortcut icon, and selects the shortcut icon while pressing the finger on the touch panel 20.
- displaying one layer selected from a plurality of layers related to an object on the display panel 40 is, for example, a shortcut icon for the first layer displaying a map (object). Is to display the second layer.
- the processing in steps S51 to S53 in FIG. 10 is the same as the processing in steps S31 to S33 in FIG. 8 in the second embodiment described above, and detailed description thereof will be omitted.
- step S53 When it is determined in step S53 that the pressure-sensitive detection unit 18 has detected pressure sensitivity based on the sensor value (YES in S53), the control unit 10 displays control information for displaying a shortcut icon on the display panel 40. (S54).
- shortcut icons On the screen added in step S54, when the user presses the finger on the touch panel 20, shortcut icons having four types of shortcut functions are arranged and displayed in a cross shape with the finger touch position at the center. The situation is shown.
- This shortcut icon represents a home icon, a menu icon, a setting icon, and a telephone icon clockwise from the left.
- the home icon has a function to set the home address as the destination, the menu icon has a function to display various menus, the setting icon has a function to make arbitrary settings, and the telephone icon is set to the registered telephone number. Has a function to make a phone call.
- step S55 shows a state where the home icon is selected in a state where the user's finger is pushed into the touch panel 20.
- the control part 10 performs the shortcut function corresponding to the shortcut icon selected by the user. For this reason, the home address is set as the destination.
- a simple shortcut icon is displayed by a simple gesture operation of pressing the touch panel 20 with one finger. Then, the user can select a shortcut icon by moving the finger pressed into the touch panel 20. For this reason, it is possible to quickly execute a target function without performing a plurality of touch operations as in the prior art. Moreover, since this gesture operation is intuitive and simple, it is easy to select a shortcut icon.
- the control unit 10 displays control information for sequentially switching the plurality of shortcut icons and displaying them on the display panel 40 according to the duration for which the touch panel 20 is pressed by a finger. You may output to the control part 19.
- the order of the shortcut icons displayed by switching at this time is cyclic, for example, a home icon, a menu icon, a setting icon, a telephone icon, a home icon,. For this reason, for example, even if an unintended shortcut icon is displayed, the user simply switches on the shortcut icon (for example, every second) simply by keeping the finger pressed, so that the desired shortcut icon is selected. It is possible.
- the shortcut icon may be continuously displayed.
- the control unit 10 displays control information for displaying the shortcut icon on the display panel 40.
- the data is output to the display control unit 19.
- the control unit 10 performs control so that the shortcut icon is continuously displayed on the display panel 40 even when the finger pressing force detected by the pressure-sensitive detection unit 18 by the user pulling the finger is less than the threshold th1.
- the control unit 10 performs control to hide the shortcut icon from the display panel 40. For this reason, the user can easily select another operation during the operation of selecting the shortcut icon.
- the shortcut icons may be sequentially switched and displayed, so that the target shortcut icon can be selected. For example, after a certain shortcut icon is displayed, when the user presses the finger again, the pressure-sensitive detection unit 18 detects that a predetermined time has elapsed for the finger pressing force to be equal to or greater than the threshold th1. Then, the control unit 10 displays another shortcut icon on the display panel 40. Thereafter, each time the user presses the finger on the touch panel 20 and repeats the operation of pulling the finger, the control unit 10 sequentially switches and displays different shortcut icons on the display panel 40. As a shortcut icon displayed on the display panel 40, one shortcut icon is cyclically selected from a plurality of shortcut icons.
- a plurality of icons having a shortcut function may be displayed in order according to the strength with which the user presses the touch panel 20 with a finger. For example, in the state where the map is displayed, a home icon may be displayed if the finger pressing force on the touch panel 20 is greater than or equal to the threshold th1, and a menu icon may be displayed if the finger pressing force is greater than or equal to the threshold th2. . For this reason, the user can select a target icon from a plurality of icons without moving the finger pressed into the touch panel 20.
- the user interface device 3 according to each embodiment described above may be applied to devices other than the navigation device. For example, operability can be improved by applying the user interface device 3 to a touch panel portion of a mobile terminal, a tablet terminal, or the like. In this way, the user interface device 3 according to the present embodiment can be combined with various electronic devices that require a touch panel.
- the user interface device 3 includes the control unit 10, but the navigation device body 2 may include the control unit 10.
- the touch panel 20 may have a configuration capable of detecting a touch operation by a method other than the capacitance method. Further, the pressure sensor 30 may detect that the touch panel 20 is pushed in by a press switch or the like provided below the touch panel 20.
- the operation combined with the pressure sensitive function in the user interface device 3 may be used for, for example, navigation of a person or a bicycle. Further, the user interface device 3 may be used for the operation of the image editing software as described above, or may be used for the operation of other application software.
- the navigation device body 2 and the user interface device 3 are combined. However, since the user interface device 3 itself has a navigation function, only the user interface device 3 may be used as the navigation device.
- the pressure-sensitive sensor 30 may be configured not to include the elastic body 33. For example, even if the elastic body 33 is removed from the pressure sensor 30, if a pressing force is applied to the pressure sensor 30 in a state where the upper electrode 31 and the lower electrode 35 are separated from each other with a constant distance, the upper electrode 31 is applied. The lower electrode 35 approaches and the electrostatic capacity between the upper electrode 31 and the lower electrode 35 decreases. For this reason, the pressure sensitive detection unit 18 can obtain the capacitance change rate based on the sensor values output from the upper electrode 31 and the lower electrode 35.
- the present invention is not limited to the above-described embodiments, and various other application examples and modifications can be taken without departing from the gist of the present invention described in the claims.
- the configuration of the apparatus is described in detail and specifically in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the configuration having all the configurations described.
- the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
- SYMBOLS 1 ... Navigation apparatus, 2 ... Navigation apparatus main body, 3 ... User interface apparatus, 10 ... Control part, 17 ... Coordinate detection part, 18 ... Pressure detection part, 19 ... Display control part, 20 ... Touch panel, 30 ... Pressure sensor 40 ... Display panel
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Instructional Devices (AREA)
- Position Input By Displaying (AREA)
Abstract
This user interface device is provided with a control unit that outputs, to a display control unit, control information for displaying, on a display panel, a layer selected from a plurality of layers related to an object on the basis of a gesture operation, which is a combination of a touch operation determined on the basis of coordinate detection information and a pressing operation determined on the basis of pressure-sensitive detection information. In addition, the control unit determines a touch operation performed on the object through the layer displayed on the display panel.
Description
本発明は、ユーザーインターフェイス装置及び電子機器に関する。
The present invention relates to a user interface device and an electronic device.
近年、指等で容易かつ感覚的に操作できるタッチパネルが広く普及しており、タッチパネルの小型化、薄型化、軽量化、省電力化及び低コスト化等に関する多様な研究及び開発が行われている。指等の指示媒体がタッチパネルにタッチした位置(「タッチ位置」と呼ぶ)を検知する方式としては、電気抵抗の変化を検知する抵抗膜式、超音波等を利用する表面弾性波方式、静電容量の変化を検知する静電容量方式等が知られている。中でも、複数のタッチ位置を検知できる点等において、静電容量方式のタッチパネルが注目されている。
In recent years, touch panels that can be easily and sensibly operated with a finger or the like have become widespread, and various studies and developments have been made on downsizing, thinning, lightening, power saving, and cost reduction of touch panels. . As a method for detecting a position where an instruction medium such as a finger touches the touch panel (referred to as “touch position”), a resistance film type that detects a change in electrical resistance, a surface acoustic wave method that uses ultrasonic waves, an electrostatic A capacitance method for detecting a change in capacitance is known. In particular, a capacitive touch panel is attracting attention in that it can detect a plurality of touch positions.
静電容量方式のタッチパネルは、静電容量を発生させる透明電極と、静電容量の変化を検知する外部回路とを備えている。近年では、スタイラスペン、指等によりタッチパネルが押圧されたときの押圧力を検知可能な感圧センサーを備えたタッチパネルが提供されつつある。
The capacitive touch panel includes a transparent electrode that generates a capacitance and an external circuit that detects a change in the capacitance. In recent years, a touch panel including a pressure-sensitive sensor capable of detecting a pressing force when the touch panel is pressed with a stylus pen, a finger, or the like is being provided.
例えば、特許文献1には、トッププレート及びタッチパネルが押圧方向に移動することにより変位した感圧センサーの上部電極と下部電極の静電容量の変化に基づいて、入力操作面への押圧による入力決定操作がなされたことを判定する技術が開示されている。
For example, in Patent Document 1, input determination by pressing on the input operation surface is performed based on a change in capacitance of the upper electrode and lower electrode of the pressure-sensitive sensor displaced by the top plate and the touch panel moving in the pressing direction. A technique for determining that an operation has been performed is disclosed.
また、特許文献2には、弾性部材を用いない感圧センサーを備えるセンサー装置について開示されている。
Patent Document 2 discloses a sensor device including a pressure-sensitive sensor that does not use an elastic member.
また、特許文献3には、画面に対する指の近接に応じて、画面に表示された画像が所定の拡大表示倍率により拡大された拡大画像を生成し、画像の一部が局所拡大画像となった画像を画面に表示させる技術について開示されている。
Further, in Patent Document 3, an enlarged image in which an image displayed on the screen is enlarged at a predetermined enlargement display magnification according to the proximity of a finger to the screen is generated, and a part of the image becomes a locally enlarged image. A technique for displaying an image on a screen is disclosed.
タッチパネルは様々な電子機器に用いられている。タッチパネルが用いられる電子機器として、例えば、自動車に搭載され、現在の自車の位置から目的地までの地図及び道順等を表示パネルに表示するナビゲーション装置がある。ナビゲーション装置では、簡易な操作が求められる。しかし、従来のナビゲーション装置に取り付けられるタッチパネルには、タッチ位置のXY座標を検知する機能しかなく、ユーザーが目的とする結果を得るまでに複雑な操作を行わなくてはならず、不便であった。
Touch panels are used in various electronic devices. As an electronic device using a touch panel, for example, there is a navigation device that is mounted on a car and displays a map, directions, and the like from the current position of the vehicle to a destination on a display panel. A navigation device requires a simple operation. However, the touch panel attached to the conventional navigation device has only a function of detecting the XY coordinates of the touch position, and it is inconvenient because a complicated operation must be performed by the user to obtain a desired result. .
また、特許文献1及び2に開示された感圧センサーを備えるタッチパネルでは、タッチパネルに指等がタッチしたことを確実に検知するために、感圧センサーが補助的に用いられるに過ぎない。このため、特許文献1及び2に開示された技術を適用したタッチパネルであっても、操作自体は従来の感圧機能を有さないタッチパネルと同様であり、操作の不便さは解消していなかった。また、感圧センサーを備えないタッチパネルでは、外部の入力装置等を用いた操作が要求されるため、ユーザーが操作に習熟するまで時間がかかっていた。
Moreover, in the touch panel provided with the pressure sensitive sensor disclosed in Patent Documents 1 and 2, the pressure sensitive sensor is merely used in an auxiliary manner in order to reliably detect that a finger or the like has touched the touch panel. For this reason, even if it is the touch panel which applied the technique disclosed by patent document 1 and 2, operation itself is the same as that of the touch panel which does not have a conventional pressure-sensitive function, and the inconvenience of operation was not eliminated. . Moreover, since the operation using an external input device etc. is requested | required in the touchscreen which is not provided with a pressure sensor, it took time until the user became familiar with operation.
また、特許文献3に開示された技術では、指が画面に近接したときの画面から指までの距離に応じて異なるレイヤーの拡大画像を表示可能である。しかし、特許文献3に開示された表示装置を用いても、目的とするレイヤーを適切に選択することが難しかった。また、特許文献3に開示された表示装置を、例えば、車両に搭載してカーナビゲーション装置に対する指示入力を行うために用いた場合、画面から指が離れていることから、車両が揺れたときに操作を誤りやすかった。
Also, with the technique disclosed in Patent Document 3, enlarged images of different layers can be displayed according to the distance from the screen to the finger when the finger is close to the screen. However, even if the display device disclosed in Patent Document 3 is used, it is difficult to appropriately select a target layer. In addition, when the display device disclosed in Patent Document 3 is mounted on a vehicle and used for inputting instructions to the car navigation device, for example, when the vehicle shakes because the finger is away from the screen. The operation was easy to make mistakes.
本発明はこのような状況に鑑みて成されたものであり、複数のレイヤーから特定のレイヤーを容易に選択できるようにすることを目的とする。
The present invention has been made in view of such a situation, and an object thereof is to make it possible to easily select a specific layer from a plurality of layers.
本発明に係るユーザーインターフェイス装置は、オブジェクトを表示する表示パネルと、制御情報に従って表示パネルにオブジェクトを表示させる制御を行う表示制御部と、指示媒体によりタッチ操作が行われるタッチパネルと、タッチ操作が行われたタッチパネルのタッチ位置の座標を検知して座標検知情報を出力する座標検知部と、指示媒体によりタッチパネルに印加される押圧力に応じて変化するセンサー値を出力する感圧センサーと、センサー値に基づいて、指示媒体によりタッチパネルが押込まれる押込み操作が行われたことを検知して感圧検知情報を出力する感圧検知部と、座標検知情報に基づいて判定したタッチ操作、及び感圧検知情報に基づいて判定した押込み操作を組み合わせたジェスチャー操作に基づいて、オブジェクトに関連する複数のレイヤーから選択された一のレイヤーを表示パネルに表示するための制御情報を表示制御部に出力し、表示パネルに表示された一のレイヤーを通じてオブジェクトに行われたタッチ操作を判定する制御部と、を備える。
また、本発明に係る電子機器は、上述したユーザーインターフェイス装置と、電子機器本体と、を備える。電子機器本体は、制御部から入力するタッチ操作又はジェスチャー操作により指示された内容に基づいて所定の処理を行い、所定の処理を行ったオブジェクトをユーザーインターフェイス装置の制御部に出力する。 A user interface device according to the present invention includes a display panel that displays an object, a display control unit that performs control to display an object on the display panel according to control information, a touch panel that performs a touch operation using an instruction medium, and a touch operation that is performed. A coordinate detector that detects the coordinates of the touch position of the touch panel and outputs coordinate detection information; a pressure sensor that outputs a sensor value that changes according to the pressing force applied to the touch panel by the pointing medium; and a sensor value , A pressure sensitive detection unit that detects that a push-in operation in which the touch panel is pushed by the instruction medium is performed and outputs pressure sensitive detection information, a touch operation determined based on the coordinate detection information, and pressure sensitive Based on the gesture operation that combines the push operation determined based on the detection information, Outputs control information for displaying one layer selected from multiple layers related to the display panel to the display control unit, and determines the touch operation performed on the object through the one layer displayed on the display panel A control unit.
An electronic apparatus according to the present invention includes the above-described user interface device and an electronic apparatus main body. The electronic device main body performs a predetermined process based on content instructed by a touch operation or a gesture operation input from the control unit, and outputs an object on which the predetermined process has been performed to the control unit of the user interface device.
また、本発明に係る電子機器は、上述したユーザーインターフェイス装置と、電子機器本体と、を備える。電子機器本体は、制御部から入力するタッチ操作又はジェスチャー操作により指示された内容に基づいて所定の処理を行い、所定の処理を行ったオブジェクトをユーザーインターフェイス装置の制御部に出力する。 A user interface device according to the present invention includes a display panel that displays an object, a display control unit that performs control to display an object on the display panel according to control information, a touch panel that performs a touch operation using an instruction medium, and a touch operation that is performed. A coordinate detector that detects the coordinates of the touch position of the touch panel and outputs coordinate detection information; a pressure sensor that outputs a sensor value that changes according to the pressing force applied to the touch panel by the pointing medium; and a sensor value , A pressure sensitive detection unit that detects that a push-in operation in which the touch panel is pushed by the instruction medium is performed and outputs pressure sensitive detection information, a touch operation determined based on the coordinate detection information, and pressure sensitive Based on the gesture operation that combines the push operation determined based on the detection information, Outputs control information for displaying one layer selected from multiple layers related to the display panel to the display control unit, and determines the touch operation performed on the object through the one layer displayed on the display panel A control unit.
An electronic apparatus according to the present invention includes the above-described user interface device and an electronic apparatus main body. The electronic device main body performs a predetermined process based on content instructed by a touch operation or a gesture operation input from the control unit, and outputs an object on which the predetermined process has been performed to the control unit of the user interface device.
本発明によれば、ユーザーは、タッチ操作及び押込み操作を組み合わせた直感的なジェスチャー操作を行うことで、レイヤーを適切に変更することが可能となる。
上記した以外の課題、構成及び効果は、以下の実施の形態例の説明により明らかにされる。 According to the present invention, a user can appropriately change a layer by performing an intuitive gesture operation that combines a touch operation and a push-in operation.
Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
上記した以外の課題、構成及び効果は、以下の実施の形態例の説明により明らかにされる。 According to the present invention, a user can appropriately change a layer by performing an intuitive gesture operation that combines a touch operation and a push-in operation.
Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
以下、本発明を実施するための形態について、添付図面を参照して説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same function or configuration are denoted by the same reference numerals, and redundant description is omitted.
[第1の実施の形態]
図1は、ナビゲーション装置1が搭載されている車両の運転席及び助手席を進行方向の後方から前方に向かって眺めたときの状態を示す説明図である。
ナビゲーション装置1(電子機器の一例)は、ダッシュボード5とメーターパネル6とに挟まれた位置であって、ステアリングホイール7を握るユーザーが視認可能な位置に設置されている。ナビゲーション装置1の下には、シフトレバー8が設けられている。 [First Embodiment]
FIG. 1 is an explanatory diagram showing a state when a driver seat and a passenger seat of a vehicle on which thenavigation device 1 is mounted are viewed from the rear in the traveling direction toward the front.
The navigation device 1 (an example of an electronic device) is installed at a position sandwiched between thedashboard 5 and the meter panel 6 and visible to a user who holds the steering wheel 7. A shift lever 8 is provided below the navigation device 1.
図1は、ナビゲーション装置1が搭載されている車両の運転席及び助手席を進行方向の後方から前方に向かって眺めたときの状態を示す説明図である。
ナビゲーション装置1(電子機器の一例)は、ダッシュボード5とメーターパネル6とに挟まれた位置であって、ステアリングホイール7を握るユーザーが視認可能な位置に設置されている。ナビゲーション装置1の下には、シフトレバー8が設けられている。 [First Embodiment]
FIG. 1 is an explanatory diagram showing a state when a driver seat and a passenger seat of a vehicle on which the
The navigation device 1 (an example of an electronic device) is installed at a position sandwiched between the
このナビゲーション装置1は、ナビゲーションに必要な処理を行うナビゲーション装置本体2と、ユーザーインターフェイス装置3とを備える。ナビゲーション装置本体2は、ダッシュボード5に形成された凹部に嵌め込まれておりユーザーが直接視認することはできない。ユーザーインターフェイス装置3は、ユーザーが視認可能な位置に配置されており、ユーザーから入力された指示をナビゲーション装置本体2に出力したり、ナビゲーション装置本体2による処理結果をユーザーに示したりする。
The navigation device 1 includes a navigation device body 2 that performs processing necessary for navigation, and a user interface device 3. The navigation device body 2 is fitted in a recess formed in the dashboard 5 and cannot be directly recognized by the user. The user interface device 3 is disposed at a position where the user can visually recognize, and outputs an instruction input by the user to the navigation device main body 2 and indicates a processing result by the navigation device main body 2 to the user.
ユーザーインターフェイス装置3は、ダッシュボード5及びメーターパネル6並びにシフトレバー8からフロントガラス4の基部にかけての内装の形状と一体感を持つように構成されている。ユーザーインターフェイス装置3には、ナビゲーション装置本体2から出力されたナビゲーション処理等に必要な情報(地図、各種アイコン等)が表示されている。ユーザーは、ユーザーの指、スタイラスペン等の指示媒体をタッチパネル20(後述する図2を参照)にタッチして、ユーザーインターフェイス装置3に表示されたアイコンを動かしたり、地図等を拡大又は縮小させたりするジェスチャー操作を行うことが可能である。
The user interface device 3 is configured to have a sense of unity with the interior shape from the dashboard 5, the meter panel 6 and the shift lever 8 to the base of the windshield 4. The user interface device 3 displays information (a map, various icons, etc.) necessary for navigation processing and the like output from the navigation device body 2. The user touches an instruction medium such as a user's finger or stylus pen on the touch panel 20 (see FIG. 2 to be described later) to move an icon displayed on the user interface device 3 or to enlarge or reduce a map or the like. It is possible to perform gesture operations.
以下の説明では、タッチパネル20にタッチする指示媒体を、ユーザーの指であるとする。また、ユーザーがタッチパネル20にタッチしたまま指を移動して行う操作を「タッチ操作」と呼び、ユーザーがタッチパネル20を指で押し込む操作を「押込み操作」と呼ぶ。そして、タッチ操作と押込み操作を組み合わせて行われる操作を「ジェスチャー操作」と呼ぶ。なお、従来のジェスチャー操作は、タッチ操作だけで行われる操作である。
In the following description, it is assumed that the instruction medium touching the touch panel 20 is a user's finger. In addition, an operation performed by the user moving his / her finger while touching the touch panel 20 is referred to as a “touch operation”, and an operation in which the user presses the touch panel 20 with a finger is referred to as a “pressing operation”. An operation performed by combining the touch operation and the pressing operation is referred to as a “gesture operation”. Note that the conventional gesture operation is an operation performed only by a touch operation.
図2は、ユーザーインターフェイス装置3の内部構成例を示すブロック図である。
ユーザーインターフェイス装置3の内部構成を説明する前に、ナビゲーション装置本体2の動作を説明する。ナビゲーション装置本体2(電子機器本体の一例)は、ユーザーインターフェイス装置3の制御部10から入力されるタッチ操作又はジェスチャー操作により、指示された内容に基づいて所定の処理を行う。そして、ナビゲーション装置本体2は、指示に基づいて所定の処理を行った後のオブジェクトをユーザーインターフェイス装置3の制御部10に出力する。 FIG. 2 is a block diagram illustrating an internal configuration example of theuser interface device 3.
Before describing the internal configuration of theuser interface device 3, the operation of the navigation device body 2 will be described. The navigation device main body 2 (an example of the electronic device main body) performs predetermined processing based on the instructed content by a touch operation or a gesture operation input from the control unit 10 of the user interface device 3. Then, the navigation device body 2 outputs the object after performing the predetermined processing based on the instruction to the control unit 10 of the user interface device 3.
ユーザーインターフェイス装置3の内部構成を説明する前に、ナビゲーション装置本体2の動作を説明する。ナビゲーション装置本体2(電子機器本体の一例)は、ユーザーインターフェイス装置3の制御部10から入力されるタッチ操作又はジェスチャー操作により、指示された内容に基づいて所定の処理を行う。そして、ナビゲーション装置本体2は、指示に基づいて所定の処理を行った後のオブジェクトをユーザーインターフェイス装置3の制御部10に出力する。 FIG. 2 is a block diagram illustrating an internal configuration example of the
Before describing the internal configuration of the
ナビゲーション装置本体2からユーザーインターフェイス装置3に出力されるオブジェクトには、例えば、地図、文字列、アイコン、画像等が含まれる。ナビゲーション装置本体2は、ユーザーインターフェイス装置3になされたジェスチャー操作に基づくナビゲーション処理を行っており、ユーザーインターフェイス装置3が表示するための地図を出力したり、ユーザーインターフェイス装置3から入力された文字列を編集したりする。
Objects that are output from the navigation device body 2 to the user interface device 3 include, for example, maps, character strings, icons, images, and the like. The navigation device body 2 performs navigation processing based on the gesture operation performed on the user interface device 3, outputs a map for display by the user interface device 3, and receives a character string input from the user interface device 3. Edit it.
ユーザーインターフェイス装置3は、バスBで接続された、制御部10、記憶媒体制御部14、記憶媒体15、通信制御部16、座標検知部17、感圧検知部18、表示制御部19を備える。また、ユーザーインターフェイス装置3は、座標検知部17に接続されたタッチパネル20、感圧検知部18に接続された感圧センサー30、表示制御部19に接続された表示パネル40を備える。
The user interface device 3 includes a control unit 10, a storage medium control unit 14, a storage medium 15, a communication control unit 16, a coordinate detection unit 17, a pressure sensitive detection unit 18, and a display control unit 19 connected by a bus B. The user interface device 3 also includes a touch panel 20 connected to the coordinate detection unit 17, a pressure sensor 30 connected to the pressure detection unit 18, and a display panel 40 connected to the display control unit 19.
制御部10は、ユーザーインターフェイス装置3内の各部の動作を制御する。この制御部10は、座標検知部17から入力する座標検知情報に基づいてタッチ操作が行われたことを判定すると共に、タッチ位置から入力された情報をナビゲーション装置本体2に出力する。また、制御部10は、感圧検知部18から入力する感圧検知情報に基づいてタッチパネル20が指で押込まれた押込み操作が行われたことを判定する。また、制御部10は、ナビゲーション装置本体2がユーザーインターフェイス装置3に出力したオブジェクトを表示パネル40に表示させる制御情報を表示制御部19に出力する。そして、制御部10は、タッチ操作及び押込み操作を組み合わせたジェスチャー操作に基づいて、オブジェクトに関連する複数のレイヤーから選択された一のレイヤーを表示パネル40に表示するための制御情報を表示制御部19に出力する。また、制御部10は、表示パネル40に表示された一のレイヤーを通じてオブジェクトに行われたタッチ操作(指の移動方向、タッチ位置等)を判定する。
The control unit 10 controls the operation of each unit in the user interface device 3. The control unit 10 determines that a touch operation has been performed based on the coordinate detection information input from the coordinate detection unit 17, and outputs information input from the touch position to the navigation device body 2. Further, the control unit 10 determines that the pressing operation in which the touch panel 20 is pressed with a finger is performed based on the pressure-sensitive detection information input from the pressure-sensitive detection unit 18. In addition, the control unit 10 outputs control information for causing the display panel 40 to display the object output from the navigation device body 2 to the user interface device 3 to the display control unit 19. Then, the control unit 10 displays control information for displaying one layer selected from the plurality of layers related to the object on the display panel 40 based on the gesture operation combining the touch operation and the push-in operation. 19 output. Further, the control unit 10 determines a touch operation (such as a finger movement direction and a touch position) performed on the object through one layer displayed on the display panel 40.
制御部10は、CPU11,RAM12,ROM13により構成され、CPU11,RAM12,ROM13が連動して制御部10の機能を実現する。
CPU(Central Processing Unit)11は、ユーザーインターフェイス装置3内の各部の動作を制御するコンピューターの一例である。CPU11は、例えば、ROM13から読出したプログラムを実行し、本実施の形態に係るジェスチャー操作に関わる処理を行う。
RAM(Random Access Memory)12は、CPU11によって実行されるプログラム等の一時データを記憶する。 Thecontrol unit 10 includes a CPU 11, a RAM 12, and a ROM 13, and the CPU 11, the RAM 12, and the ROM 13 work together to realize the function of the control unit 10.
The CPU (Central Processing Unit) 11 is an example of a computer that controls the operation of each unit in theuser interface device 3. For example, the CPU 11 executes a program read from the ROM 13 and performs processing related to the gesture operation according to the present embodiment.
A RAM (Random Access Memory) 12 stores temporary data such as a program executed by theCPU 11.
CPU(Central Processing Unit)11は、ユーザーインターフェイス装置3内の各部の動作を制御するコンピューターの一例である。CPU11は、例えば、ROM13から読出したプログラムを実行し、本実施の形態に係るジェスチャー操作に関わる処理を行う。
RAM(Random Access Memory)12は、CPU11によって実行されるプログラム等の一時データを記憶する。 The
The CPU (Central Processing Unit) 11 is an example of a computer that controls the operation of each unit in the
A RAM (Random Access Memory) 12 stores temporary data such as a program executed by the
ROM(Read Only Memory)13は、CPU11によって読出されるプログラム等を記憶する。ROM13は、CPU11によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記録媒体の一例として用いられる。このため、ROM13には、このプログラムが永続的に格納される。なお、CPU11によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記録媒体としては、他にもCD-ROM、DVD-ROM等の記録媒体であってもよい。
ROM (Read Only Memory) 13 stores a program read by the CPU 11 and the like. The ROM 13 is used as an example of a computer-readable non-transitory recording medium that stores a program executed by the CPU 11. For this reason, this program is permanently stored in the ROM 13. Note that the computer-readable non-transitory recording medium storing the program executed by the CPU 11 may be a recording medium such as a CD-ROM or a DVD-ROM.
記憶媒体制御部14は、記憶媒体15に対する制御を行う。例えば、記憶媒体制御部14は、制御部10から入力するデータを記憶媒体15に書き込んだり、制御部10からの指示により記憶媒体15に記憶されたデータを読出して制御部10に出力したりする。
記憶媒体15は、例えば、ユーザーインターフェイス装置3に設けられるスロット等に差し込まれ、記憶媒体制御部14により書き込まれたデータを記憶し、又は記憶媒体制御部14によりデータが読出される。例えば、記憶媒体15には、ナビゲーション装置本体2で動作するナビゲーションプログラム、文字編集プログラムのバージョンアップデータ等が記憶される。
通信制御部16は、ナビゲーション装置本体2とユーザーインターフェイス装置3との間でネットワークNを通じて行われるデータの通信処理を制御する。 The storagemedium control unit 14 controls the storage medium 15. For example, the storage medium control unit 14 writes data input from the control unit 10 to the storage medium 15, or reads data stored in the storage medium 15 according to an instruction from the control unit 10 and outputs the data to the control unit 10. .
For example, thestorage medium 15 is inserted into a slot or the like provided in the user interface device 3 and stores data written by the storage medium control unit 14 or data is read by the storage medium control unit 14. For example, the storage medium 15 stores a navigation program that operates in the navigation apparatus main body 2, upgrade data of a character editing program, and the like.
Thecommunication control unit 16 controls data communication processing performed through the network N between the navigation device body 2 and the user interface device 3.
記憶媒体15は、例えば、ユーザーインターフェイス装置3に設けられるスロット等に差し込まれ、記憶媒体制御部14により書き込まれたデータを記憶し、又は記憶媒体制御部14によりデータが読出される。例えば、記憶媒体15には、ナビゲーション装置本体2で動作するナビゲーションプログラム、文字編集プログラムのバージョンアップデータ等が記憶される。
通信制御部16は、ナビゲーション装置本体2とユーザーインターフェイス装置3との間でネットワークNを通じて行われるデータの通信処理を制御する。 The storage
For example, the
The
座標検知部17は、タッチ操作が行われたタッチパネル20のタッチ位置の座標を検知する。タッチパネル20は、平面矩形状に形成されており、互いに交差するX電極とY電極の交差する点の位置が座標情報となり、この位置の静電容量の変化に応じた値が座標検知部17に出力される。座標検知部17は、タッチパネル20から入力された座標情報が変化した箇所の座標を、指のタッチ位置であると検知して、タッチ位置の座標を含む座標検知情報を制御部10に出力する。
The coordinate detection unit 17 detects the coordinates of the touch position of the touch panel 20 where the touch operation is performed. The touch panel 20 is formed in a planar rectangular shape, and the position of the intersection of the X electrode and the Y electrode that intersect each other is coordinate information, and a value corresponding to the change in capacitance at this position is given to the coordinate detection unit 17. Is output. The coordinate detection unit 17 detects the coordinate of the location where the coordinate information input from the touch panel 20 has changed as a finger touch position, and outputs coordinate detection information including the coordinate of the touch position to the control unit 10.
感圧検知部18は、タッチパネル20が指で押され、感圧センサー30が感圧したことを検知する。感圧センサー30は、タッチパネル20の裏面に設けられており、指によりタッチパネル20に印加される押圧力に応じて変化するセンサー値を感圧検知部18に出力する。感圧検知部18は、感圧センサー30から入力されるセンサー値に基づいて、指によりタッチパネル20が押込まれる押込み操作が行われたことを検知して感圧検知情報を制御部10に出力する。
The pressure sensitive detection unit 18 detects that the touch panel 20 is pressed with a finger and the pressure sensitive sensor 30 senses pressure. The pressure-sensitive sensor 30 is provided on the back surface of the touch panel 20 and outputs a sensor value that changes according to the pressing force applied to the touch panel 20 by a finger to the pressure-sensitive detection unit 18. Based on the sensor value input from the pressure-sensitive sensor 30, the pressure-sensitive detection unit 18 detects that a pressing operation for pressing the touch panel 20 with a finger is performed, and outputs pressure-sensitive detection information to the control unit 10. To do.
表示制御部19は、制御部10から入力される制御情報に従って、平面矩形状に形成された表示パネル40に対して、例えば、ナビゲーションに必要なアイコン、地図等を表示させる制御を行う。
The display control unit 19 performs control to display, for example, an icon, a map, and the like necessary for navigation on the display panel 40 formed in a planar rectangular shape according to the control information input from the control unit 10.
図3は、ユーザーインターフェイス装置3の概略構成図である。
図3の上には、上面視したタッチパネル20に設置される感圧センサー30の位置と、筐体55の額縁の位置とが破線で示されている。タッチパネル20を内包するユーザーインターフェイス装置3の筐体55の額縁上のタッチパネル20の裏面には、6個の感圧センサー30が設けられている。このため、ユーザーが感圧センサー30を直接見ることはない。感圧センサー30が設置される数は、図3に示すように通常は複数個設けられるが、必ずしも複数設ける必要はなく、1個でもよい。 FIG. 3 is a schematic configuration diagram of theuser interface device 3.
In FIG. 3, the position of the pressure-sensitive sensor 30 installed on the touch panel 20 as viewed from above and the position of the frame of the housing 55 are indicated by broken lines. Six pressure-sensitive sensors 30 are provided on the back surface of the touch panel 20 on the frame of the housing 55 of the user interface device 3 including the touch panel 20. For this reason, the user does not see the pressure sensor 30 directly. As shown in FIG. 3, a plurality of pressure-sensitive sensors 30 are usually provided, but a plurality of pressure-sensitive sensors 30 are not necessarily provided, and may be one.
図3の上には、上面視したタッチパネル20に設置される感圧センサー30の位置と、筐体55の額縁の位置とが破線で示されている。タッチパネル20を内包するユーザーインターフェイス装置3の筐体55の額縁上のタッチパネル20の裏面には、6個の感圧センサー30が設けられている。このため、ユーザーが感圧センサー30を直接見ることはない。感圧センサー30が設置される数は、図3に示すように通常は複数個設けられるが、必ずしも複数設ける必要はなく、1個でもよい。 FIG. 3 is a schematic configuration diagram of the
In FIG. 3, the position of the pressure-
図3の下には、タッチパネル20及び感圧センサー30の断面図が示される。
トッププレート50は、タッチパネル20の表面を保護する。トッププレート50には透明のガラス基板やフィルム等が用いられる。トッププレート50の表面は、ユーザーがタッチ操作を行うために指を接触させる入力操作面51である。 A cross-sectional view of thetouch panel 20 and the pressure sensor 30 is shown below FIG.
Thetop plate 50 protects the surface of the touch panel 20. A transparent glass substrate, a film, or the like is used for the top plate 50. The surface of the top plate 50 is an input operation surface 51 on which a user contacts a finger in order to perform a touch operation.
トッププレート50は、タッチパネル20の表面を保護する。トッププレート50には透明のガラス基板やフィルム等が用いられる。トッププレート50の表面は、ユーザーがタッチ操作を行うために指を接触させる入力操作面51である。 A cross-sectional view of the
The
タッチパネル20は、例えば、透明なX電極基板21、接着層22、Y電極基板23を順に積層して構成されたものである。トッププレート50とX電極基板21は、接着層52により接着固定されている。X電極基板21及びY電極基板23はそれぞれ矩形状を有する。X電極基板21及びY電極基板23は、接着層22にて接着される。X電極基板21に形成されるX方向検知電極(不図示)と、Y電極基板23に形成されるY方向検知電極(不図示)が互いに平面的に重なる領域が、XY平面の座標検知領域となる。感圧センサー30は、タッチパネル20のXY平面の座標検知領域外の周縁領域(額縁)に配置される。
The touch panel 20 is configured, for example, by laminating a transparent X electrode substrate 21, an adhesive layer 22, and a Y electrode substrate 23 in this order. The top plate 50 and the X electrode substrate 21 are bonded and fixed by an adhesive layer 52. Each of the X electrode substrate 21 and the Y electrode substrate 23 has a rectangular shape. The X electrode substrate 21 and the Y electrode substrate 23 are bonded by the adhesive layer 22. An area where the X direction detection electrode (not shown) formed on the X electrode substrate 21 and the Y direction detection electrode (not shown) formed on the Y electrode substrate 23 overlap each other in a plane is a coordinate detection area on the XY plane. Become. The pressure sensitive sensor 30 is disposed in a peripheral area (frame) outside the coordinate detection area on the XY plane of the touch panel 20.
感圧センサー30は、タッチパネル20と筐体55との間に配置された誘電材料からなる弾性体33と、弾性体33を挟むように配置され、コンデンサを形成する上部電極31及び下部電極35とを備える。感圧センサー30はさらに、弾性体33と上部電極31とを接着固定する接着層32と、弾性体33と下部電極35とを接着固定する接着層34とを備える。本実施の形態においては、6個の各感圧センサー30を構成する弾性体が連結して1つの枠状の弾性体33を構成し、6個の感圧センサー30で1つの弾性体33を共有している。弾性体33を環状に設けることにより、タッチパネル20と筐体55との間、つまりタッチパネル20と表示パネル40との間の空隙41に外部からのゴミ等が侵入することを防止できる。また、6個の感圧センサー30を構成する下部電極35が連結して1つの枠状の下部電極35を構成し、6個の感圧センサー30で1つの下部電極35を共有している。なお、上部電極31も下部電極35と同様に枠状に形成されてもよい。
The pressure-sensitive sensor 30 includes an elastic body 33 made of a dielectric material disposed between the touch panel 20 and the housing 55, and an upper electrode 31 and a lower electrode 35 that are disposed so as to sandwich the elastic body 33 and form a capacitor. Is provided. The pressure-sensitive sensor 30 further includes an adhesive layer 32 that bonds and fixes the elastic body 33 and the upper electrode 31, and an adhesive layer 34 that bonds and fixes the elastic body 33 and the lower electrode 35. In the present embodiment, the elastic bodies constituting the six pressure-sensitive sensors 30 are connected to form one frame-shaped elastic body 33, and the six pressure-sensitive sensors 30 form one elastic body 33. Sharing. By providing the elastic body 33 in a ring shape, it is possible to prevent foreign dust or the like from entering the gap 41 between the touch panel 20 and the housing 55, that is, between the touch panel 20 and the display panel 40. Further, the lower electrodes 35 constituting the six pressure sensors 30 are connected to constitute one frame-like lower electrode 35, and the six pressure sensors 30 share one lower electrode 35. The upper electrode 31 may also be formed in a frame shape like the lower electrode 35.
弾性体33には、例えば、残留ひずみが少なく、復元率(復元速度)が高い材料が用いられる。弾性体33に用いられる材料としては、例えばシリコーンゴム、ウレタン系ゴムがある。弾性体33は、例えば、元の弾性体33の高さに対して最大で10%程度変位すればよい。例えば、感圧センサー30に用いられる厚み0.5mmの弾性体33であれば、10μm程度変位すればよい。
For the elastic body 33, for example, a material having a small residual strain and a high restoration rate (restoration speed) is used. Examples of the material used for the elastic body 33 include silicone rubber and urethane rubber. The elastic body 33 may be displaced about 10% at the maximum with respect to the height of the original elastic body 33, for example. For example, the elastic body 33 having a thickness of 0.5 mm used for the pressure-sensitive sensor 30 may be displaced by about 10 μm.
入力操作面51と垂直な押圧方向(z軸方向)に入力操作面51を、指で押圧すると、感圧センサー30の弾性体33が縮小するように歪み、この感圧センサー30が接着固定されているトッププレート50及びタッチパネル20が押圧方向に移動する。このように、感圧センサー30は、押圧されると押圧方向にその厚みが変位する。そして感圧センサー30の変位分だけ、タッチパネル20の裏面が、表示パネル40の表面に近づくので、タッチパネル20と表示パネル40との間には、タッチパネル20の移動分を考慮した空隙41が設けられている。ただし、タッチパネル20と表示パネル40が接着される場合には、空隙41が設けられない。そして、感圧センサー30は、上部電極31及び下部電極35により形成されるコンデンサの静電容量に応じたセンサー値を感圧検知部18に出力する。
When the input operation surface 51 is pressed with a finger in a pressing direction (z-axis direction) perpendicular to the input operation surface 51, the elastic body 33 of the pressure sensor 30 is distorted so that the pressure sensor 30 is bonded and fixed. The top plate 50 and the touch panel 20 are moved in the pressing direction. Thus, when the pressure sensor 30 is pressed, its thickness is displaced in the pressing direction. Then, the back surface of the touch panel 20 approaches the front surface of the display panel 40 by the amount of displacement of the pressure sensor 30, so that a gap 41 is provided between the touch panel 20 and the display panel 40 in consideration of the movement of the touch panel 20. ing. However, the gap 41 is not provided when the touch panel 20 and the display panel 40 are bonded. The pressure-sensitive sensor 30 outputs a sensor value corresponding to the capacitance of the capacitor formed by the upper electrode 31 and the lower electrode 35 to the pressure-sensitive detection unit 18.
図4は、感圧センサー30の動作原理を説明するための図である。ここでは、タッチパネル20の記載を省略している。
図4の左上には、指で押圧されていない感圧センサー30の例を示し、図4の右上には、指で押圧された感圧センサー30の例を示している。 FIG. 4 is a diagram for explaining the operating principle of the pressure-sensitive sensor 30. Here, the description of the touch panel 20 is omitted.
An example of the pressure-sensitive sensor 30 that is not pressed with a finger is shown in the upper left of FIG. 4, and an example of the pressure-sensitive sensor 30 that is pressed with a finger is shown in the upper right of FIG.
図4の左上には、指で押圧されていない感圧センサー30の例を示し、図4の右上には、指で押圧された感圧センサー30の例を示している。 FIG. 4 is a diagram for explaining the operating principle of the pressure-
An example of the pressure-
上述したようにタッチパネル20が指で押され、感圧センサー30に押圧力が加わると、弾性体33は厚みが減少するように歪む。そして、押圧されていない感圧センサー30の厚みに対して、押圧された感圧センサー30の厚みが変わることで、感圧センサー30の静電容量が変化する。例えば、感圧センサー30が指で押圧されて弾性体33の厚みが変位dだけ減少すると、上部電極31と下部電極35との間の静電容量が変化する。このため、感圧検知部18は、弾性体33の変位dによる上部電極31と下部電極35間の静電容量変化率を利用して、タッチパネル20が押圧され、感圧センサー30が感圧したことを検知している(以下、「感圧を検知」と呼ぶ)。なお、静電容量変化率は、感圧検知部18が上部電極31と下部電極35から出力されるセンサー値に基づいて求められる。ここでセンサー値とは、上部電極31と下部電極35間の静電容量によって決定される電圧である。すなわち、静電容量変化率は、押圧されていない感圧センサー30の上部電極31と下部電極35間の静電容量に対する、押圧された感圧センサー30の上部電極31と下部電極35間の静電容量の割合で求められる。
As described above, when the touch panel 20 is pressed with a finger and a pressing force is applied to the pressure sensor 30, the elastic body 33 is distorted so that the thickness decreases. And the electrostatic capacitance of the pressure sensor 30 changes because the thickness of the pressed pressure sensor 30 changes with respect to the thickness of the pressure sensor 30 which is not pressed. For example, when the pressure sensor 30 is pressed with a finger and the thickness of the elastic body 33 is reduced by the displacement d, the capacitance between the upper electrode 31 and the lower electrode 35 changes. For this reason, the pressure-sensitive detection unit 18 uses the capacitance change rate between the upper electrode 31 and the lower electrode 35 due to the displacement d of the elastic body 33, the touch panel 20 is pressed, and the pressure-sensitive sensor 30 senses pressure. (Hereinafter referred to as “pressure detection”). The capacitance change rate is obtained based on sensor values output from the upper electrode 31 and the lower electrode 35 by the pressure-sensitive detection unit 18. Here, the sensor value is a voltage determined by the capacitance between the upper electrode 31 and the lower electrode 35. That is, the rate of change in capacitance is the static between the upper electrode 31 and the lower electrode 35 of the pressed pressure sensor 30 with respect to the capacitance between the upper electrode 31 and the lower electrode 35 of the pressure sensor 30 that is not pressed. It is obtained as a percentage of electric capacity.
図4の下のグラフは、感圧センサー30の静電容量変化率と、感圧センサー30に加わる押圧力との関係を示すグラフである。このグラフから、感圧センサー30の静電容量変化率は、感圧センサー30に加わる押圧力にほぼ比例するリニアな特性を有することが分かる。本実施の形態に係る感圧検知部18は、感圧センサー30から入力するセンサー値により、上部電極31と下部電極35間の静電容量が変化したこと、すなわち静電容量変化率を求めることが可能である。
4 is a graph showing the relationship between the capacitance change rate of the pressure sensor 30 and the pressing force applied to the pressure sensor 30. The lower graph in FIG. From this graph, it can be seen that the capacitance change rate of the pressure sensor 30 has a linear characteristic that is substantially proportional to the pressing force applied to the pressure sensor 30. The pressure-sensitive detection unit 18 according to the present embodiment obtains a change in capacitance between the upper electrode 31 and the lower electrode 35 based on a sensor value input from the pressure-sensitive sensor 30, that is, obtains a rate of change in capacitance. Is possible.
感圧検知部18は、図4の下の押圧力と静電容量変化率の関係を示すグラフに基づいて、タッチパネル20の裏面に配置された各感圧センサー30で検知されたセンサー値を、タッチパネル20が押込まれたときの押圧力に変換する。そして、感圧検知部18は、この押圧力が押圧閾値を越えたときに、タッチパネル20に対してユーザーが意識的に押圧を加えたと判定し、感圧検知情報を制御部10に出力する。
The pressure-sensitive detection unit 18 detects the sensor value detected by each pressure-sensitive sensor 30 disposed on the back surface of the touch panel 20 based on the graph showing the relationship between the pressing force at the bottom of FIG. It is converted into a pressing force when the touch panel 20 is pressed. Then, when the pressing force exceeds the pressing threshold, the pressure-sensitive detection unit 18 determines that the user has consciously pressed the touch panel 20 and outputs pressure-sensitive detection information to the control unit 10.
なお、感圧検知部18は、各感圧センサー30により検出されるそれぞれの静電容量変化率の合算値に基づいて、押圧力を求めてもよい。これにより、入力操作面51へのタッチ位置だけに依存しない高精度な押圧力検知が可能となる。なお、感圧検知部18は、例えば、静電容量変化率の合算値を感圧センサー30の数で除算して得られる平均値から押圧力を求めてもよい。
Note that the pressure-sensitive detection unit 18 may obtain the pressing force based on the total value of the respective capacitance change rates detected by the pressure-sensitive sensors 30. Thereby, it is possible to detect the pressing force with high accuracy without depending on only the touch position on the input operation surface 51. Note that the pressure-sensitive detection unit 18 may obtain the pressing force from an average value obtained by dividing the total value of the capacitance change rates by the number of the pressure-sensitive sensors 30, for example.
また、感圧検知部18は、押圧力の大きさにより異なる感圧検知情報を制御部10に出力してもよい。例えば、図4の下のグラフにおいて、静電容量変化率が2.0%となる押圧力を閾値th1(第1押圧閾値の一例)とし、静電容量変化率が6.0%となる押圧力を閾値th2(第2押圧閾値の一例)とする。押圧力が閾値th1未満であれば、筐体55を通じてユーザーインターフェイス装置3に加わる振動等により静電容量が変化したに過ぎないと考える。つまり、ユーザーが意図して指をタッチパネル20に押込んだものではないとする。この場合、感圧検知部18は、ユーザーが指をタッチパネル20に押込んだと判定しないので、感圧検知情報を出力しない。しかし、押圧力が閾値th1以上であれば、感圧検知部18は、ユーザーが指をタッチパネル20に押込んだと判定し、第1感圧検知情報を出力する。さらに、押圧力が閾値th2以上であれば、感圧検知部18は、ユーザーが指をタッチパネル20に強く押込んだと判定し、第2感圧検知情報を出力する。
Further, the pressure-sensitive detection unit 18 may output pressure-sensitive detection information that varies depending on the magnitude of the pressing force to the control unit 10. For example, in the lower graph of FIG. 4, the pressing force at which the capacitance change rate is 2.0% is defined as a threshold th1 (an example of the first pressing threshold value), and the pressing force at which the capacitance change rate is 6.0%. Let the pressure be a threshold th2 (an example of a second pressing threshold). If the pressing force is less than the threshold th <b> 1, it is considered that the capacitance has only changed due to vibration applied to the user interface device 3 through the housing 55. That is, it is assumed that the user does not intentionally press the finger into the touch panel 20. In this case, the pressure-sensitive detection unit 18 does not determine that the user has pressed the finger into the touch panel 20, and therefore does not output pressure-sensitive detection information. However, if the pressing force is equal to or greater than the threshold th1, the pressure-sensitive detection unit 18 determines that the user has pressed the finger into the touch panel 20, and outputs first pressure-sensitive detection information. Furthermore, if the pressing force is greater than or equal to the threshold th2, the pressure-sensitive detection unit 18 determines that the user has pressed the finger strongly into the touch panel 20, and outputs second pressure-sensitive detection information.
このように感圧検知部18は、ユーザーが指をタッチパネル20に押込む押込み量に応じて変わる静電容量変化率から求めた押圧力に基づいて、第1感圧検知情報又は第2感圧検知情報を制御部10に出力することができる。この結果、制御部10は、感圧検知部18から入力される第1感圧検知情報又は第2感圧検知情報に応じて異なる処理を行うことが可能となる。なお、感圧検知情報を第1感圧検知情報又は第2感圧検知情報のいずれか1つだけとしてもよい。第1感圧検知情報又は第2感圧検知情報を区別しない場合、「感圧検知情報」と呼ぶ。
As described above, the pressure-sensitive detection unit 18 uses the first pressure-sensitive detection information or the second pressure-sensitive information based on the pressing force obtained from the capacitance change rate that changes according to the pressing amount of the user pushing the finger into the touch panel 20. Detection information can be output to the control unit 10. As a result, the control unit 10 can perform different processes according to the first pressure detection information or the second pressure detection information input from the pressure detection unit 18. Note that the pressure-sensitive detection information may be only one of the first pressure-sensitive detection information and the second pressure-sensitive detection information. When the first pressure detection information or the second pressure detection information is not distinguished, it is referred to as “pressure detection information”.
制御部10は、感圧検知部18から感圧検知情報が入力したことにより、タッチパネル20に指が押込まれ、ユーザーによる決定操作がなされたことを判定する。このとき、制御部10は、ユーザーに押圧状態であることを知らせるために、筐体55を振動させたり、表示パネル40にメッセージを表示したりする。また、不図示のスピーカーから音声ガイドを放音するようにしてもよい。あるいは、制御部10は、押込まれているタッチ位置に丸、四角等のアイコンを表示することもできる。この場合、アイコンを点滅させてもよいし、アイコンの表示色を変えてもよい。また、筐体55は、タッチパネル20が押込まれた時に、クリック音を発生させたり、指の感触を変化させたりすることもできる。
The control unit 10 determines that the finger has been pushed into the touch panel 20 and the determination operation by the user has been performed when the pressure-sensitive detection information is input from the pressure-sensitive detection unit 18. At this time, the control unit 10 vibrates the housing 55 or displays a message on the display panel 40 in order to inform the user that it is in the pressed state. Further, a voice guide may be emitted from a speaker (not shown). Or the control part 10 can also display icons, such as a circle and a square, in the pressed touch position. In this case, the icon may be blinked, or the icon display color may be changed. The housing 55 can also generate a click sound or change the touch of the finger when the touch panel 20 is pushed.
以下、図5及び図6を参照して、従来のユーザーインターフェイス装置100を用いた操作例と、第1の実施の形態に係るユーザーインターフェイス装置3を用いた操作例とを比較して説明する。
図5に示す従来のフローチャートと、図6に示す本発明の第1の実施の形態に係るフローチャートの各ステップには、ジェスチャー操作の具体的な内容を説明するために、ユーザーインターフェイス装置3,100の表示パネルに表示された画面の表示例が示されることがある。この表示例には、タッチパネルを通じてユーザーがメニュー項目を指示する指示アイコンが黒矢印で表される。 Hereinafter, an operation example using the conventionaluser interface device 100 and an operation example using the user interface device 3 according to the first embodiment will be described with reference to FIGS. 5 and 6.
Each step of the conventional flowchart shown in FIG. 5 and the flowchart according to the first embodiment of the present invention shown in FIG. 6 includes user interface devices 3 and 100 in order to explain specific contents of the gesture operation. A display example of the screen displayed on the display panel may be shown. In this display example, an instruction icon for a user to specify a menu item through a touch panel is represented by a black arrow.
図5に示す従来のフローチャートと、図6に示す本発明の第1の実施の形態に係るフローチャートの各ステップには、ジェスチャー操作の具体的な内容を説明するために、ユーザーインターフェイス装置3,100の表示パネルに表示された画面の表示例が示されることがある。この表示例には、タッチパネルを通じてユーザーがメニュー項目を指示する指示アイコンが黒矢印で表される。 Hereinafter, an operation example using the conventional
Each step of the conventional flowchart shown in FIG. 5 and the flowchart according to the first embodiment of the present invention shown in FIG. 6 includes
<従来のメニュー項目を選択する操作の課題>
従来のユーザーインターフェイス装置は、タッチ位置のXY座標だけを検知可能な従来のタッチパネル、又はマウスを備えている。そして、ユーザーは、従来のユーザーインターフェイス装置を用いて、メニューバーに配置されたメインメニューからメニュー項目を選択する場合がある。このときユーザーは、指示アイコンでメインメニューを選択した後、このメインメニューに対して下位レイヤーに属する複数のメニュー項目から目的とするメニュー項目を選択する。しかし、ユーザーが目的とするメニュー項目まで指示アイコンを移動する際に、指示アイコンがメニュー項目の表示領域を外れると、メニュー項目が表示されなくなり、改めてメインメニューを選択してメニュー項目を表示させなければならなかった。 <Problem of selecting menu items in the past>
The conventional user interface device includes a conventional touch panel or a mouse that can detect only the XY coordinates of the touch position. Then, the user may select a menu item from the main menu arranged on the menu bar using a conventional user interface device. At this time, after selecting the main menu with the instruction icon, the user selects a target menu item from a plurality of menu items belonging to the lower layer for the main menu. However, when the user moves the instruction icon to the desired menu item, if the instruction icon goes out of the menu item display area, the menu item is not displayed, and the menu item must be displayed again by selecting the main menu. I had to.
従来のユーザーインターフェイス装置は、タッチ位置のXY座標だけを検知可能な従来のタッチパネル、又はマウスを備えている。そして、ユーザーは、従来のユーザーインターフェイス装置を用いて、メニューバーに配置されたメインメニューからメニュー項目を選択する場合がある。このときユーザーは、指示アイコンでメインメニューを選択した後、このメインメニューに対して下位レイヤーに属する複数のメニュー項目から目的とするメニュー項目を選択する。しかし、ユーザーが目的とするメニュー項目まで指示アイコンを移動する際に、指示アイコンがメニュー項目の表示領域を外れると、メニュー項目が表示されなくなり、改めてメインメニューを選択してメニュー項目を表示させなければならなかった。 <Problem of selecting menu items in the past>
The conventional user interface device includes a conventional touch panel or a mouse that can detect only the XY coordinates of the touch position. Then, the user may select a menu item from the main menu arranged on the menu bar using a conventional user interface device. At this time, after selecting the main menu with the instruction icon, the user selects a target menu item from a plurality of menu items belonging to the lower layer for the main menu. However, when the user moves the instruction icon to the desired menu item, if the instruction icon goes out of the menu item display area, the menu item is not displayed, and the menu item must be displayed again by selecting the main menu. I had to.
<従来の操作>
図6に示す本発明の第1の実施の形態を説明する前に、図5により従来のメニュー項目を選択する操作の例を説明する。
図5は、従来のメニュー項目を選択する操作の例を示すフローチャートである。
始めに、従来のユーザーインターフェイス装置100が備える不図示の制御部は、ユーザーインターフェイス装置100が備えるタッチパネルに指がタッチしたことを検知する(S1)。以下、従来のユーザーインターフェイス装置の制御部を、符号無しで単に「制御部」と称する。 <Conventional operation>
Prior to describing the first embodiment of the present invention shown in FIG. 6, an example of an operation for selecting a conventional menu item will be described with reference to FIG.
FIG. 5 is a flowchart showing an example of an operation for selecting a conventional menu item.
First, a control unit (not shown) provided in the conventionaluser interface device 100 detects that a finger touches the touch panel provided in the user interface device 100 (S1). Hereinafter, a control unit of a conventional user interface device is simply referred to as a “control unit” without a symbol.
図6に示す本発明の第1の実施の形態を説明する前に、図5により従来のメニュー項目を選択する操作の例を説明する。
図5は、従来のメニュー項目を選択する操作の例を示すフローチャートである。
始めに、従来のユーザーインターフェイス装置100が備える不図示の制御部は、ユーザーインターフェイス装置100が備えるタッチパネルに指がタッチしたことを検知する(S1)。以下、従来のユーザーインターフェイス装置の制御部を、符号無しで単に「制御部」と称する。 <Conventional operation>
Prior to describing the first embodiment of the present invention shown in FIG. 6, an example of an operation for selecting a conventional menu item will be described with reference to FIG.
FIG. 5 is a flowchart showing an example of an operation for selecting a conventional menu item.
First, a control unit (not shown) provided in the conventional
次に、制御部は、ユーザーによりメニューバーからメインメニューを選択するメニュー操作が行われたか否かを判定する(S2)。制御部が、ユーザーによりメニュー操作が行われていないと判定した場合(S2のNO)、タッチパネルに行われた操作は、指示アイコンをメニューバー以外の場所に移動させる操作になる。このため、制御部は、ユーザーの指の移動方向に合わせて指示アイコンを動かす指示アイコンの移動操作等を行った後(S3)、本処理を終了する。
Next, the control unit determines whether or not the user has performed a menu operation for selecting the main menu from the menu bar (S2). When the control unit determines that the menu operation is not performed by the user (NO in S2), the operation performed on the touch panel is an operation of moving the instruction icon to a place other than the menu bar. For this reason, the control unit performs the operation of moving the instruction icon to move the instruction icon in accordance with the movement direction of the user's finger (S3), and then ends this process.
一方、ステップS2にて制御部は、ユーザーによりメニュー操作が行われたと判定した場合(S2のYES)、指示アイコンが指示したメインメニューの下位レイヤーに含まれるメニュー項目をプルダウンリストに第1メニューm1として表示する(S4)。ステップS4に付加された画面には、ユーザーが従来のユーザーインターフェイス装置100に表示される画面左上のメニューバーからメインメニューとしてFILEメニューをクリック等により選択した結果、FILEメニューの下位レイヤーにある第1メニューm1と第2メニューm2がプルダウンリストに表示される様子が示されている。第1メニューm1、第2メニューm2は、共に複数のメニュー項目をグループ化したものである。第1メニューm1のメニュー項目には、例えば「NEW」、「OPEN」等が含まれ、第2メニューm2のメニュー項目には、例えば「PRINT」等が含まれる。なお、ステップS7に付加された画面では、第1メニューm1の下に第2メニューm2が同時に表示されているが、表示パネルが小さい場合には、第1メニューm1の下に表示されるドロップダウンボタンをクリックしたり、画面をスクロール移動しなければ、第2メニューm2が表示されない。
On the other hand, if it is determined in step S2 that the menu operation has been performed by the user (YES in S2), the menu item included in the lower layer of the main menu indicated by the instruction icon is displayed in the pull-down list in the first menu m1. (S4). In the screen added to step S4, as a result of the user selecting the FILE menu as the main menu from the menu bar at the upper left of the screen displayed on the conventional user interface device 100, the first menu in the lower layer of the FILE menu is displayed. A state in which the menu m1 and the second menu m2 are displayed in the pull-down list is shown. Both the first menu m1 and the second menu m2 are a group of a plurality of menu items. Menu items of the first menu m1 include, for example, “NEW”, “OPEN”, and the like, and menu items of the second menu m2 include, for example, “PRINT”. In the screen added in step S7, the second menu m2 is simultaneously displayed below the first menu m1, but when the display panel is small, a drop-down displayed below the first menu m1. The second menu m2 is not displayed unless the button is clicked or the screen is scrolled.
次に、ユーザーは、プルダウンリストに表示される第2メニューm2を選択するか否かを判定する(S5)。第2メニューm2を選択しない場合(S5のNO)、ユーザーは、第1メニューm1のメニュー項目を選択する(S6)。制御部は、第1メニューm1のメニュー項目が選択され、タッチパネルから指が離れたと判定すると、選択されたメニュー項目を確定し、本処理を終了する。
Next, the user determines whether or not to select the second menu m2 displayed in the pull-down list (S5). When the second menu m2 is not selected (NO in S5), the user selects a menu item of the first menu m1 (S6). When it is determined that the menu item of the first menu m1 is selected and the finger is removed from the touch panel, the control unit determines the selected menu item and ends the process.
一方、ステップS5にて制御部は、ユーザーが第2メニューm2を選択する場合(S5のYES)、ユーザーは指示アイコンを移動して、第2メニューm2を表示する(S7)。ステップS7に付加された画面には、ユーザーがFILEメニュー項目から第2メニューm2に含まれる「PRINT」を選択した様子が示されている。
On the other hand, in step S5, when the user selects the second menu m2 (YES in S5), the user moves the instruction icon and displays the second menu m2 (S7). The screen added in step S7 shows that the user has selected “PRINT” included in the second menu m2 from the FILE menu item.
そして、ユーザーは、第2メニューm2のメニュー項目を選択する(S8)。制御部は、第2メニューm2のメニュー項目が選択され、タッチパネルから指が離れたと判定すると、選択されたメニュー項目を確定し(S8)、本処理を終了する。
Then, the user selects a menu item of the second menu m2 (S8). When the control unit determines that the menu item of the second menu m2 is selected and the finger is removed from the touch panel, the control unit determines the selected menu item (S8), and ends the present process.
このように従来は、メインメニューが複数の下位レイヤーのメニューで構成される場合、ユーザーが最終的に必要とするメニュー項目を選択するには、下位レイヤーのメニューを選択し、表示されたメニュー項目に指示アイコンを移動する操作を行っていた。しかし、移動した指示アイコンがメニュー項目から外れてしまうと、メインメニュー及び下位レイヤーのメニューの選択が無効となってしまう。また、ユーザーが指示アイコンをメインレイヤーに戻し、他のメインメニューを選択し直す場合にも正確に指示アイコンを移動しなければならない。そして、多くのメニュー項目を含むプルダウンリストから、ユーザーが目的とするメニュー項目を選択するためには指を大きく動かさなくてはならず、意図したメニュー項目とは異なる位置で誤ってタッチパネルから指を離すこともあり、操作ミスを起こしやすかった。
Thus, conventionally, when the main menu is composed of a plurality of lower layer menus, the menu item displayed by the user is selected by selecting the lower layer menu in order to select a menu item finally required by the user. The operation to move the instruction icon to was performed. However, if the moved instruction icon deviates from the menu item, the selection of the main menu and the lower layer menu becomes invalid. Further, when the user returns the instruction icon to the main layer and selects another main menu, the instruction icon must be moved accurately. In order to select the desired menu item from the pull-down list containing many menu items, the user must move his / her finger greatly, and the finger is accidentally moved from the touch panel at a position different from the intended menu item. It was easy to make an operation mistake.
<第1の実施の形態のジェスチャー操作>
図6は、第1の実施の形態に係るメニュー項目を選択する操作の例を示すフローチャートである。この第1の実施の形態では、1本の指を用いた簡易な操作によりメニュー項目に関連するレイヤーから目的とするメニュー項目を選択できるようにしている。すなわち、第1の実施の形態に係る制御部10は、タッチパネル20が指により押込まれた場合に、異なるメニュー項目を含む複数のレイヤーから一のレイヤーを表示するための制御情報を表示制御部19に出力することが可能である。そして、レイヤーには、第1レイヤー及び第2レイヤーが含まれる。第1レイヤーは、タッチパネル20に対してメニュー操作が行われると表示される第1メニューm1を含む。第2レイヤーは、第1メニューm1の上でタッチパネル20が指により押込まれると表示される第2メニューm2を含む。 <Gesture operation of the first embodiment>
FIG. 6 is a flowchart illustrating an example of an operation for selecting a menu item according to the first embodiment. In the first embodiment, a target menu item can be selected from a layer related to the menu item by a simple operation using one finger. That is, thecontrol unit 10 according to the first embodiment displays control information for displaying one layer from a plurality of layers including different menu items when the touch panel 20 is pressed by a finger. Can be output. The layers include a first layer and a second layer. The first layer includes a first menu m1 that is displayed when a menu operation is performed on the touch panel 20. The second layer includes a second menu m2 that is displayed when the touch panel 20 is pressed with a finger on the first menu m1.
図6は、第1の実施の形態に係るメニュー項目を選択する操作の例を示すフローチャートである。この第1の実施の形態では、1本の指を用いた簡易な操作によりメニュー項目に関連するレイヤーから目的とするメニュー項目を選択できるようにしている。すなわち、第1の実施の形態に係る制御部10は、タッチパネル20が指により押込まれた場合に、異なるメニュー項目を含む複数のレイヤーから一のレイヤーを表示するための制御情報を表示制御部19に出力することが可能である。そして、レイヤーには、第1レイヤー及び第2レイヤーが含まれる。第1レイヤーは、タッチパネル20に対してメニュー操作が行われると表示される第1メニューm1を含む。第2レイヤーは、第1メニューm1の上でタッチパネル20が指により押込まれると表示される第2メニューm2を含む。 <Gesture operation of the first embodiment>
FIG. 6 is a flowchart illustrating an example of an operation for selecting a menu item according to the first embodiment. In the first embodiment, a target menu item can be selected from a layer related to the menu item by a simple operation using one finger. That is, the
第1の実施の形態においてジェスチャー操作とは、ユーザーが第1メニューm1の上でタッチパネル20に指を押込んで第2メニューm2を表示し、第2メニューm2から任意のメニュー項目を選択する操作である。また、第1の実施の形態においてオブジェクトに関連する複数のレイヤーから選択された一のレイヤーを表示パネル40に表示するとは、例えば、あるオブジェクト(例えば、ファイル、図形、文字列)について、1つのレイヤー(例えば、メインメニュー)に複数の下位のレイヤー(例えば、第1メニューm1及び第2メニューm2)が含まれるときに、複数の下位のレイヤーから1つの下位のレイヤーを選択して、この下位のレイヤーに含まれるメニュー項目を表示することである。
In the first embodiment, the gesture operation is an operation in which the user presses the finger on the touch panel 20 on the first menu m1 to display the second menu m2, and selects an arbitrary menu item from the second menu m2. is there. In the first embodiment, one layer selected from a plurality of layers related to an object is displayed on the display panel 40. For example, one object (for example, a file, a graphic, or a character string) is displayed as one layer. When a plurality of lower layers (for example, the first menu m1 and the second menu m2) are included in the layer (for example, the main menu), one lower layer is selected from the plurality of lower layers, and this lower layer is selected. Is to display the menu items contained in the layer.
始めに、ユーザーインターフェイス装置3が備えるタッチパネル20にユーザーの指が触れたことにより、座標検知部17は、タッチされたことを検知し(S11)、タッチ位置の座標を検知する。
First, when the user's finger touches the touch panel 20 provided in the user interface device 3, the coordinate detection unit 17 detects that the touch has been made (S11), and detects the coordinates of the touch position.
次に、ユーザーがタッチパネル20にタッチした指でメニューバーからメインメニューを選択するメニュー操作を行う(S12)。ユーザーがメニュー操作を行わなければ(S12のNO)、タッチパネル20に行われた操作は、指示アイコンをメニューバー以外の場所に移動させる操作である。このため、制御部10は、ユーザーの指の移動方向に合わせて指示アイコンを動かす指示アイコンの移動操作等を行った後(S13)、本処理を終了する。
Next, a menu operation for selecting the main menu from the menu bar is performed with the finger touched on the touch panel 20 by the user (S12). If the user does not perform the menu operation (NO in S12), the operation performed on the touch panel 20 is an operation for moving the instruction icon to a place other than the menu bar. For this reason, the control part 10 complete | finishes this process, after performing the movement operation etc. of the instruction | indication icon which moves an instruction | indication icon according to the moving direction of a user's finger | toe (S13).
一方、ユーザーがメニュー操作を行えば(S12のYES)、制御部10は、座標検知部17から入力する座標検知情報に基づいて、ユーザーが移動した指が画面上部のメニューバーに移動したことを判定する。例えば、メニューバーのFILEメニューに指が移動すると、制御部10は、第1メニューm1だけを表示パネル40に表示するための制御情報を表示制御部19に出力する(S14)。このとき、メインメニューの下位レイヤーである第1メニューm1だけがプルダウンリストに表示される。ステップS14に付加された画面には、ユーザーが画面左上のメニューバーからFILEメニューをタッチ操作で選択し、第1メニューm1のメニュー項目(「NEW」、「OPEN」等)だけがプルダウンリストに表示される様子が示されている。
On the other hand, if the user performs a menu operation (YES in S12), the control unit 10 confirms that the finger moved by the user has moved to the menu bar at the top of the screen based on the coordinate detection information input from the coordinate detection unit 17. judge. For example, when the finger moves to the FILE menu on the menu bar, the control unit 10 outputs control information for displaying only the first menu m1 on the display panel 40 to the display control unit 19 (S14). At this time, only the first menu m1 which is a lower layer of the main menu is displayed in the pull-down list. On the screen added in step S14, the user selects the FILE menu from the menu bar at the top left of the screen by touch operation, and only the menu items of the first menu m1 ("NEW", "OPEN", etc.) are displayed in the pull-down list. The state of being done is shown.
次に、ユーザーが指をタッチパネル20に押し込む動作を選択する。感圧検知部18は、感圧センサー30から出力されるセンサー値に基づいて、感圧センサー30が感圧を検知したか否かを判定する(S15)。感圧検知部18が、センサー値により感圧を検知していないと判定した場合(S15のNO)、制御部10は、第1メニューm1のメニュー項目が選択され、タッチパネル20から指が離れると、選択されたメニュー項目を確定し(S16)、本処理を終了する。
Next, the user selects an operation of pushing a finger into the touch panel 20. Based on the sensor value output from the pressure sensor 30, the pressure sensor 18 determines whether or not the pressure sensor 30 has detected pressure (S15). When it is determined that the pressure sensitive detection unit 18 has not detected pressure sensitive based on the sensor value (NO in S15), the control unit 10 selects the menu item of the first menu m1 and releases the finger from the touch panel 20. The selected menu item is confirmed (S16), and this process is terminated.
一方、感圧検知部18が、センサー値により感圧を検知したと判定した場合(S15のYES)、制御部10は、第1メニューm1の上でタッチパネル20が指により押込まれたと判定する。そして、制御部10は、指が押込まれたタッチ位置の近傍に第2メニューm2を表示するための制御情報を表示制御部19に出力する。
On the other hand, when it is determined that the pressure sensitive detection unit 18 has detected the pressure sensitive by the sensor value (YES in S15), the control unit 10 determines that the touch panel 20 has been pushed by the finger on the first menu m1. Then, the control unit 10 outputs to the display control unit 19 control information for displaying the second menu m2 in the vicinity of the touch position where the finger is pressed.
これにより、既に表示パネル40に表示されている第1メニューm1に重なる位置で第2メニューm2が表示される(S17)。このため、ユーザーは、タッチパネル20を押込んだ位置からほとんど指を動かすことなく第2メニューm2のメニュー項目を選択することができる(S18)。そして、制御部10は、第2メニューm2のメニュー項目が選択され、タッチパネル20から指が離れると、選択されたメニュー項目を確定し、本処理を終了する。
Thereby, the second menu m2 is displayed at a position overlapping the first menu m1 already displayed on the display panel 40 (S17). For this reason, the user can select the menu item of the second menu m2 with almost no finger moving from the position where the touch panel 20 is pressed (S18). Then, when the menu item of the second menu m2 is selected and the finger is removed from the touch panel 20, the control unit 10 determines the selected menu item and ends this process.
なお、ユーザーが指をタッチパネル20に押込んで第2メニューm2を表示したものの、目的とするメニュー項目が他のメニューの下位レイヤーに含まれることに気づいたとする。この場合、ユーザーは、指をタッチパネル20に押込んだまま、指を第2メニューm2から離す操作を行う。これにより、第1メニューm1及び第2メニューm2の表示は消え、ユーザーは改めてメニューバーからメニューを選択することができる。
It is assumed that the user presses the finger on the touch panel 20 to display the second menu m2, but notices that the target menu item is included in a lower layer of another menu. In this case, the user performs an operation of releasing the finger from the second menu m2 while pressing the finger on the touch panel 20. Thereby, the display of the first menu m1 and the second menu m2 disappears, and the user can select the menu from the menu bar again.
以上説明した第1の実施の形態に係るユーザーインターフェイス装置3では、1本の指を用いて、タッチパネル20を押込むシンプルなジェスチャー操作により第1メニューm1又は第2メニューm2を選択し、目的とするメニュー項目を選択することができる。このため、従来のメニュー項目を選択するために指示アイコンを大きく移動する操作に比べて、本実施の形態に係るジェスチャー操作をユーザーが感覚的かつ直感的で扱うことができる。
In the user interface device 3 according to the first embodiment described above, the first menu m1 or the second menu m2 is selected by a simple gesture operation of pressing the touch panel 20 using one finger, You can select a menu item to do. For this reason, the user can handle the gesture operation according to the present embodiment sensibly and intuitively as compared with the operation of moving the instruction icon greatly in order to select a conventional menu item.
また、第1メニューm1に重ねて第2メニューm2が表示されるため、ユーザーの視線移動も少なくてよい。また、指の移動距離も短くすることができ、指示アイコンをほとんど動かさなくてよいため、ユーザーは操作ミスを減らすばかりか、複数のレイヤーを素早く切替えることができる。
Also, since the second menu m2 is displayed over the first menu m1, the user's line-of-sight movement may be reduced. In addition, since the movement distance of the finger can be shortened and the instruction icon need not be moved, the user can quickly switch between a plurality of layers as well as reduce operation errors.
また、ユーザーがユーザーインターフェイス装置3に指をタッチしている間は、走行中の車両が揺れていたとしても指がタッチ位置から移動しにくい。このため、従来の近接式のタッチパネルを用いたユーザーインターフェイス装置に比べて正確に操作することができる。なお、ナビゲーション装置本体2は、車両が走行している間はユーザーインターフェイス装置3を用いて操作できないようにする制御情報をユーザーインターフェイス装置3に出力してもよい。逆に、車両が停車している間はユーザーインターフェイス装置3を用いて操作できるようにする制御情報をユーザーインターフェイス装置3に出力してもよい。
In addition, while the user touches the user interface device 3 with his / her finger, the finger is difficult to move from the touch position even if the running vehicle is shaking. Therefore, it can be operated more accurately than a conventional user interface device using a proximity touch panel. Note that the navigation device body 2 may output control information to the user interface device 3 so that it cannot be operated using the user interface device 3 while the vehicle is traveling. Conversely, control information that allows the user interface device 3 to be operated while the vehicle is stopped may be output to the user interface device 3.
また、画像編集ソフトウェア、画像閲覧ソフトウェア等においても、第1の実施の形態に係るユーザーインターフェイス装置3を用いて第1メニューm1及び第2メニューm2を表示してもよい。
Also in the image editing software, the image browsing software, etc., the first menu m1 and the second menu m2 may be displayed using the user interface device 3 according to the first embodiment.
なお、第2メニューm2を、「PRINT」以降のメニュー項目としたが、任意のメニュー項目に変更することが可能である。また、1つのメニューに、3つ以上の下位のレイヤーを設定することも可能である。この場合、ユーザーがメニューを選択した位置でタッチパネル20を押込むことで、レイヤーを順に切替えて表示することができる。例えば、第1メニューm1が表示されている状態で、タッチパネル20に対する指の押圧力が閾値th1以上であれば第2メニューm2を表示し、指の押圧力が閾値th2以上であれば、第2メニューm2の代わりに他のメニューを表示するようにしてもよい。このため、ユーザーは、複数のレイヤーから目的とするメニュー項目が含まれるレイヤーを選択することが可能である。
Although the second menu m2 is a menu item after “PRINT”, it can be changed to an arbitrary menu item. It is also possible to set three or more lower layers in one menu. In this case, by pressing the touch panel 20 at the position where the user has selected the menu, the layers can be sequentially switched and displayed. For example, in a state where the first menu m1 is displayed, the second menu m2 is displayed if the finger pressing force on the touch panel 20 is greater than or equal to the threshold th1, and the second menu m2 is displayed if the finger pressing force is greater than or equal to the threshold th2. Another menu may be displayed instead of the menu m2. Therefore, the user can select a layer including a target menu item from a plurality of layers.
また、閾値th1だけを用いて、ユーザーが目的とするレイヤーを選択可能としてもよい。例えば、下位レイヤーには、上述した第1メニューm1、第2メニューm2に加えて、第3メニューがあるとする。そして、第1メニューm1が表示されている状態で、ユーザーがタッチパネル20を閾値th1以上の押圧力で押込むと、第1メニューm1が第2メニューm2に切替えて表示される。次に、ユーザーがタッチパネル20に指をタッチしたまま指の押圧力が閾値th1未満となるように指を引いた後、再びタッチパネル20を閾値th1以上の押圧力で押込むと、第2メニューm2が第3メニューに切替えて表示される。さらに、ユーザーがタッチパネル20に指をタッチしたまま指の押圧力が閾値th1未満となるように指を引いた後、再びタッチパネル20を閾値th1以上の押圧力で押込むと、第3メニューが第1メニューm1に切替えて表示される。このようにユーザーがタッチパネル20に指を押込む度に、第1メニューm1、第2メニューm2、第3メニューをサイクリックに表示することが可能である。
Further, the target layer may be selectable by the user using only the threshold th1. For example, it is assumed that the lower layer includes a third menu in addition to the first menu m1 and the second menu m2 described above. When the user presses the touch panel 20 with a pressing force equal to or greater than the threshold th1 while the first menu m1 is displayed, the first menu m1 is switched to the second menu m2 and displayed. Next, after the user pulls his / her finger so that the finger pressing force is less than the threshold th1 while touching the touch panel 20, the second menu m2 Is switched to the third menu and displayed. Further, after the user pulls his / her finger so that the pressing force of the finger is less than the threshold th1 while touching the touch panel 20, the third menu is displayed when the touch panel 20 is pressed again with a pressing force of the threshold th1 or more. It is switched to 1 menu m1 and displayed. Thus, whenever the user presses the finger on the touch panel 20, the first menu m1, the second menu m2, and the third menu can be cyclically displayed.
また、表示パネル40の任意の一辺に各種のメニューをユーザーが選択可能なメニュー選択エリアを表示してもよい。そして、ユーザーが一つのメニュー選択エリアを指でタッチして押込んだ場合、このメニュー選択エリアに表示されているメニューに対応するメニュー項目を表示パネル40に表示してもよい。
Further, a menu selection area where the user can select various menus may be displayed on any one side of the display panel 40. When the user touches and pushes in one menu selection area with a finger, menu items corresponding to the menu displayed in the menu selection area may be displayed on the display panel 40.
[第2の実施の形態]
次に、図8を参照して、本発明の第2の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。第2の実施の形態に係るジェスチャー操作は、レイヤー別にタッチ操作を行うために行われる。 [Second Embodiment]
Next, an example of gesture operation of theuser interface device 3 according to the second embodiment of the present invention will be described with reference to FIG. The gesture operation according to the second embodiment is performed to perform a touch operation for each layer.
次に、図8を参照して、本発明の第2の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。第2の実施の形態に係るジェスチャー操作は、レイヤー別にタッチ操作を行うために行われる。 [Second Embodiment]
Next, an example of gesture operation of the
<従来のレイヤー切替え操作の課題>
従来のタッチ位置のXY座標だけを検知可能なタッチパネルを備えたユーザーインターフェイス装置では、ユーザーがレイヤー毎に異なる作業を行うために、切替え先のレイヤーが一覧表示されたメニュー項目から目的とするレイヤーを選択していた。 <Problems of conventional layer switching operation>
In a conventional user interface device equipped with a touch panel that can detect only the XY coordinates of the touch position, in order for the user to perform different work for each layer, the target layer is selected from the menu item that lists the switching destination layers. Was selected.
従来のタッチ位置のXY座標だけを検知可能なタッチパネルを備えたユーザーインターフェイス装置では、ユーザーがレイヤー毎に異なる作業を行うために、切替え先のレイヤーが一覧表示されたメニュー項目から目的とするレイヤーを選択していた。 <Problems of conventional layer switching operation>
In a conventional user interface device equipped with a touch panel that can detect only the XY coordinates of the touch position, in order for the user to perform different work for each layer, the target layer is selected from the menu item that lists the switching destination layers. Was selected.
以下、図7及び図8を参照して、従来のユーザーインターフェイス装置100を用いた操作例と、第1の実施の形態に係るユーザーインターフェイス装置3を用いた操作例とを比較して説明する。
図7及び図8のステップに付加した画面には、矩形状の破線の範囲内に、ある瞬間におけるユーザーインターフェイス装置3,100の画面及び指の正面図、下面図、左側面図が同時に表示されている。また、画面内の白抜き矢印は指の移動方向を表す。 Hereinafter, an operation example using the conventionaluser interface device 100 and an operation example using the user interface device 3 according to the first embodiment will be described with reference to FIGS. 7 and 8.
In the screen added to the steps of FIGS. 7 and 8, the screen of the user interface device 3, 100 and the front view, the bottom view, and the left side view of the user interface device 3100 at a certain moment are simultaneously displayed within a rectangular broken line. ing. A white arrow in the screen indicates the moving direction of the finger.
図7及び図8のステップに付加した画面には、矩形状の破線の範囲内に、ある瞬間におけるユーザーインターフェイス装置3,100の画面及び指の正面図、下面図、左側面図が同時に表示されている。また、画面内の白抜き矢印は指の移動方向を表す。 Hereinafter, an operation example using the conventional
In the screen added to the steps of FIGS. 7 and 8, the screen of the
<従来のジェスチャー操作>
図8に示す本発明の第2の実施の形態を説明する前に、図7により従来のレイヤー切替え操作の例を説明する。
図7は、従来のレイヤー切替え操作の例を示したフローチャートである。
なお、図7のステップS21,S22の処理は、上述した第1の実施の形態における図5のステップS1,S2の処理と同様であるため、詳細な説明を省略する。 <Conventional gesture operation>
Prior to describing the second embodiment of the present invention shown in FIG. 8, an example of a conventional layer switching operation will be described with reference to FIG.
FIG. 7 is a flowchart showing an example of a conventional layer switching operation.
Note that the processing in steps S21 and S22 in FIG. 7 is the same as the processing in steps S1 and S2 in FIG. 5 in the first embodiment described above, and thus detailed description thereof is omitted.
図8に示す本発明の第2の実施の形態を説明する前に、図7により従来のレイヤー切替え操作の例を説明する。
図7は、従来のレイヤー切替え操作の例を示したフローチャートである。
なお、図7のステップS21,S22の処理は、上述した第1の実施の形態における図5のステップS1,S2の処理と同様であるため、詳細な説明を省略する。 <Conventional gesture operation>
Prior to describing the second embodiment of the present invention shown in FIG. 8, an example of a conventional layer switching operation will be described with reference to FIG.
FIG. 7 is a flowchart showing an example of a conventional layer switching operation.
Note that the processing in steps S21 and S22 in FIG. 7 is the same as the processing in steps S1 and S2 in FIG. 5 in the first embodiment described above, and thus detailed description thereof is omitted.
ステップS22にて制御部は、ユーザーによりメニュー操作が行われたと判定した場合(S22のYES)、ユーザーの指がタッチした位置でレイヤーを切替えるためのメニュー項目を表示する(S23)。ステップS23に付加された画面には、ユーザーが画面左上のメニューバーからレイヤー切替えメニューを選択し、レイヤー切替えメニューに含まれる切替え先のレイヤーの名称がメニュー項目としてプルダウンリストに表示される様子が示されている。例えば、現在、表示されているレイヤーの名称が「レイヤーA」であることが、画面中央に表示された「A」により表される。ここで、プルダウンリストに表示されるメニュー項目は、レイヤーA,B,Cの3項目である。
If it is determined in step S22 that the menu operation has been performed by the user (YES in S22), the control unit displays a menu item for switching the layer at the position touched by the user's finger (S23). The screen added to step S23 shows that the user selects the layer switching menu from the menu bar at the upper left of the screen, and the name of the switching destination layer included in the layer switching menu is displayed as a menu item in the pull-down list. Has been. For example, “A” displayed in the center of the screen indicates that the name of the currently displayed layer is “Layer A”. Here, the menu items displayed in the pull-down list are the three items of layers A, B, and C.
次に、ユーザーは、切替え先のレイヤーのメニュー項目を選択する(S24)。制御部は、プルダウンリストに表示されるメニュー項目から切替え先のレイヤーが選択されたことを判定する。ステップS24に付加された画面には、ユーザーがプルダウンリストに沿って指を移動して、レイヤーBのメニュー項目を選択する様子が示されている。
Next, the user selects a menu item for the layer to be switched to (S24). The control unit determines that the switching destination layer has been selected from the menu items displayed in the pull-down list. The screen added to step S24 shows a state where the user moves the finger along the pull-down list and selects the menu item of layer B.
次に、制御部は、ユーザーが選択したメニュー項目のレイヤーに切替える(S25)。そして、ユーザーがタッチパネルから指を離すと、制御部は、切替えたレイヤーを確定して表示し(S26)、本処理を終了する。ステップS26に付加された画面には、ユーザーがタッチパネルから指を離したことにより、レイヤーBが表示される様子が示されている。
Next, the control unit switches to the menu item layer selected by the user (S25). Then, when the user removes his / her finger from the touch panel, the control unit determines and displays the switched layer (S26), and ends this process. The screen added in step S26 shows how layer B is displayed when the user lifts his / her finger from the touch panel.
このように従来は、ユーザーがレイヤーのメニュー項目を表示し、このメニュー項目から切替えるレイヤーを選択する操作が必要であった。しかし、頻繁にレイヤーを切替えなければいけない作業では、レイヤーの切替え操作が煩雑であった。
Thus, conventionally, it was necessary for the user to display a layer menu item and select a layer to be switched from this menu item. However, the layer switching operation is complicated in an operation that requires frequent layer switching.
<第2の実施の形態のジェスチャー操作>
図8は、第2の実施の形態に係るレイヤー切替え操作の例を示すフローチャートである。この第2の実施の形態においても、1本の指を用いた簡易な操作によりレイヤーを切替えることが可能である。すなわち、制御部10は、タッチパネル20が指により押込まれた場合に、複数のレイヤーから、オブジェクトを操作可能な一のレイヤーに切替えて表示パネル40に表示するための制御情報を表示制御部19に出力する。 <Gesture operation of the second embodiment>
FIG. 8 is a flowchart illustrating an example of a layer switching operation according to the second embodiment. Also in the second embodiment, the layers can be switched by a simple operation using one finger. That is, when thetouch panel 20 is pushed by a finger, the control unit 10 switches the display information to the display control unit 19 so that the display panel 40 displays control information for switching an object from one layer to a single operable layer. Output.
図8は、第2の実施の形態に係るレイヤー切替え操作の例を示すフローチャートである。この第2の実施の形態においても、1本の指を用いた簡易な操作によりレイヤーを切替えることが可能である。すなわち、制御部10は、タッチパネル20が指により押込まれた場合に、複数のレイヤーから、オブジェクトを操作可能な一のレイヤーに切替えて表示パネル40に表示するための制御情報を表示制御部19に出力する。 <Gesture operation of the second embodiment>
FIG. 8 is a flowchart illustrating an example of a layer switching operation according to the second embodiment. Also in the second embodiment, the layers can be switched by a simple operation using one finger. That is, when the
第2の実施の形態においてジェスチャー操作とは、ユーザーがタッチパネル20に指を押込んでレイヤーを切替え、タッチパネル20から指を離して切替えたレイヤーを確定する操作である。また、第2の実施の形態においてオブジェクトに関連する複数のレイヤーから選択された一のレイヤーを表示パネル40に表示するとは、異なるレイヤーA,B,Cがあるときに、例えば、複数のレイヤーA,B,Cから1つのレイヤーBを選択して、レイヤーBにてオブジェクトを編集可能に表示することである。なお、レイヤーA,B,Cは、いずれも編集対象とするオブジェクトに関連するレイヤーであるとする。
In the second embodiment, the gesture operation is an operation in which the user presses the finger on the touch panel 20 to switch the layer and releases the touch panel 20 to confirm the switched layer. In the second embodiment, displaying one layer selected from a plurality of layers related to an object on the display panel 40 means that when there are different layers A, B, C, for example, a plurality of layers A , B, and C, one layer B is selected, and the object is displayed in the layer B so as to be editable. Note that layers A, B, and C are all layers related to the object to be edited.
始めに、ユーザーインターフェイス装置3が備えるタッチパネル20にユーザーの指が触れたことにより、座標検知部17は、タッチされたことを検知し(S31)、タッチ位置の座標を検知する。ステップS31に付加された画面には、ユーザーが画面の左を1本の指でタッチした様子が示されている。このとき、ユーザーインターフェイス装置3には、レイヤーAが表示されている。
First, when the user's finger touches the touch panel 20 provided in the user interface device 3, the coordinate detection unit 17 detects that the touch has been made (S31), and detects the coordinates of the touch position. The screen added in step S31 shows a state in which the user touches the left side of the screen with one finger. At this time, layer A is displayed on the user interface device 3.
次に、ユーザーが指をタッチパネル20に押し込む動作を選択する(S32)。ステップS32に付加された画面には、ユーザーが画面の左上を1本の指でタッチし、さらにタッチパネル20を押込む様子が示されている。そして、タッチパネル20が指で押込まれたことは、タッチパネル20に対して下向き矢印で表された指の移動方向により示される。
Next, the user selects an operation of pushing a finger into the touch panel 20 (S32). The screen added in step S32 shows a state in which the user touches the upper left of the screen with one finger and further presses the touch panel 20. Then, the fact that the touch panel 20 has been pressed with a finger is indicated by the finger moving direction represented by the downward arrow with respect to the touch panel 20.
次に、感圧検知部18は、感圧センサー30から出力されるセンサー値に基づいて、感圧センサー30が感圧を検知したか否かを判定する(S33)。感圧検知部18が、センサー値により感圧を検知していないと判定した場合(S33のNO)、制御部10は、本処理を終了する。
Next, the pressure-sensitive detection unit 18 determines whether or not the pressure-sensitive sensor 30 has detected pressure based on the sensor value output from the pressure-sensitive sensor 30 (S33). When the pressure detection unit 18 determines that no pressure is detected based on the sensor value (NO in S33), the control unit 10 ends this process.
一方、感圧検知部18が、センサー値により感圧を検知したと判定した場合(S33のYES)、制御部10は、レイヤーを切替え、この切替えたレイヤーを表示パネル40に表示させる制御情報を表示制御部19に出力する(S34)。ステップS34に付加された画面には、ユーザーがタッチパネル20に指を押込んだことで、レイヤーAからレイヤーBに切替えて表示される様子が示されている。
On the other hand, when it is determined that the pressure sensitive detection unit 18 has detected the pressure sensitive based on the sensor value (YES in S33), the control unit 10 switches the layer and displays control information for displaying the switched layer on the display panel 40. It outputs to the display control part 19 (S34). The screen added in step S34 shows a state where the screen is switched from layer A to layer B when the user presses the finger on the touch panel 20.
そして、ユーザーがタッチパネル20から指を離すと、切替え表示されたレイヤーが確定して表示される(S35)。ステップS35に付加された画面には、ユーザーがタッチパネル20から指を離したことで、レイヤーBが確定して表示される様子が示されている。その後、再びユーザーがタッチパネル20に指を押込むと、ユーザーインターフェイス装置3にはレイヤーBから切替えたレイヤーCが表示され、ユーザーはレイヤーCを確定することが可能である。
Then, when the user removes his / her finger from the touch panel 20, the layer displayed by switching is fixed and displayed (S35). The screen added in step S35 shows a state in which layer B is determined and displayed when the user removes his / her finger from touch panel 20. Thereafter, when the user presses the finger again on the touch panel 20, the layer C switched from the layer B is displayed on the user interface device 3, and the user can determine the layer C.
以上説明した第2の実施の形態に係るユーザーインターフェイス装置3では、1本の指を用いて、タッチパネル20を押込むシンプルなジェスチャー操作により、複数のレイヤーから一つのレイヤーを切替えて表示することができる。このため、従来は、メニューバーからレイヤー切替えメニューを選択し、レイヤーのメニュー項目を選択していたのに対し、指をわずかに動かすだけでレイヤーを切替えられる。また、指をほとんど動かさなくてよいため、操作ミスを減らすばかりか、複数のレイヤーを素早く切替えることもできる。
In the user interface device 3 according to the second embodiment described above, it is possible to switch and display one layer from a plurality of layers by a simple gesture operation of pressing the touch panel 20 using one finger. it can. For this reason, conventionally, the layer switching menu is selected from the menu bar and the menu item of the layer is selected, but the layer can be switched by slightly moving a finger. In addition, since you do not have to move your finger almost, you can not only reduce operational errors, but also quickly switch between multiple layers.
例えば、写真に手書きで文字、図形等を描画可能な画像編集ソフトウェアがある。このソフトウェアには、写真レイヤーと画像編集レイヤーを用いて画像を編集することが可能である。画像編集レイヤーが表示されているときに、ユーザーがタッチパネル20を押し込み、画像編集レイヤーから写真レイヤーに変更することで、写真の表示位置を変える、写真の向きを変える、又は写真を拡大縮小する等が可能となる。このため、従来のようにレイヤー一覧から目的とするレイヤーを選択しなくても、直感的な操作によりレイヤーを切替えることができる。
For example, there is image editing software that can draw characters, figures, etc. by handwriting on photos. This software can edit images using photo layers and image editing layers. When the image editing layer is displayed, the user presses the touch panel 20 to change the image editing layer to the photo layer, thereby changing the display position of the photo, changing the orientation of the photo, or scaling the photo. Is possible. For this reason, layers can be switched by an intuitive operation without selecting a target layer from the layer list as in the prior art.
なお、タッチパネル20が押込まれたときに切替えるレイヤーを変えてもよい。例えば、始めに、画像編集レイヤーが表示されているときには、ユーザーが指でタッチパネル20を押込むと写真レイヤーに切替えて表示する。次に、写真レイヤーが表示されているときには、ユーザーが指でタッチパネル20を押込むと画像編集レイヤーに切替えて表示するようにしてもよい。
Note that the layer to be switched when the touch panel 20 is pressed may be changed. For example, first, when the image editing layer is displayed, when the user presses the touch panel 20 with a finger, the display is switched to the photo layer. Next, when the photo layer is displayed, when the user presses the touch panel 20 with a finger, it may be switched to the image editing layer and displayed.
また、複数のレイヤーがある場合に、制御部10は、タッチパネル20が指により押込まれる継続時間に応じて、複数のレイヤーを順に切替えて表示パネル40に表示するための制御情報を表示制御部19に出力してもよい。このとき切替えて表示されるレイヤーの順は、例えば、レイヤーA,B,C,A,B,C,…のようにサイクリックにしておく。これにより、例えば、意図しないレイヤーが表示されても、ユーザーは指を押込んだ状態を維持するだけで、レイヤーが順に切り替わるので目的とするレイヤーを表示することが可能である。
In addition, when there are a plurality of layers, the control unit 10 displays control information for sequentially switching the plurality of layers and displaying them on the display panel 40 in accordance with the duration for which the touch panel 20 is pressed by a finger. 19 may be output. The order of the layers to be switched and displayed at this time is cyclic, for example, layers A, B, C, A, B, C,. As a result, for example, even if an unintended layer is displayed, the user can display the target layer because the layers are switched in order only by keeping the finger pressed.
また、複数のレイヤーがある場合に、ユーザーがタッチパネル20に押込む指の押込み量に応じてレイヤーを切替えてもよい。例えば、画像編集レイヤーが表示されている状態で、タッチパネル20に対する指の押圧力が閾値th1以上であれば写真レイヤーを表示し、指の押圧力が閾値th2以上であれば他のメニュー(例えば、背景レイヤー)を表示してもよい。このため、ユーザーは、複数のレイヤーから目的とするメニュー項目が含まれるレイヤーを選択することが可能である。
In addition, when there are a plurality of layers, the layers may be switched according to the amount of finger pressing into the touch panel 20 by the user. For example, when the image editing layer is displayed and the finger pressing force on the touch panel 20 is equal to or greater than the threshold th1, the photo layer is displayed, and when the finger pressing force is equal to or greater than the threshold th2, another menu (for example, (Background layer) may be displayed. Therefore, the user can select a layer including a target menu item from a plurality of layers.
また、例えば、スライドショーの機能にジェスチャー操作を割当ててもよい。この場合、ユーザーが指でタッチパネル20を押込むと、次のスライドが表示されるようにしてもよい。これにより、ユーザーは、次のスライドを表示するためのボタンを探さなくても、スライドショーを円滑に実行することができる。
Also, for example, a gesture operation may be assigned to the slide show function. In this case, when the user presses the touch panel 20 with a finger, the next slide may be displayed. Accordingly, the user can smoothly execute the slide show without searching for a button for displaying the next slide.
[第3の実施の形態]
次に、図10を参照して、本発明の第3の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。第3の実施の形態に係るジェスチャー操作は、ショートカットアイコンを選択するために行われる。 [Third Embodiment]
Next, an example of a gesture operation of theuser interface device 3 according to the third embodiment of the present invention will be described with reference to FIG. The gesture operation according to the third embodiment is performed to select a shortcut icon.
次に、図10を参照して、本発明の第3の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。第3の実施の形態に係るジェスチャー操作は、ショートカットアイコンを選択するために行われる。 [Third Embodiment]
Next, an example of a gesture operation of the
<従来のショートカットアイコン選択操作の課題>
従来のタッチ位置のXY座標だけを検知可能なタッチパネルを備えたユーザーインターフェイス装置では、頻繁に使うメニューでも表示パネルに表示されたメニューアイコンをタッチして選択する必要があった。このため、常時、画面に表示されていないメニュー項目を使う際には、ユーザーがメニュー項目が含まれるレイヤーを切替えたり、いずれかのレイヤーに含まれるメニューアイコンをタッチしなければならず、操作が煩雑であった。 <Problems of conventional shortcut icon selection operation>
In a conventional user interface device having a touch panel that can detect only the XY coordinates of the touch position, it is necessary to select a menu that is frequently used by touching a menu icon displayed on the display panel. For this reason, when using menu items that are not always displayed on the screen, the user must switch the layer that includes the menu item or touch the menu icon that is included in one of the layers. It was complicated.
従来のタッチ位置のXY座標だけを検知可能なタッチパネルを備えたユーザーインターフェイス装置では、頻繁に使うメニューでも表示パネルに表示されたメニューアイコンをタッチして選択する必要があった。このため、常時、画面に表示されていないメニュー項目を使う際には、ユーザーがメニュー項目が含まれるレイヤーを切替えたり、いずれかのレイヤーに含まれるメニューアイコンをタッチしなければならず、操作が煩雑であった。 <Problems of conventional shortcut icon selection operation>
In a conventional user interface device having a touch panel that can detect only the XY coordinates of the touch position, it is necessary to select a menu that is frequently used by touching a menu icon displayed on the display panel. For this reason, when using menu items that are not always displayed on the screen, the user must switch the layer that includes the menu item or touch the menu icon that is included in one of the layers. It was complicated.
<従来のジェスチャー操作>
図10に示す本発明の第3の実施の形態を説明する前に、図9により従来のショートカットアイコン選択操作の例を説明する。
図9は、従来のショートカットアイコン選択操作の例を示したフローチャートである。
始めに、従来のユーザーインターフェイス装置100が備える制御部は、ユーザーインターフェイス装置100が備えるタッチパネルに指がタッチしたことを検知する(S41)。ステップS41に付加された画面には、ユーザーが画面の左を1本の指でタッチした様子が示されている。 <Conventional gesture operation>
Prior to describing the third embodiment of the present invention shown in FIG. 10, an example of a conventional shortcut icon selection operation will be described with reference to FIG.
FIG. 9 is a flowchart showing an example of a conventional shortcut icon selection operation.
First, the control unit included in the conventionaluser interface device 100 detects that a finger touches the touch panel included in the user interface device 100 (S41). The screen added in step S41 shows a state in which the user touches the left side of the screen with one finger.
図10に示す本発明の第3の実施の形態を説明する前に、図9により従来のショートカットアイコン選択操作の例を説明する。
図9は、従来のショートカットアイコン選択操作の例を示したフローチャートである。
始めに、従来のユーザーインターフェイス装置100が備える制御部は、ユーザーインターフェイス装置100が備えるタッチパネルに指がタッチしたことを検知する(S41)。ステップS41に付加された画面には、ユーザーが画面の左を1本の指でタッチした様子が示されている。 <Conventional gesture operation>
Prior to describing the third embodiment of the present invention shown in FIG. 10, an example of a conventional shortcut icon selection operation will be described with reference to FIG.
FIG. 9 is a flowchart showing an example of a conventional shortcut icon selection operation.
First, the control unit included in the conventional
次に、制御部は、ユーザーにより地図表示選択アイコンが選択されたことを判定する(S42)。ステップS42に付加された画面には、画面の右上に表示される地図表示選択アイコンを指で選択したことにより地図が表示される様子が示されている。
Next, the control unit determines that the map display selection icon has been selected by the user (S42). The screen added to step S42 shows how the map is displayed by selecting the map display selection icon displayed on the upper right of the screen with a finger.
次に、制御部は、ユーザーにより目的地選択アイコンが選択されたことを判定する(S43)。目的地選択アイコンは、ユーザーが車両の目的地を選択入力するために用いられる機能別アイコンを表示するアイコンである。ステップS43に付加された画面には地図が表示され、画面の左上に表示された目的地選択アイコンをユーザーが指で選択する様子が示されている。
Next, the control unit determines that the destination selection icon has been selected by the user (S43). The destination selection icon is an icon for displaying a function-specific icon used for the user to select and input a destination of the vehicle. A map is displayed on the screen added to step S43, and a state in which the user selects a destination selection icon displayed on the upper left of the screen with a finger is shown.
次に、制御部は、ユーザーにより自宅アイコンが選択されたことを判定する(S44)。ステップS44に付加された画面には、目的地選択アイコンに複数の機能別アイコンが表示される例が示される。これらの機能別アイコンは、目的とする機能を簡易な操作(例えば、ワンクリック)で実現するためのショートカット機能を有しており、目的地選択アイコンの右下に矩形状の枠内に表示される。そして、目的地選択アイコンに表示される機能別アイコンは、予め登録された複数の目的地をリスト表示することを示すリストアイコン(枠の右上)、新たに目的地を検索することを示す検索アイコン(枠の左下)、ユーザーの自宅住所を目的地として決定することを示す自宅アイコン(枠の右下)を含む。例えば、ユーザーが自宅アイコンを目的地として決定すると、ソフトウェアキーボード等により自宅住所を入力しなくても、自動的に自宅住所が目的地として決定される。
Next, the control unit determines that the home icon has been selected by the user (S44). The screen added to step S44 shows an example in which a plurality of function-specific icons are displayed as the destination selection icon. These function-specific icons have a shortcut function for realizing a target function with a simple operation (for example, one click), and are displayed in a rectangular frame at the lower right of the destination selection icon. The The function-specific icons displayed on the destination selection icon are a list icon (upper right of the frame) indicating that a plurality of destinations registered in advance are displayed as a list, and a search icon indicating that a new destination is to be searched. (Bottom left of the frame), including a home icon (bottom right of the frame) indicating that the user's home address is determined as the destination. For example, when the user determines the home icon as the destination, the home address is automatically determined as the destination without inputting the home address using a software keyboard or the like.
次に、制御部は、ユーザーにより自宅アイコンの選択が決定されたことを判定する(S45)。ステップS45に付加された画面には、ユーザーが選択した自宅アイコンの決定可否を選択させるYESボタンとNOボタンが表示され、ユーザーが指でYESボタンを選択する様子が示されている。ユーザーがYESボタンを選択すると、予め設定されている自宅の住所が目的地として決定される。
Next, the control unit determines that the selection of the home icon has been determined by the user (S45). On the screen added to step S45, a YES button and a NO button for selecting whether or not the home icon selected by the user can be determined are displayed, and the user selects the YES button with a finger. When the user selects the YES button, a preset home address is determined as the destination.
従来、ユーザーが自宅住所を目的地として指定する際、(1)地図表示画面を選択し、(2)目的地選択アイコンを選択し、(3)自宅アイコンを選択し、(4)自宅住所を目的地として決定する操作を行っていた。このように目的地を決定するまでに、ユーザーは、タッチパネルを少なくとも4回タッチしなければならない。また、アイコン等の表示位置は一定でなく、その大きさもばらついているため、ユーザーは、表示されたアイコン等を毎回確認しなければならず、操作が煩雑であった。
Conventionally, when a user designates a home address as a destination, (1) a map display screen is selected, (2) a destination selection icon is selected, (3) a home icon is selected, and (4) a home address is selected. An operation to determine the destination was performed. In this way, the user must touch the touch panel at least four times before determining the destination. In addition, since the display positions of icons and the like are not constant and the sizes thereof vary, the user has to check the displayed icons and the like every time, and the operation is complicated.
<第3の実施の形態のジェスチャー操作>
図10は、第3の実施の形態に係るショートカットアイコン選択操作の例を示すフローチャートである。この第3の実施の形態においても、1本の指を用いた簡易な操作により必要な機能を選択できるようにしている。すなわち、制御部10は、地図等(第1レイヤーの一例)が表示された状態でタッチパネル20が指により押込まれた場合に、所定の機能が割当てられたショートカットメニューを含むショートカットアイコン(第2レイヤーの一例)を表示するための制御情報を表示制御部19に出力する。そして、制御部10は、タッチパネル20が指により押込まれた状態で指で選択されたショートカットメニューに割当てられた機能を実行する。 <Gesture operation of the third embodiment>
FIG. 10 is a flowchart illustrating an example of a shortcut icon selection operation according to the third embodiment. Also in the third embodiment, a necessary function can be selected by a simple operation using one finger. That is, when thetouch panel 20 is pressed with a finger while a map or the like (an example of the first layer) is displayed, the control unit 10 includes a shortcut icon (second layer) including a shortcut menu to which a predetermined function is assigned. The control information for displaying (example) is output to the display control unit 19. And the control part 10 performs the function allocated to the shortcut menu selected with the finger in the state in which the touch panel 20 was pushed by the finger.
図10は、第3の実施の形態に係るショートカットアイコン選択操作の例を示すフローチャートである。この第3の実施の形態においても、1本の指を用いた簡易な操作により必要な機能を選択できるようにしている。すなわち、制御部10は、地図等(第1レイヤーの一例)が表示された状態でタッチパネル20が指により押込まれた場合に、所定の機能が割当てられたショートカットメニューを含むショートカットアイコン(第2レイヤーの一例)を表示するための制御情報を表示制御部19に出力する。そして、制御部10は、タッチパネル20が指により押込まれた状態で指で選択されたショートカットメニューに割当てられた機能を実行する。 <Gesture operation of the third embodiment>
FIG. 10 is a flowchart illustrating an example of a shortcut icon selection operation according to the third embodiment. Also in the third embodiment, a necessary function can be selected by a simple operation using one finger. That is, when the
第3の実施の形態においてジェスチャー操作とは、ユーザーがタッチパネル20に指を押込んでショートカットアイコンを表示し、タッチパネル20に指を押込んだままショートカットアイコンを選択する操作である。また、第3の実施の形態においてオブジェクトに関連する複数のレイヤーから選択された一のレイヤーを表示パネル40に表示するとは、例えば、地図(オブジェクト)を表示する第1レイヤーに対して、ショートカットアイコンを表示する第2レイヤーを表示することである。
なお、図10のステップS51~S53の処理は、上述した第2の実施の形態における図8のステップS31~S33の処理と同様であるため、詳細な説明を省略する。 In the third embodiment, the gesture operation is an operation in which a user presses a finger on thetouch panel 20 to display a shortcut icon, and selects the shortcut icon while pressing the finger on the touch panel 20. In the third embodiment, displaying one layer selected from a plurality of layers related to an object on the display panel 40 is, for example, a shortcut icon for the first layer displaying a map (object). Is to display the second layer.
Note that the processing in steps S51 to S53 in FIG. 10 is the same as the processing in steps S31 to S33 in FIG. 8 in the second embodiment described above, and detailed description thereof will be omitted.
なお、図10のステップS51~S53の処理は、上述した第2の実施の形態における図8のステップS31~S33の処理と同様であるため、詳細な説明を省略する。 In the third embodiment, the gesture operation is an operation in which a user presses a finger on the
Note that the processing in steps S51 to S53 in FIG. 10 is the same as the processing in steps S31 to S33 in FIG. 8 in the second embodiment described above, and detailed description thereof will be omitted.
ステップS53にて感圧検知部18が、センサー値により感圧を検知したと判定した場合(S53のYES)、制御部10は、ショートカットアイコンを表示パネル40に表示させる制御情報を表示制御部19に出力する(S54)。ステップS54に付加された画面には、ユーザーがタッチパネル20に指を押込んだことで、4種類のショートカット機能を有するショートカットアイコンが、指のタッチ位置を中心として十字状に配置して表示される様子が示されている。このショートカットアイコンは、左から時計回りに、自宅アイコン、メニューアイコン、設定アイコン、電話アイコンを表している。自宅アイコンは自宅住所を目的地として設定する機能を有し、メニューアイコンは各種メニューを表示する機能を有し、設定アイコンは任意の設定を行う機能を有し、電話アイコンは登録した電話番号に電話を掛ける機能を有する。
When it is determined in step S53 that the pressure-sensitive detection unit 18 has detected pressure sensitivity based on the sensor value (YES in S53), the control unit 10 displays control information for displaying a shortcut icon on the display panel 40. (S54). On the screen added in step S54, when the user presses the finger on the touch panel 20, shortcut icons having four types of shortcut functions are arranged and displayed in a cross shape with the finger touch position at the center. The situation is shown. This shortcut icon represents a home icon, a menu icon, a setting icon, and a telephone icon clockwise from the left. The home icon has a function to set the home address as the destination, the menu icon has a function to display various menus, the setting icon has a function to make arbitrary settings, and the telephone icon is set to the registered telephone number. Has a function to make a phone call.
そして、ユーザーが、ショートカットアイコンのいずれかに、タッチパネル20に押込んだまま指を移動した後、タッチパネル20から指を離すことでショートカットアイコンの選択が完了する(S55)。ステップS55に付加された画面には、ユーザーの指がタッチパネル20に押込まれた状態で自宅アイコンを選択する様子が示されている。これにより、制御部10は、ユーザーにより選択されたショートカットアイコンに対応するショートカット機能を実行する。このため、自宅住所が目的地に設定される。
Then, after the user moves a finger while pressing the touch panel 20 to one of the shortcut icons, the selection of the shortcut icon is completed by releasing the finger from the touch panel 20 (S55). The screen added in step S55 shows a state where the home icon is selected in a state where the user's finger is pushed into the touch panel 20. Thereby, the control part 10 performs the shortcut function corresponding to the shortcut icon selected by the user. For this reason, the home address is set as the destination.
以上説明した第3の実施の形態に係るユーザーインターフェイス装置3では、1本の指を用いて、タッチパネル20を押込むシンプルなジェスチャー操作により、簡易的なショートカットアイコンが表示される。そして、ユーザーは、タッチパネル20に押込んだ状態の指を動かしてショートカットアイコンを選択することができる。このため、従来のように複数のタッチ操作を行うことなく目的とする機能を速やかに実行することが可能となる。また、このジェスチャー操作は、直感的かつ簡易的であるため、ショートカットアイコンを選択しやすい。
In the user interface device 3 according to the third embodiment described above, a simple shortcut icon is displayed by a simple gesture operation of pressing the touch panel 20 with one finger. Then, the user can select a shortcut icon by moving the finger pressed into the touch panel 20. For this reason, it is possible to quickly execute a target function without performing a plurality of touch operations as in the prior art. Moreover, since this gesture operation is intuitive and simple, it is easy to select a shortcut icon.
なお、複数のショートカットアイコンがある場合に、制御部10は、タッチパネル20が指により押込まれる継続時間に応じて、複数のショートカットアイコンを順に切替えて表示パネル40に表示するための制御情報を表示制御部19に出力してもよい。このとき切替えて表示されるショートカットアイコンの順は、例えば、自宅アイコン、メニューアイコン、設定アイコン、電話アイコン、自宅アイコン、…のようにサイクリックにしておく。このため、例えば、意図しないショートカットアイコンが表示されても、ユーザーは指を押込んだ状態を維持するだけで、ショートカットアイコンが順に切り替わる(例えば、1秒毎)ので目的とするショートカットアイコンを選択することが可能である。
In addition, when there are a plurality of shortcut icons, the control unit 10 displays control information for sequentially switching the plurality of shortcut icons and displaying them on the display panel 40 according to the duration for which the touch panel 20 is pressed by a finger. You may output to the control part 19. The order of the shortcut icons displayed by switching at this time is cyclic, for example, a home icon, a menu icon, a setting icon, a telephone icon, a home icon,. For this reason, for example, even if an unintended shortcut icon is displayed, the user simply switches on the shortcut icon (for example, every second) simply by keeping the finger pressed, so that the desired shortcut icon is selected. It is possible.
また、ユーザーがタッチパネル20に指を所定時間以上押込んだ後は、ショートカットアイコンを表示し続けてもよい。例えば、感圧検知部18により指の押圧力が閾値th1以上となる時間が所定時間経過したことが検知されると、制御部10は、ショートカットアイコンを表示パネル40に表示するための制御情報を表示制御部19に出力する。そして、制御部10は、ユーザーが指を引いたことにより感圧検知部18が検知した指の押圧力が閾値th1未満となっても、このショートカットアイコンを表示パネル40に表示し続けるように制御する。このため、ユーザーは、タッチパネル20から指を離して任意のショートカットアイコンをタッチして選択することが可能となる。ただし、ユーザーが、ショートカットアイコン以外の箇所をタッチした場合には、制御部10は、ショートカットアイコンを表示パネル40から非表示とする制御を行う。このため、ユーザーは、ショートカットアイコンを選択する操作の途中で他の操作を選択することも容易となる。
Further, after the user presses the finger on the touch panel 20 for a predetermined time or more, the shortcut icon may be continuously displayed. For example, when it is detected by the pressure-sensitive detection unit 18 that a predetermined time has elapsed for the finger pressing force to be equal to or greater than the threshold th1, the control unit 10 displays control information for displaying the shortcut icon on the display panel 40. The data is output to the display control unit 19. Then, the control unit 10 performs control so that the shortcut icon is continuously displayed on the display panel 40 even when the finger pressing force detected by the pressure-sensitive detection unit 18 by the user pulling the finger is less than the threshold th1. To do. For this reason, the user can remove the finger from the touch panel 20 and touch an arbitrary shortcut icon to select it. However, when the user touches a location other than the shortcut icon, the control unit 10 performs control to hide the shortcut icon from the display panel 40. For this reason, the user can easily select another operation during the operation of selecting the shortcut icon.
また、ユーザーが押込み操作を繰り返す度にショートカットアイコンが順に切り替わって表示されることで、目的とするショートカットアイコンを選択することを可能としてもよい。例えば、あるショートカットアイコンが表示された後、再び、ユーザーが指を押込んだことにより、感圧検知部18により指の押圧力が閾値th1以上となる時間が所定時間経過したことが検知されると、制御部10は、別のショートカットアイコンを表示パネル40に表示する。以降、ユーザーがタッチパネル20に指を押込み、指を引く操作を繰り返す度に、制御部10は、異なるショートカットアイコンを順に表示パネル40に切替えて表示する。表示パネル40に表示されるショートカットアイコンは、複数のショートカットアイコンから一つのショートカットアイコンがサイクリックに選択される。
Also, each time the user repeats the pressing operation, the shortcut icons may be sequentially switched and displayed, so that the target shortcut icon can be selected. For example, after a certain shortcut icon is displayed, when the user presses the finger again, the pressure-sensitive detection unit 18 detects that a predetermined time has elapsed for the finger pressing force to be equal to or greater than the threshold th1. Then, the control unit 10 displays another shortcut icon on the display panel 40. Thereafter, each time the user presses the finger on the touch panel 20 and repeats the operation of pulling the finger, the control unit 10 sequentially switches and displays different shortcut icons on the display panel 40. As a shortcut icon displayed on the display panel 40, one shortcut icon is cyclically selected from a plurality of shortcut icons.
また、ユーザーがタッチパネル20を指で押込む強さに応じてショートカット機能を有する複数のアイコンを順に表示してもよい。例えば、地図が表示されている状態で、タッチパネル20に対する指の押圧力が閾値th1以上であれば自宅アイコンを表示し、指の押圧力が閾値th2以上であればメニューアイコンを表示してもよい。このため、ユーザーは、タッチパネル20に押込んだ指を移動しなくても、複数のアイコンから目的とするアイコンを選択することが可能である。
Further, a plurality of icons having a shortcut function may be displayed in order according to the strength with which the user presses the touch panel 20 with a finger. For example, in the state where the map is displayed, a home icon may be displayed if the finger pressing force on the touch panel 20 is greater than or equal to the threshold th1, and a menu icon may be displayed if the finger pressing force is greater than or equal to the threshold th2. . For this reason, the user can select a target icon from a plurality of icons without moving the finger pressed into the touch panel 20.
[変形例]
上述した各実施の形態に係るユーザーインターフェイス装置3をナビゲーション装置以外の装置に適用してもよい。例えば、携帯端末、タブレット端末等のタッチパネル部分に、ユーザーインターフェイス装置3を適用することで操作性を高めることができる。このようにタッチパネルを必要とする様々な電子機器に本実施の形態例に係るユーザーインターフェイス装置3を組み合わせることが可能である。 [Modification]
Theuser interface device 3 according to each embodiment described above may be applied to devices other than the navigation device. For example, operability can be improved by applying the user interface device 3 to a touch panel portion of a mobile terminal, a tablet terminal, or the like. In this way, the user interface device 3 according to the present embodiment can be combined with various electronic devices that require a touch panel.
上述した各実施の形態に係るユーザーインターフェイス装置3をナビゲーション装置以外の装置に適用してもよい。例えば、携帯端末、タブレット端末等のタッチパネル部分に、ユーザーインターフェイス装置3を適用することで操作性を高めることができる。このようにタッチパネルを必要とする様々な電子機器に本実施の形態例に係るユーザーインターフェイス装置3を組み合わせることが可能である。 [Modification]
The
また、図2に示したブロック図では、ユーザーインターフェイス装置3が制御部10を備える構成としたが、ナビゲーション装置本体2が制御部10を備える構成としてもよい。
In the block diagram shown in FIG. 2, the user interface device 3 includes the control unit 10, but the navigation device body 2 may include the control unit 10.
また、タッチパネル20には、静電容量方式以外の方式によりタッチ操作を検知可能な構成としてもよい。また、感圧センサー30は、タッチパネル20の下に設けた押圧スイッチ等によりタッチパネル20が押込まれたことを検知してもよい。
Further, the touch panel 20 may have a configuration capable of detecting a touch operation by a method other than the capacitance method. Further, the pressure sensor 30 may detect that the touch panel 20 is pushed in by a press switch or the like provided below the touch panel 20.
また、ユーザーインターフェイス装置3における感圧機能を組み合わせた操作を、カーナビゲーション以外にも、例えば、人、自転車のナビゲーションに用いてもよい。また、ユーザーインターフェイス装置3を、上述したように画像編集ソフトウェアの操作に用いてもよいし、他のアプリケーションソフトウェアの操作に用いてもよい。
In addition to the car navigation, the operation combined with the pressure sensitive function in the user interface device 3 may be used for, for example, navigation of a person or a bicycle. Further, the user interface device 3 may be used for the operation of the image editing software as described above, or may be used for the operation of other application software.
また、上述した各実施の形態においては、ナビゲーション装置本体2とユーザーインターフェイス装置3とを組み合わせていた。しかし、ユーザーインターフェイス装置3自体がナビゲーション機能を有することにより、ユーザーインターフェイス装置3だけをナビゲーション装置として用いてもよい。
In each embodiment described above, the navigation device body 2 and the user interface device 3 are combined. However, since the user interface device 3 itself has a navigation function, only the user interface device 3 may be used as the navigation device.
また、感圧センサー30は、弾性体33を備えない構成としてもよい。例えば、感圧センサー30から弾性体33を取り除いたとしても、上部電極31と下部電極35間が一定の距離を保って離れている状態で感圧センサー30に押圧力が加わると、上部電極31と下部電極35が近づき、上部電極31と下部電極35との間の静電容量が減少する。このため感圧検知部18は、上部電極31と下部電極35から出力されるセンサー値に基づいて静電容量変化率を求めることができる。
Further, the pressure-sensitive sensor 30 may be configured not to include the elastic body 33. For example, even if the elastic body 33 is removed from the pressure sensor 30, if a pressing force is applied to the pressure sensor 30 in a state where the upper electrode 31 and the lower electrode 35 are separated from each other with a constant distance, the upper electrode 31 is applied. The lower electrode 35 approaches and the electrostatic capacity between the upper electrode 31 and the lower electrode 35 decreases. For this reason, the pressure sensitive detection unit 18 can obtain the capacitance change rate based on the sensor values output from the upper electrode 31 and the lower electrode 35.
本発明は上述した実施の形態例に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
例えば、上述した実施の形態例は本発明を分かりやすく説明するために装置の構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施の形態例の構成の一部を他の実施の形態例の構成に置き換えることは可能であり、さらにはある実施の形態例の構成に他の実施の形態例の構成を加えることも可能である。また、各実施の形態例の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 The present invention is not limited to the above-described embodiments, and various other application examples and modifications can be taken without departing from the gist of the present invention described in the claims.
For example, in the above-described embodiment, the configuration of the apparatus is described in detail and specifically in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the configuration having all the configurations described. Further, it is possible to replace a part of the configuration of the embodiment described here with the configuration of another embodiment, and further, the configuration of another embodiment is replaced with the configuration of another embodiment. It is also possible to add. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
例えば、上述した実施の形態例は本発明を分かりやすく説明するために装置の構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施の形態例の構成の一部を他の実施の形態例の構成に置き換えることは可能であり、さらにはある実施の形態例の構成に他の実施の形態例の構成を加えることも可能である。また、各実施の形態例の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 The present invention is not limited to the above-described embodiments, and various other application examples and modifications can be taken without departing from the gist of the present invention described in the claims.
For example, in the above-described embodiment, the configuration of the apparatus is described in detail and specifically in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the configuration having all the configurations described. Further, it is possible to replace a part of the configuration of the embodiment described here with the configuration of another embodiment, and further, the configuration of another embodiment is replaced with the configuration of another embodiment. It is also possible to add. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
1…ナビゲーション装置、2…ナビゲーション装置本体、3…ユーザーインターフェイス装置、10…制御部、17…座標検知部、18…感圧検知部、19…表示制御部、20…タッチパネル、30…感圧センサー、40…表示パネル
DESCRIPTION OF SYMBOLS 1 ... Navigation apparatus, 2 ... Navigation apparatus main body, 3 ... User interface apparatus, 10 ... Control part, 17 ... Coordinate detection part, 18 ... Pressure detection part, 19 ... Display control part, 20 ... Touch panel, 30 ... Pressure sensor 40 ... Display panel
Claims (8)
- オブジェクトを表示する表示パネルと、
制御情報に従って前記表示パネルに前記オブジェクトを表示させる制御を行う表示制御部と、
指示媒体によりタッチ操作が行われるタッチパネルと、
前記タッチ操作が行われた前記タッチパネルのタッチ位置の座標を検知して座標検知情報を出力する座標検知部と、
前記指示媒体により前記タッチパネルに印加される押圧力に応じて変化するセンサー値を出力する感圧センサーと、
前記センサー値に基づいて、前記指示媒体により前記タッチパネルが押込まれる押込み操作が行われたことを検知して感圧検知情報を出力する感圧検知部と、
前記座標検知情報に基づいて判定した前記タッチ操作、及び前記感圧検知情報に基づいて判定した前記押込み操作を組み合わせたジェスチャー操作に基づいて、前記オブジェクトに関連する複数のレイヤーから選択された一の前記レイヤーを前記表示パネルに表示するための前記制御情報を前記表示制御部に出力し、前記表示パネルに表示された一の前記レイヤーを通じて前記オブジェクトに行われた前記タッチ操作を判定する制御部と、を備える
ユーザーインターフェイス装置。 A display panel that displays objects,
A display control unit that performs control to display the object on the display panel according to control information;
A touch panel on which a touch operation is performed by an instruction medium;
A coordinate detection unit that detects the coordinates of the touch position of the touch panel on which the touch operation has been performed and outputs coordinate detection information;
A pressure-sensitive sensor that outputs a sensor value that changes according to a pressing force applied to the touch panel by the indicating medium;
Based on the sensor value, a pressure-sensitive detection unit that detects that a push-in operation in which the touch panel is pushed by the instruction medium is performed and outputs pressure-sensitive detection information;
One selected from a plurality of layers related to the object based on a gesture operation that combines the touch operation determined based on the coordinate detection information and the push operation determined based on the pressure-sensitive detection information. A control unit for outputting the control information for displaying the layer on the display panel to the display control unit, and determining the touch operation performed on the object through the one layer displayed on the display panel; , Comprising a user interface device. - 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた場合に、異なるメニュー項目を含む複数の前記レイヤーから一の前記レイヤーを表示するための前記制御情報を前記表示制御部に出力する
請求項1に記載のユーザーインターフェイス装置。 The control unit outputs the control information for displaying one of the plurality of layers including different menu items to the display control unit when the touch panel is pushed by the instruction medium. The user interface device according to 1. - 前記レイヤーには、前記タッチパネルに対してメニュー操作が行われると表示される第1メニューを含む第1レイヤーと、前記第1メニューの上で前記タッチパネルが前記指示媒体により押込まれると表示される第2メニューを含む第2レイヤーとが含まれ、
前記制御部は、前記第1メニューの上で前記タッチパネルが前記指示媒体により押込まれた場合に、前記タッチ位置の近傍に前記第2メニューを表示するための前記制御情報を前記表示制御部に出力する
請求項2に記載のユーザーインターフェイス装置。 The layer includes a first layer including a first menu displayed when a menu operation is performed on the touch panel, and a display when the touch panel is pushed by the instruction medium on the first menu. And a second layer containing a second menu,
The control unit outputs the control information for displaying the second menu in the vicinity of the touch position to the display control unit when the touch panel is pushed by the instruction medium on the first menu. The user interface device according to claim 2. - 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた場合に、複数の前記レイヤーから、前記オブジェクトを操作可能な一の前記レイヤーに切替えて前記表示パネルに表示するための前記制御情報を前記表示制御部に出力する
請求項1~3のいずれか一項に記載のユーザーインターフェイス装置。 When the touch panel is pushed by the instruction medium, the control unit switches the control information from a plurality of the layers to the one operable layer and displays the control information on the display panel. The user interface device according to any one of claims 1 to 3, wherein the user interface device outputs to a display control unit. - 前記制御部は、前記タッチパネルが前記指示媒体により押込まれる継続時間又は押込み量に応じて、複数の前記レイヤーを順に切替えて前記表示パネルに表示するための前記制御情報を前記表示制御部に出力する
請求項4に記載のユーザーインターフェイス装置。 The control unit outputs the control information for sequentially switching a plurality of the layers to be displayed on the display panel according to a duration time or a pressing amount of the touch panel being pressed by the instruction medium, to the display control unit. The user interface device according to claim 4. - 前記制御部は、第1レイヤーが表示された状態で前記タッチパネルが前記指示媒体により押込まれた場合に、所定の機能が割当てられたショートカットアイコンを含む第2レイヤーを表示するための前記制御情報を前記表示制御部に出力し、前記タッチパネルが前記指示媒体により押込まれた状態で前記指示媒体で選択された前記ショートカットアイコンに割当てられた前記機能を実行する
請求項1~4のいずれか一項に記載のユーザーインターフェイス装置。 The control unit displays the control information for displaying a second layer including a shortcut icon to which a predetermined function is assigned when the touch panel is pressed by the instruction medium while the first layer is displayed. The output to the display control unit, and the function assigned to the shortcut icon selected by the instruction medium is executed in a state where the touch panel is pushed by the instruction medium. The described user interface device. - 前記制御部は、前記タッチパネルが前記指示媒体により押込まれる継続時間又は押込み量に応じて、前記ショートカットアイコンを順に切替えて前記表示パネルに表示するための前記制御情報を前記表示制御部に出力する
請求項6に記載のユーザーインターフェイス装置。 The control unit outputs the control information for sequentially switching the shortcut icons to be displayed on the display panel in accordance with a duration time or a pressing amount by which the touch panel is pressed by the instruction medium, to the display control unit. The user interface device according to claim 6. - ユーザーインターフェイス装置と、電子機器本体と、を備え、
前記ユーザーインターフェイス装置は、
オブジェクトを表示する表示パネルと、
制御情報に従って前記表示パネルに前記オブジェクトを表示させる制御を行う表示制御部と、
指示媒体によりタッチ操作が行われるタッチパネルと、
前記タッチ操作が行われた前記タッチパネルのタッチ位置の座標を検知して座標検知情報を出力する座標検知部と、
前記指示媒体により前記タッチパネルに印加される押圧力に応じて変化するセンサー値を出力する感圧センサーと、
前記センサー値に基づいて、前記指示媒体により前記タッチパネルが押込まれる押込み操作が行われたことを検知して感圧検知情報を出力する感圧検知部と、
前記座標検知情報に基づいて判定した前記タッチ操作、及び前記感圧検知情報に基づいて判定した前記押込み操作を組み合わせたジェスチャー操作に基づいて、前記オブジェクトに関連する複数のレイヤーから選択された一の前記レイヤーを前記表示パネルに表示するための前記制御情報を前記表示制御部に出力し、前記表示パネルに表示された一の前記レイヤーを通じて前記オブジェクトに行われた前記タッチ操作を判定する制御部を備え、
前記電子機器本体は、
前記制御部から入力する前記タッチ操作又は前記ジェスチャー操作により指示された内容に基づいて所定の処理を行い、前記所定の処理を行った前記オブジェクトを前記ユーザーインターフェイス装置の前記制御部に出力する
電子機器。 A user interface device and an electronic device body,
The user interface device includes:
A display panel that displays objects,
A display control unit that performs control to display the object on the display panel according to control information;
A touch panel on which a touch operation is performed by an instruction medium;
A coordinate detection unit that detects the coordinates of the touch position of the touch panel on which the touch operation has been performed and outputs coordinate detection information;
A pressure-sensitive sensor that outputs a sensor value that changes according to a pressing force applied to the touch panel by the indicating medium;
Based on the sensor value, a pressure-sensitive detection unit that detects that a push-in operation in which the touch panel is pushed by the instruction medium is performed and outputs pressure-sensitive detection information;
One selected from a plurality of layers related to the object based on a gesture operation that combines the touch operation determined based on the coordinate detection information and the push operation determined based on the pressure-sensitive detection information. A control unit configured to output the control information for displaying the layer on the display panel to the display control unit, and to determine the touch operation performed on the object through the one layer displayed on the display panel; Prepared,
The electronic device body is
An electronic device that performs a predetermined process based on content instructed by the touch operation or the gesture operation input from the control unit, and outputs the object that has undergone the predetermined process to the control unit of the user interface device .
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-254802 | 2016-12-28 | ||
JP2016254802A JP2018106574A (en) | 2016-12-28 | 2016-12-28 | User interface apparatus and electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018123355A1 true WO2018123355A1 (en) | 2018-07-05 |
Family
ID=62707288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/041783 WO2018123355A1 (en) | 2016-12-28 | 2017-11-21 | User interface device and electronic device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018106574A (en) |
WO (1) | WO2018123355A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010032598A1 (en) * | 2008-09-17 | 2010-03-25 | 日本電気株式会社 | Input unit, method for controlling same, and electronic device provided with input unit |
JP2011053831A (en) * | 2009-08-31 | 2011-03-17 | Sony Corp | Information processing device, information processing method, and program |
JP2011530101A (en) * | 2008-08-01 | 2011-12-15 | サムスン エレクトロニクス カンパニー リミテッド | Electronic device and method for realizing user interface |
WO2013157330A1 (en) * | 2012-04-20 | 2013-10-24 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2016
- 2016-12-28 JP JP2016254802A patent/JP2018106574A/en active Pending
-
2017
- 2017-11-21 WO PCT/JP2017/041783 patent/WO2018123355A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011530101A (en) * | 2008-08-01 | 2011-12-15 | サムスン エレクトロニクス カンパニー リミテッド | Electronic device and method for realizing user interface |
WO2010032598A1 (en) * | 2008-09-17 | 2010-03-25 | 日本電気株式会社 | Input unit, method for controlling same, and electronic device provided with input unit |
JP2011053831A (en) * | 2009-08-31 | 2011-03-17 | Sony Corp | Information processing device, information processing method, and program |
WO2013157330A1 (en) * | 2012-04-20 | 2013-10-24 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2018106574A (en) | 2018-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4522475B1 (en) | Operation input device, control method, and program | |
JP5759660B2 (en) | Portable information terminal having touch screen and input method | |
JP4979600B2 (en) | Portable terminal device and display control method | |
WO2011105009A1 (en) | Electronic apparatus | |
JP5640486B2 (en) | Information display device | |
JP2010224658A (en) | Operation input device | |
KR20110047349A (en) | User interface apparatus and method forusingtouch and compression in portable terminal | |
WO2015079688A1 (en) | Electronic instrument | |
TW200937270A (en) | Touch sensor for a display screen of an electronic device | |
JP2015172844A (en) | vehicle operating device | |
US20150253887A1 (en) | Information processing apparatus | |
CN114690887A (en) | Feedback method and related equipment | |
JP5594652B2 (en) | Portable information terminal and key arrangement changing method thereof | |
CN116601586A (en) | Virtual keyboard processing method and related equipment | |
CN114764304A (en) | Screen display method | |
JP5461030B2 (en) | Input device | |
WO2018123320A1 (en) | User interface device and electronic apparatus | |
JP2016012313A (en) | Operating device | |
JP2012164047A (en) | Information processor | |
KR20210018406A (en) | Method for operating page and electronic device thereof | |
WO2018123355A1 (en) | User interface device and electronic device | |
KR101678213B1 (en) | An apparatus for user interface by detecting increase or decrease of touch area and method thereof | |
JP6530160B2 (en) | Electronics | |
US9128559B2 (en) | Electronic device | |
JP2014006748A (en) | Electronic apparatus, apparatus, and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17886933 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17886933 Country of ref document: EP Kind code of ref document: A1 |