Nothing Special   »   [go: up one dir, main page]

WO2017006422A1 - 電子装置 - Google Patents

電子装置 Download PDF

Info

Publication number
WO2017006422A1
WO2017006422A1 PCT/JP2015/069466 JP2015069466W WO2017006422A1 WO 2017006422 A1 WO2017006422 A1 WO 2017006422A1 JP 2015069466 W JP2015069466 W JP 2015069466W WO 2017006422 A1 WO2017006422 A1 WO 2017006422A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
sensor
distance measurement
housing
electronic device
Prior art date
Application number
PCT/JP2015/069466
Other languages
English (en)
French (fr)
Inventor
村瀬 太一
昌史 多田
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2015/069466 priority Critical patent/WO2017006422A1/ja
Publication of WO2017006422A1 publication Critical patent/WO2017006422A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to an electronic apparatus having a separation sensor that measures a distance between a projection apparatus that projects an image on a projection area and an object such as a user's finger located in the projection area.
  • an electronic device called an interactive projector having a user interface function for detecting an operation of an object such as a user's finger and generating an input signal corresponding to the operation
  • Such an electronic device includes a projection device that projects an image on a projection surface, a mirror that reflects an image projected from the projection device, and a separation sensor that detects the movement of a finger or the like that instructs an operation on the projection surface.
  • the projection device is disposed in a casing of the electronic device, and the separation sensor is disposed on a mirror support member that supports the mirror.
  • the distance measuring sensor is disposed on the mirror support member, it is possible to detect the movement of an object such as a user's finger from above, and it is easy to determine the shape of the object. At the same time, the possibility of being disturbed by the obstacle located on the projection surface is reduced.
  • the separation sensor is disposed on the mirror support member, the size of the mirror support member increases. Since the user operates the electronic apparatus by placing a finger on the projection plane located below the mirror support member, the user's head and the mirror support member may be close to each other. When the size of the mirror support member is increased by arranging the separation sensor on the mirror support member, the user feels pressure when the user's head and the mirror support member come close to each other. Usability is reduced.
  • the separation sensor is placed in the housing of the electronic device instead of the mirror support, and the movement of an object such as a user's finger is detected through a mirror shared with the projection device It is conceivable to adopt a configuration that does this.
  • the optical axis direction of the light emitted from the distance sensor is the projection plane. It is preferable to arrange so as to be close to the normal line direction. This is because it is possible to detect the movement of an object such as a user's finger from above by arranging the distance sensor so that the optical axis direction of the emitted light is close to the normal direction of the projection surface. is there.
  • the distance sensor when the distance sensor is arranged so that the optical axis direction of the emitted light is close to the normal direction of the projection surface, the light emitted from the distance sensor is reflected by the mirror and directly enters the distance sensor. There is a fear. Light that is directly incident after being reflected by a mirror without passing through an object such as a user's finger located on the projection surface has a relatively strong intensity. The detection sensitivity of the distance measurement sensor that detects the positioned object is lowered.
  • an object of the present invention is to realize an electronic device that is less likely to feel a sense of pressure by an operating user without reducing the detection sensitivity of a distance measurement sensor.
  • the electronic device includes a housing that is arranged upright on the projection surface, a projection device, a reflection unit, and a separation sensor.
  • the projection device is disposed on the housing, emits projection light for projecting an image upward
  • the reflection unit is disposed above the housing, and the projection light emitted by the projection device is projected onto the projection area on the projection surface.
  • the distance measurement sensor is disposed on the housing, emits distance measurement light for measuring the distance between the object located in the measurement area to the reflection unit, and the measurement light reflected by the object passes through the reflection unit. Incident.
  • the distance measurement sensor has a distance between the projection area and the position where the distance between the projection apparatus and the projection apparatus is equal to or far from the projection apparatus.
  • the tilt angle between the optical axis and the normal line of the projection plane is set at an angle that is equal to or smaller than a predetermined reference angle.
  • the reflection unit is arranged so that the measurement light emitted from the separation sensor is reflected and does not directly enter the measurement sensor.
  • FIG. 1A is a side view of a projector system including an electronic device according to the embodiment
  • FIG. 1B is a front view of the electronic device shown in FIG.
  • FIG. 2 is a first diagram for explaining an arrangement condition of the separation sensor shown in FIG. 1.
  • FIG. 3 is a second diagram for explaining the arrangement conditions of the separation sensor shown in FIG. 1.
  • FIG. 3 is a third diagram for explaining the arrangement conditions of the separation sensor shown in FIG. 1.
  • FIG. 4 is a fourth diagram for explaining the arrangement conditions of the separation sensor shown in FIG. 1.
  • FIG. 6 is a fifth diagram for explaining the arrangement conditions of the separation sensor shown in FIG. 1.
  • FIG. 10 is another perspective view of the electronic device shown in FIG. 9.
  • FIG. 10 is a front view of the electronic device shown in FIG. 9.
  • FIG. 10 is a rear view of the electronic device shown in FIG. 9.
  • FIG. 10 is a left side view of the electronic device shown in FIG. 9.
  • FIG. 10 is a right side view of the electronic device shown in FIG. 9.
  • FIG. 10 is a plan view of the electronic device shown in FIG. 9.
  • FIG. 10 is a bottom view of the electronic device shown in FIG. 9.
  • An electronic device includes a projection device disposed in a housing, a reflection unit that is disposed above the housing and reflects projection light emitted from the projection device to a projection region on a projection surface, and a projection region.
  • the separation area in which the separation sensor measures the distance to the object includes the entire projection area, and the shape of the measurement target can be easily determined.
  • the reflection unit is arranged so that the measurement light emitted from the separation sensor is reflected and does not directly enter the measurement sensor. With the arrangement of the reflecting portion, it is possible to prevent the detection sensitivity of the distance measuring sensor from being lowered by reflecting the distance measuring light emitted from the distance measuring sensor and directly entering the distance measuring sensor.
  • the electronic device by devising the arrangement of the distance measurement sensor and the reflection unit, it is possible to solve the problem caused by sharing the single reflection unit between the projection device and the distance measurement sensor.
  • FIG. 1A is a side view of a projector system including an interactive projector which is an example of the electronic apparatus according to the embodiment
  • FIG. 1B is a front view of the interactive projector shown in FIG.
  • the projector system 100 includes an interactive projector 1, a computer 101, and electrical wiring 102 that connects the interactive projector 1 and the computer 101.
  • Each of the interactive projector 1 and the computer 101 is disposed on the projection plane 103.
  • the interactive projector 1 includes a housing 10, a mirror support member 11 disposed above the housing 10, and a pair of arms 12 having one end joined to the housing 10 and the other end joined to the mirror support member 11. And 13.
  • a projection device 20 and a separation sensor 30 are arranged in the housing 10, a projection device 20 and a separation sensor 30 are arranged.
  • the mirror 40 is disposed on the surface of the mirror support member 11 that faces the projection surface 103.
  • the computer 101 is a personal computer, for example, and provides image data indicating an image displayed by the interactive projector 1 to the interactive projector 1 via the electric wiring 102. Further, the computer 101 acquires input data indicating an input based on an operation of an object such as a user's finger detected by the interactive projector 1 from the interactive projector 1 via
  • the projection device 20 is disposed on the housing 10 and emits projection light for projecting an image onto the projection surface 103 in the upward direction.
  • the projection light emitted upward from the projection device 20 is reflected by the mirror 40 and projected onto the projection area 104 located on the projection plane 103.
  • Examples of projection light emitted from the projection device 20 are denoted by reference numerals 21 to 26 in FIGS. 1 (a) and 1 (b).
  • the projection light 21 reaches one point Pv0 on the side far from the casing 10 extending in the width direction of the casing 10, and the projection light 22 reaches one point Pv1 on the side near the casing 10 extending in the width direction of the casing 10. To do.
  • the projection light 23 reaches one vertex Pv2 on the side far from the casing 10 extending in the width direction of the casing 10, and the projection light 24 is on the other side of the side far from the casing 10 extending in the width direction of the casing 10.
  • the vertex Pv3 is reached.
  • the projection light 25 reaches one vertex Pv4 of the side close to the case 10 extending in the width direction of the case 10, and the projection light 26 is the other side of the side close to the case 10 extending in the width direction of the case 10.
  • the vertex Pv5 is reached.
  • the separation sensor 30 is disposed on the back surface opposite to the projection surface 103 of the housing 10 and measures a distance between the object and the object in order to detect an object such as a user's finger located in the separation area 105.
  • the separation light that is emitted upward and reflected by the object is incident.
  • the separation sensor 30 is a separation sensor with a depth value from which the depth can be acquired, for example, Kinect (registered trademark) of Microsoft (registered trademark) that analyzes distortion of an infrared pattern, but is not limited thereto. It is not a thing.
  • Kinect registered trademark
  • Microsoft registered trademark
  • the separation sensor 30 detects the movement of the object according to the measured distance from the object.
  • Examples of the measurement light emitted from the measurement sensor 30 are denoted by reference numerals 31 to 36 in FIGS. 1 (a) and 1 (b).
  • the measurement light 31 reaches one point Sv0 on the side far from the casing 10 extending in the width direction of the casing 10, and the measurement light 32 is one point Sv1 on the side near the casing 10 extending in the width direction of the casing 10. To reach.
  • the measurement light 33 reaches one vertex Sv2 on the side far from the casing 10 extending in the width direction of the casing 10, and the measurement light 34 is on the side far from the casing 10 extending in the width direction of the casing 10.
  • the other vertex Sv3 is reached.
  • the measurement light 35 reaches one vertex Sv4 of the side close to the case 10 extending in the width direction of the case 10, and the measurement light 36 has a side close to the case 10 extending in the width direction of the case 10.
  • the other vertex Sv5 is reached.
  • the separation sensor 30 is disposed so that the inclination angle between the optical axis of the separation light emitted from the separation sensor 30 and the normal line of the projection surface 103 is equal to or less than a predetermined reference angle.
  • the reference angle is defined in a range in which the measurement light emitted from the measurement sensor 30 can easily determine the shape of an object such as a user's finger. If the inclination angle between the optical axis of the measurement light and the normal line of the projection surface 103 becomes large, and the object is measured from an oblique direction or a lateral direction, it becomes difficult to determine the shape of the object and the measurement is performed. There is a possibility that the accuracy of the separation is lowered due to the shielding object existing between the separation sensor 30 and the object.
  • the object is measured from above. This makes it easy to determine the shape of the object and minimizes the influence of the shielding object.
  • the mirror 40 is disposed on the surface of the mirror support member 11 that faces the projection surface 103, reflects the projection light emitted from the projection device 20 to the projection region 104 of the projection surface 103, and measures the measurement light emitted from the separation sensor 30.
  • This is a reflection unit that reflects the light separation to the measurement region 105 of the projection surface 103.
  • the mirror 40 reflects the measured light reflected by an object such as a user's finger located in the measured region 105 to the measured sensor 30.
  • the mirror 40 has a minimum area capable of reflecting the projection light and the measurement light.
  • the mirror 40 reflects the projection light 21, 23, and 24 and the measurement light 31, 33, and 34 that reach the side far from the housing 10 near the tip, and the projection light that reaches the side near the housing 10. 22, 25 and 26 and the separation light 32, 35 and 36 are reflected in the vicinity of the rear end.
  • a point Sv0 on the side far from the housing 10 where the measurement light emitted from the separation sensor 30 arrives is the case 10 where the projection light emitted from the projection device 20 arrives. It is farther from the housing 10 than the point Pv0 on the side far from the housing. Further, the one point Sv0 near the case 10 where the measurement light emitted from the separation sensor 30 arrives is more than the one point Pv0 near the case 10 where the projection light emitted from the projection device 20 arrives. Close to the housing 10. From this, both the side far from the housing 10 in the projection area 104 and the side near the housing 10 are sandwiched between the side far from the housing 10 in the measurement area 105 and the side near the housing 10.
  • one vertex Sv2 on the side far from the casing 10 where the measurement light emitted from the separation sensor 30 arrives is a case where the projection light emitted from the projection device 20 reaches. It is further from the housing 10 than one vertex Pv2 on the side far from the body 10. Further, one vertex Sv4 of the side close to the housing 10 where the measurement light emitted from the separation sensor 30 arrives is one of the sides close to the case 10 where the projection light emitted from the projection device 20 arrives. It is closer to the housing 10 than the vertex Pv4.
  • the side extending from the vertex Pv2 to Pv4 of the projection region 104 is closer to the housing 10 than the side extending from the vertex Sv2 to Sv4 of the separation region 105.
  • the vertex Pv3 is closer to the housing 10 than Sv3 and the vertex Pv5 is closer to the housing 10 than Sv5
  • the side extending from the vertex Pv3 to Pv5 of the projection region 104 is from the vertex Sv3 of the measurement region 105. It is closer to the housing 10 than the side extending to Sv5.
  • both the side extending from the vertex Pv2 to Pv4 and the side extending from the vertex Pv3 to Pv5 of the projection region 104 are the side extending from the vertex Sv2 to Sv4 and the side extending from the vertex Sv3 to Sv5 of the separation region 105. It is sandwiched between.
  • the measurement region 105 is the projection region. All of 104 are included.
  • the arrangement condition in which the separation sensor 30 is arranged so that the separation area 105 includes the entire projection area 104 is defined by the arrangement position SP (x, y, z) of the separation sensor 30 and the optical axis inclination angle ⁇ s.
  • the arrangement position SP (x, y, z) is a method of the projection plane 103 in which the width direction of the casing 10 is the X direction, the direction perpendicular to the width direction of the casing 10 and parallel to the projection plane 103 is the Y direction.
  • the line direction is defined as the Z direction.
  • the optical axis inclination angle ⁇ s is defined as the inclination angle of the optical axis of the measurement light emitted from the measurement sensor 30 with respect to the normal direction of the projection plane 103.
  • the arrangement position SP (x, y, z) of the separation sensor 30 and the optical axis inclination angle ⁇ s are determined based on the arrangement position of the projection device 20 and the light in the coordinate system with the bottom surface of the housing 10 in contact with the projection surface 103 as the origin.
  • Sv0 to Sv5 are Sv0 (y)> Pv0 (y) Sv1 (y) ⁇ Pv1 (y) Sv2 (x)> Pv2 (x) Sv3 (x) ⁇ Pv3 (x) Sv4 (x)> Pv4 (x) Sv5 (x) ⁇ Pv5 (x)
  • Pv0 (y) represents the Y coordinate of one point Pv0 extending from Pv2 to Pv3
  • Pv1 (y) represents the Y coordinate of one point Pv1 extending from Pv4 to Pv5.
  • Sv0 (y) represents the Y coordinate of one point Sv0 extending from Sv2 to Sv3, and Sv1 (y) represents the Y coordinate of one point Sv1 extending from Sv4 to Sv5.
  • Pv2 (x) represents the X coordinate of Pv2
  • Pv3 (x) represents the X coordinate of Pv3,
  • Pv4 (x) represents the X coordinate of Pv4,
  • Pv5 (x) represents the X coordinate of Pv5.
  • Sv2 (x) indicates the X coordinate of Sv2
  • Sv3 (x) indicates the X coordinate of Sv3
  • Sv4 (x) indicates the X coordinate of Sv4
  • Sv5 (x) indicates the X coordinate of Sv5.
  • the disposition position SP (x, y, z) and the optical axis inclination angle ⁇ s of the separation sensor 30 are defined by the four vertices Pv2 to Pv5 in the separation area 105 defined by the four vertices Sv2 to Sv5. Is set so as to include the projected area 104 to be displayed.
  • FIG. 2 is a first diagram for explaining the arrangement conditions of the separation sensor 30.
  • the calculation of the Y coordinate and the Z coordinate of the position where the measurement light 32 enters the mirror 40 is shown.
  • the horizontal axis indicates the Y direction
  • the vertical axis indicates the Z direction.
  • the origin of the coordinate system is the bottom surface of the housing 10 in contact with the projection plane 103. Therefore, the Z coordinate of the projection plane 103 is zero.
  • ⁇ s represents an inclination angle of the optical axis of the measurement light emitted from the separation sensor 30 with respect to the normal direction of the projection surface 103
  • ⁇ m represents an inclination angle of the mirror 40 with respect to the projection surface 103.
  • Each of ⁇ d and ⁇ u is a part of the vertical field angle of the measured light emitted from the distance measuring sensor 30, and ⁇ d is a distance from the optical axis of the vertical field angle of the measured light in the direction far from the housing 10.
  • ⁇ u represents an angle in a direction close to the housing 10 from the optical axis in the vertical field angle of the measured light.
  • SP (x, y, z) indicates the coordinates of the arrangement position of the separation sensor 30, and Mir (x, y, z) indicates the coordinates of the reference position of the mirror 40.
  • Sv0 (y) indicates the Y coordinate of one point Sv0 on the side far from the case 10 extending in the width direction of the case 10, and Sv1 (y) indicates the side near the case 10 extending in the width direction of the case 10.
  • the Y coordinate of one point Sv1 is shown.
  • Sm0 (x, y, z) indicates the coordinates at which the measured light 32 reaching Sv0 (y) is incident on the mirror 40.
  • Sm1 (x, y, z) indicates coordinates at which the measured light 32 reaching Sv1 (y) is incident on the mirror 40.
  • the angle is positive when indicated by a solid arrow and negative when indicated by a dashed arrow.
  • FIG. 2 the angle is positive when indicated by a solid arrow and negative when indicated by a dashed arrow.
  • ⁇ s and ⁇ u are positive, and ⁇ m and ⁇ d are negative.
  • the coordinate axis has a positive direction indicated by an arrow.
  • Sv1 (y), Pv1 (y), Pv0 (y), and Sv0 (y) increase in this order
  • SP x, y, z
  • Mir X, y, z
  • Z coordinates of Sm0 (x, y, z) increase in this order.
  • the Y coordinate Sm1 (y) of Sm1 (x, y, z) is the Y coordinate Sp (y) of Sp (x, y, z) and the Z coordinate Sp (z), Z of Sm1 (x, y, z). From coordinates Sm1 (z), ⁇ s and ⁇ d
  • the Z coordinate Sm1 (z) of Sm1 (x, y, z) is derived from the Z coordinate Mir (z) and ⁇ m of Mir (x, y, z).
  • FIG. 3 is a second diagram for explaining the arrangement conditions of the separation sensor 30.
  • the calculation of the Y coordinate Sm0 (y) and the Z coordinate Sm0 (z) of the position Sm0 (x, y, z) where the measured light 31 enters the mirror 40 is shown. Since the coordinates and angles shown in FIG. 3 are the same as those in FIG. 2, detailed description thereof is omitted here.
  • the Y coordinate Sm1 (y) of Sm0 (x, y, z) is the Y coordinate Sp (y) of Sp (x, y, z) and the Z coordinate Sp (z), Z of Sm1 (x, y, z). From coordinates Sm1 (z), ⁇ s and ⁇ d
  • the Z coordinate Sm1 (z) of Sm1 (x, y, z) is derived from the Z coordinate Mir (z) and ⁇ m of Mir (x, y, z).
  • FIG. 4 is a third diagram for explaining the arrangement conditions of the separation sensor 30.
  • FIG. 4 shows calculation of distances in the Y direction between the positions Sm0 and Sm1 where the measurement light beams 31 and 33 are incident on the mirror 40 and Sv0 and Sv1. Since the coordinates and angles shown in FIG. 4 are the same as those in FIG. 2, a detailed description thereof is omitted here.
  • Y coordinate Sv1 (y) of Sv1 (x, y, z) is obtained from Y coordinate Sm1 (y), Z coordinate Sm1 (z), and ⁇ r1 of Sm1 (x, y, z).
  • Equation (9) the first term on the right side of Equation (9) is indicated by an arrow E in FIG. Also, in the reflection by the mirror, the incident angle and the reflection angle are equal, so ⁇ r1 is
  • Y coordinate Sv0 (y) of Sv1 (x, y, z) is calculated from Y coordinate Sm0 (y), Z coordinate Sm0 (z), and ⁇ r0 of Sm0 (x, y, z).
  • FIG. 5 is a fourth diagram for explaining the arrangement conditions of the separation sensor 30.
  • the calculation of the X coordinate Sv4 (x) of Sv4 (x, y, z) is shown.
  • the horizontal axis indicates the X direction. Since the coordinates and angles shown in FIG. 5 other than the horizontal axis are the same as those in FIG. 2, a detailed description thereof is omitted here.
  • the X coordinate Sv4 (x) of Sv4 (x, y, z) is a sin component of the optical path length of the measuring light 32.
  • the moving distance in the Z direction of Sv4 which is the sum of the line segments indicated by arrows G and H, becomes a cos component of the optical path length of the measured light 32.
  • the X coordinate Sv4 (x) of Sv4 (x, y, z) is the tan of the movement distance in the Z direction of Sv4 (x, y, z)
  • the length Lg of the line segment G and the line segment H From the length Lh
  • FIG. 6 is a fifth diagram for explaining the arrangement conditions of the separation sensor 30.
  • the calculation of the length of the line segment G and the line segment H of FIG. 5 used for calculation of the X coordinate Sv4 (x) of Sv4 (x, y, z) is shown.
  • the coordinates, angles, and the like shown in FIG. 6 are the same as those in FIG.
  • the length Lg of the line segment G is the length Lg of the line segment G.
  • Sv4 is the apex of the side close to the casing 10
  • the Y coordinate Sv4 (y) and the Z coordinate Sv4 (z) of Sv4 indicate the Y coordinate Sv1 (y) of Sv1 indicating one point Sv1 of the side close to the casing 10.
  • the Z coordinate Sv1 (z) Since Sv2 is the vertex of the side far from the housing 10, the Y coordinate Sv2 (y) and the Z coordinate Sv2 (z) of Sv2 are the Y coordinate Sv0 of Sv0 indicating one point Sv0 of the side far from the housing 10. (Y) and Z coordinate Sv0 (z) are the same.
  • the coordinates of Sv3 and Sv5 are calculated in the same manner as the coordinates of Sv2 and Sv4.
  • the separation sensor is arranged not in the mirror support member but in the housing, the size of the mirror support member can be reduced, so that the user is less likely to feel pressure. can do.
  • the separation sensor 30 is disposed on the back surface of the housing 10 opposite to the projection surface 103, and the mirror has a minimum area that can reflect the projection light and the separation light. For this reason, in the electronic device according to the embodiment, the measurement light emitted from the measurement sensor is not reflected by the mirror and directly returned to the measurement sensor, and the detection sensitivity of the measurement sensor is unlikely to decrease.
  • the mirror 40 has a minimum area capable of reflecting the projection light and the measurement light.
  • the area of the mirror can be increased in a range in which the distance measurement light emitted from the distance measurement sensor is not reflected by the mirror and directly incident on the distance measurement sensor. That is, in the electronic device according to the embodiment, the rear end of the mirror moves within a range in which the measurement light emitted from the measurement sensor is not reflected by the mirror and directly enters the measurement sensor, thereby reducing the area of the mirror. Can be bigger.
  • FIG. 7 is a diagram for explaining the arrangement conditions of the distance measuring sensor and the mirror when the distance measuring light emitted from the distance measuring sensor is reflected by the mirror and directly enters the distance measuring sensor.
  • the measurement light emitted from the arrangement position SP (x, y, z) of the separation sensor 30 is reflected by the mirror 40 and directly enters the arrangement position SP (x, y, z) of the measurement sensor 30.
  • the calculation of the coordinates MI (x, y, z) of the mirror 40 is shown. Since the coordinates and angles shown in FIG. 7 are the same as those in FIG. 2, detailed description thereof is omitted here.
  • the coordinates MI (x, y, z) of the mirror 40 directly incident on the distance measuring sensor 30 are coordinates where the incident angle and the reflection angle of the distance measuring light to the mirror 40 are both zero, that is, the distance measured by the distance measuring sensor 30.
  • the coordinates at which light enters the mirror 40 perpendicularly and reflects.
  • the Y coordinate MI (y) of MI (x, y, z) is the Y coordinate Sp (y) of Sp (x, y, z), the Z coordinate Sp (z), and the Z coordinate of MI (x, y, z). From coordinates MI (z) and ⁇ m
  • the Z coordinate MI (z) of MI (x, y, z) is the Z coordinate Mir (z) of Mir (x, y, z) and the Y coordinate MI (y) of MI (x, y, z). And from ⁇ m
  • the mirror is arranged so as not to include the coordinates MI (x, y, z) of the directly incident mirror 40 calculated by the equations (24) to (26).
  • the mirror support member 11 is fixed and supported by the pair of arms 12 and 13 to the housing 10.
  • the mirror support member is mounted on the housing 10. You may be supported so that rotation is possible.
  • FIG. 8A is a side view of a first state of the electronic device according to the modified example
  • FIG. 8B is a side view of the second state of the electronic device according to the modified example.
  • the interactive projector 2 is different from the interactive projector 1 in that the interactive projector 2 includes an arm rotation device 14, a separation sensor rotation device 15, and a shielding portion 16.
  • the configuration and functions of the constituent elements of the interactive projector 2 other than the arm rotation device 14, the separation sensor rotation device 15, and the shielding portion 16 are the configurations and functions of the constituent elements of the interactive projector 1 denoted by the same reference numerals. The detailed description is omitted here.
  • the arm rotation device 14 rotatably supports the pair of arms 12 and 13 and fixes the arms 12 and 13 at a position where a user (not shown) has rotated the arms 12 and 13. Further, the arm rotation device 14 transmits the angle when the arm portions 12 and 13 are fixed to the separation sensor rotation device 15 and the shielding unit 16.
  • the separation sensor rotation device 15 uses the equations (1) to (21) and the like so that the separation area includes the projection area according to the angle when the arm portions 12 and 13 are fixed. The angle 30 is calculated, and the separation sensor 30 is rotated according to the calculated angle.
  • the shielding part 16 is provided on the surface of the mirror 40 so as to be extendable and contractible. According to the angle of the arm portions 12 and 13 fixed by the arm rotation device 14, the shielding portion 16 may reflect the measurement light emitted from the measurement sensor 30 by the mirror and directly enter the measurement sensor 30. Covers the area of the mirror 40 where there is. In one example, the shielding unit 16 covers the coordinates MI (x, y, z) of the directly incident mirror 40 calculated by the equations (24) to (26).
  • the arm portion that supports the mirror support member is rotatable, the position and size of the projection plane and the separation area can be adjusted.
  • the projection plane and the measurement area can be adjusted according to the installation environment and usage state, so that usability can be improved.
  • the shape of the housing, the arm, the mirror support member, and the arrangement of the photographing device and the distance measurement sensor in the housing are not limited to those shown in the interactive projectors 1 and 2. Absent.
  • the electronic device according to the embodiment may have the shape shown in FIGS.
  • FIG. 9 is a perspective view of an example of the electronic device according to the embodiment
  • FIG. 10 is another perspective view of the electronic device shown in FIG. 9, and
  • FIG. 11 is a front view of the electronic device shown in FIG. 12 is a rear view of the electronic device shown in FIG. 13 is a left side view of the electronic device shown in FIG. 9,
  • FIG. 14 is a right side view of the electronic device shown in FIG. 9,
  • FIG. 15 is a plan view of the electronic device shown in FIG.
  • FIG. 10 is a bottom view of the electronic device shown in FIG. 9.
  • the projection device 20 is disposed in a concave portion formed on the upper left side of the front surface of the housing 10, the separation sensor 30 is disposed in a convex portion formed on the back surface of the housing 10, and the mirror 40 is supported by the mirror. It is arranged over the entire back surface of the member 11.
  • the arms 12 and 13 have a curved shape so as to spread outward as it goes upward. Since the projection unit 20 is disposed at a position shifted to the left side from the center of the housing 10, the arm unit 12 has a shape that is larger than the arm unit 13.
  • the separation sensor 30 is disposed on the back surface of the housing 10 opposite to the projection surface 103.
  • the separation sensor is disposed in the housing so as to be positioned parallel to the projection device or behind the projection device with respect to the side extending in the width direction of the housing on the projection surface. Just do it. That is, in the electronic device according to the embodiment, the distance measurement sensor only needs to be disposed at a position where the distance to the projection region is equal to the projection device or a position farther from the projection device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)

Abstract

操作するユーザが圧迫感を感じるおそれが低い電子装置を、測離センサの検出感度を低下させることなしに実現する。 電子装置1は、投影装置20と、反射部40と、測離センサ30とを有する。反射部40は筐体の上方に配置され、投影装置20が出射した投射光を投影領域104に反射する。測離センサ30は、筐体10に配置され、測離領域105に位置する物体との間の距離を測定するための測離光を反射部40に出射する。測離センサ30は、投影領域104に対して投影装置20と平行又は投影装置20の後方の位置に配置される。また、測離センサ30は、測離領域105が投影領域104の全体を含み且つ測離センサ30から出射される測離光の光軸と投影面103の法線との間の傾斜角が基準角以下になる角度で配置される。反射部40は、測離センサ30から出射された測離光が反射して測離センサ30に直接入射しないように配置される。

Description

電子装置
 本発明は、例えば、画像を投影領域に投影する投影装置と、投影領域内に位置するユーザの指等の物体との間の距離を測定する測離センサを有する電子装置に関する。
 近年、ユーザの指等の物体の動作を検知して、その動作に応じた入力信号を生成するユーザインタフェース機能を有するインタラクティブプロジェクタとも称される電子装置が提案されている(例えば、特許文献1~3及び非特許文献1を参照)。このよう電子装置では、投影面に画像を投影する投影装置と、投影装置から投影される画像を反射するミラーと、投影面で操作を指示する指等の動きを検出する測離センサとを備えることがある。投影装置、ミラー及び測離センサを備える電子装置では、投影装置は電子装置の筐体に配置され、測離センサはミラーを支持するミラー支持部材に配置される。
特開2014-204196号公報 特開2009-258569号公報 特開2012-108232号公報
ヒューレット-パッカード(登録商標) デベロップメント カンパニー エル.ピー.「sprout(登録商標)」[平成27年6月26日検索]、インターネット(URL:https://sprout.hp.com/us/en/)
 このような電子装置では、測離センサは、ミラー支持部材に配置されるため、ユーザの指等の物体の動きを上方向から検知することが可能になり、物体の形状の判定が容易になると共に、投影面に位置する障害物により検出を妨害されるおそれが低くなる。しかしながら、測離センサをミラー支持部材に配置すると、ミラー支持部材の大きさが大きくなる。ユーザは、ミラー支持部材の下方に位置する投影面に指を置いて電子装置を操作するため、ユーザの頭部とミラー支持部材とが近接することがある。測離センサをミラー支持部材に配置することによりミラー支持部材の大きさが大きくなると、ユーザの頭部とミラー支持部材とが近接したときに、ユーザが圧迫感を感じることになり、電子装置のユーザビリティが低下する。
 電子装置のユーザビリティの低下を防止するために、測離センサをミラー支持部ではなく、電子装置の筐体に配置し、投影装置と共通のミラーを介してユーザの指等の物体の動きを検出する構成を採用することが考えられる。測離センサを電子装置の筐体に配置して投影装置と共通のミラーを介して物体の動きを検出する場合、測離センサは、測離センサから出射される光の光軸方向が投影面の法線方向に近くなるように配置されることが好ましい。出射される光の光軸方向が投影面の法線方向に近くなるように測離センサを配置することにより、ユーザの指等の物体の動きを上方向から検知することが可能になるためである。
 しかしながら、出射される光の光軸方向が投影面の法線方向に近くなるように測離センサを配置すると、測離センサから出射された光がミラーに反射して測離センサに直接入射するおそれがある。投影面に位置するユーザの指等の物体を介さずにミラーで反射して直接入射する光は、強度が比較的強いため、このような光が測離センサに入射することにより、投影面に位置する物体を検出する測離センサの検出感度が低下する。
 一実施形態では、操作するユーザが圧迫感を感じるおそれが低い電子装置を、測離センサの検出感度を低下させることなしに実現することを目的とする。
 1つの態様では、電子装置は、投影面に起立して配置される筐体と、投影装置と、反射部と、測離センサとを有する。投影装置は筐体に配置され、画像を投影するための投影光を上方向に出射し、反射部は筐体の上方に配置され、投影装置が出射した投射光を投影面上の投影領域に反射する。測離センサは、筐体に配置され、測離領域に位置する物体との間の距離を測定するための測離光を反射部に出射し、物体で反射した測離光が反射部を介して入射する。測離センサは、投影領域との間の距離が投影装置と等しい位置又は投影装置よりも離れた位置に、測離領域が投影領域の全体を含み且つ測離センサから出射される測離光の光軸と前記投影面の法線との間の傾斜角が所定の基準角以下になる角度で配置される。反射部は、測離センサから出射された測離光が反射して測離センサに直接入射しないように配置される。
 一実施形態では、操作するユーザが圧迫感を感じるおそれが低い電子装置を、測離センサの検出感度を低下させることなしに実現することができる。
(a)は実施形態に係る電子装置を含むプロジェクタシステムの側面図であり、図1(b)は(a)に示す電子装置の正面図である。 図1に示す測離センサの配置条件の説明のための第1図である。 図1に示す測離センサの配置条件の説明のための第2図である。 図1に示す測離センサの配置条件の説明のための第3図である。 図1に示す測離センサの配置条件の説明のための第4図である。 図1に示す測離センサの配置条件の説明のための第5図である。 測離センサから出射した測離光がミラーで反射して測離センサに直接入射する場合の測離センサとミラーとの配置条件を説明する図である。 (a)は変形例に係る電子装置の第1状態の側面図であり、(b)は変形例に係る電子装置の第2状態の側面図である。 実施形態に係る電子装置の一例の斜視図である。 図9に示す電子装置の他の斜視図である。 図9に示す電子装置の正面図である。 図9に示す電子装置の背面図である。 図9に示す電子装置の左側面図である。 図9に示す電子装置の右側面図である。 図9に示す電子装置の平面図である。 図9に示す電子装置の底面図である。
 以下図面を参照して、本発明に係る電子装置について説明する。但し、本発明の技術的範囲はそれらの実施の形態に限定されない。
 (実施形態に係る電子装置の概要)
 実施形態に係る電子装置は、筐体に配置された投影装置と、筐体の上方に配置され、投影装置が出射した投射光を投射面上の投影領域に反射する反射部と、投影領域を含む測離領域に位置する物体との間の距離を測定する測離センサとを有する。測離センサは、投影領域との間の距離が投影装置と等しい位置又は投影装置よりも離れた位置に、測離センサから出射される測離光の光軸と投影面の法線との間の傾斜角が所定の基準角以下になるように筐体に配置される。この測離センサの配置により、測離センサが物体との間の距離を測定する測離領域が投影領域の全体を含むと共に、測定対象の形状を容易に判定可能になる。反射部は、測離センサから出射された測離光が反射して測離センサに直接入射しないように配置される。この反射部の配置により、測離センサから出射された測離光が反射して測離センサに直接入射することにより、測離センサの検出感度が低下することを防止できる。実施形態に係る電子装置では、測離センサ及び反射部の配置を工夫することで、単一の反射部を投影装置と測離センサとが共用することにより生じる問題を解決することができる。
 (実施形態に係る電子装置の構成及び機能)
 図1(a)は実施形態に係る電子装置の一例であるインタラクティブプロジェクタを含むプロジェクタシステムの側面図であり、図1(b)は図1(a)に示すインタラクティブプロジェクタの正面図である。
 プロジェクタシステム100は、インタラクティブプロジェクタ1と、コンピュータ101と、インタラクティブプロジェクタ1とコンピュータ101との間を接続する電気配線102とを有する。インタラクティブプロジェクタ1及びコンピュータ101のそれぞれは、投影面103に配置される。インタラクティブプロジェクタ1は、筐体10と、筐体10の上方に配置されるミラー支持部材11と、一端が筐体10に接合され、他端がミラー支持部材11に接合された一対の腕部12及び13とを有する。筐体10には、投影装置20と、測離センサ30とが配置される。ミラー支持部材11の投影面103に対向する面には、ミラー40が配置される。コンピュータ101は、一例ではパーソナルコンピュータであり、インタラクティブプロジェクタ1が表示する画像を示す画像データを電気配線102を介してインタラクティブプロジェクタ1に提供する。また、コンピュータ101は、インタラクティブプロジェクタ1が検出したユーザの指等の物体の動作に基づく入力を示す入力データを電気配線102を介してインタラクティブプロジェクタ1から取得する。
 投影装置20は、筐体10に配置され、投影面103に画像を投影するための投影光を上方向に出射する。投影装置20から上方に出射された投影光は、ミラー40で反射されて投影面103に位置する投影領域104に投射される。投影装置20から出射される投影光の例は、図1(a)及び1(b)において、符号21~26で示される。投影光21は筐体10の幅方向に延伸する筐体10から遠い辺の一点Pv0に到達し、投影光22は筐体10の幅方向に延伸する筐体10に近い辺の一点Pv1に到達する。投影光23は筐体10の幅方向に延伸する筐体10から遠い辺の一方の頂点Pv2に到達し、投影光24は筐体10の幅方向に延伸する筐体10から遠い辺の他方の頂点Pv3に到達する。投影光25は筐体10の幅方向に延伸する筐体10に近い辺の一方の頂点Pv4に到達し、投影光26は筐体10の幅方向に延伸する筐体10に近い辺の他方の頂点Pv5に到達する。
 測離センサ30は、筐体10の投影面103と反対側の背面に配置され、測離領域105に位置するユーザの指等の物体を検出するために物体との間の距離を測定する測離光を上方に出射し、物体で反射した測離光が入射する。測離センサ30は、奥行きが取得できる深度値付きの測離センサであり、例えば、赤外線パターンの歪みを解析するマイクロソフト(登録商標)社のKinect(登録商標)であるが、これに限定されるものではない。測離センサ30から上方に出射された測離光は、ミラー40で反射されて投影領域104の全体を含む測離領域105に投射される。測離領域105にユーザの指等の物体があるとき、測離センサ30は、測定した物体との間の距離に応じて、物体の動きを検出する。測離センサ30から出射される測離光の例は、図1(a)及び1(b)において、符号31~36で示される。測離光31は筐体10の幅方向に延伸する筐体10から遠い辺の一点Sv0に到達し、測離光32は筐体10の幅方向に延伸する筐体10に近い辺の一点Sv1に到達する。測離光33は筐体10の幅方向に延伸する筐体10から遠い辺の一方の頂点Sv2に到達し、測離光34は筐体10の幅方向に延伸する筐体10から遠い辺の他方の頂点Sv3に到達する。測離光35は筐体10の幅方向に延伸する筐体10に近い辺の一方の頂点Sv4に到達し、測離光36は筐体10の幅方向に延伸する筐体10に近い辺の他方の頂点Sv5に到達する。
 測離センサ30は、測離センサ30から出射される測離光の光軸が投影面103の法線との間の傾斜角が所定の基準角以下になるように配置される。基準角は、測離センサ30から出射される測離光がユーザの指等の物体の形状が容易に判定可能な範囲に規定される。測離光の光軸が投影面103の法線との間の傾斜角が大きくなり、物体を斜め方向又は横方向から測離することになると、物体の形状の判定が容易ではなくなると共に、測離センサ30と物体との間に存在する遮蔽物により測離の精度が低くなるおそれがある。測離センサ30から出射される測離光の光軸が投影面103の法線との間の傾斜角が所定の基準角以下になるように配置することにより、物体を上方向から測離して、物体の形状の判定を容易とすると共に、遮蔽物の影響を最小限に抑える。
 ミラー40は、ミラー支持部材11の投影面103に対向する面に配置され、投影装置20から出射された投影光を投影面103の投影領域104に反射し且つ測離センサ30から出射された測離光を投影面103の測離領域105に反射する反射部である。また、ミラー40は、測離領域105に位置するユーザの指等の物体で反射した測離光を測離センサ30に反射する。ミラー40は、投影光及び測離光を反射可能な最小限の面積を有する。すなわち、ミラー40では、筐体10から遠い辺に到達する投影光21、23及び24並びに測離光31、33及び34を先端の近傍で反射し、筐体10に近い辺に到達する投影光22、25及び26並びに測離光32、35及び36を後端の近傍で反射する。
 図1(a)に示すように、測離センサ30から出射される測離光が到達する筐体10から遠い辺の一点Sv0は、投影装置20から出射される投影光が到達する筐体10から遠い辺の一点Pv0よりも筐体10から遠い。また、測離センサ30から出射される測離光が到達する筐体10に近い辺の一点Sv0は、投影装置20から出射される投影光が到達する筐体10に近い辺の一点Pv0よりも筐体10に近い。これから、投影領域104の筐体10から遠い辺及び筐体10に近い辺の双方は、測離領域105の筐体10から遠い辺と筐体10に近い辺との間に挟まれる。
 図1(b)に示すように、測離センサ30から出射される測離光が到達する筐体10から遠い辺の一方の頂点Sv2は、投影装置20から出射される投影光が到達する筐体10から遠い辺の一方の頂点Pv2よりも筐体10から遠い。また、測離センサ30から出射される測離光が到達する筐体10に近い辺の一方の頂点Sv4は、投影装置20から出射される投影光が到達する筐体10に近い辺の一方の頂点Pv4よりも筐体10に近い。これから、投影領域104の頂点Pv2からPv4に延伸する辺は、測離領域105の頂点Sv2からSv4に延伸する辺よりも筐体10に近い。同様に、頂点Pv3はSv3よりも筐体10に近く且つ頂点Pv5はSv5よりも筐体10に近いので、投影領域104の頂点Pv3からPv5に延伸する辺は、測離領域105の頂点Sv3からSv5に延伸する辺よりも筐体10に近い。したがって、投影領域104の頂点Pv2からPv4に延伸する辺及び頂点Pv3からPv5に延伸する辺の双方は、測離領域105の頂点Sv2からSv4に延伸する辺及び頂点Sv3からSv5に延伸する辺との間に挟まれる。
 投影領域104の外縁を形成する頂点Pv2~Pv5を結ぶ4つの辺は、測離領域105の外縁を形成する頂点Sv2~Sv5を結ぶ4つの辺によって挟まれるので、測離領域105は、投影領域104の全てを含む。測離領域105が投影領域104の全てを含むように測離センサ30が配置される配置条件は、測離センサ30の配置位置SP(x,y,z)及び光軸傾斜角θsにより規定される。配置位置SP(x,y,z)は、筐体10の幅方向をX方向とし、筐体10の幅方向に直交し且つ投影面103に平行な方向をY方向とし、投影面103の法線方向をZ方向として規定される。光軸傾斜角θsは、投影面103の法線方向に対する測離センサ30から出射される測離光の光軸の傾斜角として規定される。
 測離センサ30の配置位置SP(x,y,z)及び光軸傾斜角θsは、投影面103に接した筐体10の底面を原点とする座標系において、投影装置20の配置位置、光軸方向及び画角により規定される所定のPv0~Pv5に対して、Sv0~Sv5が
 Sv0(y)>Pv0(y)
 Sv1(y)<Pv1(y)
 Sv2(x)>Pv2(x)
 Sv3(x)<Pv3(x)
 Sv4(x)>Pv4(x)
 Sv5(x)<Pv5(x)
 となるように設定される。ここで、Pv0(y)はPv2からPv3に延伸する辺の一点Pv0のY座標を示し、Pv1(y)はPv4からPv5に延伸する辺の一点Pv1のY座標を示す。Sv0(y)はSv2からSv3に延伸する辺の一点Sv0のY座標を示し、Sv1(y)はSv4からSv5に延伸する辺の一点Sv1のY座標を示す。また、Pv2(x)はPv2のX座標を示し、Pv3(x)はPv3のX座標を示し、Pv4(x)はPv4のX座標を示し、Pv5(x)はPv5のX座標を示す。また、Sv2(x)はSv2のX座標を示し、Sv3(x)はSv3のX座標を示し、Sv4(x)はSv4のX座標を示し、Sv5(x)はSv5のX座標を示す。すなわち、測離センサ30の配置位置SP(x,y,z)及び光軸傾斜角θsは、Sv2~Sv5の4つの頂点で規定される測離領域105がPv2~Pv5の4つの頂点で規定される投影領域104を含むように設定される。
 図2は、測離センサ30の配置条件の説明のための第1図である。図2では、測離光32がミラー40に入射する位置のY座標及びZ座標の演算が示される。図2において、横軸はY方向を示し、縦軸はZ方向を示す。座標系の原点は、投影面103に接した筐体10の底面である。したがって、投影面103のZ座標は0になる。また、θsは測離センサ30から出射される測離光の光軸の投影面103の法線方向に対する傾斜角を示し、θmはミラー40の投影面103に対する傾斜角を示す。また、θd及びθuのそれぞれは測離センサ30から出射される測離光の垂直画角の一部であり、θdは測離光の垂直画角のうち光軸から筐体10から遠い方向の角度を示し、θuは測離光の垂直画角のうち光軸から筐体10に近い方向の角度を示す。SP(x,y,z)は測離センサ30の配置位置の座標を示し、Mir(x,y,z)はミラー40の基準位置の座標を示す。Sv0(y)は筐体10の幅方向に延伸する筐体10から遠い辺の一点Sv0のY座標を示し、Sv1(y)は筐体10の幅方向に延伸する筐体10に近い辺の一点Sv1のY座標を示す。Sm0(x,y,z)はSv0(y)に到達する測離光32がミラー40に入射する座標を示す。Sm1(x,y,z)はSv1(y)に到達する測離光32がミラー40に入射する座標を示す。図2において、角度は、実線矢印で示される場合を正とし、破線矢印で示される場合を負とする。図2では、θs及びθuは正であり、θm及びθdは負である。また、図2において、座標軸は矢印が示す方向が正方向である。Y軸ではSv1(y)、Pv1(y)、Pv0(y)及びSv0(y)の順で大きくなり、Z軸ではSP(x,y,z)、Sm1(x,y,z)、Mir(x,y,z)及びSm0(x,y,z)のZ座標の順で大きくなる。
 Sm1(x,y,z)のY座標Sm1(y)は、Sp(x,y,z)のY座標Sp(y)及びZ座標Sp(z)、Sm1(x,y,z)のZ座標Sm1(z)、θs及びθdから
Figure JPOXMLDOC01-appb-M000001
 で示される。ここで、式(1)の右辺の第2項は、図2において矢印Aで示される。
 Sm1(x,y,z)のZ座標Sm1(z)は、Mir(x,y,z)のZ座標Mir(z)及びθmから
Figure JPOXMLDOC01-appb-M000002
 で示される。ここで、式(2)の右辺の第2項は、図2において矢印Bで示される。
 さらに、式(1)に式(2)を代入すると、Sm1(x,y,z)のY座標Sm1(y)は
Figure JPOXMLDOC01-appb-M000003
 で示される。
 また、式(2)に式(3)を代入すると、Sm1(x,y,z)のZ座標Sm1(z)は
Figure JPOXMLDOC01-appb-M000004
 で示される。
 図3は、測離センサ30の配置条件の説明のための第2図である。図3では、測離光31がミラー40に入射する位置Sm0(x,y,z)のY座標Sm0(y)及びZ座標Sm0(z)の演算が示される。図3に示される座標及び角度等は図2と同様なので、ここでは詳細な説明は省略する。
 Sm0(x,y,z)のY座標Sm1(y)は、Sp(x,y,z)のY座標Sp(y)及びZ座標Sp(z)、Sm1(x,y,z)のZ座標Sm1(z)、θs及びθdから
Figure JPOXMLDOC01-appb-M000005
 で示される。ここで、式(5)の右辺の第2項は、図3において矢印Cで示される。
 Sm1(x,y,z)のZ座標Sm1(z)は、Mir(x,y,z)のZ座標Mir(z)及びθmから
Figure JPOXMLDOC01-appb-M000006
 で示される。ここで、式(6)の右辺の第2項は、図3において矢印Dで示される。
 さらに、式(5)に式(6)を代入すると、Sm0(x,y,z)のY座標Sm0(y)は
Figure JPOXMLDOC01-appb-M000007
 で示される。
 また、式(6)に式(7)を代入すると、Sm0(x,y,z)のZ座標Sm0(z)は
Figure JPOXMLDOC01-appb-M000008
 で示される。
 図4は、測離センサ30の配置条件の説明のための第3図である。図4では、測離光31及び33がミラー40に入射する位置Sm0及びSm1とSv0及びSv1とのそれぞれとの間のY方向の距離の演算が示される。図4に示される座標及び角度等は図2と同様なので、ここでは詳細な説明は省略する。
 Sv1(x,y,z)のY座標Sv1(y)は、Sm1(x,y,z)のY座標Sm1(y)及びZ座標Sm1(z)、及びθr1から
Figure JPOXMLDOC01-appb-M000009
 で示される。ここで、式(9)の右辺の第1項は、図4において矢印Eで示される。また、ミラーによる反射では、入射角と反射角とは等しいので、θr1は
Figure JPOXMLDOC01-appb-M000010
 で示される。式(10)を式(9)に代入すると、Sv1のY座標Sv1(y)は
Figure JPOXMLDOC01-appb-M000011
 で示される。また、Sv1(x,y,z)は投影面103に位置するので、Sv1(x,y,z)のZ座標Sv1(z)は
Figure JPOXMLDOC01-appb-M000012
 で示される。
 Sv1(x,y,z)のY座標Sv0(y)は、Sm0(x,y,z)のY座標Sm0(y)及びZ座標Sm0(z)、及びθr0から
Figure JPOXMLDOC01-appb-M000013
 で示される。ここで、式(13)の右辺の第1項は、図4において矢印Fで示される。また、ミラーによる反射では、入射角と反射角とは等しいので、θr0は
Figure JPOXMLDOC01-appb-M000014
 で示される。式(14)を式(13)に代入すると、Sv1(x,y,z)のY座標Sv1(y)は
Figure JPOXMLDOC01-appb-M000015
 で示される。また、Sv0(x,y,z)は投影面103に位置するので、Sv0(x,y,z)のZ座標Sv0(z)は
Figure JPOXMLDOC01-appb-M000016
 で示される。
 図5は、測離センサ30の配置条件の説明のための第4図である。図5では、Sv4(x,y,z)のX座標Sv4(x)の演算が示される。図5において、横軸はX方向を示す。横軸以外の図5に示される座標及び角度等は図2と同様なので、ここでは詳細な説明は省略する。
 Sv4(x,y,z)のX座標Sv4(x)は、測離光32の光路長のsin成分になる。また、図5において、矢印G及びHで示される線分の和であるSv4のZ方向の移動距離は、測離光32の光路長のcos成分になる。したがって、Sv4(x,y,z)のX座標Sv4(x)は、Sv4(x,y,z)のZ方向の移動距離のtanになるので、線分Gの長さLg及び線分Hの長さLhから
Figure JPOXMLDOC01-appb-M000017
 で示される。
 図6は、測離センサ30の配置条件の説明のための第5図である。図6では、Sv4(x,y,z)のX座標Sv4(x)の演算に使用される図5の線分G及び線分Hの長さの演算が示される。図6に示される座標及び角度等は図2と同様なので、ここでは詳細な説明は省略する。
 線分Gの長さLgは
Figure JPOXMLDOC01-appb-M000018
 で示される。また、線分Hの長さLhは
Figure JPOXMLDOC01-appb-M000019
 で示される。式(18)及び式(19)を式(17)に代入すると、Sv4(x,y,z)のX座標Sv4(x)は
Figure JPOXMLDOC01-appb-M000020
 で示される。同様に、Sv2(x,y,z)のX座標Sv2(x)は
Figure JPOXMLDOC01-appb-M000021
 で示される。Sv4は、筐体10に近い辺の頂点であるので、Sv4のY座標Sv4(y)及びZ座標Sv4(z)は、筐体10に近い辺の一点Sv1を示すSv1のY座標Sv1(y)及びZ座標Sv1(z)と同一である。また、Sv2は、筐体10から遠い辺の頂点であるので、Sv2のY座標Sv2(y)及びZ座標Sv2(z)は、筐体10から遠い辺の一点Sv0を示すSv0のY座標Sv0(y)及びZ座標Sv0(z)と同一である。また、Sv3及びSv5の座標は、Sv2及びSv4のそれぞれの座標と同様に演算される。
 (実施形態に係る電子装置の作用効果)
 実施形態に係る電子装置は、測離センサがミラー支持部材ではなく筐体に配置されるため、ミラー支持部材の大きさを小さくすることができるので、ユーザが圧迫感を感じるおそれが低い構造にすることができる。また、実施形態に係る電子装置では、測離センサ30は筐体10の投影面103と反対側の背面に配置され且つミラーは投影光及び測離光を反射可能な最小限の面積を有する。このため、実施形態に係る電子装置では、測離センサから出射した測離光がミラーで反射して測離センサに直接戻るおそれはなく、測離センサの検出感度が低下するおそれは低い。
 (実施形態に係る電子装置の変形例)
 インタラクティブプロジェクタ1では、ミラー40は投影光及び測離光を反射可能な最小限の面積を有する。しかしながら、実施形態に係る電子装置では、ミラーの面積は測離センサから出射した測離光がミラーで反射して測離センサに直接入射することがない範囲で大きくすることができる。すなわち、実施形態に係る電子装置では、ミラーの後端は、測離センサから出射した測離光がミラーで反射して測離センサに直接入射することがない範囲で移動してミラーの面積を大きくすることができる。
 図7は、測離センサから出射した測離光がミラーで反射して測離センサに直接入射する場合の測離センサとミラーとの配置条件を説明する図である。図7では、測離センサ30の配置位置SP(x,y,z)から出射した測離光がミラー40に反射して測離センサ30の配置位置SP(x,y,z)に直接入射するミラー40の座標MI(x,y,z)の演算が示される。図7に示される座標及び角度等は図2と同様なので、ここでは詳細な説明は省略する。
 測離センサ30に直接入射するミラー40の座標MI(x,y,z)は、ミラー40への測離光の入射角及び反射角が共にゼロである座標、すなわち測離センサ30の測離光がミラー40に垂直に入射し且つ反射する座標である。MI(x,y,z)のY座標MI(y)は、Sp(x,y,z)のY座標Sp(y)及びZ座標Sp(z)、MI(x,y,z)のZ座標MI(z)並びにθmから
Figure JPOXMLDOC01-appb-M000022
 で示される。ここで、式(22)の右辺の第2項は、図7において矢印Iで示される。また、MI(x,y,z)のZ座標MI(z)は、Mir(x,y,z)のZ座標Mir(z)、MI(x,y,z)のY座標MI(y)及びθmから
Figure JPOXMLDOC01-appb-M000023
 で示される。式(22)に式(23)を代入すると、MI(x,y,z)のY座標MI(y)は
Figure JPOXMLDOC01-appb-M000024
 で示される。式(23)に式(22)を代入すると、MI(x,y,z)のZ座標MI(z)は
Figure JPOXMLDOC01-appb-M000025
 で示される。MI(x,y,z)のX座標MI(x)は、測離センサ30及びミラー40は何れもx方向に回転していないため、
Figure JPOXMLDOC01-appb-M000026
 で示される。実施形態に係る電子装置では、ミラーは、式(24)~(26)で演算される直接入射するミラー40の座標MI(x,y,z)を含まないように配置される。
 また、インタラクティブプロジェクタ1では、ミラー支持部材11は、一対の腕部12及び13によって筐体10に固定されて支持されるが、実施形態に係る電子装置では、ミラー支持部材は、筐体10に回動可能に支持されてもよい。
 図8(a)は変形例に係る電子装置の第1状態の側面図であり、図8(b)は変形例に係る電子装置の第2状態の側面図である。
 インタラクティブプロジェクタ2は、腕部回動装置14、測離センサ回動装置15及び遮蔽部16を有することがインタラクティブプロジェクタ1と相違する。また、腕部回動装置14、測離センサ回動装置15及び遮蔽部16以外のインタラクティブプロジェクタ2の構成素子の構成及び機能は、同一符号が付されたインタラクティブプロジェクタ1の構成素子の構成及び機能と同一なので、ここでは詳細な説明は省略する。
 腕部回動装置14は、一対の腕部12及び13を回動可能に支持し、不図示のユーザが腕部12及び13を回動した位置で腕部12及び13を固定する。また、腕部回動装置14は、腕部12及び13を固定したときの角度を測離センサ回動装置15及び遮蔽部16に送信する。測離センサ回動装置15は、式(1)~(21)等を使用して、腕部12及び13を固定したときの角度に応じて測離領域が投影領域を含むような測離センサ30の角度を演算して、演算した角度に応じて測離センサ30を回動する。
 遮蔽部16は、ミラー40の表面に伸縮可能に覆設される。遮蔽部16は、腕部回動装置14が固定した腕部12及び13の角度に応じて、測離センサ30から出射した測離光がミラーで反射して測離センサ30に直接入射するおそれがあるミラー40の範囲を覆う。一例では、遮蔽部16は、式(24)~(26)で演算される直接入射するミラー40の座標MI(x,y,z)を覆う。
 インタラクティブプロジェクタ2では、ミラー支持部材を支持する腕部が回動可能であるので、投影面及び測離領域の位置及び大きさを調整することができる。インタラクティブプロジェクタ2では、設置環境及び利用状態に合せて投影面及び測離領域の調整が可能になるので、ユーザビリティを向上させることができる。
 また、実施形態に係る電子装置では、筐体、腕部、ミラー支持部材の形状並びに撮影装置及び測離センサの筐体での配置は、インタラクティブプロジェクタ1及び2に示すものに限定されるものではない。例えば、実施形態に係る電子装置は、図9~18に示す形状を有してもよい。
 図9は実施形態に係る電子装置の一例の斜視図であり、図10は図9に示す電子装置の他の斜視図であり、図11は図9に示す電子装置の正面図であり、図12は図9に示す電子装置の背面図である。図13は図9に示す電子装置の左側面図であり、図14は図9に示す電子装置の右側面図であり、図15は図9に示す電子装置の平面図であり、図16は図9に示す電子装置の底面図である。
 インタラクティブプロジェクタ3では、投影装置20は筐体10の正面上部左側に形成された凹部に配置され、測離センサ30は筐体10の背面に形成された凸部に配置され、ミラー40はミラー支持部材11の裏面の全面に亘って配置される。
 また、インタラクティブプロジェクタ3では、腕部12及び13は、上方に向かうに従って外側に広がるように湾曲した形状を有する。腕部12は、投影装置20が筐体10の中心から左側にずれた位置に配置されるため、腕部13よりも大きく湾曲した形状を有する。
 また、インタラクティブプロジェクタ1では、測離センサ30は、筐体10の投影面103と反対側の背面に配置される。しかしながら、実施形態に係る電子装置では、測離センサは、投影面の筐体の幅方向に延伸する辺に対して投影装置と平行又は投影装置の後方に位置するように筐体に配置されていればよい。すなわち、実施形態に係る電子装置では、測離センサは、投影領域との間の距離が投影装置と等しい位置又は投影装置よりも離れた位置に配置されていればよい。
 1~3  インタラクティブプロジェクタ(電子装置)
 10  筐体
 11  ミラー支持部材
 12、13  腕部
 20  投影装置
 30  測離センサ
 40  ミラー(反射部)

Claims (4)

  1.  投影面に起立して配置される筐体と、
     前記筐体に配置され、画像を投影するための投影光を上方向に出射する投影装置と、
     前記筐体の上方に配置され、前記投影装置が出射した投射光を前記投影面上の投影領域に反射する反射部と、
     前記筐体に配置され、測離領域に位置する物体との間の距離を測定するための測離光を前記反射部に出射し、前記物体で反射した測離光が前記反射部を介して入射する測離センサと、を有し、
     前記測離センサは、前記投影領域との間の距離が前記投影装置と等しい位置又は前記投影装置よりも離れた位置に、前記測離領域が前記投影領域の全体を含み且つ前記測離センサから出射される測離光の光軸と前記投影面の法線との間の傾斜角が所定の基準角以下になる角度で配置され、
     前記反射部は、前記測離センサから出射された測離光が反射して前記測離センサに直接入射しないように配置される、電子機器。
  2.  一端が前記筐体に接合され、他端が前記反射部に接合された腕部と、前記腕部を回動可能に前記筐体に固定する腕部回動部と、を更に有する、請求項1に記載の電子機器。
  3.  前記腕部回動部が前記腕部を前記筐体に固定した角度に応じて、前記測離センサを回動する測離センサ回動部を更に有する、請求項2に記載の電子機器。
  4.  前記腕部回動部が前記腕部を固定した角度に応じて、前記反射部の一部を遮蔽する遮蔽部を更に有する、請求項2又は3に記載の電子機器。
PCT/JP2015/069466 2015-07-06 2015-07-06 電子装置 WO2017006422A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/069466 WO2017006422A1 (ja) 2015-07-06 2015-07-06 電子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/069466 WO2017006422A1 (ja) 2015-07-06 2015-07-06 電子装置

Publications (1)

Publication Number Publication Date
WO2017006422A1 true WO2017006422A1 (ja) 2017-01-12

Family

ID=57684918

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/069466 WO2017006422A1 (ja) 2015-07-06 2015-07-06 電子装置

Country Status (1)

Country Link
WO (1) WO2017006422A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
JP2007514242A (ja) * 2003-12-09 2007-05-31 マシュー ベル、 内蔵型インタラクティブ・ビデオ・ディスプレイ・システム
JP2014204196A (ja) * 2013-04-02 2014-10-27 富士通株式会社 インタラクティブプロジェクタ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
JP2007514242A (ja) * 2003-12-09 2007-05-31 マシュー ベル、 内蔵型インタラクティブ・ビデオ・ディスプレイ・システム
JP2014204196A (ja) * 2013-04-02 2014-10-27 富士通株式会社 インタラクティブプロジェクタ

Similar Documents

Publication Publication Date Title
TWI547828B (zh) 感測器與投射器之校準技術
US10324563B2 (en) Identifying a target touch region of a touch-sensitive surface based on an image
US7468785B2 (en) Enhanced triangulation
US20100207909A1 (en) Detection module and an optical detection device comprising the same
KR101832042B1 (ko) 프로젝터 유닛 및 컴퓨터를 가진 시스템
CN105940359B (zh) 具有投影器单元的系统的触摸式感应垫
US10003777B2 (en) Projection screen for specularly reflecting light
JP2010277122A (ja) 光学式位置検出装置
KR20100055516A (ko) 개선된 조광을 가진 광학 터치 스크린
TWI545463B (zh) 投影系統及管理投影系統之方法
CN107077195B (zh) 显示对象指示符
TW201030578A (en) A detection module and an optical detection system comprising the same
US10318067B2 (en) Corner generation in a projector display area
US8854338B2 (en) Display apparatus and method of controlling display apparatus
US9625309B2 (en) Device for determining a bidirectional reflectance distribution function of a subject
US10649584B2 (en) Process image according to mat characteristic
TWI567588B (zh) 轉換經接收觸碰輸入
WO2017006422A1 (ja) 電子装置
WO2016018420A1 (en) Model data of an object disposed on a movable surface
JP6740042B2 (ja) 位置検知システム
JP2010282463A (ja) タッチパネル装置
US11698676B2 (en) Method and electronic device for eye-tracking
TWI559002B (zh) 檢查探針
JP7371382B2 (ja) 位置指示装置、表示システム、位置指示方法、及びプログラム
JP2009238167A (ja) 位置検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15897685

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15897685

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP