JP5352813B2 - Non-grounding type haptic device - Google Patents
Non-grounding type haptic device Download PDFInfo
- Publication number
- JP5352813B2 JP5352813B2 JP2009207062A JP2009207062A JP5352813B2 JP 5352813 B2 JP5352813 B2 JP 5352813B2 JP 2009207062 A JP2009207062 A JP 2009207062A JP 2009207062 A JP2009207062 A JP 2009207062A JP 5352813 B2 JP5352813 B2 JP 5352813B2
- Authority
- JP
- Japan
- Prior art keywords
- force
- reaction force
- unit
- user
- sense presentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Mechanical Control Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、人に力覚を提示する力覚提示装置に関し、特に、仮想物体を把持した状態で仮想物体から受ける慣性力(慣性質量)の感覚を人の手に提示するための非接地型力覚提示装置に関する。 The present invention relates to a force sense presentation device that presents a force sense to a person, and in particular, a non-grounding type for presenting a sense of inertial force (inertial mass) received from a virtual object while holding the virtual object to a human hand. The present invention relates to a haptic device.
近年、仮想現実感を人に提示する技術の研究が盛んに行なわれている。このような技術の代表的なものに、バーチャルリアリティ(Virtual Reality)やミクストリアリティ(Mixed Reality)がある。バーチャルリアリティとは、コンピュータグラフィックスや音響効果を組み合わせて、 人工的に現実感を作り出す技術で
ある。ミクストリアリティとは、インタラクティブな3次元コンピュータグラフィックスと実空間を融合させる技術である。
In recent years, research on technologies for presenting virtual reality to people has been actively conducted. Representative examples of such technologies include virtual reality and mixed reality. Virtual reality is a technology that artificially creates reality by combining computer graphics and sound effects. Mixed reality is a technology that combines interactive three-dimensional computer graphics and real space.
これらの仮想現実感を提示する技術は、たとえば、業務用や家庭用のゲーム機などでの利用の他、たとえば、医学教育の分野でも力覚提示デバイスを応用して、触診により病巣を発見するための練習機器としての利用のなどのために研究が進められている。 These technologies for presenting virtual reality are used in, for example, game machines for business use and home use, and for example, in the field of medical education, a force sense presentation device is applied to detect a lesion by palpation. Research is being conducted for use as a practice device.
仮想現実感の提示にあたっては、実際に物体があるかのように人の五感に刺激を与える必要がある。特に、力覚の提示は、仮想現実感の生成に重要である。力覚提示の研究は、これまでからなされており、力覚を提示するデバイスは、すでにいくつか開発されている。 In presenting virtual reality, it is necessary to stimulate the human senses as if there were actually objects. In particular, the presentation of force sense is important for generating virtual reality. Research on haptic presentation has been made so far, and several devices for presenting haptic have already been developed.
図1は、力覚提示デバイスの代表的なものである、PHANTOM(登録商標)(例えば、非特許文献1を参照)の外観を示す図である。図1を参照して、PHANTOM(登録商標)は、ペン形のスタイラス2000を備える。また、PHANTOM(登録商標)は、スタイラス2000に力を与えるモータを備える。モータがスタイラス2000に与える力は、スタイラス2000の位置に応じて定められている。したがって、PHANTOM(登録商標)のユーザは、スタイラス2000をつかんで動かすと、スタイラスの位置に応じて、硬い、柔らかいなどの力覚を感じる。 FIG. 1 is a diagram illustrating an appearance of a PHANTOM (registered trademark) (see, for example, Non-Patent Document 1), which is a typical force sense presentation device. Referring to FIG. 1, PHANTOM (registered trademark) includes a pen-shaped stylus 2000. Also, PHANTOM (registered trademark) includes a motor that applies force to the stylus 2000. The force that the motor applies to the stylus 2000 is determined according to the position of the stylus 2000. Therefore, when a user of PHANTOM (registered trademark) grasps and moves the stylus 2000, the user feels a hard or soft force according to the position of the stylus.
これまでに、PHANTOM(登録商標)を用いた仮想現実感の提示について様々な研究がなされている。例えば、非特許文献2には、力覚提示装置PHANTOM(登録商標)で提示する力覚情報と、物に触れたときに発生する音声情報とをユーザに同時に提示し触ったときの臨場感を高める研究についての開示がある。非特許文献2には、様々なものに触れたときの触れ方をPHANTOM(登録商標)が検知し、それに適合する音を自動生成するプログラムが開示されている。 So far, various studies have been conducted on the presentation of virtual reality using PHANTOM (registered trademark). For example, Non-Patent Document 2 presents a sense of realism when simultaneously presenting and touching a user with haptic information presented by a haptic presentation device PHANTOM (registered trademark) and voice information generated when touching an object. There is disclosure about research to enhance. Non-Patent Document 2 discloses a program in which PHANTOM (registered trademark) detects how to touch various things and automatically generates sound suitable for the touch.
PHANTOM(登録商標)と同様によく知られている力覚提示デバイスに、SPIDARがある(例えば、非特許文献3、非特許文献4を参照)。SPIDARの外観を図2に示す。SPIDARは、力覚ポインタ3100と、力覚ポインタ3100に接続された複数のワイヤ3200とを備える。SPIDARは、各ワイヤ3200の長さから力覚ポインタ3100の位置および姿勢を計算し、位置および姿勢に応じた力覚をワイヤ3200の張力により提示する。 SPIDAR is a well-known haptic device similar to PHANTOM (registered trademark) (see, for example, Non-Patent Document 3 and Non-Patent Document 4). The appearance of SPIDAR is shown in FIG. The SPIDAR includes a haptic pointer 3100 and a plurality of wires 3200 connected to the haptic pointer 3100. The SPIDAR calculates the position and posture of the force sense pointer 3100 from the length of each wire 3200 and presents the force sense corresponding to the position and posture by the tension of the wire 3200.
ここで、非特許文献5では、SPIDARのようなワイヤ駆動型力覚ディスプレイにおいて、安定な力覚提示を実現するために、提示力の正確性とともに、ワイヤ張力の連続性を考慮して、張力を計算するアルゴリズムについて開示されている。 Here, in Non-Patent Document 5, in order to realize a stable force sense presentation in a wire drive type force sense display such as SPIDAR, in consideration of the accuracy of the presenting force and the continuity of the wire tension, An algorithm for calculating is disclosed.
一方、ジャイロモーメントを利用した回転トルクを提示するデバイス(非特許文献6を参照)や、知覚の非線形性を利用した不連続的な力覚提示デバイス(非特許文献7を参照)なども開発されている。 On the other hand, devices that present rotational torque using a gyro moment (see Non-Patent Document 6), discontinuous force sense presentation devices that use perceptual nonlinearity (see Non-Patent Document 7), and the like have also been developed. ing.
上記のPHANTOM(登録商標)やSPIDARは、据え置き型(接地型)の装置であるため、力覚を提示できる範囲が装置の設置場所に限られるという問題がある。また、物体を複数の指で把持したときの感覚を提示するのには、向いていない。これらの装置を用いて、力覚を複数の箇所に提示することは難しい。これらの装置は、各々、力覚を提示する箇所が1ヶ所であり、力覚を複数の箇所に提示することはできない。 Since the above-mentioned PHANTOM (registered trademark) and SPIDAR are stationary (grounded) devices, there is a problem that the range in which a force sense can be presented is limited to the installation location of the device. Further, it is not suitable for presenting a sense when an object is held with a plurality of fingers. It is difficult to present force sensation in a plurality of places using these devices. Each of these devices has only one location for presenting a force sense, and cannot present a force sense at a plurality of locations.
一方、据え置き型でない(非接地型)携帯型の力覚提示デバイスには、手袋型反力提示デバイスなどがある。これらの非接地型のデバイスでは、把持感覚のように作用反作用が打ち消しあう力覚は提示できるが、仮想物体の重力質量に働く重力や慣性質量に働く慣性力のような力は提示できない。 On the other hand, a non-stationary (non-grounded) portable force sense presentation device includes a glove-type reaction force presentation device. These non-grounded devices can present a force sense that action and reaction cancel each other like a gripping sense, but cannot present a force such as gravity acting on the gravity mass of the virtual object or inertial force acting on the inertial mass.
本発明は、上記のような問題を解決するためになされたものであって、物体を把持した感覚を人の手に提示するとともに、仮想物体に働くと想定される慣性力を提示ための非接地型力覚提示装置を提供することを課題とする。 The present invention has been made to solve the above-described problems, and presents a sense of grasping an object to a human hand and a non-intensity for presenting an inertial force assumed to work on a virtual object. It is an object of the present invention to provide a ground-type force sense presentation device.
本発明のさらに他の目的は、携帯型の非接地型力覚提示装置を提供することである。 Still another object of the present invention is to provide a portable non-grounded force sense presentation device.
この発明の1つの局面に従うと、ユーザの手によって支持されるものと想定される仮想物体からの慣性力を前記ユーザに提示するための非接地型力覚提示装置であって、ユーザが把持する把持部と、力覚提示装置の加速度の向きおよび大きさを検出するための運動検出手段と、把持部に提示される反力の源となる駆動力を発生する駆動部と、運動検出部からの加速度の情報と仮想物体の質量の情報とに基づいて、仮想物体の運動に相当する慣性力を算出して、慣性力に対応する反力を発生するように駆動部を制御する反力制御部とを備える。 According to one aspect of the present invention, there is provided a non-grounding type haptic device for presenting an inertial force from a virtual object assumed to be supported by a user's hand to the user, which the user holds From the gripping unit, the motion detection means for detecting the direction and magnitude of acceleration of the force sense presentation device, the drive unit that generates the driving force that is the source of the reaction force presented to the gripping unit, and the motion detection unit Reaction force control that calculates the inertial force corresponding to the motion of the virtual object based on the acceleration information of the object and the mass information of the virtual object and controls the drive unit to generate a reaction force corresponding to the inertial force A part.
好ましくは、把持部は、ユーザが把持に使用する2つ指からの押圧力をそれぞれ受ける第1および第2の押圧部を含み、押圧力による第1および第2の押圧部の変位に応じた反力を第1および第2の押圧部に対してそれぞれ与える力覚提示部をさらに備え、駆動部は、慣性力に対応して異なる反力を第1および第2の押圧部にそれぞれ与えるために、反力の源となる駆動力を発生する。 Preferably, the gripping portion includes first and second pressing portions that respectively receive a pressing force from two fingers used by the user for gripping, and according to displacement of the first and second pressing portions due to the pressing force. A force sense presentation unit that applies reaction force to each of the first and second pressing units is further provided, and the drive unit applies different reaction forces to the first and second pressing units in response to inertial forces. In addition, a driving force that is a source of reaction force is generated.
好ましくは、反力制御部は、仮想物体の固さに応じて、第1および第2の押圧部に与える反力を算出して、駆動力を制御する。 Preferably, the reaction force control unit calculates a reaction force applied to the first and second pressing units according to the hardness of the virtual object, and controls the driving force.
好ましくは、運動検出手段は、加速度センサである。
好ましくは、運動検出手段は、モーションキャプチャ装置である。
Preferably, the motion detection means is an acceleration sensor.
Preferably, the motion detection means is a motion capture device.
本発明の非接地型力覚提示装置では、仮想物体を把持した状態で仮想物体から受ける慣性力(慣性質量)の感覚を人の手に提示することが可能となる。 In the non-grounding type haptic presentation device of the present invention, it is possible to present a sense of inertial force (inertial mass) received from a virtual object to a human hand while holding the virtual object.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部分には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
(1.全体構成)
図3は、本発明の実施の形態の力覚提示システム1000の構成を示す機能ブロック図である。
(1. Overall configuration)
FIG. 3 is a functional block diagram showing a configuration of the force sense presentation system 1000 according to the embodiment of this invention.
力覚提示システム1000は、非接地型の力覚提示装置100と、システムの制御を行なうためのコンピュータ200と、力覚提示装置100の空間内の位置および運動を検出するための位置検出センサ202と、力覚提示装置100からの信号を受けて、コンピュータ200に対応する信号に変換して出力し、かつ、コンピュータからの制御コマンドに従って、力覚提示装置100の提示する反力の大きさを制御するための力覚提示装置制御部300と、コンピュータ200からの画像信号出力に応じて、対応する画像を表示するディスプレイ400とを含む。つまり、力覚提示装置制御部300は、コンピュータ200と力覚提示装置100とのインタフェース装置として機能する。 The force sense presentation system 1000 includes an ungrounded force sense presentation device 100, a computer 200 for controlling the system, and a position detection sensor 202 for detecting the position and motion of the force sense presentation device 100 in the space. The signal from the force sense presentation device 100 is received, converted into a signal corresponding to the computer 200 and output, and the magnitude of the reaction force presented by the force sense presentation device 100 is determined according to a control command from the computer. It includes a force sense presentation device controller 300 for controlling and a display 400 that displays a corresponding image in response to an image signal output from the computer 200. That is, the force sense presentation device control unit 300 functions as an interface device between the computer 200 and the force sense presentation device 100.
後に詳しく説明するように、力覚提示装置100は、ユーザが仮想物体をつかんだときに仮想物体から受ける力を提示する。ここで、仮想物体がユーザに与える力(反力)の特性は、力覚提示装置100内で、駆動力を応力に変換する機構により、決定される。 As will be described in detail later, the force sense presentation device 100 presents the force received from the virtual object when the user grasps the virtual object. Here, the characteristic of the force (reaction force) applied to the user by the virtual object is determined by a mechanism that converts driving force into stress in the force sense presentation device 100.
位置検出センサ202としては、たとえば、力覚提示装置100に付けられた球形マーカ204,206,208を撮影して、この3つのマーカの位置及び向きにより、力覚提示装置100の位置と動きを検出するモーションキャプチャ装置を用いることができる。なお、位置検出センサ202およびその信号を処理する位置検出部210とは、力覚提示装置100の空間内での位置と向きならびに動きを検出できる機構であれば、必ずしも、このような構成に限定されるものではない。 As the position detection sensor 202, for example, the spherical markers 204, 206, and 208 attached to the force sense presentation device 100 are photographed, and the position and movement of the force sense presentation device 100 are determined by the positions and orientations of these three markers. A motion capture device to detect can be used. The position detection sensor 202 and the position detection unit 210 that processes the signal are not necessarily limited to such a configuration as long as it is a mechanism that can detect the position, orientation, and movement of the force sense presentation device 100 in the space. Is not to be done.
ディスプレイ400に表示される画像は、少なくとも、仮想空間内に存在する物体の画像を含む。このとき、これを把持しようとするユーザの手を表す仮想的な画像が表示されても良い。この場合は、ユーザはディスプレイ400上に表示される物体の画像とユーザの手の画像により、仮想的に物体を把持する状態を視覚的に確認することができる。 The image displayed on the display 400 includes at least an image of an object existing in the virtual space. At this time, a virtual image representing the hand of the user who intends to hold it may be displayed. In this case, the user can visually confirm the state in which the object is virtually gripped by the image of the object displayed on the display 400 and the image of the user's hand.
あるいは、物体の画像を周知の方法で立体画像として表示してもよい。このときは、ユーザは、このような物体の立体画像と自分自身の現実の手を視認しながら把持する構成となる。 Alternatively, the object image may be displayed as a stereoscopic image by a known method. At this time, the user holds the stereoscopic image of the object and his / her own real hand while visually recognizing it.
なお、ディスプレイ400は、図3においては、フラットパネルディスプレイとして図示されているが、必ずしもこのような構成に限定されるものではなく、たとえば、プロジェクタにより画像を映し出す構成であっても良いし、あるいは、ヘッドマウントディスプレイのようなものであってもよい。 Although the display 400 is illustrated as a flat panel display in FIG. 3, the display 400 is not necessarily limited to such a configuration. For example, the display 400 may be configured to project an image by a projector, or It may be like a head mounted display.
コンピュータ200の動作については、後に、さらに説明する。
図4は、力覚提示装置100をユーザが把持した状態を示す外観図である。
The operation of the computer 200 will be further described later.
FIG. 4 is an external view showing a state where the user has grasped the force sense presentation device 100.
以下の説明で明らかとなるように、力覚提示装置100は、ユーザの手によって支持され、他のものによっては支持されない状態であると想定される仮想物体からの慣性力をユーザに提示できるものである。このため、力覚提示装置100は、据え置きされず、接地していない。 As will be apparent from the following description, the force sense presentation device 100 is capable of presenting the user with inertial force from a virtual object that is assumed to be supported by the user's hand and not supported by other things. It is. For this reason, the force sense presentation device 100 is not deferred and is not grounded.
図4に示すように、力覚提示装置100は、ガイド部102と保持用取手部104とがT字型に組み合わされている。ユーザが把持する部分である押圧部110aと110bとは、それぞれ、スライダ112aと112bとによりガイド部102に沿って移動可能なようにガイド部102に取り付けられている。したがって、押圧部110aと110bとは、ユーザの指(図4では、人差し指と親指)による把持によって、ガイド部102をガイドとしてスライドする。 As shown in FIG. 4, in the force sense presentation device 100, a guide portion 102 and a holding handle portion 104 are combined in a T shape. The pressing portions 110a and 110b that are gripped by the user are attached to the guide portion 102 so as to be movable along the guide portion 102 by sliders 112a and 112b, respectively. Therefore, the pressing portions 110a and 110b slide using the guide portion 102 as a guide by gripping with a user's finger (in FIG. 4, forefinger and thumb).
押圧部110aと110bとが、ユーザの把持に応じて、力覚付与部120に接すると、以後は、力覚付与部120は、後に説明する機構により、押圧部110aと110bとに対して、仮想物体からの反力に相当する力を加える。ここで、力覚提示装置100の運動(ユーザの手の運動)により、仮想物体からユーザの指に慣性力に相当する力が加わるとコンピュータ200が判断した場合は、力覚付与部120から押圧部110aと110bとに加わる力は、不均一な力となり、加速度の方向の慣性力を生じる。 When the pressing units 110a and 110b come into contact with the force sense applying unit 120 according to the gripping by the user, thereafter, the force sense providing unit 120 uses a mechanism that will be described later to the pressing units 110a and 110b. A force corresponding to the reaction force from the virtual object is applied. Here, when the computer 200 determines that the force corresponding to the inertial force is applied from the virtual object to the user's finger by the motion of the force sense presentation device 100 (the motion of the user's hand), the force sense imparting unit 120 presses The force applied to the portions 110a and 110b is a non-uniform force and generates an inertial force in the direction of acceleration.
なお、図4においては、説明の簡単のために、力覚付与部120を簡単化された外観で示している。押圧部110aと110bが力覚付与部120に与える圧力に関する情報は、力覚提示装置制御部300を介して、コンピュータ200に送信される。すなわち、後に説明するように、力覚付与部120の側面と押圧部110aと110bが、それぞれ接する面には、圧力を検知するための圧力センサ(図示せず)が設けられている。 In FIG. 4, the force sense applying unit 120 is shown in a simplified appearance for the sake of simplicity. Information regarding the pressure applied to the force sense applying unit 120 by the pressing units 110 a and 110 b is transmitted to the computer 200 via the force sense presenting device control unit 300. That is, as will be described later, a pressure sensor (not shown) for detecting pressure is provided on the surface where the side surface of the force sense applying unit 120 and the pressing units 110a and 110b are in contact with each other.
また、保持用取手部104の内部には、上記反力の源となる駆動力を発生するための駆動部(図示せず)が設けられており、この駆動力が、仮想物体からの反力に相当する力として、力覚付与部120から押圧部110aと110bに加えられる。 In addition, a driving unit (not shown) for generating a driving force that is a source of the reaction force is provided inside the holding handle 104, and this driving force is a reaction force from a virtual object. Is applied from the force sense applying unit 120 to the pressing units 110a and 110b.
再び、図3にもどって、コンピュータ200において、位置検出部210は、位置検出センサ202からの信号に応じて、力覚提示装置100の向きおよび空間内の位置ならびに位置の時間変化(加速度の大きさおよび方向)を検出するとともに、力覚提示装置100からの信号に基づいて、押圧部110aと110bの位置をそれぞれ検出する。把持物体情報記憶部220には、仮想物体の形状、位置、固さ、質量等の仮想物体の属性に関する情報が格納されている。 Returning to FIG. 3 again, in the computer 200, the position detection unit 210 determines the direction of the force sense presentation device 100, the position in space, and the time change (the magnitude of acceleration) in accordance with the signal from the position detection sensor 202. And the positions of the pressing portions 110a and 110b are detected based on the signal from the force sense presentation device 100, respectively. The gripping object information storage unit 220 stores information on the virtual object attributes such as the shape, position, hardness, and mass of the virtual object.
仮想画像生成部240は、把持物体情報記憶部220に格納された情報に基づいて、ディスプレイ400に仮想物体の画像を表示する。さらに、仮想画像生成部240は、位置検出部210からの力覚提示装置100の位置と向きならびに押圧部110aと110bの位置に基づいて、対応する仮想的なユーザの手の画像を生成し、ディスプレイ400に当該画像を表示する。 The virtual image generation unit 240 displays an image of the virtual object on the display 400 based on the information stored in the gripping object information storage unit 220. Furthermore, the virtual image generation unit 240 generates a corresponding virtual user hand image based on the position and orientation of the force sense presentation device 100 from the position detection unit 210 and the positions of the pressing units 110a and 110b, The image is displayed on the display 400.
なお、力覚提示装置100の位置に応じて、把持物体情報記憶部220に格納された情報に基づき、仮想画像生成部240は、ディスプレイ400に表示する仮想物体の画像を更新してもよい。たとえば、仮想画像生成部240は、当初は、第1の仮想物体の画像を表示させ、力覚提示装置100の位置の変化に応じて、別の第2の仮想物体の画像を表示させる、といった制御を行なってもよい。 Note that the virtual image generation unit 240 may update the image of the virtual object displayed on the display 400 based on the information stored in the grasped object information storage unit 220 according to the position of the force sense presentation device 100. For example, the virtual image generation unit 240 initially displays an image of the first virtual object, and displays an image of another second virtual object according to a change in the position of the force sense presentation device 100. Control may be performed.
また、反力制御部230は、位置検出部210からの情報と把持物体情報記憶部220に格納された情報とに従って、力覚提示装置100における反力として、力覚付与部120が出力する駆動力を制御するためのコマンドを力覚提示装置制御部300に対して出力する。 Further, the reaction force control unit 230 outputs the force output from the force sense applying unit 120 as a reaction force in the force sense presenting device 100 according to the information from the position detection unit 210 and the information stored in the grasped object information storage unit 220. A command for controlling the force is output to the force sense presentation device control unit 300.
図5に、コンピュータ200の構成をブロック図形式で示す。図5に示されるようにこのコンピュータ200は、光学ディスクドライブ50およびFDドライブ52に加えて、それぞれバス66に接続されたCPU(Central Processing Unit )56と、ROM(Read Only Memory) 58と、RAM (Random Access Memory)60と、ハードディスク54と、通信インタフェース68とを含んでいる。光学ディスクドライブ50にはCD−ROM(またはDVD−ROM)62が装着される。FDドライブ52にはFD64が装着される。 FIG. 5 shows a configuration of the computer 200 in a block diagram form. As shown in FIG. 5, in addition to the optical disk drive 50 and the FD drive 52, the computer 200 includes a CPU (Central Processing Unit) 56, a ROM (Read Only Memory) 58, and a RAM connected to the bus 66, respectively. (Random Access Memory) 60, a hard disk 54, and a communication interface 68 are included. A CD-ROM (or DVD-ROM) 62 is mounted on the optical disk drive 50. An FD 64 is attached to the FD drive 52.
力覚提示システム1000が提供する仮想現実感は、コンピュータハードウェアと、CPU56により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアはCD−ROM(またはDVD−ROM)62、FD64等の記憶媒体に格納されて流通し、光学ドライブ50またはFDドライブ52等により記憶媒体から読取られてハードディスク54に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク54にコピーされる。そうしてさらにハードディスク54からRAM60に読出されてCPU56により実行される。なお、ネットワーク接続されている場合には、ハードディスク54に格納することなくRAM60に直接ロードして実行するようにしてもよい。 The virtual reality provided by the force sense presentation system 1000 is realized by computer hardware and software executed by the CPU 56. Generally, such software is stored and distributed in a storage medium such as a CD-ROM (or DVD-ROM) 62 or FD 64, read from the storage medium by the optical drive 50 or FD drive 52, and temporarily stored in the hard disk 54. The Alternatively, when the device is connected to the network, it is temporarily copied from the server on the network to the hard disk 54. Then, it is further read from the hard disk 54 to the RAM 60 and executed by the CPU 56. In the case of network connection, the program may be directly loaded into the RAM 60 and executed without being stored in the hard disk 54.
このようにして、CPU56が実行する機能が、図3における位置検出部210、仮想画像生成部240、反力制御部230の機能に対応し、把持物体情報記憶部220は、たとえば、ハードディスク54またはRAM60などの記憶装置に対応する。 In this way, the functions executed by the CPU 56 correspond to the functions of the position detection unit 210, the virtual image generation unit 240, and the reaction force control unit 230 in FIG. 3, and the gripping object information storage unit 220 is, for example, the hard disk 54 or This corresponds to a storage device such as the RAM 60.
図5に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明においてユーザに把持感覚を仮想的に提示する処理の一部を担うのは、CD−ROM(またはDVD−ROM)62、FD64、ハードディスク54等の記憶媒体に記憶されたソフトウェアである。 The computer hardware itself shown in FIG. 5 and its operating principle are general. Accordingly, in the present invention, software stored in a storage medium such as the CD-ROM (or DVD-ROM) 62, the FD 64, the hard disk 54, and the like plays a part in the process of virtually presenting the grip feeling to the user. .
(2.力覚提示部)
図6は、力覚提示装置100の具体的な詳細構成を示す図である。図6(a)は上面図であり、図6(b)は、図6(a)のVIIa−VIIa’断面の正面側の断面図であり、図6(c)は、図6(a)のVIIb−VIIb’断面の側面側の断面図である。
(2. Force sense presentation part)
FIG. 6 is a diagram illustrating a specific detailed configuration of the force sense presentation device 100. 6 (a) is a top view, FIG. 6 (b) is a front sectional view of the section VIIa-VIIa ′ of FIG. 6 (a), and FIG. 6 (c) is FIG. 6 (a). It is sectional drawing of the side surface side of VIIb-VIIb 'cross section.
上述のとおり、押圧部(指置き台)110aと110bとは、それぞれ、スライダ112aと112bとによりガイド部102に沿って移動可能なようにガイド部102に取り付けられている。 As described above, the pressing portions (finger rests) 110a and 110b are attached to the guide portion 102 so as to be movable along the guide portion 102 by the sliders 112a and 112b, respectively.
力覚提示装置100は、さらに、コイル状ばね130によりワイヤ161aおよび161bを介して、それぞれ内側の滑車に力を受けるプーリー132aおよび132bを含む。プーリー132aおよび132bの外側の滑車によりワイヤ161aおよび161bを介して、それぞれスライダ112aと112bとが引張り力を受けるので、自由状態では、押圧部110aと110bとは、このコイル状ばね130の自然長で決まる所定の間隔で隔てられることになり、ユーザが指で、押圧部110aと110bとを把持することで、押圧部110aと110bとは、力覚付与部120に接触するまで移動する。 The force sense presentation device 100 further includes pulleys 132a and 132b that receive a force from the inner pulley via the wires 161a and 161b by the coiled spring 130, respectively. Since the sliders 112a and 112b receive a tensile force via the wires 161a and 161b by the pulleys outside the pulleys 132a and 132b, respectively, in the free state, the pressing portions 110a and 110b have a natural length of the coiled spring 130. When the user grips the pressing portions 110a and 110b with a finger, the pressing portions 110a and 110b move until they contact the force sense applying portion 120.
一方、押圧部110aと110bに力覚を提示するための力覚提示機構は、力覚付与部120と、保持用取手部104内に設けられている駆動部140a、140bと、駆動部140a,140bで発生した力を力覚付与部120に伝達するための駆動軸150a,150bおよびプーリー151a,151bと、駆動部140a,140bで発生した力を力覚付与部120に伝達するためのワイヤ162aと162bとを含む。 On the other hand, a force sense presentation mechanism for presenting a force sense to the pressing portions 110a and 110b includes a force sense imparting portion 120, drive portions 140a and 140b provided in the holding handle portion 104, and drive portions 140a, Drive shafts 150a and 150b and pulleys 151a and 151b for transmitting the force generated in 140b to the force sense applying unit 120, and a wire 162a for transmitting the force generated in the drive units 140a and 140b to the force sense applying unit 120. And 162b.
ワイヤ162aは、プーリー151aに掛けられており、駆動軸150aに巻き取られることで、スライダ126aに駆動部140aからの力を伝達し、ワイヤ162bは、プーリー151bに掛けられており、駆動軸150bに巻き取られることで、スライダ126bに駆動部140bからの力を伝達する。 The wire 162a is hung on the pulley 151a, and is wound around the drive shaft 150a to transmit the force from the drive unit 140a to the slider 126a. The wire 162b is hung on the pulley 151b, and the drive shaft 150b. The force from the drive unit 140b is transmitted to the slider 126b.
力覚付与部120は、より詳しくは、駆動部140aから発生される駆動力により、それぞれ、押圧部110aが接触した際に、押圧部110aに向かう方向に平行な力を押圧部110aに対して及ぼすための力覚提示部122aと、駆動部140bから発生される駆動力により、押圧部110bが接触した際に、押圧部110bに向かう方向に平行な力を押圧部110bに対して及ぼすための力覚提示部122bとを含む。ここで、駆動部140aの駆動力と140bの駆動力とは、コンピュータ200からのコマンドにより独立に制御される。この結果、押圧部110aに対して及ぼされる力と押圧部110bに対して及ぼされる力とは、反力制御部230において導出される仮想的な慣性力の大きさに応じて、不均一となりうる。 More specifically, the haptic imparting unit 120 applies a force parallel to the direction toward the pressing unit 110a to the pressing unit 110a when the pressing unit 110a comes into contact with the driving force generated from the driving unit 140a. When the pressing unit 110b comes into contact with the force sense presentation unit 122a and the driving force generated from the driving unit 140b, a force parallel to the direction toward the pressing unit 110b is exerted on the pressing unit 110b. And a force sense presentation unit 122b. Here, the driving force of the driving unit 140a and the driving force of 140b are independently controlled by a command from the computer 200. As a result, the force exerted on the pressing portion 110a and the force exerted on the pressing portion 110b can be non-uniform depending on the magnitude of the virtual inertia force derived in the reaction force control unit 230. .
力覚提示部122aおよび122bは、それぞれ、スライダ126aおよび126bにより、ガイド部102に沿って移動可能なようにガイド部102に取り付けられている。スライダ126aおよび126bは、ワイヤ162aと162bにより、それぞれ、駆動部140aおよび140bからの駆動力を受ける構成となっている。 The force sense presentation units 122a and 122b are attached to the guide unit 102 so as to be movable along the guide unit 102 by sliders 126a and 126b, respectively. The sliders 126a and 126b are configured to receive the driving force from the driving units 140a and 140b by the wires 162a and 162b, respectively.
力覚提示部112aと112bの表面には、それぞれ、圧力センサ124aおよび124bが設けられている。圧力センサ124aおよび124bの検出結果は、力覚提示装置制御部300を介してコンピュータ200に伝達される。 Pressure sensors 124a and 124b are provided on the surfaces of the force sense presentation units 112a and 112b, respectively. The detection results of the pressure sensors 124 a and 124 b are transmitted to the computer 200 via the force sense presentation device control unit 300.
なお、図3においては、力覚提示装置100の加速度の向きおよび大きさは、モーションキャプチャとして機能する位置検出センサ202からの信号に基づいて、位置検出部210が導出する構成として説明したが、力覚提示装置100に加速度センサ170を設けておき、この加速度センサ170からの信号により位置検出部210が、力覚提示装置100の加速度の向きおよび大きさを検出する構成としてもよい。 In FIG. 3, the direction and magnitude of the acceleration of the force sense presentation device 100 has been described as a configuration derived by the position detection unit 210 based on a signal from the position detection sensor 202 functioning as a motion capture. An acceleration sensor 170 may be provided in the force sense presentation device 100 and the position detection unit 210 may detect the direction and magnitude of acceleration of the force sense presentation device 100 based on a signal from the acceleration sensor 170.
図7は、以上のような構成において、力覚提示システム1000の動作を説明するためのフローチャートである。 FIG. 7 is a flowchart for explaining the operation of the force sense presentation system 1000 in the configuration as described above.
図7を参照して、処理が開始されると、まず、システムの初期化処理が行われる(ステップS100)。 Referring to FIG. 7, when the process is started, first, a system initialization process is performed (step S100).
続いて、仮想画像生成部240は、仮想物体および仮想的な手の画像をディスプレイ400上へ表示する(ステップS102)。 Subsequently, the virtual image generation unit 240 displays a virtual object and a virtual hand image on the display 400 (step S102).
位置検出部210は、位置検出センサ202からの信号に基づいて、力覚提示装置100の空間内の位置および向きを検出し(ステップS104)、力覚提示装置制御部300からの信号に基づいて、押圧部110aおよび110bの位置を検出する(ステップS106)。 The position detection unit 210 detects the position and orientation in the space of the force sense presentation device 100 based on the signal from the position detection sensor 202 (step S104), and based on the signal from the force sense presentation device control unit 300 Then, the positions of the pressing portions 110a and 110b are detected (step S106).
位置検出部210は、力覚提示装置100の加速度の向きおよび大きさを導出する(ステップS108)。 The position detection unit 210 derives the direction and magnitude of acceleration of the force sense presentation device 100 (step S108).
反力制御部230は、位置検出部210からの力覚提示装置100の位置および向きの情報と、力覚提示装置100の加速度の向きおよび大きさの情報とに基づいて、力覚提示部122aおよび122bに与える反力を算出し、この反力に相当する駆動力を導出して(ステップS110)、導出された駆動力で駆動部140aと140bとを制御するためのコマンドを力覚提示装置制御部300に対して出力する(ステップS112)。 The reaction force control unit 230 is based on the position and orientation information of the force sense presentation device 100 from the position detection unit 210 and the direction and magnitude information of the acceleration of the force sense presentation device 100, and the force sense presentation unit 122a. , 122b is calculated, a driving force corresponding to the reaction force is derived (step S110), and a command for controlling the driving units 140a and 140b with the derived driving force is given as a force sense presentation device. It outputs to the control part 300 (step S112).
たとえば、力覚提示装置100が、実質的に静止している状態で、ユーザが押圧部110aと110bとに指で圧力を加えている状態であれば、反力制御部230は、把持物体情報記憶部220に格納されている、仮想物体の形状、位置、固さ等の仮想物体の属性に関する情報と力覚提示装置100の位置および向きの情報とに基づいて、ユーザが把持している仮想物体からの反力を算出する。一方で、力覚提示装置100が運動している場合は、上述したような静止している状態での反力に重畳するように、慣性力による反力も算出する。すなわち、力覚提示装置100の加速度の向きと大きさ、ならびに把持している仮想物体の質量の情報により、慣性力のベクトルが算出できる。この慣性力のベクトルのガイド部102の方向の成分に対して押圧部110aおよび110bに与える力が、重畳される反力となる。 For example, if the force sense presentation device 100 is in a substantially stationary state and the user is applying pressure to the pressing portions 110a and 110b with a finger, the reaction force control unit 230 may hold the gripping object information. Based on the information about the attributes of the virtual object such as the shape, position, and hardness of the virtual object and the information on the position and orientation of the force sense presentation device 100 stored in the storage unit 220, the virtual that the user is holding Calculate the reaction force from the object. On the other hand, when the force sense presentation device 100 is moving, the reaction force due to the inertial force is also calculated so as to be superimposed on the reaction force in a stationary state as described above. That is, a vector of inertial force can be calculated from information on the direction and magnitude of acceleration of the force sense presentation device 100 and the mass of the grasped virtual object. The force applied to the pressing portions 110a and 110b with respect to the component of the inertia force vector in the direction of the guide portion 102 becomes a superposed reaction force.
このとき、慣性力の大きさは、以下の式で表される。
F(提示する慣性力)=m(仮想物体の慣性質量)×a(加速度)
なお、力覚提示装置100が運動している場合において、運動による慣性力が優越していると判断されるとき、すなわち、慣性力の大きさが所定のしきい値を超えるようなときは、反力を慣性力のみに基づいて導出してもよい。
At this time, the magnitude of the inertial force is expressed by the following equation.
F (presenting inertial force) = m (inertial mass of virtual object) × a (acceleration)
When it is determined that the inertial force due to the exercise is superior when the force sense presentation device 100 is exercising, that is, when the magnitude of the inertial force exceeds a predetermined threshold value, The reaction force may be derived based only on the inertial force.
また、仮想物体はユーザの手のみによって支持されるため、力覚提示装置100からは、定常出力は必要ない。このため、tを時間とし、移動開始時刻〜移動終了時刻までについて、上記提示する力Fを積分すると、0となる。すなわち、以下の式も成り立つ。 Further, since the virtual object is supported only by the user's hand, no steady output is required from the force sense presentation device 100. For this reason, when t is set as time and the force F to be presented is integrated from the movement start time to the movement end time, it becomes zero. That is, the following equation is also established.
∫F(t)dt=0
以上の説明からも分かるように、力覚提示装置100が提示できるのは、仮想物体に働く慣性力に対応する反力であって、力覚提示装置100は重力質量に働く重力に対する反力ついては提示しない。したがって、また、ユーザが仮想物体を動かす場合、たとえば、振った場合に力覚提示装置100が、慣性力に相当する反力を提示することになる。
∫ F (t) dt = 0
As can be understood from the above description, the force sense presentation device 100 can present a reaction force corresponding to the inertial force acting on the virtual object, and the force sense presentation device 100 is not aware of the reaction force against the gravity acting on the gravitational mass. Do not present. Therefore, when the user moves the virtual object, for example, when the user shakes, the force sense presentation device 100 presents a reaction force corresponding to the inertial force.
仮想画像生成部240は、位置検出部210からの情報に基づいて、仮想的な手の画像の表示を、現在の力覚提示装置100の空間内の位置および向きならびに押圧部110aおよび110bの位置に整合するように、更新する(ステップS114)。 Based on the information from the position detection unit 210, the virtual image generation unit 240 displays the virtual hand image, the current position and orientation in the space of the force sense presentation device 100, and the positions of the pressing units 110a and 110b. (Step S114).
所定時間が経過し(ステップS116)、処理が終了していないときは(S124)、処理はステップ104に復帰する。一方、ステップS124において、(たとえば、ユーザからの終了指示により)処理が終了していると判断されると、力覚提示システム1000は、処理を停止する。 When the predetermined time has elapsed (step S116) and the process has not ended (S124), the process returns to step 104. On the other hand, when it is determined in step S124 that the process has ended (for example, due to an end instruction from the user), force sense presentation system 1000 stops the process.
以上のとおり、本実施の形態に係る力覚提示装置100は、把持感覚を提示するのに十分な性能を有する。 As described above, the force sense presentation device 100 according to the present embodiment has sufficient performance to present a gripping sensation.
力覚提示装置100は、2本の指で把持する2つの押圧部(指置き台)110aおよび110bを備える。この押圧部110aおよび110bに力覚を提示する力覚提示部122aおよび122bは、駆動力発生源である駆動部140aおよび140bによりそれぞれ異なった駆動力で駆動することが可能であるので、仮想物体がユーザに与える力(反力)を、仮想物体の固さ等の情報によるだけでなく、仮想物体をユーザが把持した状態で、手を動かすなどの運動をした場合に、仮想物体がユーザに与える慣性力の情報をも考慮して制御することが可能となる。 The force sense presentation device 100 includes two pressing portions (finger rests) 110a and 110b that are gripped by two fingers. The force sense presenting portions 122a and 122b that present force sense to the pressing portions 110a and 110b can be driven with different driving forces by the driving portions 140a and 140b, which are driving force generation sources, respectively. The force (reaction force) applied to the user is not only based on information such as the hardness of the virtual object, but also when the user moves the hand while holding the virtual object. It is possible to control in consideration of the information of the inertial force to be applied.
また、力覚提示装置100は、PHANTOM(登録商標)やSPIDARなどの従来機器より小さくて軽い。また、力覚提示装置100は、空間内での移動範囲の制限が少ない携帯型デバイスである。そのため、力覚提示装置100は、腕を動かせる場所のどこでも仮想物体の硬さを提示できる。 The force sense presentation device 100 is smaller and lighter than conventional devices such as PHANTOM (registered trademark) and SPIDAR. The force sense presentation device 100 is a portable device that has a limited movement range in space. Therefore, the force sense presentation device 100 can present the hardness of the virtual object anywhere where the arm can be moved.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
100 力覚提示装置、110a,110b 押圧部、112a,112b スライダ、120 力覚付与部、122a,122b 力覚提示部、124a,124b 圧力センサ、126a,126b スライダ、130 コイル状ばね、132a,132b プーリー、140a,140b 駆動部、150a,150b 駆動軸、151a,151b プーリー、160a,160b,161a,161b,162a,162b ワイヤ、200 コンピュータ、202 位置検出センサ、210 位置検出部、220 把持物体情報記憶部、230 反力制御部、240 仮想画像生成部、300 力覚提示装置制御部、400 ディスプレイ。 DESCRIPTION OF SYMBOLS 100 Force sense presentation apparatus, 110a, 110b Press part, 112a, 112b Slider, 120 Force sense provision part, 122a, 122b Force sense presentation part, 124a, 124b Pressure sensor, 126a, 126b Slider, 130 Coil spring, 132a, 132b Pulley, 140a, 140b Drive unit, 150a, 150b Drive shaft, 151a, 151b Pulley, 160a, 160b, 161a, 161b, 162a, 162b Wire, 200 Computer, 202 Position detection sensor, 210 Position detection unit, 220 Gripping object information storage Unit, 230 reaction force control unit, 240 virtual image generation unit, 300 force sense presentation device control unit, 400 display.
Claims (4)
前記仮想物体の質量の情報および前記仮想物体の固さの情報を含む、前記仮想物体の属性に関する情報を格納するための記憶部と、
前記非接地型力覚提示装置の把持を前記ユーザから受け付けて、前記把持を受け付けた部分において前記ユーザに反力を提示するための把持部と、
前記非接地型力覚提示装置の加速度の向きおよび大きさを検出するための運動検出手段と、
前記把持部に提示される前記反力の源となる駆動力を発生する駆動部と、
前記仮想物体の固さに応じて、静止状態の前記仮想物体を前記ユーザが把持することによる前記仮想物体からの反力を示す第1の反力を算出し、前記運動検出手段により検出される前記加速度の情報と、前記記憶部に格納される前記仮想物体の質量の情報とに基づいて、前記仮想物体の運動に相当する慣性力を算出し、前記慣性力に対応する第2の反力を算出して、前記第1の反力に前記第2の反力を重畳させた反力を発生するように前記駆動部を制御する反力制御部とを備える、非接地型力覚提示装置。 A non-grounding type haptic device for presenting to the user an inertial force from a virtual object assumed to be supported by the user's hand,
A storage unit for storing information on the attribute of the virtual object, including information on the mass of the virtual object and information on the hardness of the virtual object;
A gripping unit for accepting gripping of the non-grounding type force sense presentation device from the user and presenting a reaction force to the user at a portion where the gripping is accepted ;
Motion detection means for detecting the direction and magnitude of acceleration of the non-grounding type haptic device;
A driving unit that generates a driving force that is a source of the reaction force presented to the gripping unit;
A first reaction force indicating a reaction force from the virtual object caused by the user gripping the virtual object in a stationary state is calculated according to the hardness of the virtual object, and is detected by the motion detection unit. Based on the acceleration information and the mass information of the virtual object stored in the storage unit, an inertial force corresponding to the motion of the virtual object is calculated, and a second reaction force corresponding to the inertial force is calculated. And a reaction force control unit that controls the drive unit so as to generate a reaction force obtained by superimposing the second reaction force on the first reaction force. .
前記2つの指のうちもう一方からの押圧力を受けるための第2の押圧部と、
前記第1および第2の押圧部に対して力を与える力覚提示部と、を含み、
前記力覚提示部が前記反力に応じた力を前記第1および第2の押圧部に与えることにより、前記第1および第2の押圧部において前記ユーザに反力を提示し、
前記第1および第2の押圧部は、対向する位置に配置され、
前記第1の押圧部は、第1の方向に前記反力を提示し、前記第2の押圧部は、前記第1の方向の逆方向である第2の方向に前記反力を提示し、
前記駆動部は、
前記第1の押圧部において前記ユーザに提示するための反力の源となる第1の駆動力と、前記第2の押圧部において前記ユーザに提示するための反力の源となる第2の駆動力とをそれぞれ独立に制御し、
前記反力制御部は、
前記算出した前記慣性力に対応して、前記第1の駆動力と前記第2の駆動力とを不均一とするよう前記第1の押圧部と前記第2の押圧部における反力を発生させることにより、前記慣性力に対応した反力を前記ユーザに提示するよう前記駆動部を制御する、請求項1に記載の非接地型力覚提示装置。 It said gripping portion includes a first pressing portion for the user receives a pressing force from one of the two fingers for use in gripping the ungrounded Haptic device,
A second pressing portion for receiving a pressing force from the other of the two fingers;
A force sense presentation unit that applies force to the first and second pressing units,
The force sense presentation unit presents a reaction force to the user at the first and second pressing units by applying a force according to the reaction force to the first and second pressing units,
The first and second pressing portions are arranged at opposing positions,
The first pressing portion presents the reaction force in a first direction, the second pressing portion presents the reaction force in a second direction that is the reverse direction of the first direction,
The drive unit is
A first driving force that is a source of reaction force for presenting to the user in the first pressing portion, and a second that is a source of reaction force for presenting to the user in the second pressing portion. Control the driving force independently,
The reaction force control unit
In response to the calculated inertial force, a reaction force is generated in the first pressing portion and the second pressing portion so that the first driving force and the second driving force are not uniform. The non-grounding type force sense presentation device according to claim 1, wherein the driving unit is controlled to present a reaction force corresponding to the inertial force to the user .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009207062A JP5352813B2 (en) | 2009-09-08 | 2009-09-08 | Non-grounding type haptic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009207062A JP5352813B2 (en) | 2009-09-08 | 2009-09-08 | Non-grounding type haptic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011059862A JP2011059862A (en) | 2011-03-24 |
JP5352813B2 true JP5352813B2 (en) | 2013-11-27 |
Family
ID=43947433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009207062A Expired - Fee Related JP5352813B2 (en) | 2009-09-08 | 2009-09-08 | Non-grounding type haptic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5352813B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3321774A1 (en) * | 2015-07-08 | 2018-05-16 | Alps Electric Co., Ltd. | Tactile sensation reproduction device |
CN107735751A (en) * | 2015-07-08 | 2018-02-23 | 阿尔卑斯电气株式会社 | Tactile representation device |
JP6474115B2 (en) * | 2015-10-05 | 2019-02-27 | アルプスアルパイン株式会社 | Tactile reproduction device |
WO2017061172A1 (en) * | 2015-10-05 | 2017-04-13 | アルプス電気株式会社 | Haptic reproduction device |
JP6793595B2 (en) * | 2017-04-17 | 2020-12-02 | 日本放送協会 | Force presentation device |
US20240161438A1 (en) * | 2021-03-25 | 2024-05-16 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing system |
JP7345804B1 (en) | 2022-03-07 | 2023-09-19 | アラクノフォース株式会社 | Grip and force sense presentation device using it |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3686686B2 (en) * | 1993-05-11 | 2005-08-24 | 松下電器産業株式会社 | Haptic device, data input device, and data input device device |
JPH1091327A (en) * | 1996-09-11 | 1998-04-10 | Pioneer Electron Corp | Plotting device |
JP2000259074A (en) * | 1999-03-11 | 2000-09-22 | Minolta Co Ltd | Tool-mediating type inner force sense presenting system |
JP4383759B2 (en) * | 2003-03-18 | 2009-12-16 | 株式会社リコー | Sensory presentation device |
JP4111278B2 (en) * | 2003-11-20 | 2008-07-02 | 独立行政法人産業技術総合研究所 | Haptic information presentation system |
-
2009
- 2009-09-08 JP JP2009207062A patent/JP5352813B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011059862A (en) | 2011-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7366961B2 (en) | Method and device for driving illusionary tactile force sense | |
US11385723B2 (en) | Haptic information presentation system and method | |
JP5352813B2 (en) | Non-grounding type haptic device | |
US10936072B2 (en) | Haptic information presentation system and method | |
US20210141457A1 (en) | Haptic information presentation system | |
Amemiya et al. | Lead-me interface for a pulling sensation from hand-held devices | |
JP5360499B2 (en) | Haptic presentation method and haptic presentation device | |
US20110148607A1 (en) | System,device and method for providing haptic technology | |
JP5263619B2 (en) | Grasping sensation presentation device | |
JP6341096B2 (en) | Haptic sensation presentation device, information terminal, haptic presentation method, and computer-readable recording medium | |
WO2023189422A1 (en) | Control device, control method, haptic presentation system, and program product | |
CN115298640A (en) | Deployable controller | |
JP6428629B2 (en) | Tactile sensation presentation device, information terminal, haptic presentation method, and program | |
JP5513974B2 (en) | Virtual force sense presentation device and virtual force sense presentation program | |
Young et al. | Ungrounded vari-dimensional tactile fingertip feedback for virtual object interaction | |
JP4340465B2 (en) | Functional training device | |
WO2023189423A1 (en) | Control device, control method, tactile sense presentation system, and program product | |
Young | Delivering Expressive And Personalized Fingertip Tactile Cues | |
JP2020177398A (en) | Force sense presentation system, force sense presentation device, and program | |
CN117251058A (en) | Control method of multi-information somatosensory interaction system | |
JPH0744312A (en) | Data glove for virtual/actual feeling system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130416 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5352813 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |