JP2018068396A - 運動解析装置、運動解析システム、及び運動解析方法 - Google Patents
運動解析装置、運動解析システム、及び運動解析方法 Download PDFInfo
- Publication number
- JP2018068396A JP2018068396A JP2016208385A JP2016208385A JP2018068396A JP 2018068396 A JP2018068396 A JP 2018068396A JP 2016208385 A JP2016208385 A JP 2016208385A JP 2016208385 A JP2016208385 A JP 2016208385A JP 2018068396 A JP2018068396 A JP 2018068396A
- Authority
- JP
- Japan
- Prior art keywords
- information
- motion
- motion analysis
- unit
- landing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
- A61B5/1122—Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/183—Compensation of inertial measurements, e.g. for temperature effects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
- G01C22/006—Pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P15/00—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
- G01P15/18—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Dentistry (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Automation & Control Theory (AREA)
- Physical Education & Sports Medicine (AREA)
- Physiology (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Navigation (AREA)
Abstract
【課題】走行中のユーザーのコンディションを確認することができる運動解析装置、運動解析システム、及び運動解析方法を提供する。【解決手段】本発明の運動解析装置2は、慣性計測ユニット(IMU)10の出力を用いて、被験者の走行又は歩行時における運動情報を生成する運動解析部24と、運動情報のうち、周期的に生じる運動情報を所定の知覚情報に変換し、着地に同期して出力する出力部70と、を備える。【選択図】図1
Description
本発明は、運動解析装置、運動解析システム、及び運動解析方法に関する。
一般的に、運動における各種指標を測定し、提示する装置が知られている。特許文献1では、加速度データに基づいて、走者のストライドの生体力学的パラメーターを計算し、表示する装置が開示されている。生体力学的パラメーターとしては、地面に対する脚の着地角度や足が地面に接触する時間の間に走者の重力中心が進む距離などが示されている。
しかしながら、上述した特許文献1に記載の装置は、生体力学的パラメーターを計算する計算部と計算した生体力学的パラメーターを表示する表示部とが一体化され、加速度データを正確に検出するために走者の腰に装着されている。そのため、走行中の走者が表示された指標を確認し続けることや提示された指標を理解しながら走行することは困難であった。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。
[適用例1]本適用例に係る運動解析装置は、慣性センサーの出力を用いて、被験者の走行又は歩行時における運動情報を生成する運動情報生成部と、前記運動情報のうち、周期的に生じた運動情報を所定の知覚情報に変換し、着地時に同期して前記知覚情報を出力する出力部と、を備えることを特徴とする。
本適用例によれば、慣性センサーの出力に基づいて生成された周期的に生じる運動情報を知覚情報に変換し、着地に同期して出力することができる。そのため、被験者が走行又は歩行等の運動中であっても、被験者の運動情報が知覚情報として変換して報知されるので、被験者は運動中に運動情報を容易に確認することができる。従って、運動情報に伴う運動状態の修正等を被験者が運動中に行うことができる。
[適用例2]上記適用例に記載の運動解析装置において、前記知覚情報は音、光、又は振動のうち少なくとも1つであることが好ましい。
本適用例によれば、知覚情報が音、光、又は振動のうち少なくとも1つであるため、視覚に頼らず感覚的に、運動情報を確認することができる。
[適用例3]上記適用例に記載の運動解析装置において、前記運動情報は、前記被験者の運動における、速度又は加速度に関する情報を含むことが好ましい。
本適用例によれば、運動情報として、被験者の走行又は歩行における、速度又は加速度に関する情報を含むので、被験者の速度又は加速度に関する運動情報を確認することができる。
[適用例4]上記適用例に記載の運動解析装置において、前記速度又は前記加速度に対応した周波数の音、光、又は振動に変換して出力することが好ましい。
本適用例によれば、速度又は加速度に対応した周波数の音、光、又は振動に変換して出力することにより、速度又は加速度の違い又は大きさを周波数の違い又は大きさとして確認することができる。
[適用例5]上記適用例に記載の運動解析装置において、前記運動情報は、前記被験者の走行における、ストライド、ピッチ、推進効率、着地時ブレーキ量、又は接地時間に関する情報を含むことが好ましい。
本適用例によれば、運動情報として、被験者の走行又は歩行における、ストライド、ピッチ、推進効率、着地時ブレーキ量、又は接地時間に関する情報を含むので、被験者の詳細な運動情報を確認することができる。
[適用例6]上記適用例に記載の運動解析装置において、前記知覚情報を着地時に出力することが好ましい。
本適用例によれば、知覚情報を着地時に出力することにより、被験者の走行又は歩行におけるリズム感を維持したまま、運動情報を確認することができる。
[適用例7]上記適用例に記載の運動解析装置において、前記知覚情報を着地の±100ミリ秒以内に出力することが好ましい。
本適用例によれば、知覚情報を着地の±100ミリ秒以内に出力することにより、被験者の走行又は歩行におけるリズム感をより正確に維持したまま、運動情報を確認することができる。
[適用例8]上記適用例に記載の運動解析装置において、前記音は擬態音を含むことが好ましい。
本適用例によれば、知覚情報の音が擬態音を含むことにより、知覚情報としての音を聞き取り易くなるため、運動情報をより正確に確認することができる。
[適用例9]上記適用例に記載の運動解析装置において、前記運動情報を、前記被験者における左足、右足で異なる知覚情報として出力することが好ましい。
本適用例によれば、運動情報を被験者における左足と右足とで異なる知覚情報として出力することにより、被験者が左足の運動情報か右足の運動情報かを容易に判断し、確認することができる。
[適用例10]本適用例に係る運動解析システムは、慣性センサーの出力を用いて、被験者の走行又は歩行時における運動情報を生成する運動情報生成部と、前記運動情報のうち、周期的に生じる運動情報を所定の知覚情報に変換し、着地時に同期して前記知覚情報を出力する出力部と、を備える運動解析装置と、前記運動情報を報知する報知装置と、を備えることを特徴とする。
本適用例によれば、運動解析装置が慣性センサーの出力に基づいて生成された周期的に生じる運動情報を知覚情報に変換し、着地に同期して出力する出力部を有しているため、運動情報を知覚情報として出力することにより、被験者が走行又は歩行等の運動中であっても、被験者の運動情報が知覚情報として変換して報知されるので、被験者は運動中に運動情報を容易に確認することができる。そのため、運動情報に伴う運動状態の修正等を被験者が運動中に行うことができる。
[適用例11]本適用例に係る運動解析方法は、慣性センサーの出力を用いて、被験者の走行又は歩行時における運動情報を生成する運動情報生成工程と、前記運動情報のうち、周期的に生じる運動情報を所定の知覚情報に変換し、着地時に同期して前記知覚情報を出力する出力工程と、を含むことを特徴とする。
本適用例によれば、慣性センサーの出力に基づいて生成された周期的に生じる運動情報を知覚情報に変換し、着地に同期して出力する出力工程を有しているため、運動情報を知覚情報として出力することにより、被験者が走行又は歩行等の運動中であっても、被験者の運動情報が知覚情報として変換して報知されるので、被験者は運動中に運動情報を容易に確認することができる。そのため、運動情報に伴う運動状態の修正等を運動中に行うことができる。
以下、本発明の好適な実施形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成の全てが本発明の必須構成要件であるとは限らない。
(実施形態)
1.運動解析システムの概要
以下では、被験者としてのユーザーの走行(歩行も含む)における運動を解析する運動解析システムを例に挙げて説明するが、本実施形態の運動解析システムは、走行以外の運動を解析する運動解析システムにも、同様に適用することができる。
図1は、本実施形態の運動解析システム1の構成例を示す図である。
本実施形態の運動解析システム1は、図1に示すように、運動解析装置2及び報知装置3を含んで構成されている。運動解析装置2は、ユーザーの走行中の運動を解析し、運動情報を所定の知覚情報に変換して出力する装置である。また、報知装置3は、ユーザーの走行中の運動の状態や走行結果の情報をユーザーに通知する装置である。本実施形態では、図1に示すように、運動解析装置2は、慣性計測ユニット(IMU:Inertial Measurement Unit)10を内蔵し、ユーザーが静止している状態で、慣性計測ユニット(IMU)10の1つの検出軸(以下ではz軸とする)が重力加速度方向(鉛直下向き)とほぼ一致するように、ユーザーの胴体部分(例えば、右腰、左腰、又は腰の中央部)に装着され、イヤホン等の出力部70をユーザーの頭部(例えば、耳部)に装着される。また、報知装置3は、リスト型(腕時計型)の携帯情報機器であり、ユーザーの手首等に装着される。ただし、報知装置3は、ヘッドマウントディスプレイ(HMD:Head Mount Display)やスマートフォン等の携帯情報機器であってもよい。
1.運動解析システムの概要
以下では、被験者としてのユーザーの走行(歩行も含む)における運動を解析する運動解析システムを例に挙げて説明するが、本実施形態の運動解析システムは、走行以外の運動を解析する運動解析システムにも、同様に適用することができる。
図1は、本実施形態の運動解析システム1の構成例を示す図である。
本実施形態の運動解析システム1は、図1に示すように、運動解析装置2及び報知装置3を含んで構成されている。運動解析装置2は、ユーザーの走行中の運動を解析し、運動情報を所定の知覚情報に変換して出力する装置である。また、報知装置3は、ユーザーの走行中の運動の状態や走行結果の情報をユーザーに通知する装置である。本実施形態では、図1に示すように、運動解析装置2は、慣性計測ユニット(IMU:Inertial Measurement Unit)10を内蔵し、ユーザーが静止している状態で、慣性計測ユニット(IMU)10の1つの検出軸(以下ではz軸とする)が重力加速度方向(鉛直下向き)とほぼ一致するように、ユーザーの胴体部分(例えば、右腰、左腰、又は腰の中央部)に装着され、イヤホン等の出力部70をユーザーの頭部(例えば、耳部)に装着される。また、報知装置3は、リスト型(腕時計型)の携帯情報機器であり、ユーザーの手首等に装着される。ただし、報知装置3は、ヘッドマウントディスプレイ(HMD:Head Mount Display)やスマートフォン等の携帯情報機器であってもよい。
ユーザーは、走行開始時に報知装置3を操作して運動解析装置2による計測(後述する慣性航法演算処理及び運動解析処理)の開始を指示し、走行終了時に報知装置3を操作して運動解析装置2による計測の終了を指示する。報知装置3は、ユーザーの操作に応じて、計測の開始や終了を指示するコマンドを運動解析装置2に送信する。また、報知装置3は、音や振動等の知覚情報として出力する運動情報を選択し、運動解析装置2に送信する。
運動解析装置2は、計測開始のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を開始し、計測結果を用いて、ユーザーの走行状態を解析し、走行能力(運動能力の一例)に関係する指標である各種の運動指標の値を計算し、ユーザーの走行運動の解析結果の情報として、各種の運動指標の値を含む運動情報(以下、運動解析情報と称す)を生成する。運動解析装置2は、生成した運動解析情報を用いて、ユーザーの走行中に出力する情報(走行中出力情報)を生成し、出力部70と報知装置3とに送信する。出力部70は、選択された運動解析情報を音や振動等の知覚情報に変換して出力し、知覚情報により各運動指標の良し悪しをユーザーに報知する。そのため、ユーザーは走行中であっても運動解析情報を容易に確認することができる。報知装置3は、運動解析装置2から走行中出力情報を受信し、走行中出力情報に含まれる各種の運動指標の値を事前に設定された各目標値と比較し、ユーザーに報知することにより、ユーザーは、各運動指標の良し悪しを認識しながら走行することができる。
また、運動解析装置2は、計測終了のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を終了し、ユーザーの走行結果の情報(走行結果情報:走行距離、走行速度)を生成し、報知装置3に送信する。報知装置3は、運動解析装置2から走行結果情報を受信し、走行結果の情報を文字や画像としてユーザーに報知する。これにより、ユーザーは、走行終了後すぐに走行結果の情報を認識することができる。もしくは、報知装置3は、走行中出力情報をもとに走行結果情報を生成し、文字や画像としてユーザーに報知してもよい。
なお、運動解析装置2の通信部40(図2参照)と、出力部70及び報知装置3との間のデータ通信は、無線通信でもよいし、有線通信でもよい。
2.座標系
以下の説明において必要となる座標系を定義する。
・eフレーム(Earth Centered Earth Fixed Frame):地球の中心を原点とし、自転軸に平行にz軸をとった右手系の三次元直交座標。
・nフレーム(Navigation Frame):移動体(ユーザー)を原点とし、x軸を北、y軸を東、z軸を重力方向とした三次元直交座標系。
・bフレーム(Body Frame):センサー(慣性計測ユニット(IMU)10)を基準とする三次元直交座標系。
・mフレーム(Moving Frame):移動体(ユーザー)を原点とし、移動体(ユーザー)の進行方向をx軸とした右手系の三次元直交座標系。
以下の説明において必要となる座標系を定義する。
・eフレーム(Earth Centered Earth Fixed Frame):地球の中心を原点とし、自転軸に平行にz軸をとった右手系の三次元直交座標。
・nフレーム(Navigation Frame):移動体(ユーザー)を原点とし、x軸を北、y軸を東、z軸を重力方向とした三次元直交座標系。
・bフレーム(Body Frame):センサー(慣性計測ユニット(IMU)10)を基準とする三次元直交座標系。
・mフレーム(Moving Frame):移動体(ユーザー)を原点とし、移動体(ユーザー)の進行方向をx軸とした右手系の三次元直交座標系。
3.運動解析装置
3−1.運動解析装置の構成
図2は、本実施形態に係る運動解析装置2の構成例を示す機能ブロック図である。図2に示すように、運動解析装置2は、慣性計測ユニット(IMU)10、処理部20、記憶部30、通信部40、GPS(Global Positioning System)ユニット50、地磁気センサー60、及び出力部70を含んで構成されている。ただし、本実施形態の運動解析装置2は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
3−1.運動解析装置の構成
図2は、本実施形態に係る運動解析装置2の構成例を示す機能ブロック図である。図2に示すように、運動解析装置2は、慣性計測ユニット(IMU)10、処理部20、記憶部30、通信部40、GPS(Global Positioning System)ユニット50、地磁気センサー60、及び出力部70を含んで構成されている。ただし、本実施形態の運動解析装置2は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
慣性計測ユニット10(慣性センサーの一例)は、加速度センサー12、角速度センサー14、及び信号処理部16を含んで構成されている。
加速度センサー12は、互いに交差する(理想的には直交する)3軸方向の各々の加速度を検出し、検出した3軸加速度の大きさ及び向きに応じたデジタル信号(加速度データ)を出力する。
角速度センサー14は、互いに交差する(理想的には直交する)3軸方向の各々の角速度を検出し、計測した3軸角速度の大きさ及び向きに応じたデジタル信号(角速度データ)を出力する。
信号処理部16は、加速度センサー12及び角速度センサー14から、それぞれ加速度データと角速度データを受け取って時刻情報を付して記憶部(図示せず)に記憶し、記憶した加速度データ、角速度データ、及び時刻情報を所定のフォーマットに合わせたセンシングデータを生成し、処理部20に出力する。
加速度センサー12及び角速度センサー14は、それぞれ3軸が、慣性計測ユニット10を基準とするセンサー座標系(bフレーム)の3軸と一致するように取り付けられるのが理想的だが、実際には取り付け角の誤差が生じる。そこで、信号処理部16は、取り付け角誤差に応じてあらかじめ算出された補正パラメーターを用いて、加速度データ及び角速度データをセンサー座標系(bフレーム)のデータに変換する処理を行う。なお、信号処理部16の代わりに後述する処理部20が当該変換処理を行ってもよい。
さらに、信号処理部16は、加速度センサー12及び角速度センサー14の温度補正処理を行ってもよい。なお、信号処理部16の代わりに後述する処理部20が当該温度補正処理を行ってもよいし、加速度センサー12及び角速度センサー14に温度補正の機能が組み込まれていてもよい。
加速度センサー12と角速度センサー14は、アナログ信号を出力するものであってもよく、この場合は、信号処理部16が、加速度センサー12の出力信号と角速度センサー14の出力信号をそれぞれA/D変換してセンシングデータを生成すればよい。
GPSユニット50は、測位用衛星の一種であるGPS衛星から送信されるGPS衛星信号を受信し、当該GPS衛星信号を利用して測位計算を行ってnフレームにおけるユーザーの位置及び速度(大きさと向きを含むベクトル)を算出し、これらに時刻情報や測位精度情報を付したGPSデータを処理部20に出力する。なお、GPSを利用して、位置や速度を算出する方法や時刻情報を生成する方法については公知であるため、詳細な説明を省略する。
地磁気センサー60は、互いに交差する(理想的には直交する)3軸方向の各々の地磁気を検出し、検出した3軸地磁気の大きさ及び向きに応じたデジタル信号(地磁気データ)を出力する。ただし、地磁気センサー60は、アナログ信号を出力するものであってもよく、この場合は、処理部20が、地磁気センサー60の出力信号をA/D変換して地磁気データを生成してもよい。
通信部40は、出力部70及び報知装置3との間でデータ通信を行うものであり、報知装置3から送信されたコマンド(計測開始/計測終了のコマンド等)や出力部70で出力するために選択された運動解析情報を受信して処理部20に送る処理、処理部20が生成した走行中出力情報や走行結果情報を受け取って出力部70や報知装置3に送信する処理等を行う。
処理部20は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等により構成され、記憶部30に記憶されている各種プログラムに従って、各種の演算処理や制御処理を行う。特に、処理部20は、慣性計測ユニット10、GPSユニット50、及び地磁気センサー60からそれぞれセンシングデータ、GPSデータ、及び地磁気データを受け取り、これらのデータを用いてユーザーの速度、位置、姿勢角等を算出する。また、処理部20は、算出したこれらの情報を用いて各種の演算処理を行ってユーザーの運動を解析し、後述する各種の運動解析情報を生成する。そして、処理部20は、生成した運動解析情報の一部(後述する走行中出力情報や走行結果情報)を、通信部40を介して出力部70及び報知装置3に送信し、出力部70は受信した運動解析情報を音や振動等の知覚情報に変換し出力し、報知装置3は受信した運動解析情報をテキストや画像等の形態で出力する。
記憶部30は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種ICメモリーやハードディスクやメモリーカードなどの記録媒体等により構成される。
記憶部30には、処理部20によって読み出され、運動解析処理(図13参照)を実行するための運動解析プログラム300が記憶されている。運動解析プログラム300は、慣性航法演算処理(図14参照)を実行するための慣性航法演算プログラム302、運動解析情報生成処理(図16参照)を実行するための運動解析情報生成プログラム304をサブルーチンとして含む。
また、記憶部30には、センシングデータテーブル310、GPSデータテーブル320、地磁気データテーブル330、算出データテーブル340、及び運動解析情報350等が記憶される。
センシングデータテーブル310は、処理部20が慣性計測ユニット10から受け取ったセンシングデータ(慣性計測ユニット10の検出結果)を時系列に記憶するデータテーブルである。図3は、センシングデータテーブル310の構成例を示す図である。図3に示すように、センシングデータテーブル310は、慣性計測ユニット10の検出時刻311、加速度センサー12により検出された加速度312及び角速度センサー14により検出された角速度313が対応付けられたセンシングデータが時系列に並べられて構成される。処理部20は、計測を開始すると、サンプリング周期Δt(例えば、20msまたは10ms)の経過毎に、センシングデータテーブル310に新たなセンシングデータを付加する。さらに、処理部20は、拡張カルマンフィルターを用いた誤差推定(後述)により推定された加速度バイアス及び角速度バイアスを用いて加速度及び角速度を補正し、補正後の加速度及び角速度を上書きしてセンシングデータテーブル310を更新する。
GPSデータテーブル320は、処理部20がGPSユニット50から受け取ったGPSデータ(GPSユニット(GPSセンサー)50の検出結果)を時系列に記憶するデータテーブルである。図4は、GPSデータテーブル320の構成例を示す図である。図4に示すように、GPSデータテーブル320は、GPSユニット50が測位計算を行った時刻321、測位計算により算出した位置322、測位計算により算出した速度323、測位精度(DOP(Dilution of Precision))324、受信したGPS衛星信号の信号強度325等が対応付けられたGPSデータが時系列に並べられて構成される。処理部20は、計測を開始すると、GPSデータを取得する毎に(例えば1秒毎に、センシングデータの取得タイミングとは非同期に)、新たなGPSデータを付加してGPSデータテーブル320を更新する。
地磁気データテーブル330は、処理部20が地磁気センサー60から受け取った地磁気データ(地磁気センサーの検出結果)を時系列に記憶するデータテーブルである。図5は、地磁気データテーブル330の構成例を示す図である。図5に示すように、地磁気データテーブル330は、地磁気センサー60の検出時刻331と地磁気センサー60により検出された地磁気332とが対応付けられた地磁気データが時系列に並べられて構成される。処理部20は、計測を開始すると、サンプリング周期Δt(例えば、10ms)の経過毎に、地磁気データテーブル330に新たな地磁気データを付加する。
算出データテーブル340は、処理部20がセンシングデータを用いて算出した速度、位置及び姿勢角を時系列に記憶するデータテーブルである。図6は、算出データテーブル340の構成例を示す図である。図6に示すように、算出データテーブル340は、処理部20が計算した時刻341、速度342、位置343、及び姿勢角344が対応付けられた算出データが時系列に並べられて構成される。処理部20は、計測を開始すると、新たにセンシングデータを取得する毎に、すなわち、サンプリング周期Δtの経過毎に、速度、位置、及び姿勢角を算出し、算出データテーブル340に新たな算出データを付加する。さらに、処理部20は、拡張カルマンフィルターを用いた誤差推定により推定された速度誤差、位置誤差、及び姿勢角誤差を用いて、速度、位置、及び姿勢角を補正し、補正後の速度、位置、及び姿勢角を上書きして算出データテーブル340を更新する。
運動解析情報350は、ユーザーの運動に関する走行状態であり、処理部20が生成した、入力情報351の各項目、基本情報352の各項目、第1解析情報353の各項目、第2解析情報354の各項目、左右差率355の各項目等を含む。これら各種の情報の詳細については後述する。
出力部70は、慣性計測ユニット(IMU)10で検出したデータに基づいて、運動解析部24で算出した運動解析情報350を受信し、その運動解析情報350を知覚情報に変換し出力する。そのため、ユーザーが走行中であっても、ユーザーの運動解析情報350が知覚情報として変換して報知されるので、ユーザーは走行中に運動解析情報350を容易に確認することができる。より具体的には、出力部70は、運動解析情報350のうち、ユーザーの走行中に周期的に生じ、ユーザーが常に監視する事が難しい走行状態を表す指標を知覚情報に変換し出力する。
知覚情報は、音、光、又は振動のうち少なくとも1つであり、運動解析情報350の値に対応して出力される。例えば、運動解析情報350がユーザーの走行における、速度又は加速度に関する情報である場合には、速度又は加速度に対応した周波数の音、光、又は振動に変換し着地に同期して出力する。つまり、速度又は加速度の大小に対応して音、光、又は振動の周波数の高低を変化させ、比例関係又は反比例関係で出力する。
また、運動解析情報350がユーザーの走行における、ストライド、ピッチ、推進効率、着地時ブレーキ量、又は接地時間に関する情報である場合には、各情報の値に対応した周波数の音、光、又は振動に限らず、各情報の値に対応した時間間隔や音量の大きさであっても構わない。つまり、一定周波数の音を運動解析情報350の値に対応した時間間隔や音量の大きさで発する、例えば、「ピッピッ」、「ピーピー」と発することや音量の大きさを変えて発することにより、運動解析情報350を確認することができる。
また、知覚情報が音である場合には、音が擬声語や擬態語を音声化した擬態音であっても構わない。例えば、ユーザーの走行における接地時間が短い場合には「ビョンビョン」と出力し、接地時間が長い場合には「ドンドン」と出力することにより、音が聞き取り易くなり、運動解析情報350をより正確に確認することができる。
また、運動解析情報350を、ユーザーにおける左足、右足で異なる知覚情報として出力しても構わない。例えば、左足に関する運動解析情報350の場合には、低い周波数帯域の知覚情報に変換し出力し、右足に関する運動解析情報350の場合には、高い周波数帯域の知覚情報に変換し出力する。左足と右足とで異なる知覚情報として出力することにより、ユーザーが左足の運動解析情報350か右足の運動解析情報350かを容易に判断し、確認することができる。
なお、運動解析情報350を知覚情報に変換し出力するタイミングは、走行中のユーザーの左足又は右足の着地時であることが好ましく、着地の±100ミリ秒以内であることがより好ましい。このタイミングで知覚情報を出力することにより、ユーザーの走行におけるリズム感を正確に維持したまま、運動解析情報350を確認することができる。
3−2.処理部の機能構成
図7は、本実施形態に係る運動解析装置2の処理部20の構成例を示す機能ブロック図である。本実施形態では、処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、慣性航法演算部22及び運動情報生成部としての運動解析部24として機能する。
図7は、本実施形態に係る運動解析装置2の処理部20の構成例を示す機能ブロック図である。本実施形態では、処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、慣性航法演算部22及び運動情報生成部としての運動解析部24として機能する。
慣性航法演算部22は、センシングデータ(慣性計測ユニット10の検出結果)、GPSデータ(GPSユニット50の検出結果)及び地磁気データ(地磁気センサー60の検出結果)を用いて、慣性航法演算を行い、加速度、角速度、速度、位置、姿勢角、距離、ストライド、及び走行ピッチを算出し、これらの算出結果を含む演算データを出力する。慣性航法演算部22が出力する演算データは記憶部30に記憶される。慣性航法演算部22の詳細については後述する。
運動情報生成部としての運動解析部24は、慣性航法演算部22が出力する演算データ(記憶部30に記憶されている演算データ)を用いて、ユーザーの走行中の運動を解析し、解析結果である運動解析情報(後述する、入力情報351、基本情報352、第1解析情報353、第2解析情報354、左右差率355等)を生成する。運動解析部24が生成した運動解析情報は、ユーザーの走行中に、時刻順に記憶部30に記憶される。
また、運動解析部24は、生成した運動解析情報を用いて、ユーザーの走行中(具体的には慣性計測ユニット10が計測を開始してから終了するまでの間)に出力する情報である走行中出力情報を生成する。運動解析部24が生成した走行中出力情報は、通信部40を介して、出力部70及び報知装置3に送信される。
また、運動解析部24は、走行中に生成した運動解析情報を用いて、ユーザーの走行終了時(具体的には慣性計測ユニット10の計測終了時)に、走行結果の情報である走行結果情報を生成する。運動解析部24が生成した走行結果情報は、通信部40を介して報知装置3に送信される。
3−3.慣性航法演算部の機能構成
図8は、慣性航法演算部22の構成例を示す機能ブロック図である。本実施形態では、慣性航法演算部22は、バイアス除去部210、積分処理部220、誤差推定部230、走行処理部240、及び座標変換部250を含む。ただし、本実施形態の慣性航法演算部22は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
図8は、慣性航法演算部22の構成例を示す機能ブロック図である。本実施形態では、慣性航法演算部22は、バイアス除去部210、積分処理部220、誤差推定部230、走行処理部240、及び座標変換部250を含む。ただし、本実施形態の慣性航法演算部22は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
バイアス除去部210は、新たに取得したセンシングデータに含まれる3軸加速度及び3軸角速度から、それぞれ、誤差推定部230が推定した加速度バイアスba及び角速度バイアスbωを減算し、3軸加速度及び3軸角速度を補正する処理を行う。なお、計測開始直後の初期状態では加速度バイアスba及び角速度バイアスbωの推定値が存在しないため、バイアス除去部210は、ユーザーの初期状態は静止状態であるものとして、慣性計測ユニット(IMU)10からのセンシングデータを用いて、初期バイアスを計算する。
積分処理部220は、バイアス除去部210が補正した加速度及び角速度からeフレームの速度ve、位置pe及び姿勢角(ロール角φbe、ピッチ角θbe、ヨー角ψbe)を算出する処理を行う。具体的には、積分処理部220は、まず、ユーザーの初期状態は静止状態であるものとして、初期速度をゼロとし、あるいは、GPSデータに含まれる速度から初期速度を算出し、さらに、GPSデータに含まれる位置から初期位置を算出する。また、積分処理部220は、バイアス除去部210が補正したbフレームの3軸加速度から重力加速度の向きを特定してロール角φbeとピッチ角θbeの初期値を算出するとともに、GPSデータに含まれる速度からヨー角ψbeの初期値を算出し、eフレームの初期姿勢角とする。GPSデータが得られない場合はヨー角ψbeの初期値を例えばゼロとする。そして、積分処理部220は、算出した初期姿勢角から式(1)で表されるbフレームからeフレームへの座標変換行列(回転行列)Cb eの初期値を算出する。
その後は、積分処理部220は、バイアス除去部210が補正した3軸角速度を積算(回転演算)して座標変換行列Cb eを算出し、式(2)より姿勢角を算出する。
また、積分処理部220は、座標変換行列Cb eを用いて、バイアス除去部210が補正したbフレームの3軸加速度をeフレームの3軸加速度に変換し、重力加速度成分を除去して積算することでeフレームの速度veを算出する。また、積分処理部220は、eフレームの速度veを積算してeフレームの位置peを算出する。
また、積分処理部220は、誤差推定部230が推定した速度誤差δve、位置誤差δpe、及び姿勢角誤差εeを用いて、速度ve、位置pe、及び姿勢角を補正する処理及び補正した速度veを積分して距離を計算する処理も行う。
さらに、積分処理部220は、bフレームからmフレームへの座標変換行列Cb m、eフレームからmフレームへの座標変換行列Ce m及びeフレームからnフレームへの座標変換行列Ce nも算出する。これらの座標変換行列は座標変換情報として後述する座標変換部250の座標変換処理に用いられる。
誤差推定部230は、積分処理部220が算出した速度・位置、姿勢角、バイアス除去部210が補正した加速度や角速度、GPSデータ、地磁気データ等を用いて、ユーザーの状態を表す指標の誤差を推定する。本実施形態では、誤差推定部230は、速度、姿勢角、加速度、角速度、及び位置をユーザーの状態を表す指標とし、拡張カルマンフィルターを用いてこれらの指標の誤差を推定する。すなわち、誤差推定部230は、積分処理部220が算出した速度veの誤差(速度誤差)δve、積分処理部220が算出した姿勢角の誤差(姿勢角誤差)εe、加速度バイアスba、角速度バイアスbω、及び積分処理部220が算出した位置peの誤差(位置誤差)δpeを拡張カルマンフィルターの状態変数とし、状態ベクトルXを式(3)のように定義する。
誤差推定部230は、拡張カルマンフィルターの予測式を用いて、状態ベクトルXに含まれる状態変数(ユーザーの状態を表す指標の誤差)を予測する。拡張カルマンフィルターの予測式は、式(4)のように表される。式(4)において、行列Φは、前回の状態ベクトルXと今回の状態ベクトルXを関連付ける行列であり、その要素の一部は姿勢角や位置等を反映しながら時々刻々変化するように設計される。また、Qはプロセスノイズを表す行列であり、その各要素はあらかじめ適切な値に設定される。また、Pは状態変数の誤差共分散行列である。
また、誤差推定部230は、拡張カルマンフィルターの更新式を用いて、予測した状態変数(ユーザーの状態を表す指標の誤差)を更新(補正)する。拡張カルマンフィルターの更新式は、式(5)のように表される。Z及びHはそれぞれ観測ベクトル及び観測行列であり、更新式(5)は、実際の観測ベクトルZと状態ベクトルXから予測されるベクトルHXとの差を用いて、状態ベクトルXを補正することを表している。Rは、観測誤差の共分散行列であり、あらかじめ決められた一定値であってもよいし、動的に変更してもよい。Kはカルマンゲインであり、Rが小さいほどKが大きくなる。式(5)より、Kが大きい(Rが小さい)ほど、状態ベクトルXの補正量が大きくなり、その分、Pが小さくなる。
誤差推定の方法(状態ベクトルXの推定方法)としては、例えば、以下のようなものが挙げられる。
[姿勢角誤差に基づく補正による誤差推定方法]
図9は、運動解析装置2を右腰に装着したユーザーが走行動作(直進)をする場合のユーザーの移動を俯瞰した図である。また、図10は、ユーザーが走行動作(直進)をする場合に慣性計測ユニット10の検出結果から算出したヨー角(方位角)の一例を示す図であり、横軸は時間、縦軸はヨー角(方位角)である。
図9は、運動解析装置2を右腰に装着したユーザーが走行動作(直進)をする場合のユーザーの移動を俯瞰した図である。また、図10は、ユーザーが走行動作(直進)をする場合に慣性計測ユニット10の検出結果から算出したヨー角(方位角)の一例を示す図であり、横軸は時間、縦軸はヨー角(方位角)である。
ユーザーの走行動作に伴い、ユーザーに対する慣性計測ユニット10の姿勢が随時変化する。ユーザーが左足を踏み出した状態では、図9中の(1)や(3)に示すように、慣性計測ユニット10は進行方向(mフレームのx軸)に対して左側に傾いた姿勢となる。それに対して、ユーザーが右足を踏み出した状態では、図9中の(2)や(4)に示すように、慣性計測ユニット10は進行方向(mフレームのx軸)に対して右側に傾いた姿勢となる。つまり、慣性計測ユニット10の姿勢は、ユーザーの走行動作に伴い、左右1歩ずつの2歩毎に周期的に変化することになる。図10では、例えば、右足を踏み出した状態でヨー角が極大となり(図10中の○)、左足を踏み出した状態でヨー角が極小となっている(図10中の●)。そこで、前回(2歩前)の姿勢角と今回の姿勢角は等しく、かつ、前回の姿勢角は真の姿勢であるものとして誤差を推定することができる。この方法では、式(5)の観測ベクトルZは積分処理部220が算出した前回の姿勢角と今回の姿勢角との差であり、更新式(5)により、姿勢角誤差εeと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
[角速度バイアスに基づく補正による誤差推定方法]
前回(2歩前)の姿勢角と今回の姿勢角は等しいが、前回の姿勢角は真の姿勢である必要はないものとして誤差を推定する方法である。この方法では、式(5)の観測ベクトルZは積分処理部220が算出した前回の姿勢角及び今回の姿勢角から算出される角速度バイアスであり、更新式(5)により、角速度バイアスbωと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
前回(2歩前)の姿勢角と今回の姿勢角は等しいが、前回の姿勢角は真の姿勢である必要はないものとして誤差を推定する方法である。この方法では、式(5)の観測ベクトルZは積分処理部220が算出した前回の姿勢角及び今回の姿勢角から算出される角速度バイアスであり、更新式(5)により、角速度バイアスbωと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
[方位角誤差に基づく補正による誤差推定方法]
前回(2歩前)のヨー角(方位角)と今回のヨー角(方位角)は等しく、かつ、前回のヨー角(方位角)は真のヨー角(方位角)であるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した前回のヨー角と今回のヨー角の差であり、更新式(5)により、方位角誤差εz eと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
前回(2歩前)のヨー角(方位角)と今回のヨー角(方位角)は等しく、かつ、前回のヨー角(方位角)は真のヨー角(方位角)であるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した前回のヨー角と今回のヨー角の差であり、更新式(5)により、方位角誤差εz eと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
[停止に基づく補正による誤差推定方法]
停止時は速度がゼロであるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度veとゼロとの差であり、更新式(5)により、速度誤差δveに基づいて状態ベクトルXを補正し、誤差を推定する。
停止時は速度がゼロであるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度veとゼロとの差であり、更新式(5)により、速度誤差δveに基づいて状態ベクトルXを補正し、誤差を推定する。
[静止に基づく補正による誤差推定方法]
静止時は速度がゼロであり、かつ、姿勢変化がゼロであるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度veの誤差及び積分処理部220が算出した前回の姿勢角と今回の姿勢角との差であり、更新式(5)により、速度誤差δve及び姿勢角誤差εeに基づいて状態ベクトルXを補正し、誤差を推定する。
静止時は速度がゼロであり、かつ、姿勢変化がゼロであるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度veの誤差及び積分処理部220が算出した前回の姿勢角と今回の姿勢角との差であり、更新式(5)により、速度誤差δve及び姿勢角誤差εeに基づいて状態ベクトルXを補正し、誤差を推定する。
[GPSの観測値に基づく補正による誤差推定方法]
積分処理部220が算出した速度ve、位置peあるいはヨー角ψbeとGPSデータから算出される速度、位置あるいは方位角(eフレームに変換後の速度、位置、方位角)は等しいものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度、位置あるいはヨー角とGPSデータから算出される速度、位置速度あるいは方位角との差であり、更新式(5)により、速度誤差δve、位置誤差δpeあるいは方位角誤差εz eと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
積分処理部220が算出した速度ve、位置peあるいはヨー角ψbeとGPSデータから算出される速度、位置あるいは方位角(eフレームに変換後の速度、位置、方位角)は等しいものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度、位置あるいはヨー角とGPSデータから算出される速度、位置速度あるいは方位角との差であり、更新式(5)により、速度誤差δve、位置誤差δpeあるいは方位角誤差εz eと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
[地磁気センサーの観測値に基づく補正による誤差推定方法]
積分処理部220が算出したヨー角ψbeと地磁気センサー60から算出される方位角(eフレームに変換後の方位角)は等しいものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出したヨー角と地磁気データから算出される方位角との差であり、更新式(5)により、方位角誤差εz eと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
積分処理部220が算出したヨー角ψbeと地磁気センサー60から算出される方位角(eフレームに変換後の方位角)は等しいものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出したヨー角と地磁気データから算出される方位角との差であり、更新式(5)により、方位角誤差εz eと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
図8に戻り、走行処理部240は、走行検出部242、歩幅算出部244、及びピッチ算出部246を含む。走行検出部242は、慣性計測ユニット10の検出結果(具体的には、バイアス除去部210が補正したセンシングデータ)を用いて、ユーザーの走行周期(走行タイミング)を検出する処理を行う。図9及び図10で説明したように、ユーザーの走行時にはユーザーの姿勢が周期的に(2歩(左右1歩ずつ)毎に)変化するため、慣性計測ユニット10が検出する加速度も周期的に変化する。図11は、ユーザーの走行時に慣性計測ユニット10が検出した3軸加速度の一例を示す図である。図11において、横軸は時間であり、縦軸は加速度値である。図11に示すように、3軸加速度は周期的に変化しており、特にz軸(重力方向の軸)加速度は、周期性をもって規則的に変化していることがわかる。このz軸加速度は、ユーザーの上下動の加速度を反映しており、z軸加速度が所定の閾値以上の極大値となる時から次に閾値以上の極大値となるまでの期間が1歩の期間に相当する。そして、右足を踏み出している状態の1歩と左足を踏み出している状態の1歩が交互に繰り返される。
そこで、本実施形態では、走行検出部242は、慣性計測ユニット10が検出するz軸加速度(ユーザーの上下動の加速度に相当する)が所定の閾値以上の極大値となる毎に、走行周期を検出する。すなわち、走行検出部242は、z軸加速度が所定の閾値以上の極大値となる毎に、走行周期を検出したことを示すタイミング信号を出力する。実際には、慣性計測ユニット10が検出する3軸加速度には高周波のノイズ成分が含まれるため、走行検出部242は、ローパスフィルターを通過させてノイズが除去されたz軸加速度を用いて走行周期を検出する。
また、走行検出部242は、検出した走行周期が左右いずれの走行周期かを判定し、左右いずれの走行周期かを示す左右足フラグ(例えば、右足の時にオン、左足の時にオフ)を出力する。例えば、図10に示したように、右足を踏み出した状態ではヨー角が極大となり(図10中の○)、左足を踏み出した状態ではヨー角が極小となる(図10中の●)ので、走行検出部242は、積分処理部220が算出する姿勢角(特にヨー角)を用いて、左右いずれの走行周期かを判定することができる。また、図9に示したように、ユーザーの頭上から見て、慣性計測ユニット10は、ユーザーが左足を踏み出した状態(図9中の(1)や(3)の状態)から右足を踏み出した状態(図9中の(2)や(4)の状態)に至るまでに時計まわりに回転し、逆に、右足を踏み出した状態から左足を踏み出した状態に至るまでに反時計まわりに回転する。従って、例えば、走行検出部242は、z軸角速度の極性から左右いずれの走行周期かを判定することもできる。この場合、実際には、慣性計測ユニット10が検出する3軸角速度には高周波のノイズ成分が含まれるため、走行検出部242は、ローパスフィルターを通過させてノイズが除去されたz軸角速度を用いて左右いずれの走行周期かを判定する。
なお、ユーザーが右足と左足のどちらから走行を始めるかわからず、また、走行中に走行周期を検出し損なう場合もあり得るので、走行検出部242は、z軸加速度以外の情報(例えば、姿勢角等)も用いて、右足の走行周期か左足の走行周期かを総合的に判定するのがよい。
歩幅算出部244は、走行検出部242が出力する走行周期のタイミング信号及び左右足フラグと、積分処理部220が算出する速度あるいは位置とを用いて、左右毎の歩幅を算出し、左右毎のストライドとして出力する処理を行う。すなわち、歩幅算出部244は、走行周期の開始から次の走行周期の開始までの期間、サンプリング周期Δt毎に速度を積分して(あるいは、走行周期の開始時の位置と次の走行周期の開始時の位置との差を計算して)歩幅を算出し、当該歩幅をストライドとして出力する。
ピッチ算出部246は、走行検出部242が出力する走行周期のタイミング信号を用いて、1分間の歩数を算出し、走行ピッチとして出力する処理を行う。すなわち、ピッチ算出部246は、例えば、走行周期の逆数をとって1秒当たりの歩数を計算し、これに60を掛けて1分間の歩数(走行ピッチ)を算出する。
座標変換部250は、積分処理部220が算出したbフレームからmフレームへの座標変換情報(座標変換行列Cb m)を用いて、バイアス除去部210が補正したbフレームの3軸加速度及び3軸角速度をそれぞれmフレームの3軸加速度及び3軸角速度に変換する座標変換処理を行う。また、座標変換部250は、積分処理部220が算出したeフレームからmフレームへの座標変換情報(座標変換行列Ce m)を用いて、積分処理部220が算出したeフレームの3軸方向の速度、3軸回りの姿勢角及び3軸方向の距離をそれぞれmフレームの3軸方向の速度、3軸回りの姿勢角及び3軸方向の距離に変換する座標変換処理を行う。また、座標変換部250は、積分処理部220が算出したeフレームからnフレームへの座標変換情報(座標変換行列Ce n)を用いて、積分処理部220が算出したeフレームの位置をnフレームの位置に変換する座標変換処理を行う。
そして、慣性航法演算部22は、座標変換部250が座標変換した後の加速度、角速度、速度、位置、姿勢角、及び距離、走行処理部240が算出したストライド、走行ピッチ、及び左右足フラグの各情報を含む演算データを出力する(記憶部30に記憶する)。
3−4.運動解析部の機能構成
図12は、本実施形態に係る運動解析部24の構成例を示す機能ブロック図である。本実施形態では、運動解析部24は、特徴点検出部260、接地時間・衝撃時間算出部262、基本情報生成部272、第1解析情報生成部274、第2解析情報生成部276、左右差率算出部278、及び出力情報生成部280を含む。ただし、本実施形態の運動解析部24は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
図12は、本実施形態に係る運動解析部24の構成例を示す機能ブロック図である。本実施形態では、運動解析部24は、特徴点検出部260、接地時間・衝撃時間算出部262、基本情報生成部272、第1解析情報生成部274、第2解析情報生成部276、左右差率算出部278、及び出力情報生成部280を含む。ただし、本実施形態の運動解析部24は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
特徴点検出部260は、演算データを用いて、ユーザーの走行運動における特徴点を検出する処理を行う。ユーザーの走行運動における特徴点は、例えば、着地(足裏の一部が地面に着いた時、足の裏全体が地面に着いた時、足のかかとから着いてつま先が離れる間の任意の時点、足のつま先から着いてかかとが離れる間の任意の時点、足の裏全体が着いている間など、適宜設定して良い)、踏込(足に最も体重がかかっている状態)、離地(蹴り出しともいう、地面から足の裏の一部が離れた時、足の裏全体が地面から離れた時、足のかかとから着いてつま先が離れる間の任意の時点、足のつま先から着いてから離れる間の任意の時点など、適宜設定してよい)等である。具体的には、特徴点検出部260は、演算データに含まれる左右足フラグを用いて、右足の走行周期における特徴点と左足の走行周期における特徴点とを別々に検出する。例えば、特徴点検出部260は、上下方向加速度(加速度センサー12のz軸の検出値)が正値から負値に変化するタイミングで着地を検出し、着地の後、上下方向加速度が負の方向にピークとなった以降に進行方向加速度がピークになる時点で踏込を検出し、上下方向加速度が負値から正値に変化した時点で離地(蹴り出し)を検出することができる。
接地時間・衝撃時間算出部262は、演算データを用いて、特徴点検出部260が特徴点を検出したタイミングを基準として、接地時間及び衝撃時間の各値を算出する処理を行う。具体的には、接地時間・衝撃時間算出部262は、演算データに含まれる左右足フラグから現在の演算データが右足の走行周期と左足の走行周期のいずれの演算データであるかを判定し、特徴点検出部260が特徴点を検出した時点を基準として、接地時間及び衝撃時間の各値を、右足の走行周期と左足の走行周期に分けて算出する。接地時間及び衝撃時間の定義及び算出方法等の詳細については後述する。
基本情報生成部272は、演算データに含まれる加速度、速度、位置、ストライド、走行ピッチの情報を用いて、ユーザーの運動に関する基本情報352を生成する処理を行う。ここで、基本情報352は、走行ピッチ、ストライド、走行速度、標高、走行距離、及び走行時間(ラップタイム)の各項目を含む。具体的には、基本情報生成部272は、演算データに含まれる走行ピッチ及びストライドをそれぞれ基本情報352の走行ピッチ及びストライドとして出力する。また、基本情報生成部272は、演算データに含まれる加速度、速度、位置、走行ピッチ、及びストライドの一部又は全部を用いて、走行速度、標高、走行距離、走行時間(ラップタイム)の現在の値や走行中の平均値等の運動解析情報を算出する。
第1解析情報生成部274は、入力情報351を用いて、特徴点検出部260が特徴点を検出したタイミングを基準としてユーザーの運動を解析し、第1解析情報353を生成する処理を行う。
ここで、入力情報351は、進行方向加速度、進行方向速度、進行方向距離、上下方向加速度、上下方向速度、上下方向距離、左右方向加速度、左右方向速度、左右方向距離、姿勢角(ロール角、ピッチ角、ヨー角)、角速度(ロール方向、ピッチ方向、ヨー方向)、走行ピッチ、ストライド、接地時間、衝撃時間及び体重の各項目を含む。体重はユーザーによって入力され、接地時間及び衝撃時間は接地時間・衝撃時間算出部262が算出し、その他の項目は演算データに含まれる。
また、第1解析情報353は、着地時ブレーキ量(着地時ブレーキ量1、着地時ブレーキ量2)、真下着地率(真下着地率1、真下着地率2、真下着地率3)、推進力(推進力1、推進力2)、推進効率(推進効率1、推進効率2、推進効率3、推進効率4)、エネルギー消費量、着地衝撃、ランニング能力、前傾角、及びタイミング一致度の各項目を含む。第1解析情報353の各項目は、ユーザーの走行状態(運動状態の一例)を表す項目であり、それぞれ1つの走行情報である。第1解析情報353の各項目の内容及び計算方法の詳細については後述する。
また、第1解析情報生成部274は、第1解析情報353の各項目の値を、ユーザーの体の左右にわけて算出する。具体的には、第1解析情報生成部274は、特徴点検出部260が右足の走行周期における特徴点を検出したか左足の走行周期における特徴点を検出したかに応じて、第1解析情報353に含まれる各項目を、右足の走行周期と左足の走行周期に分けて算出する。また、第1解析情報生成部274は、第1解析情報353に含まれる各項目について、左右の平均値あるいは合計値も算出する。
第2解析情報生成部276は、第1解析情報生成部274が生成した第1解析情報353を用いて、第2解析情報354を生成する処理を行う。ここで、第2解析情報354は、エネルギー損失、エネルギー効率、及び体への負担の各項目を含む。第2解析情報354の各項目の内容及び計算方法の詳細については後述する。第2解析情報生成部276は、第2解析情報354の各項目の値を、右足の走行周期と左足の走行周期に分けて算出する。また、第2解析情報生成部276は、第2解析情報354に含まれる各項目について、左右の平均値あるいは合計値も算出する。
左右差率算出部278は、入力情報351に含まれる走行ピッチ、ストライド、接地時間及び衝撃時間、第1解析情報353の全ての項目、及び第2解析情報354の全ての項目について、それぞれ右足の走行周期における値と左足の走行周期における値とを用いて、ユーザーの体の左右のバランスを示す指標である左右差率355を算出する処理を行う。各項目の左右差率355が1つの運動解析情報である。左右差率355の内容及び計算方法の詳細については後述する。
出力情報生成部280は、基本情報352、入力情報351、第1解析情報353、第2解析情報354、左右差率355等を用いて、ユーザーの走行中に出力する情報である走行中出力情報を生成する処理を行う。入力情報351に含まれる「走行ピッチ」、「ストライド」、「接地時間」及び「衝撃時間」、第1解析情報353のすべての項目、第2解析情報354のすべての項目、及び左右差率355は、ユーザーの走行技術の評価に用いられる運動指標であり、走行中出力情報は、これらの運動指標の一部又は全部の値の情報を含む。走行中出力情報に含まれる運動指標は、予め決められていてもよいし、ユーザーが報知装置3を操作して選択可能にしても良い。また、走行中出力情報は、基本情報352に含まれる走行速度、標高、走行距離、及び走行時間(ラップタイム)の一部又は全部を含んでもよい。
また、出力情報生成部280は、基本情報352、入力情報351、第1解析情報353、第2解析情報354、左右差率355等を用いて、ユーザーの走行結果の情報である走行結果情報を生成する。例えば、出力情報生成部280は、ユーザーの走行中(慣性計測ユニット10の計測中)における各運動指標の平均値の情報等を含む走行結果情報を生成してもよい。また、走行結果情報は、走行速度、標高、走行距離、及び走行時間(ラップタイム)の一部又は全部を含んでもよい。
出力情報生成部280は、通信部40を介して、ユーザーの走行中に、走行中出力情報を出力部70及び報知装置3に送信し、ユーザーの走行終了時に、走行結果情報を報知装置3に送信する。
3−5.入力情報
以下に、入力情報351の各項目の詳細について説明する。
以下に、入力情報351の各項目の詳細について説明する。
[進行方向加速度、上下方向加速度、左右方向加速度]
「進行方向」とはユーザーの進行方向(mフレームのx軸方向)であり、「上下方向」とは鉛直方向(mフレームのz軸方向)であり、「左右方向」とは進行方向と上下方向にともに直交する方向(mフレームのy軸方向)である。進行方向加速度、上下方向加速度及び左右方向加速度は、それぞれ、mフレームのx軸方向の加速度、z軸方向の加速度及びy軸方向の加速度であり、座標変換部250により算出される。
「進行方向」とはユーザーの進行方向(mフレームのx軸方向)であり、「上下方向」とは鉛直方向(mフレームのz軸方向)であり、「左右方向」とは進行方向と上下方向にともに直交する方向(mフレームのy軸方向)である。進行方向加速度、上下方向加速度及び左右方向加速度は、それぞれ、mフレームのx軸方向の加速度、z軸方向の加速度及びy軸方向の加速度であり、座標変換部250により算出される。
[進行方向速度、上下方向速度、左右方向速度]
進行方向速度、上下方向速度及び左右方向速度は、それぞれ、mフレームのx軸方向の速度、z軸方向の速度及びy軸方向の速度であり、座標変換部250により算出される。あるいは、進行方向加速度、上下方向加速度及び左右方向加速度をそれぞれ積分することにより、進行方向速度、上下方向速度及び左右方向速度をそれぞれ算出することもできる。
進行方向速度、上下方向速度及び左右方向速度は、それぞれ、mフレームのx軸方向の速度、z軸方向の速度及びy軸方向の速度であり、座標変換部250により算出される。あるいは、進行方向加速度、上下方向加速度及び左右方向加速度をそれぞれ積分することにより、進行方向速度、上下方向速度及び左右方向速度をそれぞれ算出することもできる。
[角速度(ロール方向、ピッチ方向、ヨー方向)]
ロール方向の角速度、ピッチ方向の角速度及びヨー方向の角速度は、それぞれ、mフレームのx軸回りの角速度、y軸回りの角速度及びz軸回りの角速度であり、座標変換部250により算出される。
ロール方向の角速度、ピッチ方向の角速度及びヨー方向の角速度は、それぞれ、mフレームのx軸回りの角速度、y軸回りの角速度及びz軸回りの角速度であり、座標変換部250により算出される。
[姿勢角(ロール角、ピッチ角、ヨー角)]
ロール角、ピッチ角及びヨー角は、それぞれ、座標変換部250が出力するmフレームのx軸回りの姿勢角、y軸回りの姿勢角、及びz軸回りの姿勢角であり、座標変換部250により算出される。あるいは、ロール方向の角速度、ピッチ方向の角速度、及びヨー方向の角速度を積分(回転演算)することにより、ロール角、ピッチ角、及びヨー角を算出することもできる。
ロール角、ピッチ角及びヨー角は、それぞれ、座標変換部250が出力するmフレームのx軸回りの姿勢角、y軸回りの姿勢角、及びz軸回りの姿勢角であり、座標変換部250により算出される。あるいは、ロール方向の角速度、ピッチ方向の角速度、及びヨー方向の角速度を積分(回転演算)することにより、ロール角、ピッチ角、及びヨー角を算出することもできる。
[進行方向距離、上下方向距離、左右方向距離]
進行方向距離、上下方向距離及び左右方向距離は、それぞれ、所望の位置(例えば、ユーザーの走行開始直前の位置)からの、mフレームのx軸方向の移動距離、z軸方向の移動距離、及びy軸方向の移動距離であり、座標変換部250により算出される。
進行方向距離、上下方向距離及び左右方向距離は、それぞれ、所望の位置(例えば、ユーザーの走行開始直前の位置)からの、mフレームのx軸方向の移動距離、z軸方向の移動距離、及びy軸方向の移動距離であり、座標変換部250により算出される。
[走行ピッチ]
走行ピッチは、1分間あたりの歩数として定義される運動指標であり、ピッチ算出部246により算出される。あるいは、1分間の進行方向距離をストライドで除算することにより、走行ピッチを算出することもできる。
走行ピッチは、1分間あたりの歩数として定義される運動指標であり、ピッチ算出部246により算出される。あるいは、1分間の進行方向距離をストライドで除算することにより、走行ピッチを算出することもできる。
[ストライド]
ストライドは、1歩の歩幅として定義される運動指標であり、歩幅算出部244により算出される。あるいは、1分間の進行方向距離を走行ピッチで除算することにより、ストライドを算出することもできる。
ストライドは、1歩の歩幅として定義される運動指標であり、歩幅算出部244により算出される。あるいは、1分間の進行方向距離を走行ピッチで除算することにより、ストライドを算出することもできる。
[接地時間]
接地時間は、着地から離地(蹴り出し)までにかかった時間として定義される運動指標であり、接地時間・衝撃時間算出部262により算出される。離地(蹴り出し)とは、つま先が地面から離れる時である。なお、接地時間は、走行スピードと相関が高いため、第1解析情報353のランニング能力として使用することもできる。
接地時間は、着地から離地(蹴り出し)までにかかった時間として定義される運動指標であり、接地時間・衝撃時間算出部262により算出される。離地(蹴り出し)とは、つま先が地面から離れる時である。なお、接地時間は、走行スピードと相関が高いため、第1解析情報353のランニング能力として使用することもできる。
[衝撃時間]
衝撃時間は、着地により発生する衝撃が体にかかっている時間として定義される運動指標であり、接地時間・衝撃時間算出部262により算出される。衝撃時間=(1歩中の進行方向加速度が最小となる時刻−着地の時刻)で計算できる。
衝撃時間は、着地により発生する衝撃が体にかかっている時間として定義される運動指標であり、接地時間・衝撃時間算出部262により算出される。衝撃時間=(1歩中の進行方向加速度が最小となる時刻−着地の時刻)で計算できる。
[体重]
体重は、ユーザーの体重であり、走行前にユーザーが報知装置3の不図示の操作部を操作することによりその数値が入力される。
体重は、ユーザーの体重であり、走行前にユーザーが報知装置3の不図示の操作部を操作することによりその数値が入力される。
3−6.第1解析情報
以下に、第1解析情報生成部274により算出される第1解析情報353の各項目の詳細について説明する。
以下に、第1解析情報生成部274により算出される第1解析情報353の各項目の詳細について説明する。
[着地時ブレーキ量1]
着地時ブレーキ量1は、着地により低下した速度量として定義される運動指標であり、着地時ブレーキ量1=(着地前の進行方向速度−着地後の進行方向最低速度)で計算できる。着地により進行方向の速度は低下し、1歩の中で着地後の進行方向速度の最下点が進行方向最低速度である。
着地時ブレーキ量1は、着地により低下した速度量として定義される運動指標であり、着地時ブレーキ量1=(着地前の進行方向速度−着地後の進行方向最低速度)で計算できる。着地により進行方向の速度は低下し、1歩の中で着地後の進行方向速度の最下点が進行方向最低速度である。
[着地時ブレーキ量2]
着地時ブレーキ量2は、着地により発生した進行方向マイナスの最低加速度量として定義される運動指標であり、1歩における着地後の進行方向最低加速度と一致する。1歩の中で着地後の進行方向加速度の最下点が進行方向最低加速度である。
着地時ブレーキ量2は、着地により発生した進行方向マイナスの最低加速度量として定義される運動指標であり、1歩における着地後の進行方向最低加速度と一致する。1歩の中で着地後の進行方向加速度の最下点が進行方向最低加速度である。
[真下着地率1]
真下着地率1は、体の真下で着地できているかを表現する運動指標である。体の真下で着地できるようになると、着地時のブレーキ量が少なくなり効率的な走りができるようになる。通常ブレーキ量は速度に応じて大きくなるため、ブレーキ量だけでは指標として不十分であるが、真下着地率1は率で表せる指標であるため、真下着地率1によれば速度が変わっても同じ評価ができる。着地時の進行方向加速度(マイナスの加速度)と上下方向加速度を用いて、α=arctan(着地時の進行方向加速度/着地時の上下方向加速度)とすると、真下着地率1=cosα×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度α’を算出し、真下着地率1={1−|(α’−α)/α’|}×100(%)で計算することもできる。
真下着地率1は、体の真下で着地できているかを表現する運動指標である。体の真下で着地できるようになると、着地時のブレーキ量が少なくなり効率的な走りができるようになる。通常ブレーキ量は速度に応じて大きくなるため、ブレーキ量だけでは指標として不十分であるが、真下着地率1は率で表せる指標であるため、真下着地率1によれば速度が変わっても同じ評価ができる。着地時の進行方向加速度(マイナスの加速度)と上下方向加速度を用いて、α=arctan(着地時の進行方向加速度/着地時の上下方向加速度)とすると、真下着地率1=cosα×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度α’を算出し、真下着地率1={1−|(α’−α)/α’|}×100(%)で計算することもできる。
[真下着地率2]
真下着地率2は、体の真下で着地できているかを着地時の速度低下度合で表現する運動指標であり、真下着地率2=(着地後の進行方向最低速度/着地直前の進行方向速度)×100(%)で計算される。
真下着地率2は、体の真下で着地できているかを着地時の速度低下度合で表現する運動指標であり、真下着地率2=(着地後の進行方向最低速度/着地直前の進行方向速度)×100(%)で計算される。
[真下着地率3]
真下着地率3は、体の真下で着地できているかを着地から体の真下に足が来るまでの距離又は時間で表現する運動指標である。真下着地率3=(体の真下に足が来る時の進行方向距離−着地時の進行方向距離)、あるいは、真下着地率3=(体の真下に足が来る時の時刻−着地時の時刻)で計算できる。着地(上下方向加速度が正値から負値に変化する点)の後、上下方向加速度が負の方向にピークとなるタイミングがあり、このタイミングを体の真下に足が来るタイミング(時刻)と判定することができる。
真下着地率3は、体の真下で着地できているかを着地から体の真下に足が来るまでの距離又は時間で表現する運動指標である。真下着地率3=(体の真下に足が来る時の進行方向距離−着地時の進行方向距離)、あるいは、真下着地率3=(体の真下に足が来る時の時刻−着地時の時刻)で計算できる。着地(上下方向加速度が正値から負値に変化する点)の後、上下方向加速度が負の方向にピークとなるタイミングがあり、このタイミングを体の真下に足が来るタイミング(時刻)と判定することができる。
なお、これ以外にも、真下着地率3=β=arctan(着地から体の真下に足が来るまでの距離/腰の高さ)と定義してもよい。あるいは、真下着地率3=(1−着地から体の真下に足が来るまでの距離/着地から蹴り上げまでに移動した距離)×100(%)(足が接地している間に移動した距離の中で着地から体の真下に足が来るまでの距離が占める割合)として定義してもよい。あるいは、真下着地率3=(1−着地から体の真下に足が来るまでの時間/着地から蹴り上げまでに移動した時間)×100(%)(足が接地している間に移動した時間の中で着地から体の真下に足が来るまでの時間が占める割合)と定義してもよい。
[推進力1]
推進力1は、地面を蹴ることにより進行方向へ増加した速度量として定義される運動指標であり、推進力1=(蹴り出し後の進行方向最高速度−蹴り出し前の進行方向最低速度)で計算できる。
推進力1は、地面を蹴ることにより進行方向へ増加した速度量として定義される運動指標であり、推進力1=(蹴り出し後の進行方向最高速度−蹴り出し前の進行方向最低速度)で計算できる。
[推進力2]
推進力2は、蹴り出しにより発生した進行方向プラスの最大加速度として定義される運動指標であり、1歩における蹴り出し後の進行方向最大加速度と一致する。
推進力2は、蹴り出しにより発生した進行方向プラスの最大加速度として定義される運動指標であり、1歩における蹴り出し後の進行方向最大加速度と一致する。
[推進効率1]
推進効率1は、蹴り出しの力が効率よく推進力になっているかを表す運動指標である。無駄な上下動、無駄な左右動がなくなると効率のよい走りができるようになる。通常上下動、左右動は速度に応じて大きくなるため、上下動、左右動だけでは指標として不十分であるが、推進効率1は率で表せる指標であるため、推進効率1によれば速度が変わっても同じ評価ができる。推進効率1は、上下方向と左右方向についてそれぞれ計算される。蹴り出し時の上下方向加速度と進行方向加速度を用いて、γ=arctan(蹴り出し時の上下方向加速度/蹴り出し時の進行方向加速度)とすると、上下方向の推進効率1=cosγ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度γ’を算出し、上下方向の推進効率1={1−|(γ’−γ)/γ’|}×100(%)で計算することもできる。同様に、蹴り出し時の左右方向加速度と進行方向加速度を用いて、δ=arctan(蹴り出し時の左右方向加速度/蹴り出し時の進行方向加速度)とすると、左右方向の推進効率1=cosδ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度δ’を算出し、左右方向の推進効率1={1−|(δ’−δ)/δ’|}×100(%)で計算することもできる。
推進効率1は、蹴り出しの力が効率よく推進力になっているかを表す運動指標である。無駄な上下動、無駄な左右動がなくなると効率のよい走りができるようになる。通常上下動、左右動は速度に応じて大きくなるため、上下動、左右動だけでは指標として不十分であるが、推進効率1は率で表せる指標であるため、推進効率1によれば速度が変わっても同じ評価ができる。推進効率1は、上下方向と左右方向についてそれぞれ計算される。蹴り出し時の上下方向加速度と進行方向加速度を用いて、γ=arctan(蹴り出し時の上下方向加速度/蹴り出し時の進行方向加速度)とすると、上下方向の推進効率1=cosγ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度γ’を算出し、上下方向の推進効率1={1−|(γ’−γ)/γ’|}×100(%)で計算することもできる。同様に、蹴り出し時の左右方向加速度と進行方向加速度を用いて、δ=arctan(蹴り出し時の左右方向加速度/蹴り出し時の進行方向加速度)とすると、左右方向の推進効率1=cosδ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度δ’を算出し、左右方向の推進効率1={1−|(δ’−δ)/δ’|}×100(%)で計算することもできる。
なお、これ以外にも、γをarctan(蹴り出し時の上下方向の速度/蹴り出し時の進行方向の速度)に置き換えて上下方向の推進効率1を算出することもできる。同様に、δをarctan(蹴り出し時の左右方向の速度/蹴り出し時の進行方向の速度)に置き換えて左右方向の推進効率1を算出することもできる。
[推進効率2]
推進効率2は、蹴り出しの力が効率よく推進力になっているかを踏込時の加速度の角度を用いて表す運動指標である。上下方向の推進効率2は、踏込時の上下方向加速度と進行方向加速度を用いて、ξ=arctan(踏込時の上下方向加速度/踏込時の進行方向加速度)とすると、上下方向の推進効率2=cosξ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度ξ’を算出し、上下方向の推進効率2={1−|(ξ’−ξ)/ξ’|}×100(%)で計算することもできる。同様に、踏込時の左右方向加速度と進行方向加速度を用いて、η=arctan(踏込時の左右方向加速度/踏込時の進行方向加速度)とすると、左右方向の推進効率2=cosη×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度η’を算出し、左右方向の推進効率2={1−|(η’−η)/η’|}×100(%)で計算する
こともできる。
推進効率2は、蹴り出しの力が効率よく推進力になっているかを踏込時の加速度の角度を用いて表す運動指標である。上下方向の推進効率2は、踏込時の上下方向加速度と進行方向加速度を用いて、ξ=arctan(踏込時の上下方向加速度/踏込時の進行方向加速度)とすると、上下方向の推進効率2=cosξ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度ξ’を算出し、上下方向の推進効率2={1−|(ξ’−ξ)/ξ’|}×100(%)で計算することもできる。同様に、踏込時の左右方向加速度と進行方向加速度を用いて、η=arctan(踏込時の左右方向加速度/踏込時の進行方向加速度)とすると、左右方向の推進効率2=cosη×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度η’を算出し、左右方向の推進効率2={1−|(η’−η)/η’|}×100(%)で計算する
こともできる。
なお、これ以外にも、ξをarctan(踏込時の上下方向の速度/踏込時の進行方向の速度)に置き換えて上下方向の推進効率2を算出することもできる。同様に、ηをarctan(踏込時の左右方向の速度/踏込時の進行方向の速度)に置き換えて左右方向の推進効率2を算出することもできる。
[推進効率3]
推進効率3は、蹴り出しの力が効率よく推進力になっているかを飛び出しの角度を用いて表す運動指標である。1歩における上下方向の最高到達点(上下方向距離の振幅の1/2)をH、蹴り出しから着地までの進行方向距離をXとすると、推進効率3は、式(6)で計算できる。
推進効率3は、蹴り出しの力が効率よく推進力になっているかを飛び出しの角度を用いて表す運動指標である。1歩における上下方向の最高到達点(上下方向距離の振幅の1/2)をH、蹴り出しから着地までの進行方向距離をXとすると、推進効率3は、式(6)で計算できる。
[推進効率4]
推進効率4は、蹴り出しの力が効率よく推進力になっているかを、1歩の中で発生した全エネルギーに対する進行方向に進むために使われたエネルギーの比率で表す運動指標である。推進効率4=(進行方向に進むために使用したエネルギー/1歩に使用したエネルギー)×100(%)で計算される。このエネルギーは、位置エネルギーと運動エネルギーの和である。
推進効率4は、蹴り出しの力が効率よく推進力になっているかを、1歩の中で発生した全エネルギーに対する進行方向に進むために使われたエネルギーの比率で表す運動指標である。推進効率4=(進行方向に進むために使用したエネルギー/1歩に使用したエネルギー)×100(%)で計算される。このエネルギーは、位置エネルギーと運動エネルギーの和である。
[エネルギー消費量]
エネルギー消費量は、1歩進むのに消費するエネルギー量として定義される運動指標であり、1歩進むのに消費するエネルギー量を走行期間積算したものも表す。エネルギー消費量=(上下方向のエネルギー消費量+進行方向のエネルギー消費量+左右方向のエネルギー消費量)で計算される。ここで、上下方向のエネルギー消費量=(体重×重力×上下方向距離)で計算される。また、進行方向のエネルギー消費量=[体重×{(蹴り出し後の進行方向最高速度)2−(着地後の進行方向最低速度)2}/2]で計算される。また、左右方向のエネルギー消費量=[体重×{(蹴り出し後の左右方向最高速度)2−(着地後の左右方向最低速度)2}/2]で計算される。
エネルギー消費量は、1歩進むのに消費するエネルギー量として定義される運動指標であり、1歩進むのに消費するエネルギー量を走行期間積算したものも表す。エネルギー消費量=(上下方向のエネルギー消費量+進行方向のエネルギー消費量+左右方向のエネルギー消費量)で計算される。ここで、上下方向のエネルギー消費量=(体重×重力×上下方向距離)で計算される。また、進行方向のエネルギー消費量=[体重×{(蹴り出し後の進行方向最高速度)2−(着地後の進行方向最低速度)2}/2]で計算される。また、左右方向のエネルギー消費量=[体重×{(蹴り出し後の左右方向最高速度)2−(着地後の左右方向最低速度)2}/2]で計算される。
[着地衝撃]
着地衝撃は、着地によりどれくらいの衝撃が体にかかっているかを表す運動指標である。着地衝撃=(上下方向の衝撃力+進行方向の衝撃力+左右方向の衝撃力)で計算される。ここで、上下方向の衝撃力=(体重×着地時の上下方向速度/衝撃時間)で計算される。また、進行方向の衝撃力={体重×(着地前の進行方向速度−着地後の進行方向最低速度)/衝撃時間}で計算される。また、左右方向の衝撃力={体重×(着地前の左右方向速度−着地後の左右方向最低速度)/衝撃時間}で計算される。
着地衝撃は、着地によりどれくらいの衝撃が体にかかっているかを表す運動指標である。着地衝撃=(上下方向の衝撃力+進行方向の衝撃力+左右方向の衝撃力)で計算される。ここで、上下方向の衝撃力=(体重×着地時の上下方向速度/衝撃時間)で計算される。また、進行方向の衝撃力={体重×(着地前の進行方向速度−着地後の進行方向最低速度)/衝撃時間}で計算される。また、左右方向の衝撃力={体重×(着地前の左右方向速度−着地後の左右方向最低速度)/衝撃時間}で計算される。
[ランニング能力]
ランニング能力は、ユーザーのランニングの力を表す運動指標である。例えば、ストライドと接地時間との比と、ランニングの記録(タイム)との間には相関関係があることが知られている(「100m走レース中の接地時間、離地時間について」、Journal of Research and Development for Future Athletics.3(1):1-4,2004.)。ランニング能力=(ストライド/接地時間)で計算される。
ランニング能力は、ユーザーのランニングの力を表す運動指標である。例えば、ストライドと接地時間との比と、ランニングの記録(タイム)との間には相関関係があることが知られている(「100m走レース中の接地時間、離地時間について」、Journal of Research and Development for Future Athletics.3(1):1-4,2004.)。ランニング能力=(ストライド/接地時間)で計算される。
[前傾角]
前傾角は、ユーザーの胴体が地面に対してどの程度傾いているかを表す運動指標である。ユーザーが地面に対して垂直に立っている状態の時の前傾角を0度とし、前かがみの時の前傾角は正の値であり、のけぞっている場合の前傾角は負の値である。前傾角は、mフレームのピッチ角を上記の様な仕様となるように変換することで得られる。運動解析装置2(慣性計測ユニット10)をユーザーに装着した時に、既に傾きがある可能性があるので、静止時を0度と仮定し、そこからの変化量で前傾角を計算してもよい。
前傾角は、ユーザーの胴体が地面に対してどの程度傾いているかを表す運動指標である。ユーザーが地面に対して垂直に立っている状態の時の前傾角を0度とし、前かがみの時の前傾角は正の値であり、のけぞっている場合の前傾角は負の値である。前傾角は、mフレームのピッチ角を上記の様な仕様となるように変換することで得られる。運動解析装置2(慣性計測ユニット10)をユーザーに装着した時に、既に傾きがある可能性があるので、静止時を0度と仮定し、そこからの変化量で前傾角を計算してもよい。
[タイミング一致度]
タイミング一致度は、ユーザーの特徴点のタイミングが良いタイミングにどれだけ近いかを表す運動指標である。例えば、腰回転のタイミングが蹴り出しのタイミングにどれだけ近いかを表す運動指標が考えられる。脚が流れている走り方では、片脚を着いた時に逆脚はまだ身体の後ろに残っているので、蹴り出し後に腰の回転タイミングが来る場合は脚が流れている走り方と判断できる。腰の回転タイミングが蹴り出しのタイミングとほぼ一致しており、良い走り方と言える。一方、腰の回転タイミングが蹴り出しのタイミングよりも遅れており、脚が流れている走り方と言える。
タイミング一致度は、ユーザーの特徴点のタイミングが良いタイミングにどれだけ近いかを表す運動指標である。例えば、腰回転のタイミングが蹴り出しのタイミングにどれだけ近いかを表す運動指標が考えられる。脚が流れている走り方では、片脚を着いた時に逆脚はまだ身体の後ろに残っているので、蹴り出し後に腰の回転タイミングが来る場合は脚が流れている走り方と判断できる。腰の回転タイミングが蹴り出しのタイミングとほぼ一致しており、良い走り方と言える。一方、腰の回転タイミングが蹴り出しのタイミングよりも遅れており、脚が流れている走り方と言える。
3−7.第2解析情報
以下に、第2解析情報生成部276により算出される第2解析情報354の各項目の詳細について説明する。
以下に、第2解析情報生成部276により算出される第2解析情報354の各項目の詳細について説明する。
[エネルギー損失]
エネルギー損失は、1歩進むのに消費するエネルギー量の中で無駄に使われたエネルギー量を表す運動指標であり、1歩進むのに消費するエネルギー量の中で無駄に使われたエネルギー量を走行期間積算したものも表す。エネルギー損失={エネルギー消費量×(100−真下着地率)×(100−推進効率)}で計算される。ここで、真下着地率は真下着地率1〜3のいずれかであり、推進効率は推進効率1〜4のいずれかである。
エネルギー損失は、1歩進むのに消費するエネルギー量の中で無駄に使われたエネルギー量を表す運動指標であり、1歩進むのに消費するエネルギー量の中で無駄に使われたエネルギー量を走行期間積算したものも表す。エネルギー損失={エネルギー消費量×(100−真下着地率)×(100−推進効率)}で計算される。ここで、真下着地率は真下着地率1〜3のいずれかであり、推進効率は推進効率1〜4のいずれかである。
[エネルギー効率]
エネルギー効率は、1歩進むのに消費したエネルギーが進行方向へ進むエネルギーに効率よく使われているかを表す運動指標であり、それを走行期間積算したものも表す。エネルギー効率={(エネルギー消費量−エネルギー損失)/エネルギー消費量}で計算される。
エネルギー効率は、1歩進むのに消費したエネルギーが進行方向へ進むエネルギーに効率よく使われているかを表す運動指標であり、それを走行期間積算したものも表す。エネルギー効率={(エネルギー消費量−エネルギー損失)/エネルギー消費量}で計算される。
[体への負担]
体への負担は、着地衝撃を累積し、体にどれくらいの衝撃がたまっているかを表す運動指標である。怪我は衝撃の蓄積により起こるので、体への負担を評価することにより、怪我のしやすさも判断できる。体への負担=(右脚の負担+左脚の負担)で計算される。右脚の負担は、右脚の着地衝撃を積算することで計算できる。左脚の負担は、左脚の着地衝撃を積算することで計算できる。ここで、積算は走行中の積算と過去からの積算の両方を行う。
体への負担は、着地衝撃を累積し、体にどれくらいの衝撃がたまっているかを表す運動指標である。怪我は衝撃の蓄積により起こるので、体への負担を評価することにより、怪我のしやすさも判断できる。体への負担=(右脚の負担+左脚の負担)で計算される。右脚の負担は、右脚の着地衝撃を積算することで計算できる。左脚の負担は、左脚の着地衝撃を積算することで計算できる。ここで、積算は走行中の積算と過去からの積算の両方を行う。
3−8.左右差率(左右バランス)
左右差率355は、走行ピッチ、ストライド、接地時間、衝撃時間、第1解析情報353の各項目及び第2解析情報354の各項目について、体の左右でどれくらい差がみられるかを表す運動指標であり、左脚が右脚に対してどれくらい違うかを表すものとする。左右差率355=(左脚の数値/右脚の数値×100)(%)で計算され、数値は、走行ピッチ、ストライド、接地時間、衝撃時間、ブレーキ量、推進力、真下着地率、推進効率、速度、加速度、移動距離、前傾角、腰の回転角、腰の回転角速度、左右への傾き量、衝撃時間、ランニング能力、エネルギー消費量、エネルギー損失、エネルギー効率、着地衝撃、体への負担の各数値である。また、左右差率355は、各数値の平均値や分散も含む。
左右差率355は、走行ピッチ、ストライド、接地時間、衝撃時間、第1解析情報353の各項目及び第2解析情報354の各項目について、体の左右でどれくらい差がみられるかを表す運動指標であり、左脚が右脚に対してどれくらい違うかを表すものとする。左右差率355=(左脚の数値/右脚の数値×100)(%)で計算され、数値は、走行ピッチ、ストライド、接地時間、衝撃時間、ブレーキ量、推進力、真下着地率、推進効率、速度、加速度、移動距離、前傾角、腰の回転角、腰の回転角速度、左右への傾き量、衝撃時間、ランニング能力、エネルギー消費量、エネルギー損失、エネルギー効率、着地衝撃、体への負担の各数値である。また、左右差率355は、各数値の平均値や分散も含む。
3−9.処理の手順
図13は、本実施形態に係るユーザーの走行中における運動解析装置2の処理部20が行う運動解析処理の手順の一例(運動解析方法の一例)を示すフローチャート図である。処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、図13のフローチャートの手順で運動解析処理を実行する。
図13は、本実施形態に係るユーザーの走行中における運動解析装置2の処理部20が行う運動解析処理の手順の一例(運動解析方法の一例)を示すフローチャート図である。処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、図13のフローチャートの手順で運動解析処理を実行する。
図13に示すように、処理部20は、計測開始のコマンドを受信するまで待機し(S10のN)、計測開始のコマンドを受信した場合(S10のY)、まず、ユーザーが静止しているものとして、慣性計測ユニット10が計測したセンシングデータ、及び、GPSデータを用いて、初期姿勢、初期位置、初期バイアスを計算する(S20)。
次に、処理部20は、慣性計測ユニット10からセンシングデータを取得し、取得したセンシングデータをセンシングデータテーブル310に付加する(S30)。
次に、処理部20は、慣性航法演算処理を行い、各種の情報を含む演算データを生成する(S40)。この慣性航法演算処理の手順の一例は後述する。
次に、処理部20は、ユーザーの運動時における運動解析情報を生成する運動情報生成工程において、S40で生成した演算データを用いて運動解析情報生成処理を行って運動解析情報を生成する(S50)。この運動解析情報生成処理の手順の一例は後述する。
次に、処理部20は、S50で生成した運動解析情報を用いて走行中出力情報を生成して、出力部70及び報知装置3に送信する(S60)。
出力部70では、運動解析情報を所定の知覚情報に変換し出力する出力工程において、送信された運動解析情報(走行中出力情報)を所定の知覚情報に変換し出力する(S65)。
そして、処理部20は、計測終了のコマンドを受信するまで(S70のN及びS80のN)、前回センシングデータを取得してからサンプリング周期Δtが経過する毎に(S70のY)、S30以降の処理を繰り返す。
処理部20は、走行分析開始コマンドを受信すると(S80のY)、S50で生成した運動解析情報を用いて走行結果情報を生成して報知装置3に送信し(S90)、運動解析処理を終了する。
図14は、慣性航法演算処理(図13のS40の処理)の手順の一例を示すフローチャート図である。処理部20(慣性航法演算部22)は、記憶部30に記憶されている慣性航法演算プログラム302を実行することにより、図14のフローチャートの手順で慣性航法演算処理を実行する。
図14に示すように、まず、処理部20は、図13のS20で算出した初期バイアスを用いて(後述のS150で加速度バイアスba及び角速度バイアスbωを推定した後は、加速度バイアスba及び角速度バイアスbωを用いて)、図13のS30で取得したセンシングデータに含まれる加速度と角速度からバイアスを除去して補正し、補正した加速度と角速度によりセンシングデータテーブル310を更新する(S100)。
次に、処理部20は、S100で補正したセンシングデータを積分して速度、位置及び姿勢角を計算し、計算した速度、位置及び姿勢角を含む算出データを算出データテーブル340に付加する(S110)。
次に、処理部20は、走行検出処理を行う(S120)。この走行検出処理の手順の一例は後述する。
次に、処理部20は、走行検出処理(S120)により走行周期を検出した場合(S130のY)、走行ピッチ及びストライドを計算する(S140)。また、処理部20は、走行周期を検出しなかった場合は(S130のN)、S140の処理を行わない。
次に、処理部20は、誤差推定処理を行い、速度誤差δve、姿勢角誤差εe、加速度バイアスba、角速度バイアスbω、及び位置誤差δpeを推定する(S150)。
次に、処理部20は、S150で推定した速度誤差δve、姿勢角誤差εe、及び位置誤差δpeを用いて、速度、位置、及び姿勢角をそれぞれ補正し、補正した速度、位置、及び姿勢角により算出データテーブル340を更新する(S160)。また、処理部20は、S160で補正した速度を積分し、eフレームの距離を計算する(S170)。
次に、処理部20は、センシングデータテーブル310に記憶されているセンシングデータ(bフレームの加速度及び角速度)、算出データテーブル340に記憶されている算出データ(eフレームの速度、位置、及び姿勢角)及びS170で算出したeフレームの距離を、それぞれ、mフレームの加速度、角速度、速度、位置、姿勢角、及び距離に座標変換する(S180)。
そして、処理部20は、S180で座標変換した後のmフレームの加速度、角速度、速度、位置、姿勢角、及び距離、S140で算出したストライド及び走行ピッチを含む演算データを生成する(S190)。処理部20は、図13のS30でセンシングデータを取得する毎に、この慣性航法演算処理(S100〜S190の処理)を行う。
図15は、走行検出処理(図14のS120の処理)の手順の一例を示すフローチャート図である。処理部20(走行検出部242)は、図15のフローチャートの手順で走行検出処理を実行する。
図15に示すように、処理部20は、図14のS100で補正した加速度に含まれるz軸加速度をローパスフィルター処理し(S200)、ノイズを除去する。
次に、処理部20は、S200でローパスフィルター処理したz軸加速度が閾値以上かつ極大値の場合(S210のY)、このタイミングで走行周期を検出する(S220)。
そして、処理部20は、S220で検出した走行周期が左右いずれの走行周期かを判定して左右足フラグを設定し(S230)、走行検出処理を終了する。処理部20は、z軸加速度が閾値未満か極大値でなければ(S210のN)、S220以降の処理を行わずに走行検出処理を終了する。
図16は、運動解析情報生成処理(図13のS50の処理)の手順の一例を示すフローチャート図である。処理部20(運動解析部24)は、記憶部30に記憶されている運動解析情報生成プログラム304を実行することにより、図16のフローチャートの手順で運動解析情報生成処理を実行する。
図16に示すように、まず、処理部20は、図13のS40の慣性航法演算処理で生成した演算データを用いて、基本情報352の各項目を算出する(S300)。
次に、処理部20は、演算データを用いて、ユーザーの走行運動における特徴点(着地、踏込、離地等)の検出処理を行う(S310)。
処理部20は、S320の処理で特徴点を検出した場合(S320のY)、特徴点を検出したタイミングに基づき、接地時間及び衝撃時間を算出する(S330)。また、処理部20は、演算データの一部及びS330で生成した接地時間及び衝撃時間を入力情報351として、特徴点を検出したタイミングに基づき、第1解析情報353の一部の項目(算出に特徴点の情報が必要な項目)を算出する(S340)。処理部20は、S310の処理で特徴点を検出しなかった場合は(S320のN)、S330、及びS340の処理を行わない。
次に、処理部20は、入力情報351を用いて、第1解析情報353の他の項目(算出に特徴点の情報が不要な項目)を算出する(S350)。
次に、処理部20は、第1解析情報353を用いて、第2解析情報354の各項目を算出する(S360)。
次に、処理部20は、入力情報351の各項目、第1解析情報353の各項目、及び第2解析情報354の各項目に対して左右差率355を算出する(S370)。
処理部20は、S300〜S370で算出した各情報に現在の計測時刻を付加して記憶部30に記憶し(S380)、運動解析情報生成処理を終了する。
4.効果
本実施形態の運動解析装置2は、慣性計測ユニット(IMU)10の出力を用いて、ユーザーの走行又は歩行時における運動解析情報350を生成する運動解析部24と、生成した周期的に生じる運動解析情報350を音、光、又は振動等の知覚情報に変換し、着地に同期して知覚情報を出力する出力部70と、を備えている。そのため、運動解析情報350が音、光、又は振動等の知覚情報として変換して報知されるので、ユーザーは走行又は歩行中の運動解析情報350を容易に確認することができる。従って、運動解析情報350に伴う運動状態の修正等をユーザーが走行又は歩行中に行うことができる。
本実施形態の運動解析装置2は、慣性計測ユニット(IMU)10の出力を用いて、ユーザーの走行又は歩行時における運動解析情報350を生成する運動解析部24と、生成した周期的に生じる運動解析情報350を音、光、又は振動等の知覚情報に変換し、着地に同期して知覚情報を出力する出力部70と、を備えている。そのため、運動解析情報350が音、光、又は振動等の知覚情報として変換して報知されるので、ユーザーは走行又は歩行中の運動解析情報350を容易に確認することができる。従って、運動解析情報350に伴う運動状態の修正等をユーザーが走行又は歩行中に行うことができる。
また、知覚情報が音、光、又は振動のうち少なくとも1つであるため、視覚に頼らず感覚的に、運動解析情報350を確認することができ、音が擬態音を含むことにより、知覚情報としての音を聞き取り易くなり、運動解析情報350をより正確に確認することができる。
また、運動解析情報350の値に対応した周波数の音、光、又は振動に変換して出力することにより、運動解析情報350の値の違い又は大きさを周波数の違い又は高低として確認することができる。更に、運動解析情報350の値と知覚情報の出力時間間隔や出力の大きさ等とが比例関係又は反比例関係であるため、運動解析情報350の値の違い又は大きさを確認することができる。
また、運動解析情報350は、ユーザーの走行又は歩行における、速度、加速度、ストライド、ピッチ、推進効率、着地時ブレーキ量、又は接地時間に関する情報を含むので、ユーザーの詳細な運動解析情報350を確認することができる。
また、運動解析情報350を、ユーザーにおける左足、右足で異なる知覚情報として出力することにより、ユーザーが左足の運動解析情報350か右足の運動解析情報350かを容易に判断し、確認することができる。
また、運動解析情報350を知覚情報に変換し出力するタイミングが、走行又は歩行中のユーザーの左足又は右足の着地時、又は、着地の±100ミリ秒以内であることにより、ユーザーの走行におけるリズム感を正確に維持したまま、運動解析情報350を確認することができる。
本実施形態の運動解析システム1は、運動解析装置2が慣性計測ユニット(IMU)10の出力に基づいて生成された周期的に生じる運動解析情報350を知覚情報に変換し、着地に同期して知覚情報を出力する出力部70を有しているため、運動解析情報350を知覚情報として出力することにより、運動解析情報350が音、光、又は振動等の知覚情報として変換して報知される。そのため、ユーザーは走行又は歩行中の運動解析情報350を容易に確認することができる。従って、運動解析情報350に伴う運動状態の修正等をユーザーが走行又は歩行中に行うことができる。
本実施形態の運動解析方法は、慣性計測ユニット(IMU)10の出力に基づいて生成された周期的に生じる運動解析情報350を知覚情報に変換し、着地に同期して知覚情報を出力する出力工程を有しているため、運動解析情報350を知覚情報として出力することにより、運動解析情報350が音、光、又は振動等の知覚情報として変換して報知される。そのため、ユーザーは走行又は歩行中の運動解析情報350を容易に確認することができる。
1…運動解析システム、2…運動解析装置、3…報知装置、10…慣性計測ユニット(IMU)、12…加速度センサー、14…角速度センサー、16…信号処理部、20…処理部、22…慣性航法演算部、24…運動解析部、30…記憶部、40…通信部、50…GPSユニット、60…地磁気センサー、70…出力部、210…バイアス除去部、220…積分処理部、230…誤差推定部、240…走行処理部、242…走行検出部、244…歩幅算出部、246…ピッチ算出部、250…座標変換部、260…特徴点検出部、262…接地時間・衝撃時間算出部、272…基本情報生成部、274…第1解析情報生成部、276…第2解析情報生成部、278…左右差率算出部、280…出力情報生成部、300…運動解析プログラム、302…慣性航法演算プログラム、304…運動解析情報生成プログラム、310…センシングデータテーブル、320…GPSデータテーブル、330…地磁気データテーブル、340…算出データテーブル、350…運動解析情報、351…入力情報、352…基本情報、353…第1解析情報、354…第2解析情報、355…左右差率。
Claims (11)
- 慣性センサーの出力を用いて、被験者の走行又は歩行時における運動情報を生成する運動情報生成部と、
前記運動情報のうち、周期的に生じた運動情報を所定の知覚情報に変換し、着地時に同期して前記知覚情報を出力する出力部と、を備えることを特徴とする運動解析装置。 - 前記知覚情報は音、光、又は振動のうち少なくとも1つであることを特徴とする請求項1に記載の運動解析装置。
- 前記運動情報は、前記被験者の運動における、速度又は加速度に関する情報を含むことを特徴とする請求項1又は請求項2に記載の運動解析装置。
- 前記速度又は前記加速度に対応した周波数の音、光、又は振動に変換して出力することを特徴とする請求項3に記載の運動解析装置。
- 前記運動情報は、前記被験者の走行における、ストライド、ピッチ、推進効率、着地時ブレーキ量、又は接地時間に関する情報を含むことを特徴とする請求項1乃至請求項4のいずれか一項に記載の運動解析装置。
- 前記知覚情報を着地時に出力することを特徴とする請求項1乃至請求項5のいずれか一項に記載の運動解析装置。
- 前記知覚情報を着地の±100ミリ秒以内に出力することを特徴とする請求項6に記載の運動解析装置。
- 前記音は擬態音を含むことを特徴とする請求項2に記載の運動解析装置。
- 前記運動情報を、前記被験者における左足、右足で異なる知覚情報として出力することを特徴とする請求項1乃至請求項8のいずれか一項に記載の運動解析装置。
- 慣性センサーの出力を用いて、被験者の走行又は歩行時における運動情報を生成する運動情報生成部と、前記運動情報のうち、周期的に生じた運動情報を所定の知覚情報に変換し、着地時に同期して前記知覚情報を出力する出力部と、を備える運動解析装置と、
前記運動情報を報知する報知装置と、を備えることを特徴とする運動解析システム。 - 慣性センサーの出力を用いて、被験者の走行又は歩行時における運動情報を生成する運動情報生成工程と、
前記運動情報のうち、周期的に生じた運動情報を所定の知覚情報に変換し、着地時に同期して前記知覚情報を出力する出力工程と、を含むことを特徴とする運動解析方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208385A JP2018068396A (ja) | 2016-10-25 | 2016-10-25 | 運動解析装置、運動解析システム、及び運動解析方法 |
US15/729,134 US20180111021A1 (en) | 2016-10-25 | 2017-10-10 | Exercise analysis device, exercise analysis system, and exercise analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208385A JP2018068396A (ja) | 2016-10-25 | 2016-10-25 | 運動解析装置、運動解析システム、及び運動解析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018068396A true JP2018068396A (ja) | 2018-05-10 |
Family
ID=61971680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016208385A Pending JP2018068396A (ja) | 2016-10-25 | 2016-10-25 | 運動解析装置、運動解析システム、及び運動解析方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180111021A1 (ja) |
JP (1) | JP2018068396A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020202543A1 (ja) * | 2019-04-05 | 2021-12-16 | 日本電気株式会社 | 歩行周期判定システム、歩行周期判定方法、およびプログラム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3787502A4 (en) * | 2018-05-04 | 2022-03-30 | Baylor College of Medicine | DETECTION OF FRAGILITY AND FOOT RISK BY SCREENING LOWER LIMBS MOTOR PERFORMANCE |
CN109737984A (zh) * | 2018-12-24 | 2019-05-10 | 福建联迪商用设备有限公司 | 一种精度高的计步方法及终端 |
CN111024065B (zh) * | 2019-12-02 | 2022-04-01 | 东南大学 | 一种用于最优估计精对准的严格逆向导航方法 |
KR102685625B1 (ko) * | 2019-12-19 | 2024-07-17 | 삼성전자주식회사 | 사용자의 운동 거리를 보정하는 전자 장치 및 사용자의 운동 거리를 보정하는 방법 |
CN113687590B (zh) * | 2021-08-10 | 2023-03-10 | 青岛小鸟看看科技有限公司 | Vr系统中头戴与手柄的时间同步方法、系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6611789B1 (en) * | 1997-10-02 | 2003-08-26 | Personal Electric Devices, Inc. | Monitoring activity of a user in locomotion on foot |
NL1014658C2 (nl) * | 2000-03-16 | 2001-09-19 | Xsens Sports Technologies B V | Snelheidsmeter. |
AU2002255568B8 (en) * | 2001-02-20 | 2014-01-09 | Adidas Ag | Modular personal network systems and methods |
US8460001B1 (en) * | 2011-04-14 | 2013-06-11 | Thomas C. Chuang | Athletic performance monitoring with overstride detection |
JP5811360B2 (ja) * | 2012-12-27 | 2015-11-11 | カシオ計算機株式会社 | 運動情報表示システムおよび運動情報表示方法、運動情報表示プログラム |
-
2016
- 2016-10-25 JP JP2016208385A patent/JP2018068396A/ja active Pending
-
2017
- 2017-10-10 US US15/729,134 patent/US20180111021A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020202543A1 (ja) * | 2019-04-05 | 2021-12-16 | 日本電気株式会社 | 歩行周期判定システム、歩行周期判定方法、およびプログラム |
JP7120449B2 (ja) | 2019-04-05 | 2022-08-17 | 日本電気株式会社 | 歩行周期判定システム、歩行周期判定方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180111021A1 (en) | 2018-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018068396A (ja) | 運動解析装置、運動解析システム、及び運動解析方法 | |
JP7342864B2 (ja) | 測位プログラム、測位方法、及び測位装置 | |
US10740599B2 (en) | Notification device, exercise analysis system, notification method, notification program, exercise support method, and exercise support device | |
WO2015146046A1 (ja) | 相関係数補正方法、運動解析方法、相関係数補正装置及びプログラム | |
JP6596945B2 (ja) | 運動解析方法、運動解析装置、運動解析システム及び運動解析プログラム | |
US11134865B2 (en) | Motion analysis system, motion analysis apparatus, motion analysis program, and motion analysis method | |
JP2016032611A (ja) | 運動解析装置、運動解析システム、運動解析方法及び運動解析プログラム | |
US10504381B2 (en) | On-running landing position evaluation method, on-running landing position evaluation apparatus, detection method, detection apparatus, running motion evaluation method, and running motion evaluation apparatus | |
JP2016034482A (ja) | 運動解析装置、運動解析方法、運動解析プログラム及び運動解析システム | |
JP2016032610A (ja) | 運動解析システム、運動解析装置、運動解析プログラム及び運動解析方法 | |
JP6733128B2 (ja) | 運動支援装置、運動支援方法及びプログラム | |
US10288746B2 (en) | Error estimation method, motion analysis method, error estimation apparatus, and program | |
US20180180441A1 (en) | Reference value generation method, exercise analysis method, reference value generation apparatus, and program | |
JP2019198532A (ja) | 検知方法、検知装置及び検知システム | |
JP7243852B2 (ja) | 足角計算装置、歩容計測システム、歩容計測方法、およびプログラム | |
JP2015190850A (ja) | 誤差推定方法、運動解析方法、誤差推定装置及びプログラム | |
JP2017059089A (ja) | 歩数計測装置、歩数計測方法、およびプログラム | |
JP5691387B2 (ja) | 歩行計測装置、歩行計測方法およびプログラム | |
JP2015188605A (ja) | 誤差推定方法、運動解析方法、誤差推定装置及びプログラム | |
JP2018143537A (ja) | 運動解析装置、運動解析システム、運動解析方法及び運動解析プログラム | |
US10794723B2 (en) | Walking measurement device, walking measurement method, and program | |
JP2015184158A (ja) | 誤差推定方法、運動解析方法、誤差推定装置及びプログラム | |
US20200107750A1 (en) | Method and system for assessing human movements | |
US20230371849A1 (en) | Gait information generation device, gait information generation method, and recording medium | |
US20240122501A1 (en) | Walking index calculation device, walking index calculation system, walking index calculation method, and program recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |