Nothing Special   »   [go: up one dir, main page]

JP2016076202A - 移動端末機 - Google Patents

移動端末機 Download PDF

Info

Publication number
JP2016076202A
JP2016076202A JP2015098995A JP2015098995A JP2016076202A JP 2016076202 A JP2016076202 A JP 2016076202A JP 2015098995 A JP2015098995 A JP 2015098995A JP 2015098995 A JP2015098995 A JP 2015098995A JP 2016076202 A JP2016076202 A JP 2016076202A
Authority
JP
Japan
Prior art keywords
wearable device
mobile terminal
screen
camera module
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015098995A
Other languages
English (en)
Other versions
JP6130432B2 (ja
Inventor
サンギル パク
Sanggil Park
サンギル パク
ソンウ チェ
Seongwoo Choi
ソンウ チェ
スンテク オ
Sungtaek Oh
スンテク オ
ヒョクス チャン
Hyuksoo Chang
ヒョクス チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140135131A external-priority patent/KR101663375B1/ko
Priority claimed from KR1020140136562A external-priority patent/KR101609950B1/ko
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2016076202A publication Critical patent/JP2016076202A/ja
Application granted granted Critical
Publication of JP6130432B2 publication Critical patent/JP6130432B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/04Supports for telephone transmitters or receivers
    • H04M1/05Supports for telephone transmitters or receivers specially adapted for use on head, throat or breast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6058Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone
    • H04M1/6066Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone including a wireless connection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72442User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for playing music files
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/20Details of telephonic subscriber devices including a rotatable camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N2007/145Handheld terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Headphones And Earphones (AREA)
  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】ウェアラブル装置のカメラ機能を利用してユーザの便宜性を増進する移動端末機を提供する。【解決手段】移動端末機100はウェアラブル装置200と制御部を含む。制御部は、情報をディスプレーし、タッチ入力を受信可能なタッチスクリーン及びアイコンに対するタッチが入力されると、タッチスクリーン上に第1制御領域と第2制御領域を同時に表示するように制御する。タッチスクリーンは、ウェアラブル装置を制御する制御画面を表示するようにするアイコンを有する。制御画面は第1及び第2領域を含み、第1制御領域は音響を制御し、第2制御領域はカメラモジュール280、290を制御する。【選択図】図1

Description

本発明はユーザの便宜が寄り考慮されて端末機の使用が具現される移動端末機に関するものである。
端末機は移動可能可否に応じて移動端末機(mobile/portable terminal device)及び固定端末機(stationary terminal device)に分けられる。移動端末機は、使用者の直接形態可能可否によって形態(型)端末機(hand−held terminal device)及び据置型端末機(floor−typed terminal device)に更に分けられる。
移動端末機の機能は多様化している。例えば、データと音声通信、カメラを介した写真イメージ及びビデオ撮影、音声録音、スピーカシステムを介した音楽ファイル再生、そしてディスプレー部(画面)にイメージやビデオを出力する機能がある。一部の端末機には電子ゲームプレー機能が追加されるか、マルチメディアプレーヤー機能を行う。特に、最近の移動端末機は放送プログラムとビデオのような視覚的コンテンツを提供するマルチキャスト信号を受信する。
このような端末機(terminal)は、機能が多様化されることによって、例えば写真イメージや動画の撮影、音楽又は動画ファイルの再生、ゲームの実行、放送の受信など複合的な機能を備えたマルチメディア機器(multimedia player)の形態に具現されている。
このような端末機の機能支援及び増大のために、端末機の構造的な部分及び/又はソフトウェア的な部分を改良することが考慮される。
端末機の一種として無線音響装置がある。
無線音響装置はユーザの首に着用され、移動端末機と連動されて多様な機能を具現する。無線音響装置はユーザの首に着用され、ユーザが別途に手に持つ必要がなく軽いためウェアラブルディバイスとして注目を浴びている。
無線音響装置は多様な機能付加が試みられており、なお無線音響装置に最適した構成及び/又はユーザ環境(UX:user experience)に対する研究が活発に行われている。
本発明は上述した問題及び他の問題を解決することを目的とする。
本発明の他の目的は、ウェアラブル装置のカメラ機能を利用してユーザの便宜性を増進する移動端末機を提供することである。
本発明のまた他の目的は、ユーザが音楽やラジオ放送を聞きながらもウェアラブル装置から提供された前方映像及び/又は後方映像がディスプレーされる移動端末機の外面を介して周辺の動きや危険をリアルタイムで確認し対処することができるため、ユーザの安全を確保することができる。
本発明の更に他の目的は、ウェアラブル装置から提供された前方映像及び/又は後方映像がリアルタイプで録画されてユーザがいつでも前記録画された映像から特定時間帯に当たる映像を見ることができるため、車両の接触事故や犯罪現場に関する重要な証拠資料を提供することができる。
本発明の更に他の目的は、ウェアラブル装置から提供された前方映像及び/又は後方映像とユーザの現在に位置情報を利用してユーザの望みの商店名やユーザが行こうとする場所を用意に探すことができる。
本発明の更に他の目的は、ウェアラブル装置から提供された前方映像及び/又は後方映像に基づいてユーザに移動した経路を案内し訪問地で撮影された写真イメージを提供することができるため、ユーザに旅行の思い出を提供することができる。
移動端末機は第1無線通信装置、音響出力部及び少なくとも一つ以上のカメラを具備したウェアラブル装置、前記ウェアラブル装置と無線通信を行う第2無線通信装置、情報をディスプレーしタッチ入力を受信可能なタッチスクリーン及びアイコンに対するタッチが入力されると前記タッチスクリーンの上に第1制御領域と第2制御領域を同時に表示する制御部を含む。前記タッチスクリーンは前記ウェアラブル装置を制御する制御画面を表示するようにする前記アイコンを有し、前記制御画面は音響を制御する前記第1制御領域と前記カメラを制御する前記第2制御領域を含む。
移動端末機は第1無線通信装置、音響出力部及び少なくとも一つ以上のカメラを具備したウェアラブル装置、前記ウェアラブル装置と無線通信を行う第2無線通信装置、情報をディスプレーしタッチ入力を受信可能なタッチスクリーン及びアイコンに対する選択が入力されると前記タッチスクリーンの上に音響制御画面と制御ボタンを同時に表示するように制御する制御部を含む。前記タッチスクリーンは前記ウェアラブル装置を制御する制御画面を表示するようにする前記アイコンを有し、前記制御画面は音響を制御する前記音響制御画面と前記少なくとも一つ以上のカメラを制御するための前記制御ボタンを含む。
本発明の第1実施例によるウェアラブル装置を含む音響システムを示すシステム図である。 本発明の実施例によるウェアラブル装置と無線通信する移動端末機の制御構成を示すブロック図である。 本発明の実施例によるウェアラブル装置の制御構成を示すブロック図である。 本発明の第1実施例によるウェアラブル装置の分解斜視図である。 本発明の実施例によるウェアラブル装置に具備される後方カメラモジュールの駆動メカニズムを示す分解斜視図である。 本発明の第2実施例によるウェアラブル装置の斜視図である。 本発明の第3実施例によるウェアラブル装置の斜視図である。 本発明の第3実施例によるウェアラブル装置に具備される前方カメラモジュールが前方にティルティングされた状態を示す拡大斜視図である。 本発明の第3実施例によるウェアラブル装置に具備される前方カメラモジュールのティルティングメカニズムを示す分解斜視図である。 図8のI−Iに沿って切開される縦断面図であって、前方カメラモジュールのティルティング前の状態を示す断面図である。 図8のI−Iに沿って切開される縦断面図であって、前方カメラモジュールがティルティングされた状態を示す断面図である。 移動端末機のディスプレー部を示す図である。 前記第2撮影アプリケーションをタッチした際に表示される画面の状態を示す図である。 前方カメラアイコンが選択された際のディスプレー部を示す図である。 本発明の第4実施例によるウェアラブル装置の斜視図である。 本発明の第5実施例によるウェアラブル装置の正面斜視図である。 本発明の第5実施例によるウェアラブル装置の背面斜視図である。 図15のウェアラブル装置に装着される前方カメラモジュールの斜視図である。 本発明の第6実施例によるウェアラブル装置の前面斜視図である。 本発明の第6実施例によるウェアラブル装置の背面斜視図である。 本発明の第7実施例によるウェアラブル装置の斜視図である。 本発明の第7実施例によるウェアラブル装置の斜視図である。 本発明の実施例によるポップアップ可能な前方カメラモジュールの分解斜視図である。 前記ポップアップ可能な前方カメラモジュールが安着されるボディ部の部分平面図である。 図19のII−IIに沿って切開される断面図である。 図20のIII −III に沿って切開される断面図である。 本発明の第8実施例によるウェアラブル装置の前面斜視図である。 本発明の第8実施例によるウェアラブル装置の背面斜視図である。 本発明の第8実施例によるウェアラブル装置の着用状態を示す図である。 本発明の第9実施例によるウェアラブル装置のボディ部を示す斜視図である。 本発明の第9実施例によるウェアラブル装置のボディ部を示す斜視図である。 本発明の第10実施例によるウェアラブル装置の斜視図である。 本発明の第11実施例によるウェアラブル装置の斜視図である。 本発明の第11実施例によるウェアラブル装置の分解斜視図である。 本発明の第12実施例によるウェアラブル装置の斜視図である。 本発明の第12実施例による後方カメラモジュールの動作様子を示す図である。 本発明の第12実施例による後方カメラモジュールの動作様子を示す図である。 本発明に関する移動端末機とウェアラブル装置の使用様態を示す図である。 本発明の第13実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する順序図である。 本発明の第13実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する画面例示図である。 図36cに示したカメラ制御画面の上にディスプレーされる「両方」ボタンが選択される際にディスプレーされるプレビュー画面を示す第1画面例示図である。 後方カメラモジュールの後方カメラの現在の視野角を示す図である。 後方カメラモジュールの後方カメラが調節されて視野角が可変する様子を示す図である。 図36cに示したカメラ制御画面の上にディスプレーされる「両方」ボタンが選択される際にディスプレーされるプレビュー画面を示す第2画面例示図である。 図36cに示したカメラ制御画面の上にディスプレーされる「両方」ボタンが選択される際にディスプレーされるプレビュー画面を示す第3画面例示図である。 図36cに示したカメラ制御画面の上にディスプレーされる「両方」ボタンが選択される際にディスプレーされるプレビュー画面を示す第4画面例示図である。 図36cに示したカメラ制御画面の上にディスプレーされる「両方」ボタンが選択される際にディスプレーされるプレビュー画面を示す第5画面例示図である。 本発明の第14実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する順序図である。 本発明の第14実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する画面例示図である。 本発明の第15実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する順序図である。 本発明の第15実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する画面例示図である。 本発明の第16実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する順序図である。 本発明の第16実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する画面例示図である。 ウェアラブル装置のタッチ回数に応じて前方カメラモジュールと後方カメラモジュールを選択的に活性化する方法を示す画面例示図である。 ウェアラブル装置との距離に応じて前方カメラモジュールと後方カメラモジュールを選択的に活性化する方法を示す画面例示図である。 本発明によるウェアラブル装置における特定情況で自動的に撮影する方法を説明する順序図である。 本発明によるウェアラブル装置における特定情況で自動的に撮影する方法を説明する第1画面例示図である。 本発明によるウェアラブル装置における特定情況で自動的に撮影する方法を説明する第2画面例示図である。 本発明によるウェアラブル装置における特定情況で自動的に撮影する方法を説明する順序図である。 本発明によるウェアラブル装置におけるカメラモジュールが揺れるときに写真イメージを撮影する方法を説明する順序図である。 本発明によるウェアラブル装置におけるカメラモジュールが揺れるときに写真イメージを撮影する方法を説明する画面例示図である。 多数のフレーム映像で構成される動画を示す図である。 本発明によるウェアラブル装置を利用して前方映像及び後方映像を録画する方法を説明する順序図である。 本発明によるウェアラブル装置によって録画された映像を移動端末機にディスプレーする方法を説明する画面例示図である。 図60に示した前方映像再生領域と後方映像再生領域が互いにスイッチングされる方法を説明する例示図である。 図60に示した前方映像再生領域を可変する方法を説明する第1画面例示図である。 図60に示した前方映像再生領域を可変する方法を説明する第2画面例示図である。 本発明によるウェアラブル装置を利用してユーザが特定場所で建物を用意に探す方法を説明する順序図である。 場所及び名前を含む目的地を登録する方法を説明する画面例示図である。 本発明のウェアラブル装置で撮影されたを写真イメージリストを移動端末機の上にロードビューマップでディスプレーする方法を説明する順序図である。 ウェアラブル装置から提供された写真イメージを移動端末機でディスプレーする方法を説明する画面例示図である。 移動端末機でロードビューマップをディスプレーする方法を説明する画面例示図である。 移動端末機でロードビューマップをディスプレーする方法を説明する画面例示図である。 移動端末機でロードビューマップをディスプレーする方法を説明する他の画面例示図である。 本発明に関するウェアラブル装置とグラスディバイスを含むシステムを示す概略図である。 ウェアラブル装置に前方カメラモジュール及び後方カメラモジュールだけでなく左側カメラモジュール及び右側カメラモジュールが追加に装着された様子を示す図である。 音楽制御画面とプレビュー画面の選択的なディスプレー方法を説明する画面例示図である。 ウェアラブル装置の代わりに移動端末機で写真を撮影する方法を示す順序図である。 移動端末機によってウェアラブル装置の前方カメラモジュールが塞がれる様子を示す画面例示図である。
以下、本発明の実施例によるウェアラブル装置について図面を参照して詳細に説明する。
以下、添付した図面を参照して本明細書に開示された実施例を詳細に説明するが、図面符号に関係なく同じであるか類似した構成要素は同じ参照番号を付与し、それに対する重複する説明は省略する。以下の説明で使用される構成要素の末尾に記載される用語である「モジュール」及び「部」は明細書を容易に作成するためにのみ付与されるか混用されるものであり、それ自体で互いに区別される意味又は役割を有するものではない。また、本発明で開示された実施例を説明するに当たって、関連する公知機能に関する具体的な説明が本発明に開示された実施例のの要旨を不明確にする恐れがあると判断される場合、その詳細な説明を省略する。また、添付した図面は本明細書に開示された実施例を容易に理解するためのものであり、添付した図面によって本明細書に開示された技術的思想が制限されることはなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物乃至代替物を含むと理解すべきである。
図1は、本発明の第1実施例によるウェアラブル装置を含む音響システムを示すシステム図である。
図1を参照すると、本発明の第1実施例による無前音響システムは、ウェアラブル装置200と、前記ウェアラブル装置200と無線通信が可能な移動端末機100を含む。
ウェアラブル装置200は移動端末機100に含まれる。
詳しくは、前記ウェアラブル装置200は、ユーザが首に着用した状態で前記移動端末機100で再生される音楽又はラジオ放送を無線で受信し聴取することができる音響装置である。そして、前記ウェアラブル装置200には多数のカメラモジュールが装着されることを特徴とする。
前記ウェアラブル装置200に装着されるカメラモジュールは前記ウェアラブル装置200に具備された撮影ボタンをユーザが直接操作して動作することができるだけでなく、前記移動端末機100に具備されたアプリケーション又はプログラムを介して前記カメラモジュールを無線で操作することができる。例えば、前記移動端末機100に設置されたアプリケーションを実行してカメラ焦点の調整又はカメラレンズの方向調整及び撮影命令を入力すると前記命令が前記ウェアラブル装置200に無線で伝送され、伝送される命令に応じて前記カメラモジュールが作動する。
そして、前記ウェアラブル装置200に具備されたカメラモジュールを介して撮影されたイメージまたは動作は前記移動端末機100に無線伝送され、前記移動端末機100のディスプレー部に表示されるか前記移動端末機100のメモリに記憶される。
また、前記ウェアラブル装置200のカメラに移る画像が前記移動端末機100のディスプレー部にプレビュー(pre−view)形態にディスプレーされ、前記カメラモジュールに移る画像を前記移動端末機100のディスプレー部を介してユーザが確認する。
前記ウェアラブル装置200の外観を概略的に説明すると以下のようである。
前記ウェアラブル装置200はユーザに首に巻かれるバンド部210と、前記バンド部(band portion)210の両端部に結合される一対のボディ部(body portion)220と、前記一対のボディ部220から引き出し可能に結合され、ユーザの耳に差し込んで音響を聴取する一対のイヤホン240a、240b及び撮影のための一つ又は複数のカメラモジュールを含む。前記一つ又は複数個のカメラモジュールは、前記一対のボディ部220のうちいずれか一つ又は両方に装着される前方カメラモジュール280と、前記バンド部210の中央部に装着される後方カメラモジュール290を含む。そして、前記バンド部210は弾性を有する部材を含む。
また、前記バンド部210はユーザの右側の首部分と肩部分におかれる第1バンド210aとユーザの左側の首部分と肩部分に置かれる第2バンド210bで形成され、前記第1バンド210aと第2バンド210bの一反部は前記後方カメラモジュール290によって一体に連結されて前記バンド部210を形成する。しかし、前記バンド部210の形態は前記で提示された例に制限されない。例えば、前記バンド部210は単一体で形成され、前記バンド部210の外周面に前記後方カメラモジュール290が回転可能に巻かれる形態で形成されてもよい。
また、前記第1バンド210aと第2バンド210bの他端部に前記一対のボディ部220がそれぞれ連結される。詳しくは、前記一対のボディ部220は前記第1バンド210aの他端に連結される第1ボディ部220aと、前記第2バンド210bの他端に連結される第2ボディ部220bを含む。
そして、前記バンド部210の外周面には一つ又は複数個の照度センサ260が装着される。前記照度センサ260から明るさの変化を感知してユーザに警告音を出力するようにする。例えば、夜間にユーザが前記イヤホン240a、240bを耳に差し込んで音楽を聴きながら歩いているとき、ユーザの方に車両が接近すると前記照度センサ260は車両のヘッドライト部から照射される明かりを感知する。すると、前記イヤホン240a、240bを介して警告音又は振動が発生し、ユーザが事故の危険を迅速に感知するようにする。
一方、前記ボディ部220のうちいずれか一つには前記前方カメラモジュール280が装着され、前記前方カメラモジュール280のレンズ部が前記ボディ部220の上面に露出される。そして、前記前方カメラモジュール280から離隔されるある地点に対応する前記ボディ部220の上面には音楽の再生及び静止のためのプレーボタン223が配置される。そして、前記プレーボタン223から離隔されるある地点に対応する前記ボディ部220の上面には前記後方カメラモジュール290を作動するためのボタン部が具備される。前記後方カメラモジュール290を作動するためのボタン部は、撮影ボタン223と前記撮影ボタン233の前方と後方にそれぞれ配置される角度調節ボタン223aを含む。前記角度調節ボタン233aは前記後方カメラモジュール290を上下方向にティルティング(傾く)又は回動するためのボタンであり、前記撮影ボタン233の前方に位置するボタンを押せば前記後方カメラモジュール290が上側にティルティング又は回動し、後方に位置するボタンを押せば前記後方カメラモジュール290が下側にティルティング又は回動する。前記後方カメラモジュール290構成については以下で図面を参照してより詳細に説明する。
ボディ部220のうちいずれか一つの側面には上述したボタン以外にも多様なボタンが具備される。例えば、音楽とラジオ放送のうちいずれか一つを選択するモード選択ボタン235と、ラジオ放送が選択されると放送局チャネルを選択するための選局ボタン232と、前記前方カメラモジュール280を利用した撮影のための撮影ボタン231と、前記イヤホン240a、240bを介して出力される音響のボリュームを調節するためのボリュームボタン224及び前記イヤホン240a、240bの音響ケーブルを自動的に巻くためのリールボタン234を含む。前記ボタンは前記ボディ部220の外周面に露出又は突出されるように設置される。そして、前記ボタンはユーザが指で押して回路基板のドームスイッチを加圧するようにするプッシュボタン形態、前方又は後方に一定量回転させて命令を入力するホイールキー形態、静電容量の変化を利用したタッチ式ボタン形態又はユーザが指で叩く際に発生する振動を感知して命令を入力される振動感知ボタン形態を含む多様な形態のボタン構造が適用される。
また、前記一対のボディ部220のうち他の一つには通話ボタン223aと、通話音量の大きさを調節するボリュームボタン224aと、前記イヤホン240a、240bに連結された音響ケーブルが自動的に巻かれるようにするリールボタン234が具備される。
詳しくは、前記通話ボタン223aは前記ボディ部220の上面の一側に配置され、前記ボリュームボタン224aと前記リールボタン234は前記ボディ部220の側面に配置される。そして、前記ボディ部220の側面には前記ウェアラブル装置200の電源をオン/オフする電源スイッチ229が具備され、前記ウェアラブル装置200を使用しないときのバッテリ消耗量を最小化する。
また、前記ボディ部220の側面にはUSB(Universal Serial Bus)ポート288のようなインタフェースが具備される。前記USBポート228は未使用のときにはカバーによって塞がれている状態を維持し、充電のためにUSBケーブルを連結するためには前記カバーを開けてケーブル端子を挿入する。ここで、前記USBポート228を開閉する前記カバーに磁石が付着され、前記USBポート228の縁部分が金属体で形成されて、ユーザが前記カバーを閉めなくても前記カバーの磁力によって前記USBポート228を閉めるようにする構造を提案することもできる。
ここで、前記ボタンの位置は本発明の図面に示される位置に制限されず、ユーザの便宜性を最大化する適切な位置に設置されることを明らかにする。
また、上述したボタンは下記で提示される他の実施例によるウェアラブル装置にも同じく適用されることを明らかにする。よって、以下で提示される他の実施例で前記ボタンのうち一部に対して別途の説明がなくても該当実施例の構成要素になるといえる。
一方、前記ボディ部220の上面には音声通話の際に音が外部に出力されるようにするスピーカホール241が形成される。即ち、ユーザの選択によって通話音声が前記イヤホン240a、240b又は前記スピーカホール241のうちいずれか一つにのみ出力されるようにすることができ、このような選択のためのボタンが前記ボディ部220の外周面の一側に別途に具備される。そして、前記スピーカホール241の下側に対応する前記ボディ部200の内部にはスピーカモジュールが装着される。
また、前記ボディ部220の外周面の一側、詳しくは上面の一側にマイクホール221cが形成され、ユーザが電話通話をする際に自らの音声を入力する。
以下、前記のような外観構成を成すウェアラブル装置200の制御構成についてブロック図を利用して詳細に説明する。以下で提示されるブロック図に開示される構成要素のうち一部は図4に開示されるウェアラブル装置の分解図に明確に図示されない可能性がある。しかし、ブロック図にのみ開示される全ての構成要素は、本発明の実施例によるウェアラブル装置のボディ部に設置される回路基板にモジュール形態又は電気素子形態に具備されるか、別途の部品又は素子の形態で前記回路基板に電気的に連結亜sれる構成要素であることを明らかにする。
図2は、本発明の実施例によるウェアラブル装置と無線通信する移動端末機の制御構成を示すブロック図である。
図2を参照すると、本発明の実施例によるウェアラブル装置200と無線通信する移動端末機100は無線通信部110、入力部120、感知部140、出力部150、インターフェース部160、メモリ170、制御部180、USIM部130及び電源供給部190などを含む。図2に開示される構成要素は前記で列挙した構成要素より多いか又は少ない構成要素を有する。
より詳しくは、前記構成要素のうち無線通信部110は移動端末機100と無線通信システムとの間、移動端末機100と他の移動端末機100との間、又は移動端末機100と外部サーバーとの無線通信を可能にする一つ以上のモジュールを含む。また、前記無線通信部110は移動端末機100を一つ以上のネットワークに連結する一つ以上のモジュールを含む。
このような無線通信部110は、放送受信モジュール111、移動通信モジュール112、無線インターネットモジュール113、近距離通信モジュール114、位置情報モジュール115のうち少なくとも一つを含む。
入力部120は映像信号を入力するためのカメラ121又は映像入力部、オーディオ信号を入力するためのマイクロフォン(microphone)122又はオーディオ入力部、ユーザから情報を入力されるためのユーザ入力部(例えば、タッチキー(touch key)、プッシュキー(Mechanical key)など)123を含む。入力部120で収集した音声データやイメージデータは分析されてユーザの制御命令に処理される。
センシング部140は移動端末内の情報、移動端末機を囲む周辺環境情報及びユーザ情報のうち少なくとも一つを専心具するための一つ以上のセンサを含む。例えば、センシング部140は近接センサ(proximity sensor)141、照度センサ(illumination sensor)142、タッチセンサ(touch sensor)、加速度センサ(acceleration sensor)、磁気センサ(magnetic sensor)、重力センサ(G−sensor)、ジャイロスコープセンサ(gyroscope sensor)、モーションセンサ(motion sensor)、RGBセンサ、赤外線センサ(IRセンサ:infrared sensor)、指紋認識センサ(finger scan sensor)、超音波センサ(ultrasonic sensor)、光センサ(optical sensor、例えばカメラ、マイク、バッテリゲージ(battery gauge))、環境センサ(例えば気圧計、湿度計、温度計、放射能感知センサ、熱感知センサ、ガス感知センサなど)、化学センサ(例えば電子鼻、ヘルスケアセンサ、生体認識センサなど)のうち少なくとも一つを含む。一方、本明細書に記載された移動端末機はこのようなセンサのうち少なくとも2つ以上のセンサでセンシングされる情報を組み合わせて活用する。
出力部150は視覚、聴覚又は触覚などに関する出力を発生するためのものであり、ディスプレー部151、音響出力部152、ハプティックモジュール153、光出力部154のうち少なくとも一つを含む。ディスプレー部151はタッチセンサと相互レイヤー構造を成すか一体型に形成されることでタッチスクリーンを具現する。このようなタッチスクリーンは、移動端末機100とユーザとの間の入力インタフェースを提供するユーザ入力部123として機能すると共に、移動端末機100とユーザとの間の出力インタフェースを提供する。
インタフェース部160は移動端末機100に連結される多様な種類の外部機器との通話の役割をする。このようなインタフェース部160は有/無線ヘッドセットポート(port)、外部充電器ポート、有/無線データポート、メモリカード(memory card)ポート、USIMカード130のような識別モジュールが具備された装置を連結するポート、オーディオI/O(Input/Output)ポート、ビデオI/Oポート、イヤホンポートのうち少なくとも一つを含む。移動端末機100では、前記インターフェース部160に外部機器が連結されることに対応して連結された外部機器に関する適切な制御を行う。
また、メモリ170は移動端末機100の多様な機能を支援するデータを記憶する。メモリ170は移動端末機100で駆動される多数の応用プログラム(application programming)又はアプリケーション(application)、移動端末機のためのデータ、命令語を記憶する。このような応用プログラムのうち少なくとも一部は無線通信を介して外部サーバからダウンロードされる。またこのような応用プログラムのうち少なくとも一部は移動端末機100の基本的な機能(例えば、電話着信、発信機能、メッセージ受信、発信機能)のために出庫当時から移動端末機100上に存在する。一方、応用プログラムはメモリ170に記憶され、移動端末機100のに設置されて制御部180によって前記移動端末機の動作(又は機能)を行うように駆動される。
制御部180は前記応用プログラムに関する動作以外にも、通常移動端末機100の全般的な動作を制御する。制御部180は上述した構成要素を介して入力又は出力される信号、データ、情報などを処理するかメモリ170に記憶された応用プログラムを駆動することで、ユーザに適切な情報又は機能を提供又は処理する。
また、制御部180はメモリ170に記憶された応用プログラムを駆動するために前記構成要素のうち少なくとも一部を制御する。なお、制御部180は前記応用プログラムを駆動するために移動端末機100に含まれた構成要素のうち少なくとも2つ以上を互いに組み合わせて動作する。
電源供給部190は制御部180の制御の下、外部の電源、内部の電源を印加されて移動端末機100に含まれた各構成要素に電源を供給する。このような電源供給部190はバッテリを含み、前記バッテリは内装型バッテリ又は交代可能な形態のバッテリとなり得る。
前記各構成要素のうち少なくとも一部は以下で説明する多様な実施例による移動端末機に動作、制御又は制御方法を具現するために互いに協力して動作する。また、前記移動端末機の動作、制御又は制御方法は前記メモリ170に記憶された少なくとも一つの応用プログラムを駆動によって移動端末機上に具現される。
一方、前記無線通信部110の放送受信モジュール111は放送チャネルを介して外部の方法管理サーバから放送信号及び/又は放送関連情報を受信する。ここで、前記チャネルは衛星チャネル、地上波チャネルを含む。少なくとも2つの放送チャネルに対する同時放送受信又は放送チャネルスイッチングのために2つ以上のラジオ受信モジュールが前記移動端末機100に提供される。
前記放送管理サーバは放送信号及び/又は放送関連情報を生成し送信するサーバ又は予め生成された放送信号及び/又は放送関連情報を提供されて端末機に送信するサーバを意味する。前記放送信号はテレビ放送信号、ラジオ放送信号、データ放送信号を含むだけでなく、テレビ放送信号又はラジオ放送信号にデータ放送信号が結合した形態の放送信号も含む。
前記放送信号はデジタル放送信号の送受信のための技術標準(又は放送方式、例えばISO,IEC,DVB,ATSCなど)のうち少なくとも一つに応じて符号化され、放送受信モジュール111は前記技術標準で決めた技術規格に適合した方式を利用して前記デジタル放送信号を受信する。
前記放送関連情報は放送チャネル、放送プログラム又は放送サービス提供者に関する情報を意味する。前記放送関連情報は移動通信網を介して提供されてもよい。このような場合には前記移動通信モジュール112によって受信される。
前記放送関連情報は、例えばDMB(Digital Multimedia Broadcasting)のEPG(Electronic Program Guide)又はDVB−H(Digital Video Broadcast−Handheld)のESG(Electronic Service Guide)などの多様な形態に存在する。放送受信モジュール111を介して受信された放送信号及び/又は放送関連情報はメモリ170に記憶される。
移動通信モジュール112は移動通信のための技術標準又は通信方式(例えばGSM(Global System for Mobile communication)、CDMA(Code Division Multi Access)、CDMA2000(Code Division Multi Access 2000)、EV−DO(Enhanced Voice−Data Optimized or Enhanced Voice−Data Only)、WCDMA(Wideband CDMA)、HSDPA(High Speed Downlink Packet Access)、HSUPA(High Speed Uplink Packet Access)、LTE(Long Term Evolution)、LTE−A(Long Term Evolution−Advanced)などによって構築された移動通信網上で基地局、外部の端末、サーバのうち少なくとも一つと無線信号を送受信する。
前記無線信号は音声呼信号、画像通話呼信号又は文字/マルチメディアメッセージ送受信に応じた多様な形態のデータを含む。
無線インターネットモジュール113は無線インターネットアクセスのためのモジュールをいい、移動端末機100に内装されるか外装される。無線インターネットモジュール113は無線インターネット技術による通信網で無線信号を追う受信するように行われる。
無線インターネット技術としては、例えばWLAN(Wireless LAN)、Wi−Fi(Wireless−Fidelity)、Wi−Fi Direct、WiBro(Wireless Broadband)、WiMAX(World Interoperability for Microwave Access)、HSDPA(High Speed Downlink Packet Access)、HSUPA(High Speed Uplink Packet Access)、LTE(Long Term Evolution)、LTE−A(Long Term Evolution−Advanced)などがあり、前記無線インターネットモジュール113は前記で述べられていないインターネット技術まで含む範囲で少なくとも一つの無線インターネット技術によってデータを送受信する。
WiBro、HSDPA、HSUPA,GSM、CDMA、WCDMA、LTE、LTE−Aなどによる無線インターネットアクセスは移動通信網を介して行われるという観点から見ると、前記移動通信網を介して無線インターネットアクセスを行う前記無線インターネットモジュール113は前記移動通信モジュール112の一種として理解される。
近距離通信モジュール114は近距離通信(Short range communication)のためのものであって、ブルートゥース(BluetoothTM)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association;IrDA)、UWB(Ultra Wideband)、ZigBee、NFC(Near Field Communication)、Wi−Fi、Wi−Fi Direct、Wireless USB(Wireless Universal Serial Bus)技術のうち少なくとも一つを利用して近距離通信を支援する。このような近距離通信モジュール114は近距離無線通信網(Wireless Area Networks)を介して移動端末機100と無線通信システムとの間、移動端末機100と他の移動端末機100との間、又は移動端末機100と他の移動端末機100(又は外部サーバ)が位置したネットワークとの間の無線通信を支援する。前記近距離無線通信網は近距離無線個人通信網(Wireless Personal Area Networks)である。
ここで、他の移動端末機100は本発明による移動端末機100とデータを相互交換可能な(又は連動可能な)ウェアラブルディバイス(wearable device、例えば本発明の実施例によるウェアラブル装置200、スマートウォッチ(smart watch)、スマートグラス(smart glass)、HMD(head mounted display))などである。近距離通信モジュール114は移動端末機100の周辺に前記移動端末機100と通信可能なウェアラブルディバイスを感知(又は認識)する。なお、制御部180は前記感知されたウェアラブルディバイスが本発明による移動端末機100と通信するように認証されたディバイスであれば、移動端末機100で処理されるデータの少なくとも一部を前記近距離通信モジュール114を介してウェアラブルディバイスに伝送する。よって、ウェアラブルディバイスのユーザは移動端末機100で処理されるデータをウェアラブルディバイスを介して利用する。例えば、それによるとユーザは移動端末機100に電話が受信されればウェアラブルディバイスを介して電話通話をするか、移動端末機100にメッセージが受信されればウェアラブルディバイスを介して前記受信されたメッセージを確認する。
位置情報モジュール115は移動端末機の位置(又は現在位置)を獲得するためのモジュールであり、代表的な例としてはGPS(Global Positioning System)モジュール又はWi−Fiモジュールがある。例えば、移動端末機がGPSモジュールを活用すれば、GPS衛星から送られる信号を利用して移動端末機の位置を獲得する。他の例として、移動端末機がWi−Fiモジュールを活用すれば、Wi−Fiモジュールと無線信号を送受信する無線AP(Wireless Access Point)情報に基づいて移動端末機の位置を獲得する。必要に応じて、位置情報モジュール115は置換又は付加的に移動端末機の位置に関するデータを得るために無線通信部110の他のモジュールのうちいずれかの機能を行う。位置情報モジュール115は移動端末機の位置(又は現在位置)を獲得するために利用されるモジュールであり、移動端末機の位置を直接的に計算するか獲得するモジュールに限定されない。
次に、入力部120は映像情報(又は信号)、オーディオ情報(又は信号)、データ又はユーザから入力される情報を入力するためのものであり、映像情報を入力するために移動端末機100は一つ又は複数のカメラ121を具備する。カメラ121は画像通話モード又は撮影モードでイメージセンサによって得られる静止画像又は動画などの画像フレームを処理する。処理された画像フレームはディスプレー部151に表示されるかメモリ170に記憶される。一方、移動端末機100に具備される複数のカメラ121はマトリックス構造を成すように配置され、このようにマトリックス構造を成すカメラ121を介して移動端末機100には多様な角度又は焦点を有する複数の映像情報が入力される。また、複数のカメラ121は立体映像を具現するための左映像及び右映像を獲得するようにステレオ構造に配置される。
マイクロフォン122は外部の音響信号を電気的音声データに処理する。処理された音声データは移動端末機100で行われている機能(又は実行中の応用プログラム)に応じて多様に活用される。一方、マイクロフォン122には外部の音響信号を入力される過程で発生する雑音(noise)を除去するための多様な雑音除去アルゴリズムが具現される。
ユーザ入力部123はユーザから情報を入力されるためのものであり、ユーザ入力部123を介して情報が入力されると制御部180は入力された情報に対応するように移動端末機100の動作を制御する。このようなユーザ入力部123は機械式(mechanical)入力手段(又はメカニカルキー、例えば移動端末機100の前後面又は側面に位置するボタン、ドームスイッチ(dome switch)、ジョグホイール、ジョグスイッチなど)及びタッチ式入力手段を含む。一例として、タッチ式入力手段はソフトウェア的な処理を介してタッチスクリーンに表示さえる仮想キー(virtual key)、ソフトキー(soft key)又はビジュアルキー(visual key)で形成されるか、前記タッチスクリーン以外の部分に配置されるタッチキーで形成される一方、前記仮想キー又はビジュアルキーは多様な形態を有してタッチスクリーン上に表示されるが、例えばグラフィック(graphic)、テキスト(text)、アイコン(icon)、ビデオ(video)又はそれらの組み合わせで形成される。
一方、センシング部140は移動端末内の情報、移動端末機を囲む周辺環境情報及びユーザ情報のうち少なくとも一つをセンシングし、それに対応するセンシング信号を発生する。制御部180はこのようなセンシング信号に基づいて移動端末機100の駆動又は動作を制御するか、移動端末機100に設置された応用プログラムに関するデータの処理、機能又は動作を行う。センシング部140に含まれる多様なセンサのうち代表的なセンサについてより詳細に説明する。
まず、近接センサ141とは所定の検出面に接近する物体或いは近くに存在する物体の有無を電磁界の力又は赤外線などを利用して機械的接触なしに検出するセンサをいう。このような近接センサ141は上述したタッチスクリーンによって囲まれる移動端末機の内部領域又は前記タッチスクリーンの近くに近接センサ141が配置される。
近接センサ141の例としては透過型光電センサ、直接反射型光電センサ、ミラー反射型光電センサ、高周波発進型近接センサ、静電容量型近接センサ、磁気型近接センサ、赤外線近接センサなどがある。タッチスクリーンが静電式であれば、近接センサ141は伝導性を有する物体の近接による電界の変化で前記物体の近接を検出するように構成される。この場合、タッチスクリーン(又はタッチセンサ)自体が近接センサとして分類される。
一方、説明の便宜上、タッチスクリーンの上に物体が接触しないながらも近接して前記物体が前記タッチスクリーンの上に位置することを認識させる行為を「近接タッチ(proximity touch)」と称し、前記タッチスクリーンの上に物体が実際に接触する行為を「接触タッチ(contact touch)」と称する。前記タッチスクリーンの上で物体が近接タッチされる位置とは、前記物体が近接タッチされる際に前記物体が前記タッチスクリーンに対して垂直に対応する位置を意味する。前記近接センサ141は近接タッチと近接タッチパターン(例えば近接タッチ距離、近接タッチ方向、近接タッチ速度、近接タッチ時間、近接タッチ位置、近接タッチ移動状態などを感知する。一方、制御部180は上述したように近接センサ141を介して感知された近接タッチ動作及び近接タッチパターンに相応するデータ(又は情報)を処理し、更に処理されたデータに対応する視覚的情報をタッチスクリーンの上に出力する。なお、制御部180はタッチスクリーン上の同じ地点に対するタッチが近接タッチであるのか又は接触タッチであるのかに応じて互いに異なる動作又はデータ(又は情報)が処理されるように移動端末機100を制御する。
タッチセンサは抵抗膜方式、静電容量方式、赤外線方式、超音波方式、磁場方式など様々なタッチ方式のうち少なくとも一つを利用してタッチスクリーン(又はディスプレー部151)に加えられるタッチ(又はタッチ入力)を感知する。
一例として、タッチセンサはタッチスクリーンの特定部位に加えられた圧力又は特定部位に発生する静電容量などの変化を電気的な入力信号に変換するように構成される。タッチセンサはタッチスクリーンの上にタッチをするタッチ対象体がタッチセンサの上でタッチされる位置、面積、タッチ時の圧力、タッチ時の静電容量などを検出するように構成される。ここで、タッチ対象体は前記タッチセンサにタッチを印加する物体であって、例えば指、タッチペン、又はスタイラスペン(Stylus pen)、ポインタなどである。
このように、タッチセンサに対する入力がある場合、それに対応する信号はタッチ制御器に送られる。タッチ制御器はその信号を処理した後、対応するデータを制御部180に伝送する。これで制御部180はディスプレー部151のどの領域がタッチされたのかを知る容認なる。ここで、タッチ制御器は制御部180とは別途の構成要素であってもよく、制御部180自体であってもよい。
一方、制御部180はタッチスクリーン(又はタッチスクリーン以外に具備されたタッチキー)をタッチするタッチ対象体の種類に応じて互いに異なる制御を行うか、同じ制御を行う。タッチ対象体の種類に応じて互いに異なる制御を行うか又は同じ制御を行うかは、現在の移動端末機100の動作状態又は実行中の応用プログラムに応じて決定される。
一方、上述したタッチセンサ及び近接センサは独立に又は組み合わせられてタッチスクリーンに対するショート(又はタブ)タッチ(short touch)、ロングタッチ(long touch)、マルチタッチ(multi touch)、ドラッグタッチ(drag touch)、フリックタッチ(flick touch)、ピンチインタッチ(pinch−in touch)、ピンチアウトタッチ(pinch−out touch)、スワイプ(swype)タッチ、ホバリング(hovering)タッチなどのような多様な方式のタッチをセンシングする。
超音波センサは超音波を利用して感知対象の位置情報を認識する。一方、制御部180は光センサと複数の超音波センサから感知される情報を介して波動発生原因の位置を算出することができる。波動発生原因の位置は光が超音波より非常に速い性質、即ち、光が光センサに到達する時間が超音波が超音波センサに到達する時間より非常に速いことを利用して算出される。より詳しくは、光を基準信号に超音波が到達する時間との時間差を利用して波動発生原因の位置が算出される。
一方、入力部120の構成から説明したカメラ121はカメラセンサ(例えば、CCD,CMOSなど)、フォトセンサ(又はイメージセンサ)及びレーザセンサのうち少なくとも一つを含む。
カメラ121とレーザセンサは互いに組み合わせられ、3次元立体映像に対する感知対象のタッチを感知する。フォトセンサはディスプレー素子に積層されるが、このようなフォトセンサはタッチスクリーンに近接した感知対象の動きをスキャニングするように行われる。より詳しくは、フォトセンサは行/列にPhoto DiodeとTR(Transistor)を実装してPhoto Diodeに印加される光の量に応じて変化する電気的信号を利用し、フォトセンサの上に行かれる内容物をスキャンする。即ち、フォトセンサは光の変化量に応じた感知対象の座標計算を行い、それを介して感知対象の位置情報が獲得される。
ディスプレー部151は移動端末機100で処理される情報を表示(出力)する。例えば、ディスプレー部151は移動端末機100で処理される情報を表示(出力)する。例えば、ディスプレー部151は移動端末機100で駆動される応用プログラムの実行画面情報、又はこのような実行画面情報に応じたUI(User Interface)、GUI(Graphic User Interface)情報を表示する。
また、前記ディスプレー部151は立体映像を表示する立体ディスプレー部として構成される。
前記立体ディスプレー部にはステレオスコピック方式(めがね方式)、オートステレオスコピック方式(めがねのない方式)、プロジェクション方式(ホログラフィック方式)などの3次元ディスプレー方式が適用される。
音響出力部152は呼信号受信、通話モード又は録音モード、音声認識モード、放送受信モードなどで無線通信部110から受信されるかメモリ170に記憶されたオーディオデータを出力する。音響出力部152は移動端末機100で行われる機能(例えば、呼信号受信、メッセージ受信音など)に関する音響信号を出力する。このような音響出力部152にはレシーバー(receiver)、スピーカ(speaker)、バザー(buzzer)などが含まれる。
ハプティックモジュール(haptic module)153はユーザが感じる多様な触覚効果を発生する。ハプティックモジュール153が発生する触覚効果の代表的な例としては振動がある。ハプティックモジュール153で発生する振動の強度とパターンなどはユーザの選択又は制御部の設定によって制御される。例えば、前記ハプティックモジュール153は互いに異なる振動を合成して出力するか順次に出力する。
ハプティックモジュール153は振動以外にも接触皮膚面に対して垂直運動するピン配列、噴射口や吸入口を介した空気の噴射力や吸入力、皮膚表面に対する擦れ、電極(electrode)の接触、静電気力などの刺激による効果と、吸熱や発熱可能な素子を利用した冷温感の再現による効果など多様な触覚効果を発生する。
ハプティックモジュールモジュール153は直接的な接触を介して触覚効果を伝達するだけでなく、ユーザが指や腕などの筋感覚を介して触覚効果を感じるように具現してもよい。ハプティックモジュールモジュール153は移動端末機100の構成態様によって2つ以上具備されてもよい。
光出力部154は移動端末機100の光源の光を利用してイベントの発生を知らせるための信号を出力する。移動端末機100で発生するイベントの例としては、メッセージの受信、呼信号の受信、留守番電話、アラーム、スケジュールの通知、メールの受信、アプリケーションを介した情報の受信などが挙げられる。
光出力部154が出力する信号は移動端末機が前面や光面に単色や複数の色の光を発行することで具現される。前記信号の出力は移動端末機がユーザのイベント確認を感知することによって終了される。
インタフェース部160は移動端末機100に連結される全ての外部機器との通路の役割をする。インタフェース部160は外部機器からデータを伝送されるか、電源を供給されて移動端末機100内部の各構成要素に伝達するか、移動端末機100内部のデータが外部機器に伝送されるようにする。例えば、有/無線ヘッドセットポート、外部充電器ポート、有/無線データポート、メモリカードポート、識別モジュールが具備された装置を連結するポート、オーディオI/Oポート、ビデオI/Oポート、イヤホンポートなどのインタフェース部160に含まれる。
一方、識別モジュールは移動端末機100の使用権限を認証するための各種情報を記憶したチップであって、ユーザ認証モジュール(user identify module;UIM)、加入者認証モジュール(Subscriber identify module;SIM)、汎用ユーザ認証モジュール(universal subscriber identify module;USIM)などを含む。識別モジュールが具備された装置(以下、「識別装置」)はスマートカード(smart card)形式に製作される。よって、識別装置は前記インタフェース部160を介して移動端末機100と連結される。
また、前記インタフェース部160は移動端末機100が外部のクレイドル(cradle)と連結される際に前記クレイドルから電源が前記移動端末機100に供給される通路となるか、ユーザによって前記クレイドルで入力される各種命令信号が前記移動端末機100に伝達される通路となる。前記クレイドルから入力される各種命令信号又は前記電源は、前記移動端末機100が前記クレイドルに正確に装着されていることを認知するための信号として動作する。
メモリ170は制御部180を動作するためのプログラムを記憶してもよく、入出力されるデータ(例えばフォンブック、メッセージ、静止画像、動画など)を臨時記憶してもよい。前記メモリ170は前記タッチスクリーン上のタッチ入力の際に出力される多様なパターンの振動及び音響に関するデータを記憶する。
メモリは170はフラッシュメモリタイプ(flach memory type)、ハードディスクタイプ(hard disk type)、SSDタイプ(Solid State Dist Type)、SDDタイプ(Silicon Disk Drive Type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えばSD又はXDメモリなど)、ラム(random access memory;RAM)、SRAM(static random access memory)、ロム(read−only memory;ROM)、EEPROM(elecrically erasable promrammable read−only memory)、PROM(promrammable read−only memory)、磁気メモリ、磁気ディスク及び光ディスクのうち少なくとも一つのタイプの記憶媒体を含む。移動端末機100はインターネット(internet)上で前記メモリ170の記憶機能を行うウェブストレージ(web storage)に関して動作してもよい。
一方、上述したように制御部180は応用プログラムに関する動作と、通常移動端末機100の全般的な動作を制御する。例えば、制御部180は前記移動端末機の状態が設定された条件を満足するとアプリケーションに対するユーザの制御命令の入力を制限するロック状態を実行するか解除する。
また、制御部180は音声通話、データ通信、画像通話などに関する制御及び処理を行うか、タッチスクリーン上で行われる筆記入力又は描き入力をそれぞれ文字及びイメージとして認識するパターン認識処理を行う。なお、制御部180は後述する多様な実施例を本発明による移動端末機100上に具現するために、上述した構成要素のうちいずれか一つ又は複数を組み合わせて制御する。
電源供給部109は制御部180の制御によって外部の電源、内部の電源を印加されて各構成要素の動作に必要な電源を供給する。電源供給部190はバッテリを含み、バッテリは充電可能に形成される内装型バッテリであってもよく、充電などのために端末機のボディに着脱可能に結合される。
また、電源供給部190は連結ポートを具備し、連結ポートはバッテリを充電するために電源を供給する外部充電器が電気的に連結されるインタフェース160の一例として構成される。
他の例として、電源供給部190は前記連結ポートを利用せずに無線方式でバッテリを充電するように形成される。この場合、電源供給部190は外部の無線電力伝送装置から磁気誘導現象に基づく誘導結合(Inductive Coupling)方式や電磁気的共振現象に基づく共進結合(Magnetic Resonance Coupling)方式のうち一つ以上の利用して電力を伝達される。
一方、下記で多様な実施例は例えばソフトウェア、ハードウェア又はそれらが組み合わせられたものを利用してコンピュータ又はそれと類似した装置で読み込める記録媒体内で具現される。
図3は、本発明の実施例によるウェアラブル装置の制御構成を示すブロック図である。
図3を参照すると、以下で説明される本発明に実施例によるウェアラブル装置200の構成は以下で説明される全ての実施例によるウェアラブル装置に共通的に具備される構成である。
また、下記で説明される構成要素の一部は前記移動端末機100に具備される構成要素と同じ機能及び作動をする構成要素である。
詳しくは、本発明の実施例によるウェアラブル装置200は、無線通信部201、入力部202、センシング部204、出力部205、インタフェース部206、メモリ207、制御部208、USIM部203及び電源供給部209などを含む。
前記無線通信部201は前記ウェアラブル装置200と前記移動端末機100との間、又は前記ウェアラブル装置200と外部サーバとの間の無線通信を可能にする一つ以上のモジュールを含む。
このような無線通信部201は、ラジオ受信モジュール201a、移動通信モジュール201b、近距離通信モジュール201c、位置情報モジュール201dのうち少なくとも一つを含む。
前記入力部202は映像信号を入力するためのカメラ202a又は映像入力部、オーディオ信号を入力するためのマイクロフォン202b又はオーディオ入力部、ユーザから情報を入力されるためのユーザ入力部202cを含む。前記カメラ202aは本発明の実施例によるウェアラブル装置200に具備される前方カメラモジュール280と後方カメラモジュール290を含む。そして、前記ユーザ入力部202cは上述した各種ボタンを含む。そして、前記マイクロフォン202bは前記ウェアラブル装置200に具備されるマイク248(図4を参照)を含む。
前記センシング部204は近接センサ204a、照度センサ204b、タッチセンサ、加速度センサ、磁気センサ、重力センサ、ジャイロスコープセンサ、モーションセンサ、RGBセンサ、赤外線センサ、指紋認識センサ、超音波センサのうち少なくとも一つを含む。そして、前記センサは移動端末機100に具備されるセンサと同じセンサである。特に、前記照度センサ204bは前記ウェアラブル装置200のバンド部210に具備される照度センサ260を含む。
前記出力部205は音響出力部205a、ハプティックモジュール205b、光出力部205cのうち少なくとも一つを含む。そして、前記音響出力部205aは前記ウェアラブル装置200のボディ部220に具備されるスピーカモジュール243(図4を参照)及び前記イヤホン240a、240bに具備されるスピーカモジュールを含む。
インタフェース部206は前記ウェアラブル装置200に連結される多様な種類の外部機器との通路の役割をする。このようなインタフェース部206は外部充電器ポート、前記USBポート228のようなデータポート、メモリカード、USIM部203のような識別モジュールが具備された装置を連結するポート、のうち少なくとも一つを含む。
また、メモリ207は前記ウェアラブル装置200の多様な機能を支援するデータを記憶する。前記メモリ207は前記ウェアラブル装置200で駆動される多数の応用プログラム、前記ウェアラブル装置200で駆動される多数の応用プログラム、前記ウェアラブル装置200の動作のためのデータ、命令語を記憶する。このような応用プログラムのうち少なくとも一部は無線通信を介して外部サーバからダウンロードされる。
前記制御部208は前記応用プログラムに関する動作以外にも、前記ウェアラブル装置200の全般的な動作を制御する。前記制御部208は上述した構成要素を介して入力又は出力される信号、データ、情報などを処理するかメモリ207に記憶された応用プログラムを駆動することで、ユーザに適切な情報又は機能を提供又は処理する。
前記電源供給部209は前記制御部208の制御の下、外部の電源又は内部の電源を印加されて前記ウェアラブル装置200に含まれた各構成要素に電源を供給する。このような電源供給部209はバッテリ270(図4を参照)を含み、前記バッテリは内蔵型バッテリ又は交代可能な形態のバッテリとなり得る。
一方、前記無線通信部201のラジオ受信モジュール201aは放送チャネルを介して外部の方法管理サーバから放送信号及び/又は放送に関する情報を受信する。前記放送チャネルは衛星チャネル、地上派チャネルを含む。少なくとも2つの放送チャネルに対する同時放送受信又は放送チャネルスイッチングのために2つ以上のラジオ受信モジュールが前記移動端末機100に提供される。
前記放送管理サーバは放送信号及び/又は放送関連情報を生成し送信するサーバ又は予め生成された放送信号及び/又は放送関連情報を提供されて端末機に送信するサーバを意味する。
前記移動通信モジュール201bは移動通信のための技術標準又は通信方式(例えばGSM、CDMA、CDMA2000、EV−DO、WCDMA、HSDPA、HSUPA、LTE、LTE−Aなどによって構築された移動通信網上で基地局、外部の端末、サーバのうち少なくとも一つと無線信号を送受信する。前記ウェアラブル装置200内に前記移動通信モジュール201bとUSIMカードが設置されることで、前記ウェアラブル装置200自体がモバイルフォンの機能を行う。
前記無線信号は音声呼信号又は文字/マルチメディアメッセージ送受信に応じた多様な形態のデータを含む。前記ウェアラブル装置200にディスプレーウィンドウが具備されれば、文字/マルチメディアメッセージの送受信も可能になる。
前記近距離通信モジュール201cは近距離通信のためのものであって、ブルートゥース、RFID、赤外線通信、UWB、ZigBee、NFC、Wi−Fi、Wi−Fi Direct、Wireless USB技術のうち少なくとも一つを利用して近距離通信を支援する。このような近距離通信モジュール201cは近距離無線通信網を介して前記ウェアラブル装置200と無線通信システムとの間、移動端末機100と他の移動端末機100との間、又は移動端末機100と他の無線通信システムとの間、前記ウェアラブル装置200と前記移動端末機100との間の無線通信を支援する。前記近距離無線通信網は近距離無線個人通信網である。
前記位置情報モジュール210dは前記ウェアラブル装置200の位置を獲得するためのモジュールであり、代表的な例としてはGPSモジュール又はWi−Fiモジュールがある。例えばGPSモジュールの場合、GPS衛星から送られる信号を利用して前記ウェアラブル装置200の位置を獲得する。他の例として、Wi−Fiモジュールの場合、Wi−Fiモジュールと無線信号を送受信する無線AP(Wireless Access Point)情報に基づいて前記ウェアラブル装置200の位置を獲得する。
次に、入力部202は映像情報、オーディオ情報(又は信号)、データ又はユーザから入力される情報を入力するためのものであり、映像情報を入力するために前記ウェアラブル装置200は一つ又は複数のカメラモジュールを具備する。
前記一つ又は複数のカメラモジュールは撮影モードでイメージセンサによって得られる静止画像又は動画などの画像フレームを処理する。処理された画像フレームはメモリ170に記憶される。そして、処理された前記画像フレーム207が前記近距離通信モジュール201cを介して前記移動端末機100に伝送されてメモリ170に記憶される。一方、移動端末機に具備さsれるカメラ202a、即ち、複数のカメラモジュールを介して立体映像を具現するための左映像及び右映像を獲得するようにステレオ構造に配置される。
マイクロフォン202bは通話過程で入力されるユーザの音声信号を電気的音声データに処理する。処理された音声データは前記移動端末機100に伝送され、前記移動端末機100から相手の移動端末機100に伝送される。一方、マイクロフォン202bには外部の音響信号を入力される過程で発生する雑音を除去するための多様な雑音除去アルゴリズムが具現される。
前記ユーザ入力部202cはボタン、ドームスイッチ、ジョグホイール、ジョグスイッチ及びタッチ式入力手段を含む。
一方、センシング部204は前記ウェアラブル装置200内の情報、前記ウェアラブル装置200を囲む周辺環境情報及びユーザ情報のうち少なくとも一つをセンシングし、それに対応するセンシング信号を発生する。制御部280はこのようなセンシング信号に基づいて前記ウェアラブル装置200の駆動又は動作を制御するか、前記ウェアラブル装置200に設置された応用プログラムに関するデータの処理、機能又は動作を行う。センシング部204は前記移動端末機100に具備されるセンシング部と同じ概念のセンシング部に当たるといえる。
一方、入力部120の構成として説明したカメラ202aはカメラセンサ(例えば、CCD,CMOSなど)、フォトセンサ(又はイメージセンサ)及びレーザセンサのうち少なくとも一つを含む。
前記音響出力部205aは呼信号受信、通話モード又は録音モード、音声認識モード、放送受信モードなどで無線通信部201から受信されるかメモリ207に記憶されたオーディオデータを出力する。音響出力部205aは移動端末機100で行われる機能(例えば、呼信号受信音)に関する音響信号も出力する。このような音響出力部205aにはイヤホン240a、240b、スピーカモジュール243が含まれる。
前記ハプティックモジュール205bはユーザが感じる多様な触覚効果を発生する。ハプティックモジュール205bが発生する触覚効果の代表的な例としては振動がある。ハプティックモジュール205bで発生する振動の強度とパターンなどはユーザの選択又は制御部の設定によって制御される。例えば、前記ウェアラブル装置200のボディ部220を指で叩いて振動を発生し、前記ハプティックモジュール205bで前記振動を感知して映像又はイメージの撮影動作が行われるようにする。
ハプティックモジュールモジュール205bは直接的な接触を介して触覚効果を伝達するだけでなく、ユーザが指や腕などの筋感覚を介して触覚効果を感じるように具現してもよい。ハプティックモジュールモジュール205bは移動端末機100の構成態様によって2つ以上具備されてもよい。
光出力部205cは移前記ウェアラブル装置200に具備される光源から照射される光を利用してイベントの発生を知らせるための信号を出力する。例えば、呼信号の受信、留守番電話、アラームなどが通知イベントに含まれる。
一方、前記USIM部130を含む識別モジュールは、前記USIM部以外にもユーザ認証モジュール、加入者認証モジュールなどを含む。識別モジュールが具備された装置(以下、「識別装置」)はスマートカード形式に製作される。よって、識別装置は前記インタフェース部206を介してウェアラブル装置200と連結される。
メモリは207はフラッシュメモリタイプ、ハードディスクタイプ、SSDタイプ、SDDタイプ、マルチメディアカードマイクロタイプ、カードタイプのメモリ(例えばSD又はXDメモリなど)、ラム、SRAM、ロム、EEPROM、PROM、磁気メモリ、磁気ディスク及び光ディスクのうち少なくとも一つのタイプの記憶媒体を含む。
<ウェアラブル装置の詳細構造の説明>
図4は、本発明の第1実施例によるウェアラブル装置の分解斜視図である。
図4を参照すると、本発明の第1実施例によるウェアラブル装置200は、上述したようにバンド部210と、前記バンド部110の両端部にそれぞれ装着されるボディ部220と、前記ボディ部220と前記バンド部210のうち少なくとも一側に装着されるカメラモジュールを含む。
詳しくは、前記バンド部210は上述したように第1バンド210a及び第2バンド210bで形成され、前記ボディ部220は第1ボディ部220aと第2ボディ部220bで形成される。
詳しくは、前記一対のボディ部220a、220bそれぞれは上部ハウジング221と下部ハウジング222によって外形が形成される。そして、前記上部ハウジング221と前記下部ハウジング222の結合によって形成される内部空間に各種電装部品が装着される。そして、前記一対のボディ部220a、220bそれぞれの端部には前記イヤホン240a、240bが引き出し可能に装着される。
ここで、前記第1ボディ部220aは右側ボディ部と定義され、前記第2ボディ部220bは左側ボディ部と定義される。前記右側ボディ部を構成する上部ハウジング220には前記後方カメラモジュール290を操作するための前記撮影ボタン223及び角度調節ボタン233aが設置される。そして、前記右側ボディ部の上部ハウジング221には前記プレーボタン233が挿入されるボタンホール221aと、前記前方カメラモジュール280が挿入されるカメラホール221bが形成される。
また、前記右側ボディ部の内部には回路基板250が装着され、前記回路基板250には各種電装部品が実装され、前記回路基板250の一端にはフレキシブルプリント回路基板(flexible printed circuit board)251が連結される。
また、前記右側ボディ部の内部には前記電源供給部に当たるバッテリ270が装着される。そして、前記右側ボディ部の内部には前記イヤホン240a、240bに連結される前記音響ケーブル245を巻くか解くリール230が装着される。前記リール230の内部には音響回路基板が装着され、前記音響回路基板は前記軟性基板251によって前記回路基板250と電気的に連結され、前記イヤホン240a、240bに音響が出力されるようにする。
一方、前記右側ボディ部を構成する下部ハウジング222の内部にはリールボタン234、ボリュームボタン224、選局ボタン232、モード選択ボタン235、撮影ボタン231などが収容される。そして、前記右側ボディ部の下部ハウジング222の左側面と右側面には前記ボタンが形成されるためのホールが分けられて形成される。
また、前記下部ハウジング222の前端部にはイヤホンホルダ225が装着され、前記イヤホンホルダ225は前記イヤホン240a、240bの外周面を適切に囲んで保護するように凹んでラウンドして形成される。そして、前記イヤホンホルダ225の後面にはイヤホンスイッチ226が装着される。詳しくは、前記イヤホン240a、240bが前記イヤホンホルダ226の中に安着されると前記イヤホンスイッチ226がそれを感知し音響出力が中断されるようにする。
また、前記イヤホンホルダ225と前記イヤホン240a、240bのうちいずれかの一側には磁石が付着され、他側には前記磁石にくっつく金属性導体が具備される。すると、前記イヤホン240a、240bが前記イヤホンホルダ226に安着された状態で自重によって分離されるか、前記ウェアラブル装置200の揺れによって前記イヤホンホルダ226から分離する現象を防止することができる。
一方、前記バンド部210の両端部にはそれぞれ延長端221が突出され、前記延長端211には差込ホール212が形成される。そして、また前記下部ハウジング222の底面には締結ボス227が突出され、前記締結ボス227が前記差込ホール212に差し込まれることで前記ボディ部220が前記バンド部210の端部に固定結合される。そして、前記延長端211は前記バンド部210から段差を成すように形成され、前記ボディ部220が前記バンド部210に連結された状態で空回りすることを防止する。
また、前記左側ボディ部を構成する上部ハウジング221には前記通話ボタン223aが挿入されるボタンホール221aが形成される。そして、前記ボタンホール221aの近くには前記スピーカホール241とマイクホール221cそれぞれが形成される。
また、前記左側ボディ部を構成する上部ハウジング221と下部ハウジング222によって形成される内部空間には前記ボリュームボタン224aと前記電源スイッチ229と前記USBポート228が装着され、前記下部ハウジング221の左側面と右側面には前記ボリュームボタン224a、電源スイッチ229及びUSBポート228が装着されるためのホールが分けられて形成される。
もちろん、前記左側ボディ部の端部にも右側ボディ部に具備されるイヤホンホルダ構造が装着される。
また、前記左側ボディ部の内部にも回路基板250が設置され、前記回路基板250にはスピーカモジュール243、無線通信部110、マイク248などが実装される。前記スピーカモジュール243は前記スピーカホール241の直下方に配置され、前記イヤホン240a、240bを使用しないときに前記スピーカホール241を介して音響が出力される。
また、前記左側ボディ部の内部にもリール230が装着され、前記イヤホン240a、240bに連結される音響ケーブル245を巻くか解く。そして、前記リール230の内部に具備される音響回路基板は前記回路基板250の一端に連結される軟性基板251に電気的に連結される。
一方、前記左側ボディ部と右側ボディ部には上述したように多数の機能モジュールと電装部品が分けられて設置されているが、前記多数の機能モジュールと電装部品の装着位置は適切に変更可能である。例えば、前記無線通信部とスピーカモジュール243が前記右側ボディ部に設置され、前記前方カメラモジュール280が前記左側ボディ部に設置されてもよい。即ち、本発明の実施例によるウェアラブル装置200の内部には上述した各種構成が具備されるということを本発明における思想の主とし、前記構成がどのボディ部にどのように装着されるのかに関する具体的設計構造に関することを本発明における思想の従とする。
もっとも、本発明の実施例によるウェアラブル装置200の発明的特長は一つ又は多数のカメラモジュールが前記ウェアラブル装置200に設置されることである。
一方、前記バンド部210は第2バンド210aと第1バンド210bで形成され、前記第2バンド210aと第1バンド210bの端部は前記後方カメラモジュール290によって一体に連結される。即ち、前記後方カメラモジュール290が前記第2バンド210aと第1バンド210bの連結部材の機能も一緒に行うといえる。
詳しくは、前記後方カメラモジュール290は、ヒンジ291と、前記ヒンジ291に装着されるカメラ292と、前記カメラ292の前面に装着されるレンズ293及び前記ヒンジ291の一側に装着されるオートフォーカシングセンサ(Laser Detecting Auto Focusing sensor)294を含む。
そして、前記第2バンド部210aの端部と前記右側バンド部210bの端部は前記ヒンジ291の左側面と右側面にそれぞれ連結される。そして、前記ヒンジ291は前記バンド部210に回動可能に装着され、前記ボディ部220に設置された角度調節ボタン233aの操作を介して情報又は下方に回転可能である。他の方法として、前記ウェアラブル装置200と無線で連結される移動端末機100に設置されたアプリケーションを利用して前記ヒンジ291の角度を調節する。
例えば、前記移動端末機100に前記前方カメラモジュール280と前記後方カメラモジュール290を利用したイメージ又は映像撮影のための撮影アプリケーションが設置される。そして、前記撮影アプリケーションを実行すると前記前方カメラモジュール280と前記後方カメラモジュール290の作動を制御するためのメニュがそれぞれプログラムされており、ユーザの選択に応じてディスプレー部に表示されるようにする。たとえば、後方カメラの上向き回転命令入力のためのタッチアイコンと下向き回転命令入力のためのタッチアイコンがディスプレーされるようにし、前記アイコンのうちいずれか一つがユーザによってタッチされると該当アイコンが有する動作命令が前記無線通信部110を介して前記ウェアラブル装置200の無線通信部110に受信される。そして、前記ウェアラブル装置200の制御部208で前記後方カメラモジュール290を駆動する駆動部に命令を伝送し、前記後方カメラモジュール290が上向き又は下向き回転するようにする。
前記後方カメラモジュール290の駆動メカニズムについては、以下で図面を参照して詳細に説明する。
前記オートフォーカシングセンサ294はレーザを利用して前記カメラ292の前方にある被写体までの距離を感知する赤外線センサであり、前記被写体とカメラ292の距離を感知して短時間に焦点を正確に合わせる。
図5は、本発明の実施例によるウェアラブル装置に具備される後方カメラモジュールの駆動メカニズムを示す分解斜視図である。
図5を参照すると、前記方向カメラモジュール290は正逆回転可能な駆動モータMによって上向き回転又は下向き回転が可能である。
また、前記ヒンジ291は前記カメラ292が装着されるヒンジボディ292aと、前記ヒンジボディ292aの両側面からそれぞれ突出されるヒンジ軸292bを含む。前記一対のヒンジ軸292bは前記第2バンド210aと第1バンド210bに差し込まれ、前記第1及び第2バンド(210a、210b)を連結する。そして、前記一対のヒンジ軸292bのうちいずれか一側には軸挿入口295が形成される。そして、前記駆動モータMの回転軸Sが前記軸挿入ホール295に挿入され、前記回転軸Sと前記ヒンジ292が一体に回転するようになる。
前記駆動モータMは前記ウェアラブル装置200の制御部208から駆動命令を入力されて正回転又は逆回転する。もちろん、前記制御部208には前記駆動モータMの回転を制御するためのドライバーICが具備されることがいうまでもない。
図6は、本発明の第2実施例によるウェアラブル装置の斜視図である。
図6を参照すると、本実施例によるウェアラブル装置200は第1実施例によるウェアラブル装置200の構成と殆ど同じであるが、前記前方カメラモジュール280の装着位置に差がある。即ち、前記プレーボタン223とモード選択ボタン235が前記ボディ部220の前端部に具備され、前記前方カメラモジュール280が前記プレーボタン223の後側に具備される。他の提案可能な例として、前記前方カメラモジュール280が左側のボディ部220に具備されてもよい。即ち、前記前方カメラモジュール280が左側のボディ部220に具備され、前記通話ボタン223aの前方または後方に配置される実施例も提案可能であることを明らかにする。
図7は本発明の第3実施例によるウェアラブル装置の斜視図であり、図8は本発明の第3実施例によるウェアラブル装置に具備される前方カメラモジュールが前方にティルティングされた状態を示す拡大斜視図である。
図7及び図8を参照すると、本実施例によるウェアラブル装置200は前記第1実施例によるウェアラブル装置200の構成と殆ど同じであるが、前記前方カメラモジュール280が左側ボディ部と右側ボディ部にそれぞれ装着されて前方にティルティング可能な構造であることに差がある。
詳しくは、前記前方カメラモジュール280の前面部(又は上面部)、即ちレンズ部は前記ボディ部220の前面部(又は上面部)と実質的に同じ平面を成し、ユーザの操作によって前方に所定角度ティルティングされる。
より詳しくは、ユーザが前記ウェアラブル装置200を首に着用すると、前記ボディ部220はユーザの鎖骨と胸先の部分に置かれるようになる。この状態で撮影のために前記前方カメラモジュール280を駆動すると、ユーザが撮影しようとする被写体がカメラレンズに入らない場合が発生する。この際、ユーザが前記前方カメラモジュール280を手動で操作するか前記移動端末機100の撮影アプリケーションを介してティルティング命令を入力すると、前記前方カメラモジュール280が前方に所定角度ティルティングされる。以下、前記前方カメラモジュール280のティルティングメカニズムの実施例について図面を参照して詳細に説明する。
図9は、本発明の第3実施例によるウェアラブル装置に具備される前方カメラモジュールのティルティングメカニズムを示す分解斜視図である。
図9を参照して本発明の実施例による前方カメラモジュールのティルティング構造を説明すると、前記ボディ部220を構成する上部ハウジング221の中央部には前記前方カメラモジュール280が収容される長いホール状のカメラホール221bが形成される。前記カメラホール221bの後側にはティルティング部材271がスライド可能に装着される。前記前方カメラモジュール280がティルティング前の状態にあるとき、前記ティルティング部材271は前記前方カメラモジュール280の後側側面部を囲んで前記前方カメラモジュール280の揺れを防止する。そして、前記カメラホール221bの前端部は前記前方カメラモジュール280の前側の側面部を囲んで形態でラウンドして形成される。
詳しくは、前記ティルティング部材271は「┐」の形状に折曲されて前記カメラホール221bの後側の部分を囲むカバー部217bと、前記カバー部271bの前端で上面に折曲されて前記前方カメラモジュール280の側面に沿って円弧状にラウンドする把持部271aと、前記カバー部217bの下端から前方に延長されてから上側に傾斜して折曲延長される形態の加圧部271d及び前記カバー部271bの両側面から突出されて所定長さに延長されるスライドリブ271cを含む。
また、前記カメラホール221bの側面の縁にはスライド溝221cが所定深さと長さで延長形成され、前記スライド溝221cには前記スライドリブ271cが挿入される。よって、前記スライドリブ271cが前記スライド溝221cに挿入された状態で前後方向に移動することによって前記ティルティング部材271が前後方向にスライディング移動する。
また、前記カメラホール221bの両側面の縁には支持端221eが下側にそれぞれ延長される。そして、前記向かい合う前記支持端221eの面にはガイド突起221dがそれぞれ水平に突出される。そして、前記前方カメラモジュール280の左側と右側側面には一対のガイド溝281がそれぞれ形成され、前記ガイド溝281に前記支持端221eがそれぞれ挿入される。
詳しくは、前記ガイド溝281は前記前方カメラモジュール280の上面から下面に向かって延長されるが、前記前方カメラモジュール280の前端部に行くほど下向き傾斜する曲線状に延長される。
以下、前記ティルティングモジュールによって前記前方カメラモジュールがいかにティルティングするのかについて図面を参照して詳細に説明する。
図10は図8のI−Iに沿って切開される縦断面図であって、前方カメラモジュールのティルティング前の状態を示す断面図である。
図10を参照すると、前記前方カメラモジュール280がティルティングされていない様態では前記前方カメラモジュール280の前面(又は上面)は前記ボディ部220の前面(又は上面)と実質的に同じ平面を成す。即ち、前記ボディ部220の上部ハウジング221と前記前方カメラモジュール280の前面(又は上面)が同じ平面を成す。
そして、前記ガイド突起221dは前記ガイド溝281に差し込まれた状態で前記ガイド溝281の後端部に位置する。そして、前記前方カメラモジュール280の下端部は前記ティルティング部材271の加圧部271dに安着された状態を維持する。そして、前記前方カメラモジュール280の前面下端部は前記加圧部271dの上向き傾斜が始まる部分に接触した状態である。もちろん、前記ティルティング部材271のスライドリブ271cは前記カメラ溝221bのスライド溝221cに挿入された状態である。
図11は図8のI−Iに沿って切開される縦断面図であり、前方カメラモジュールがティルティングされた状態を示す断面図である。
図11を参照すると、ユーザが前記把持部271aを取って前記ティルティング部材271を後ろに押すと、前記ティルティング部材271がスライディング移動する。すると、前記加圧部271dが後退しながら前記前方カメラモジュール280の前面下端部を押す。
そして、前記前方カメラモジュール280は前記ガイド突起221dによって後方に移送せずに回転するようになる。
詳しくは、前記前方カメラモジュール280の前面に押す力が作用すると、前記ガイド突起221dは前記ガイド溝281に沿って相対移動する。正確には前記ガイド突起221は固定されている状態であるため、前記ガイド溝281が上側に移動する。ここで、前記ガイド溝281が円弧状にラウンドして形成されるため、前記前方カメラモジュール280が図面上で反時計方向に回転するようになる。そして、前記前方カメラモジュール280の回転中心Xは前記前方カメラモジュール280の前端部の上面縁に形成される。
前記回転中心Xが前記カメラモジュール280の前端部の上面縁に形成されるため、前記前方カメラモジュール280が回転しても前記前方カメラモジュール280の前端部の上面が前記上部ハウジング221に下側に下降しない。言い換えると、前記前方カメラモジュール280の前面部が前記ボディ部220の内部に入らない。その結果、前記前方カメラモジュール280のレンズ部の画角が狭くなる現象が発生しない長所がある。
もし、前記前方カメラモジュール280の回転中心Xが前記前方カメラモジュール280の前方縁から前記前方カメラモジュール280の中心の方に離隔される位置に形成されれば、撮影過程で前記上部ハウジング221が一緒に撮影される現象が発生する。即ち、カメラの画角が狭くなるのである。
本発明の実施例による前方カメラモジュール280のティルティングメカニズムは上述した構造に制限されないことを明らかにする。言い換えると、本発明の思想は前記前方カメラモジュール280が前方にティルティング可能であることであり、上述したティルティング構造は本発明のティルティングメカニズムに対する思想を説明するための一つの実施例に過ぎないといえる。よって、多様な形態のティルティングメカニズムが提案可能であることを再度明らかにする。
それだけでなく、前記ではユーザの手動操作によって前記前方カメラモジュール280がティルティングされる例についてのみ説明したが、前記前方カメラモジュールが自動的にティルティングされる思想を排除することではないことを明らかにする。
例えば、図示していないが、前記後方カメラモジュール290を回動するための駆動モータと同じ形態の駆動モータが装着され、ラック/ピニオン構造が具備されて前記ティルティング部材271を前後方向にスライディング移動可能にする構造も適用可能である。
また他のティルティングメカニズムの一つの方法として、前記前方カメラモジュール280の前端部の上面縁にヒンジ軸が横方向に水平に形成されるようにし、前記ヒンジ軸が前記駆動モータの回転軸にギアアセンブリによって連結される構造も可能である。前記ヒンジ軸は、前記前方カメラモジュール280の前端部の上面縁を通る接線と一致し、前記上部ハウジング221に回転可能に連結される。
このように、前記前方カメラモジュール280が駆動モータによって自動的にティルティング可能になると、前記ウェアラブル装置200と通信する前記移動端末機100を介して前記前方カメラモジュール280のティルティングを調節することができる。
例えば、前記で短く言及したように、前記移動端末機100にカメラ撮影アプリケーションが設置され、前記カメラ撮影アプリケーションを実行して前記前方カメラモジュール280のティルティング命令を入力するようにしてもよい。すると、前記前方カメラ撮影アプリケーションの制御部を介してティルティング動作のための命令信号が生成され、前記命令信号は無線通信部を介して前記ウェアラブル装置200に伝送される。そして、前記ウェアラブル装置200では受信された命令信号に基づいて前記駆動モータの動作を制御することで、前記前方カメラモジュール280のユーザの望みの角度にティルティングされる。以下、前記アプリケーションを利用したカメラモジュールの作動制御について図面を参照して説明する。
図12Aは、移動端末機のディスプレー部を示す図である。
図12Aを参照すると、前記移動端末機100のディスプレー部151には前記ウェアラブル装置20で再生されている音楽情報又はラジオ情報が表示される再生画面151aがディスプレーされる。
前記再生画面151aは前記ティスプレー部151の全体の大きさより小さい大きさで上側に配置される。そして、前記再生画面151aの下側にはカメラ実行アプリケーションが配置される。前記カメラ実行アプリケーションは第1撮影アプリケーション100と第2撮影アプリケーション20を含む。前記第1撮影アプリケーション10は前記移動端末機の前面と後面に設置されたカメラモジュールを利用して撮影するためのアプリケーションであり、前記第2撮影アプリケーション20は前記ウェアラブル装置200に設置された前方カメラモジュール280と後方カメラモジュール290を利用して説明するためのネックバンドカメラアプリケーションである。
そして、前記再生画面151aと前記カメラ実行アプリケーション10,20は前記ディスプレー部151のロック状態(lock state)で表示されてもよく、アンロック状態(unlock state)で表示されてもよい。
図12Bは、前記第2撮影アプリケーションをタッチした際に表示される画面の状態を示す図である。
図12Bを参照すると、ユーザが前記ウェアラブル装置200に設置されたカメラモジュールを利用して撮影しようとして撮影命令を前記移動端末機100を介して入力しようとする際、ユーザは前記第2撮影アプリケーション20をタッチする。
すると、前記ディスプレー部151の画面が変わって前記ディスプレー部151に前方カメラアイコン21、後方カメラアイコン22とデュアルモードアイコン23が表示される。
前記前方カメラアイコン21は前記ウェアラブル装置200の前方カメラモジュール280を利用して撮影しようとする際にユーザによってタッチされる。そして、前記後方カメラアイコン22は前記ウェアラブル装置200の前方カメラモジュール290を利用して撮影しようとする際にユーザによってタッチされる。そして、前記デュアルモードアイコン23は前記前方カメラモジュール280と後方カメラモジュール289を同時に利用して撮影しようとする際にユーザによってタッチされる。前記デュアルモードアイコン23がタッチされると前記前方カメラモジュール280に映る第1被写体が主被写体となって前記ディスプレー部151の全体にディスプレーされ、前記後方カメラモジュール290に映る第2被写体がサブ被写体となって前記第1被写体の前面に重なって画面の中の画面(Picture In Picture)形態にディスプレーされる。そして、ユーザの選択に応じて前記第1被写体がサブ被写体に転換され、前記第2被写体が主被写体に転換される。
他の方法としては、前記ディスプレー部151が上側領域と下側領域に区画され、前記第1被写体が前記上側と下側領域のうちいずれか一つにディスプレーされ、前記第2被写体が上側と下側領域のうち他の一つにディスプレーされるようにしてもよい。そして、ユーザの選択に応じて前記第1被写体と第2被写体のディスプレー領域が転換されるようにしてもよい。
図12Cは、前方カメラアイコンが選択された際のディスプレー部を示す図である。
図12Cを参照すると、ユーザが前記図12Bの状態で前記前方カメラアイコン21を選択した場合、前記前方カメラモジュール280が駆動されて撮影待機状態になる。
詳しくは、撮影待機状態では前記前方カメラモジュール280のイメージセンサに映る被写体の像が前記ディスプレー部151に表示される。そして、前記ディスプレー部151の下側の領域には撮影アイコン31と確認ウィンドウ32及び選択アイコン33などが表示される。
前記撮影アイコン31はユーザが手でタッチして前記前方カメラモジュール280が撮影動作を行うようにする命令入力部である。よって、ユーザが前記撮影アイコン31をタッチすると撮影音響と共に前記ディスプレー部151に表示される被写体が撮影される。
前記確認ウィンドウ32は以前に撮影したイメージが小さく幼児される部分であり、前記確認ウィンドウをタッチすると以前に撮影されたイメージが前記ディスプレー部151に表示される。
前記選択アイコン33はユーザがイメージを撮影するか動画を撮影するかを選択するためのアイコンであって、ユーザが前記選択アイコン33をタッチした状態で左側又は右側にスライディングするとイメージ撮影モードと動画撮影モードのうちいずれか一つが選択される。前記撮影アイコン31、確認ウィンドウ32及び選択アイコン33は従来の移動端末機にも具備されている機能であって、それに関する詳細な説明は省略する。
一方、前記撮影待機状態では前記ディスプレー部151の下側縁部分に角度調節アイコン34が表示される。前記角度調節アイコン34は前記前方カメラモジュール280を上向き又は下向きに回転する命令を入力するためのタッチボタンである。前記角度調節アイコン34は上向き回転ボタン341と下向き回転ボタン342を含む。
このような構造によると、ユーザは前記角度調節アイコン34をタッチしながら前記前方カメラモジュール280の指向角度を調節することができる。前記前方カメラモジュール280の指向角度が変更されることで前記ディスプレー部151に表示される被写体も変更され、ユーザが前記被写体を確認しながら前記前方カメラモジュール280の指向角度を調節することができる。よって、ユーザは前記ウェアラブル装置200のボディ部200を手で直接操作しなくても直接望みの被写体を正確に撮影しそれを確認することができる長所がある。
一方、本図面で説明されるないような前記後方カメラアイコン22及び前記デュアルモードアイコン23にも同じく適用されることを明らかにする。特に、前記デュアルモードアイコン23が選択された際には前記前方カメラモジュール用角度調節アイコンと後方カメラモジュール用角度調節アイコンがそれぞれディスプレーされるべきである。
また、前記で説明される他の実施例によるウェアラブル装置のうち、カメラティルティングが可能なウェアラブル装置200は全て前記カメラ実行アプリケーションによって同じく制御可能であることを明らかにする。
一方、前記で提示されたようにユーザが移動端末機100に設置された第2撮影アプリケーション20をタッチ及び活性化して前記前方カメラモジュール280及び/又は後方カメラモジュール290の撮影動作を制御する方法以外にも他の方法も提示可能である。
例えば、前記ウェアラブル装置200の電源がオンされると自動的に前記カメラモジュール280,290が撮影動作を行うようにしてもよい。
詳しくは、ユーザが前記ウェアラブル装置200を首に着用して前記電源スイッチ229をオンすると、前記移動端末機100とウェアラブル装置200に具備された近距離通信モジュール、一例としてブルートゥースモジュール間にペアリング(pairing)が行われて通信可能な状態になる。ここで、前記移動端末機100はユーザの手に取られた状態であるかユーザが担いでいるかばんの中又はユーザの服に具備されているポケットに収納され、前記ウェアラブル装置200と近距離通信が可能な範囲内にあることを前提にする。
そして、前記近距離無線通信モジュール間のペアリングが完了されると同時に一定時間の間隔を置いて周期的に前記カメラモジュール280,290が撮影動作を行うようにしてもよい。そして、撮影されたイメージ情報は前記移動端末機100の制御部に伝送されてメモリに記憶されるようにしてもよい。
又は、ユーザが前記ウェアラブル装置200のプレーボタン223を押して音楽再生命令を入力すると、それと同時に前記カメラモジュール280,290は一定時間の間隔を置いて周期的に撮影動作を行うようにしてもよい。
他の方法として、前記ウェアラブル装置200のボディ部220に振動センサ又はタッチセンサが具備され、ユーザが前記ボディ部220をタッチするか叩くことを感知して前記カメラモジュール280,290が作動するようにしてもよい。
詳しくは、ユーザが前記ボディ部220をタッチするか叩く回数に対応してイメージ撮影モード命令又は映像撮影モード命令が決定され、該当モード遂行命令が入力されると前記カメラモジュール280,290がさどうするようにしもよい。
例えば、ユーザが前記ボディ部220を2回タッチすると前記ウェアラブル装置200の制御部209ではイメージ撮影モードと認識し、3回タッチすると映像撮影モードと認識するようにしてもよい。そして、イメージ撮影モード命令が入力されると設定時間内に設定回数のイメージカットを撮影するようにしてもよい。即ち、ボディ部220を2回タッチすると1秒間隔にイメージが3回撮影されるようにするなどの制御も可能である。
また、前記ボディ部220を3回タッチして映像撮影モード命令が入力されると設定された時間の間に動作が撮影され、設定時間が経過すると自動的に撮影を中断するようにしてもよい。そして、撮影されたイメージ又は映像は近距離無線通信モジュールを介して前記移動端末機100のメモリ170に記憶されるようにしてもよい。
更に他の方法として、前記ウェアラブル装置200の電源がオンされてGPSを含む前記位置情報モジュール201dがオンされ、前記マイクロフォン202bを含む入力部202がオンされて特定イベントが感知されると自動的に前記カメラモジュール280,290が作動するように制御されてもよい。
前記特定イベントととしては以下のような場合が挙げられる。
第一、前記マイクロフォン202bを介して特定音響(sound)又は音声(voice)の入力が感知されると、前記カメラモジュール280,290が自動的に撮影動作を行うようにしてもよい。例えば、笑い声又は自動車の衝突音などが入力されると自動的に前記カメラモジュール280,290が作動して設定回数だけイメージ撮影が行われるようにするか、設定時間の間に動画が撮影されるようにしてもよい。
第二、前記位置情報モジュール201dによって前記ウェアラブル装置200の現在位置(又はユーザの現在位置)が設定距離以上に変動された場合には前記カメラモジュール280,290が自動的に動作するようにしてもよい。
第三、前記ウェアラブル装置200のセンシング部204のうち近接センサ204aによって任意の物体が設定された距離範囲以内に入ることを感知すれば自動的に前記カメラモジュール280,290が動作するようにしてもよい。例えば、事故を誘発する物体がユーザに傷害を与える恐れがある距離、即ち危険半径内に急に入ってくると、前記カメラモジュール280,290が作動してイメージ又は映像撮影が行われるようにしてもよい。すると、後に事故の原因を明らかにするのに役に立つ。
図13は、本発明の第4実施例によるウェアラブル装置の斜視図である。
図13を参照すると、本実施例によるウェアラブル装置200は第3実施例によるウェアラブル装置200の構造と殆ど同じであるが前記ボディ部220の一部がティルティング可能であることに差がある。即ち、第3実施例では前記前方カメラモジュール280自体がティルティングされる構造を特徴とする一方、本実施例では前記前方カメラモジュール280が装着されたボディ部220の一部分がティルティングされることを特徴とする。
詳しくは、前記一対のボディ部220a,220bそれぞれは前記バンド部210に固定される固定部220dと、前記固定部220dの前端に回動可能に連結される回動部220cを含む。例えば、前記回動部220cの後端部の両側面にヒンジ軸が突出され、前記ヒンジ軸が前記固定部220dに連結されるようにすることでユーザが手動で前記回動部220cを望みの角度に回転することができる。
又は、前記ヒンジ軸に上述した駆動モータとギアアセンブリ構造を適用することでユーザが前記図12A乃至図12Cで説明したような移動端末機100のカメラ実行アプリケーションを介して自動的に前記回動部220cが回転するようにすることもできることを明らかにする。
図14は本発明の第5実施例によるウェアラブル装置の正面斜視図であり、図15は本発明の第5実施例によるウェアラブル装置の背面斜視図である。
図14乃至図15を参照すると、本実施例によるウェアラブル装置200は前記第3実施例によるウェアラブル装置200の構成を殆ど同じであるが、前方カメラモジュール280の装着位置と装着方法に差がある。
詳しくは、第3実施例によるウェアラブル装置200は前方カメラモジュール280が前記ボディ部220に装着されることを特徴とする一方、本実施例によるウェアラブル装置200は前記前方カメラモジュール280が前記ボディ部220から分離可能であることを特徴とする。
より詳しくは、前記イヤホン240a,240bが装着されるイヤホンホルダ225に本実施例による前方カメラモジュール280が着脱可能に装着される。そして、前記左側ボディ部と右側ボディ部に前記前方カメラモジュール280がそれぞれ装着されるか、左側ボディ部と右側ボディ部のうちいずれか一側にのみ前記前方カメラモジュール280が設置されてもよい。
一方、前記前方カメラモジュール280が前記ボディ部220の前端部に装着されることで前記イヤホン240a,240bの装着位置が変更されている。詳しくは、前記ボディ部220の底面、即ち前記下部ハウジング222の底部に前記イヤホン240a,240bが収容される凹部が形成され、前記音響ケーブル245は前記凹部を貫通して前記イヤホン240a,240bに連結される。よって、ユーザは前記ボディ部220の底面に安着される前記イヤホン240a,240bを引っ張って耳に差し込み、リールボタンを押して前記イヤホン240a,240bの音響ケーブルのリールに巻かれるようにして前記イヤホン240a,240bが前記凹部に更に安着されるようにする。
図16は、図15のウェアラブル装置に装着される前方カメラモジュールの斜視図である。
図16を参照すると、本発明の実施例による前方カメラモジュール280は前記ウェアラブル装置200から分離可能なことを特徴とする。
詳しくは、前記前方カメラモジュール280はカメラ282と、前記カメラ282の前面に結合されるレンヌ283と、前記カメラ282の側面部に形成されるオートフォーカシングセンサ289と、前記カメラ282の後面に結合される連結部285と、前記連結部285の後面から延長される挿入部286を含む。
前記カメラ282の後面には球状のベアリング284、即ちジャーナルベアリングが形成され、前記連結部285の内部には前記ベアリング284が安着されるベアリング溝が形成される。よって、前記ベアリング284が前記連結部285に結合されて前記カメラ282が2軸方向回転が可能になる。
また、前記挿入部286の側面には電源と電気信号を伝達するための端子部が形成され、前記挿入部286の後端にはマグネット287が装着される。そして、前記ボディ部220の前端には前記挿入部286が挿入される挿入溝が形成される。そして、前記挿入溝の内週面には前記端子部288と接触されて電気的に連結される端子部が形成される。そして、前記挿入溝には磁性体が付着されて前記マグネット287と結合される。よって、前記挿入部286を前記ボディ部220の前端に形成された前記挿入溝に挿入すると磁力によって前記挿入部286が前記ボディ部220に結合され、前記端子部288が前記挿入溝に形成された端子部と電気的に連結される。
そして、前記前方カメラモジュール280は磁力によって前記ボディ部220に結合されるため、ユーザが容易に前記前方カメラモジュール280を分離することができる長所がある。そして、前記マグネット287の磁力は前記前方カメラモジュール280が外部衝撃によって前記前方カメラモジュール280がボディ部220から分離されない程度の大きさを有する。例えば、ユーザが前記ウェアラブル装置200を着用した状態で走っても前記前方カメラモジュール280が前記ボディ部220から分離されない。
また、前記前方カメラモジュール280が前記ボディ部220に結合された状態でユーザは前記カメラ282を望みの角度に調節可能な長所がある。特に、前記ベアリング284が球状のジャーナルベアリング構造で形成されているため、前記カメラ282の後面が前記連結部285の前面に当たる範囲内では角度の制限がない。即ち、前記カメラ282の指向角範囲はパラボラアンテナ形状の3次元軌跡を形成する。
図17は本発明の第6実施例によるウェアラブル装置の前面斜視図であり、図18は本発明の第6実施例によるウェアラブル装置の背面斜視図である。
図17及び図18を参照すると、本実施例によるウェアラブル装置200は前記第3実施例によるウェアラブル装置200の構造と殆ど同じであるが、前記前方カメラモジュール280の装着位置に差がある。
詳しくは、本実施例によるウェアラブル装置200に装着される前方カメラモジュール280は図16で提示した前方カメラモジュール280と実質的に同じであり、前記ボディ部220から分離可能に装着される。
また、本図面では前記着脱型前方カメラモジュール280が前記ボディ部220の前面後側に装着されると提示されているが、それに制限されることはない。言い換えると、図7に提示されたウェアラブル装置200の構造に提供される前方カメラモジュール280が装着されるところに本実施例による着脱型前方カメラモジュール280が装着される構造も可能である。そして、前記着脱型前方カメラモジュール280の装着位置に応じて各種ボタン部の位置は適切に変更可能である。
まとめると、第6実施例によるウェアラブル装置200の特徴は着脱型前方カメラモジュール280が前記ボディ部220の前端部だけでなく上面にも分離可能に結合されるということである。但し、前記前方カメラモジュール280が前記ボディ部220の上面に結合される場合、前記カメラ282の画角を確保するために前記連結部285と前記挿入部286が成す角度が異なる必要はある。
他の方法として、前記カメラ282の回転角度範囲を調節して十分な画角を確保することもできる。例えば、前記カメラ282の後面と前記連結部285間の離隔距離を調節すると、前記カメラ282の回転角度範囲、即ち放物線軌跡が広がる角度を調節することができる。すると、前記カメラ282の回転範囲をより大きくするかより小さくすることができる。
図19及び図20は、本発明の第7実施例によるウェアラブル装置の斜視図である。
図19及び図20を参照すると、本発明の第7実施例によるウェアラブル装置200は第6実施例によるウェアラブル装置200の構造と実質的に同じであるが、前方カメラモジュールの構造と作動メカニズムに差がある。
詳しくは、本実施例によるウェアラブル装置200に具備される前方カメラモジュール380は前記ボディ部220の上面にポップアップ(pop−up)可能に装着されることを特徴とする。
図19に示したように、前記前方カメラモジュール380が動作しないときには前記前方カメラモジュール380の上部面を除く残りの部分は前記ボディ部220の内部に隠された状態に維持される。そして、前記前方カメラモジュール330の上部面と前記ボディ部220の上面が実質的に同じ平面を成すように設計されてもよい。
図20に示したように、前記前方カメラモジュール380を利用してユーザの前方にある被写体を撮影する際には、前記前方カメラモジュール380の前面部が所定角度だけ上側にポップアップされる。すると、前記前方カメラモジュール380のレンズ部が外部に露出されて前方を向くようになる。
その他、本実施例による前記ウェアラブル装置200の構成は以前の実施例で提示された構成と実質的に同じであるため、それらに対する重複説明は省略する。
以下、前記前方カメラモジュール380の具体的な構成及び動作方法について一例を挙げて説明する。以下で説明される前記前方カメラモジュール380のポップアップ動作のためのメカニズムは一実施例に当たるだけであって、下記で提示される構造に本発明の思想が制限されることはなく、またポップアップ動作のための他の可能な実施例を排除することではないことを明らかにする。即ち、前記前方カメラモジュール380がポップアップ可能にボディ部220に装着される本発明の思想を具現する構造的なメカニズムは全て本発明の思想に含まれることを明らかにする。
図21は、本発明の実施例によるポップアップ可能な前方カメラモジュールの分解斜視図であり、図22Aは前記ポップアップ可能な前方カメラモジュールが安着されるボディ部の部分平面図である。
図21を参照すると、本発明の実施例によるポップアップ可能な前方カメラモジュール380は、ケース381と、前記ケース381の前面に安着されるカメラ382と、前記カメラ382の前面に置かれるレンズ383を含む。
詳しくは、前記ケース381の後端部の両側面にはヒンジ軸384が突出形成され、前記ヒンジ軸384にはトーションばねを含む弾性部材389が装着される。前記弾性部材389の復元力によって前記ケース381が前記ヒンジ軸384を中心に回動可能になる。即ち、前記前方カメラモジュール380のポップアップ可能にする力になる前記弾性部材389の復元力になるように設計される。しかし、必ずしもこれに制限されることはない。
また、前記ケース381の前面部下端にはかかり突起387が前方に突出形成される。そして、前記ケース381の底面にはラッチ387が突出形成される。
一方、前記ケース381の外周面、一実施例として上部面には点線で示したようにオートフォーカシングレンズ388が装着される。
図22Aを参照すると、前記ウェアラブル装置200のボディ部220、具体的には上部ハウジング221には前記前方カメラモジュール380が安着されるカメラモジュール収容溝221gが凹んで形成される。
詳しくは、前記カメラモジュール収容溝221gの前面縁には係り突起221fが突出され、底面にはラッチレシーバー221hが形成されて前記ラッチ386が選択的にかかるようにする。前記ラッチ386とラッチレシーバー221h構造はユーザの操作によって選択的に結合又は分離されるプッシュアンドプッシュボタン(push and push botton)構造である。即ち、前記ケース381を押して前記ラッチ386が前記ラッチレシーバー221hに結合されるようにした状態で、前記ケース381を押してから離すと前記ラッチ386が前記ラッチレシーバー221hから分離されるボタン構造である。
また、前記ケース381の側面に突出される前記ヒンジ軸384は前記上部ハウジング221に回動可能に結合される。
図22Bは、図19のII−IIに沿って切開される断面図である。
図22Bを参照すると、前記前方カメラモジュール380が前記カメラモジュール収容溝221gに収容された状態では前記前方カメラモジュール380の上面のみが外部に露出される。そして、前記前方カメラモジュール380の上面は前記ボディ部220の上部ハウジング221と同じ平面を成すようにしてもよい。
詳しくは、前記前方カメラモジュール380が前記カメラモジュール収容溝221gに収容された状態では前記ラッチ386が前記ラッチレシーバー221hに結合された状態で維持され、前記弾性部材389には復元力が蓄積される。
図22Cは、図20のIII −III に沿って切開される断面図である。
図22Cを参照すると、前記前方カメラモジュール380をポップアップするためにはユーザが前記前方カメラモジュール380の上面を押してから離す動作を行う。すると、前記ラッチ386が前記ラッチレシーバー221hから分離される。そして、前記弾性部材389の復元力によって前記ケース381が前記ヒンジ軸384を中心に回動し、前記前方カメラモジュール380の前面が前記上部ハウジング221の上側にポップアップされる。
この際、前記ケース381の前面下端に突出されたかかり突起387は前記上部ハウジング221の前面上端に突出された前記かかり突起221fにかかってそれ以上回転することができなくなる。即ち、前記係り突起387,221fがストッパーの機能をする。
本発明の実施例による前方カメラモジュール380のポップアップメカニズムは上述した方法以外にも多様な方法が提案可能であることを更に明らかにする。
図23は本発明の第8実施例によるウェアラブル装置の前面斜視図であり、図24は本発明の第8実施例によるウェアラブル装置の背面斜視図であり、図25は本発明の第8実施例によるウェアラブル装置の着用状態を示す図である。
図23乃至図25を参照すると、本発明の第8実施例によるウェアラブル装置300はヘッドセット又はヘッドホン形状のウェアラブル装置であってもよく、前記ウェアラブル装置300にカメラモジュールが装着されることを特徴とする。
図23を参照すると、前記ウェアラブル装置300はバンド部310と前記バンド部310の両端部に結合されるボディ部320と、前記一対のボディ部320のうちいずれか一つ又は両方に装着される前方カメラモジュール380及び前記バンド部310の装着される後方カメラモジュール390を含む。
前記ウェアラブル装置300がバンド部310とボディ部320及びカメラモジュール380,390で形成されることは以前の実施例によるウェアラブル装置と同じである。
詳しくは、前記バンド部310は第1バンド310aと第2バンド310bで形成され、前記第1バンド310bの一端に前記ボディ部320がそれぞれ装着される。そして、前記第1バンド310aと第2バンド310bの他端は前記後方カメラモジュール390によって互いに連結される。これは以前の実施例で説明した構造と同じである。即ち、前記後方カメラモジュール390は前記バンド部310に装着された状態で所定角度だけ上向き及び下向き回転が可能である。
また、前記ボディ部320は円板状のヘッドホンであってもよく、前記ボディ部320の外側面にはアウトカバー321が回転可能に装着される。そして、前記アウトカバー321に前記前方カメラモジュール380が装着される。そして、前記前方カメラモジュール380は図示されたように前記ボディ部320から突出された状態で前記アウトカバー321に固定されるかポップアップ可能な構造で前記ボディ部320に装着される。そして、前記前方カメラモジュール380にはオートフォーカシングセンサ388が装着される。
図25を参照すると、ユーザは前記ウェアラブル装置300を頭に着用する。
詳しくは、前記ボディ部320の内側面に具備されたスピーカホールがユーザの耳を向かうように前記ボディ部320をユーザの耳に密着する。そして、前記方向カメラモジュール390がユーザの前方を向かうように前記バンド部310をユーザの額に位置する。ユーザが帽子を着用した状態では、図示したように前記バンド部310が帽子のひさしにかかるようにする。そして、前記前方カメラモジュール380のレンズが前方を向かうように回転する。すると、一対の前方カメラモジュール380と前記後方カメラモジュール390が全てユーザの前方を向かった状態で被写体を撮影する。そして、前記多数のカメラモジュール380,390で撮影されたイメージは前記移動端末機100に伝送されて記憶される。
また、前記多数のカメラモジュール380,390を同時に作動して3D映像の撮影を可能にする。
他の形態の着用方法として、ユーザは前記ボディ部320がユーザの耳に密着した状態で前記バンド部310を後ろに回転し、前記後方カメラモジュール390が後方を向かうようにしてもよい。
又は、ユーザが前記バンド部310を首にかけて前記ボディ部320がユーザの胸先に置かれるようにし、前記前方カメラモジュール380はユーザの前方を向き後方カメラモジュール390はユーザの後方を向くようにしてもよい。
図26及び図27は、本発明の第9実施例によるウェアラブル装置のボディ部を示す部分斜視図である。
図26及び図27を参照すると、本発明の第9実施例によるウェアラブル装置300は前記第8実施例によるウェアラブル装置300と構成が全て同じであるが、前記前方カメラモジュール380が前記ボディ部320から分離可能なことに差がある。
詳しくは、前記ボディ部320の外側面に前記アウトカバー321が回動可能に装着され、前記アウトカバー321の中央には図16で説明した着脱型前方カメラモジュール380が装着されるための挿入溝322が形成される。
そして、前記着脱型前方カメラモジュール280の挿入部286が前記挿入溝322に挿入される。前記挿入溝322の底面には導体が装着されて前記挿入部286の端部に結合された前記マグネット287が付着されるようにする。
また、前記挿入溝322の内部側面には前記端子部288と電気的に接触する端子部が形成される。
このような構造によって、ユーザは普段前記前方カメラモジュール280を分離保管していながら、撮影の必要がある際に前記前方カメラモジュール280を前記ボディ部320に結合する。
図28は、本発明の第10実施例によるウェアラブル装置の斜視図である。
図28を参照すると、本発明の第10実施例によるウェアラブル装置400は、バンド部410と、前記バンド部410の両端部に結合される一対のボディ部420と、前記一対のボディ部420の前面にそれぞれ装着される前方カメラモジュール480と、前記バンド部410の回転可能に装着される後方カメラモジュール490及び前記ボディ部420に引き出し可能に結合されるイヤホン440を含む。
詳しくは、前記バンド部410は以前の実施例と同じく第1バンド410aと第2バンド410bで形成され、前記第1バンド410aと第2バンド410bは前記後方カメラモジュール490によって互いに連結される。前記後方カメラモジュール490は第1実施例による後方カメラモジュール290と同じ構造で形成される。
また、前記ボディ部420は前記第1バンド410aと第2バンド419bの端部に固定されるリアハウジング420bと、前記リアハウジング420bの前端部に回動可能に結合されるフロントハウジング420aを含む。そして、前記ボディ部420の内部には図4で説明した各種部品が内装され、前記フロントハウジング420aの回転に影響を受けず、前記ボディ部420の内部に固定される。
詳しくは、前記リアハウジング420bとフロントハウジング420aは所定直径と長さを有する円筒状に形成される。前記フロントハウジング420aは前記リアハウジング420bに連結された状態で長さ方向の中心軸を中心に左側又は右側に回転可能に構成される。そして、前記フロントハウジング420aの左側又は右側方向の回転によって前記前方カメラモジュール480の焦点距離を調節する。これは、移動端末機のディスプレー部に親指と人差し指を接触した状態で画面を拡大するか縮小することと同じ原理に当たるといえる。即ち、前記フロントハウジング420aを左側又は右側方向のうちいずれか一方向に回転すると焦点距離が長くなり、他の方向に回転すると焦点距離が短くなって被写体を拡大又は縮小して撮影することができる。
また、前記リアハウジング420bにはイヤホン収容溝421が凹んで形成され、前記イヤホン収容溝421を貫通して音響ケーブル445が引き出される。そして、前記音響ケーブル445に前記イヤホン440が連結される。そして、図4で説明したようなリール部材が前記ボディ部420の内部に装着され、前記音響ケーブル445が引き出された状態で自動的に巻かれるようにして前記イヤホン440が前記イヤホン収容溝421に配置固定されるようにする。
一方、図面には明確に示されていないが、前記リアハウジング420bの外周面には図1乃至図4で説明された各種ボタンとスピーカホール及びマイクが適切に配置されてもよい。
図29は本発明の第11実施例によるウェアラブル装置の斜視図であり、図30は本発明の第11実施例によるウェアラブル装置の分解斜視図である。
図29及び図30を参照すると、本発明の第11実施例によるウェアラブル装置400は第10実施例によるウェアラブル装置の構造と実質的に同じであるが、前方カメラモジュールが別途のユニット形態に前記ウェアラブル装置400に分離可能に装着されることに差がある。そして、前記ボディ部420のハウジングはリアハウジングとフロントハウジングに具分されずに単一の円筒状に形成されるハウジングで形成されることに差がある。そして、第10実施例とは異なって本実施例によるウェアラブル装置400のイヤホン440は前記ボディ部420の前面に引き出し可能に装着される。
本実施例による前方カメラモジュール480は前記ボディ部420に固定又は分離可能に装着されず、別途の支持台430によって前記ボディ部420に分離可能に連結されることを特徴とする。
詳しくは、前記前方カメラモジュール480はケース481と前記ケース481の前面に装着されるカメラ482及びレンズを含み、別途に図示していないが前記ケース481の一側にオートフォーカシングレンズが装着される。
また、前記支持台430は支持バー(support bar)431と前記支持バー431の両端部に形成される支持ホルダ432を含む。前記支持ホルダ432は前記ボディ部420の外周面に差し込まれるように「C」の字の形態にラウンドして形成される。そして、前記支持バー431が前記ケース481の側面を貫通して前記前方カメラモジュール480が前記支持バー431に連結される。そして、前記支持ホルダ432が前記ボディ部420に差し込まれることで前記前方カメラモジュール480が前記ウェアラブル装置400に分離可能に装着される。
また、前記前方カメラモジュール480は前記支持バー431に連結された状態で上下方向に回転可能である。詳しくは、前記前方カメラモジュール480はユーザによって手動に回転するだけでなく、図5に示したように駆動モータによって自動的に回転してもよい。
そして、前記前方カメラモジュール480から延長される電力線、信号線又は軟性基板は前記支持バー431の内部空間に配置され、前記支持ホルダ432の内週面には端子部433が形成される。そして、前記ボディ部420の外周面、詳しくは前記支持ホルダ432と密着する部分に端子部424が形成される。よって、前記支持ボルダ432が前記ボディ部420に装着されると、前記端子部433,434が互いに接触して前記前方カメラモジュール480と前記ボディ部420の内部に装着された制御部が電気的に連結される。即ち、前記端子部433,424を介して前記制御部と前記前方カメラモジュール480間の電力送信、データ送受信及び信号送受信が行われる。
図31は、本発明の第12実施例によるウェアラブル装置の斜視図である。
図31を参照すると、本発明の第12実施例によるウェアラブル装置500はバンド部510と、前記バンド部510の両端部にそれぞれ結合される一対のボディ部520と、前記ボディ部520の外側面に結合される前方カメラモジュール580と、前記バンド部510に結合される後方カメラモジュール590を含む。
詳しくは、本実施例によるウェアラブル装置500は前記第11実施例によるウェアラブル装置400と同じくヘッドセット形態である。そして、前記バンド部510はユーザの首又は頭部分を囲むようにラウンドする形態で形成される。そして、前記バンド部510は第1レール510aと、前記第1レール510aから離隔された状態で単一対に構成される第2レール510bを含む。そして、前記レール510a,510bは所定の直径を有するワイヤがアーチ型にラウンドして形成される。
前記ボディ部520は円板状に形成され、内側面にはスピーカホールが形成される。そして、前記ボディ部520の外側面にはアウトカバー521が回動可能に装着され、前記アウトカバー521に前記前方カメラモジュール580が結合される。他の方法として、前記前方カメラモジュール580が前記ボディ部520の外側面に回転可能に装着されてもよい。そして、前記前方カメラモジュール580は図示されたように円筒状に形成されてもよく、以前の実施例で提示された前方カメラモジュールが装着されてもよい。
また、前記後方カメラモジュール590は前面又は後面にカメラホール591aが形成されるケース591と、前記ケース591の内部に収容されるカメラ592と、前記ケース591の内部に装着される回路基板594と、前記ケース591の底面に結合されるスライダー593及び前記スライダー593の底面を覆うロアカバー595を含む。
詳しくは、前記カメラ592は前記カメラホール591aに差し込まれてユーザの前方又は後方を向かうように設置される。そして、前記スライダー593の底面にはスライド溝593aとスライドホール593bが形成される。
より詳しくは、前記スライド溝593aは前記スライダー593の前端部の底面から上側に凹んで形成され、前記スライド溝593aに前記第1レール510aが挿入される。
また、前記スライド溝593bは前記スライダー593の後端部に形成され、前記スライダー593の左側端部から右側端部を貫通して形成され、前記スライドホール593aに前記第2レール510bが挿入される。前記スライド溝593aに前記第2レール510bが挿入されることで前記スライダー593は前記バンド部510と一体に形成される。ここで、前記スライド溝593aが前記スライダー593の後端に形成され、前記スライド溝593bが前記スライダー593の前端に形成されてもよい。
図32及び図33は、本発明の第12実施例による後方カメラモジュールの動作の様子を示す図である。
図32を参照数と、前記後方カメラモジュール590のスライダー593は前記バンド部510に沿ってスライディング移動し、前記バンド部510の左側端部から右側端部までスライディング移動可能である。
また、前記ケース591は前記スライダー593の上面から垂直軸を中心に時計方向又は反時計方向に回動可能に設置される。例えば、前記ケース591の底面と前記スライダー593を連結する垂直軸が提供され、前記垂直軸を中心に前記ケース591が回動するように設計される。よって、前記バンド部510がユーザの頭を囲む形態に前記ウェアラブル装置500をユーザの頭に着用した状態で、前記ケース591を回転して前記カメラ592がユーザの前方又は後方に向かうようにする。
図33を参照数と、前記後方カメラモジュール590は前記第2レール510bを回転中心にして上下方向に回動可能である。
詳しくは、前記第1レール520aが前記スライド溝593aから分離されるように前記後方カメラモジュール590を回転すると、前記スライダー593は前記第2レール510bにのみ連結された状態になる。そして、前記第2レール510bは前記スライド溝593bを貫通して差し込まれた状態であるため、前記後方カメラモジュール590が前記バンド部から分離されない。この状態で前記後方カメラモジュール590を前方又は後方に回転して前記カメラ592の指向角を調節する。
<移動端末機の制御及びユーザいたフェースの具現方法>
本発明のウェアラブル装置によると、電源がオンされるとウェアラブル装置200のメモリ207に記憶されている音楽ファイルがウェアラブル装置200の再生ボタン223によって再生されるか、移動端末機100のメモリ170に記憶されている音楽ファイルを無線でウェアラブル装置200に伝達されてウェアラブル装置200のスピーカを介して出力する。
本発明のウェアラブル装置によると、ウェアラブル装置200のカメラモジュール280,290はユーザの操作なしに自動的に時間周期に応じて前方カメラモジュール280及び後方カメラモジュール290のうち少なくとも一つがカメラがオンされて一枚又は複数枚の写真が瞬間的に撮影されてからカメラがオフされる。
本発明のウェアラブル装置によると、ウェアラブル装置200の位置情報モジュール210d、即ちGPSモジュールを介して位置変更が把握される際、前方カメラモジュール280及び後方カメラモジュール290のうち少なくとも一つのカメラがオンされて一枚又は複数枚の写真が瞬間的に撮影されてからカメラがオフされる。
本発明のウェアラブル装置によると、周辺状況をウェアラブル装置200のセンサ、例えば近接センサ204a及び/又は赤外線センサを介して認知して前方カメラモジュール280及び後方カメラモジュール290のうち少なくとも一つのカメラがオンされて一枚又は複数枚の写真が瞬間的に撮影されてからカメラがオフされる。周辺状況としては、周辺の音の大きさの変化を感知するか接近する物体を感知する。
本発明のウェアラブル装置によると、他の例として、ウェアラブル装置200のタッチセンサや地磁気センサなどを介してウェアラブル装置200を軽く叩くタッチ入力が感知される際にカメラを介して撮影を行わせる命令が瞬間的に下される。このような命令に応じて前方カメラモジュール280及び後方カメラモジュール290のうち少なくとも一つのカメラがオンされて一枚又は複数枚の写真が瞬間的に撮影されてからカメラがオフされる。
本発明のウェアラブル装置によると、ウェアラブル装置200に具備された撮影ボタン233を利用して周辺状況が撮影される。
本発明のウェアラブル装置によると、音楽を再生しながら前方カメラモジュール280及び/又は後方カメラモジュール290はユーザの操作なしに自動的にイメージをキャプチャーする。前記キャプチャーされたイメージは画面に大きく表示されず、画面のエッジ(edge)領域にキャプチャーされたイメージがあることをアラームなどを利用してユーザに通知する。
本発明の移動端末機によると、ウェアラブル装置200と連動される際、ユーザの移動時に移動端末機100の後面カメラに対するプレビュー画面とウェアラブル装置200の前面カメラに対するプレビュー画面が移動端末機100上に表示されるようにする。
本発明の移動端末機によると、移動端末機100がユーザの手に取られたことが認識されればウェアラブル装置20の前面カメラ及び/又は後面カメラに対するプレビュー画面が自動的に移動端末機100に表示されるようにする。
本発明の移動端末機によると、ユーザが音楽大きくして外部の音や騒音を聞けない際、外部の音がウェアラブル装置200のマイクに入力された場合には移動端末機100の画面上に警告灯と共に点滅しながら(例えば、赤色の点滅スクリーン)ユーザに危険を通知する。この際、外部の音や騒音による敏感度はユーザによって調節可能で、ユーザの環境或いは好みに合うように調節することができる。
図34は、本発明に関する移動端末機とウェアラブル装置の使用様態を示す図である。
図34に示したように、移動端末機100はユーザの手に取られ、ウェアラブル装置200はユーザの首にかけられるか固定されるように装着される。
ウェアラブル装置200は単独に又は移動端末機100の制御を受けて多様な機能を行う。
例えば、ウェアラブル装置200は移動端末機100の制御を受けて音楽ファイルを自体メモリ207に記憶するか、移動端末機100やネットワークを介して特定サーバから提供された音楽ファイルを再生する。
例えば、ウェアラブル装置200は移動端末機100の制御を受けて移動端末機100で受信したラジオ方法を提供されてユーザが聴取するようにする。又は、ウェアラブル装置200にラジオ受信モジュールが装着される場合、移動端末機100の制御を受けずにウェアラブル装置200は自らラジオ放送を受信してユーザが聴取するようにする。
例えば、ウェアラブル装置200は移動端末機100の制御を受けてウェアラブル装置200に装着されたカメラモジュール280,290を駆動する。
上述したように、ウェアラブル装置200に装着されたカメラモジュール280,290は前方の客体に対する映像、例えば写真イメージや動画を入力される前方カメラモジュール280と後方の客体に対する映像を入力される後方カメラモジュール290を含む。
このような場合、ウェアラブル装置200は移動端末機100の制御を受けて前方カメラモジュール280のみ、後方カメラモジュール290のみ又は前方カメラモジュール280と後方カメラモジュール280を同時に駆動する。
本発明で説明されるカメラモジュール280,290はカメラを含む付属物、例えばハウジング、回路基板及び/又は電子部品など一体を含む。
一方、ウェアラブル装置200は移動端末機100の制御を受けずにウェアラブル装置200に装着された各種ボタン223,223a,224,224a,232,233,233a,234を利用して音楽を再生するかラジオ放送を受信するかカメラモジュール280,290を駆動する。
本発明によると、ユーザは音楽やラジオ放送を聞きながらもウェアラブル装置200から提供された前方映像及び/又は後方映像がディスプレーされる移動端末機100の画面を介して周辺の動きや危険をリアルタイムで確認し対処することができるため、ユーザの安全を確保することができる。
本発明によると、ウェアラブル装置から提供された前方映像及び/又は後方映像がリアルタイムで録画されてユーザがいつでも前記録画された映像から特定時間帯に当たる映像を見ることができるため、車両の接触事故や犯罪現場に対する重要な証拠資料を提供することができる。
本発明によると、ウェアラブル装置から提供された前方映像及び/又は後方映像とユーザの現在位置情報を利用してユーザの望みの商店名やユーザが行こうとする場所を用意に探すことができる。
本発明によると、ウェアラブル装置から提供された前方映像及び/又は後方映像に基づいてユーザに移動した経路を案内し訪問地で撮影された写真イメージを提供することができるため、ユーザに旅行の思い出を提供することができる。
図35は、本発明の題13実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する順序図である。
図35を参照すると、移動端末機100はウェアラブル装置200とペアリングを行う。
ウェアラブル装置200は移動端末機100の構成要素でありうるが、それについては限定しない。
一例として、移動端末機100はウェアラブル装置200が一定距離以内に接近する際、移動端末機100とウェアラブル装置200との間に自動的にペアリングが行われるように制御する。
他の実施例として、移動端末機100はペアリング機能を活性化してから移動端末機100とウェアラブル装置200との間にペアリングが行われる。このような動作は移動端末機100のペアリング機能が活性化されて移動端末機100のバッテリ消耗が増加することを防ぐためである。
また他の実施例として、ウェアラブル装置200の電源がつけられた後、移動端末機100とウェアラブル装置200との間にペアリングが行われる。このような動作は常にウェアラブル装置200のペアリング機能が活性化されてウェアラブル装置200のバッテリ消耗が増加することを防ぐためである。
一方、ペアリング動作には認証過程が含まれる。移動端末機100に識別情報が事前に登録されたウェアラブル装置200に対してのみペアリングが行われる。移動端末機100に事前登録過程がない場合、移動端末機100は周辺の他の移動端末機100やウェアラブル機器とペアリングを試みるため移動端末機100のバッテリ消耗が増加する。
このようなペアリング動作を行うために、移動端末機100とウェアラブル装置200それぞれは通信モジュール114,201cを具備する。
ウェアラブル装置100とペアリングが完了されると移動端末機100はディスプレー部151を制御し、例えばウェアラブル装置専用アイコン(図36の1009)をディスプレーする(S312)。
例えば、ペアリングの完了は認証が成功し移動端末機100とウェアラブル装置200が連結された状態を意味する。このようにペアリングが完了されると、移動端末機100とウェアラブル装置200との間に互いに情報や命令が送受信される。ウェアラブル装置専用アイコン(図36の1009)は移動端末機100のディスプレー部151の任意の領域上にランダムにディスプレーされるか予め設定された領域上にディスプレーされる。
ウェアラブル装置専用アイコンは製造会社によって強制に設置されてもよいが、それについては限定しない。
もし、ウェアラブル装置200と移動端末機100との間にペアリングが解除されるとウェアラブル装置専用アイコン(図36の1009)は移動端末機100のディスプレー部151上から消えるが、それについては限定しない。
ウェアラブル装置専用アイコン(図36の1009)は移動端末機100の利用してウェアラブル装置200を制御する応用アプリケーションである。特に、ウェアラブル装置専用アイコン(図36の1009)は移動端末機100を利用してウェアラブル装置200の音楽再生やカメラモジュール280,290を駆動可能に制御する応用アプリケーションである。
移動端末機100はウェアラブル装置専用アイコン(図36の1009)を実行する(S313)。例えば、ユーザからウェアラブル装置専用アイコン(図36の1009)に対するタッチが入力されると移動端末機100はウェアラブル装置専用アイコン(図36の1009)を実行する。
このように、ウェアラブル装置専用アイコン(図36の1009)が実行されると、移動端末機100はディスプレー部151を制御してウェアラブル装置用制御画面(図36の1015)をディスプレーする(S314)。
ウェアラブル装置用制御画面(図36の1015)は音楽制御画面1011とカメラ制御画面1013を含む。音楽制御画面1011はラジオ制御画面に転換される。即ち、音楽制御画面1011とラジオ制御画面は互いに転換される。
音楽制御画面1011の代わりに音響制御画面と称されてもよい。音響制御画面は音楽再生だけでなく音楽以外の他の音響の再生も可能である。
移動端末機100は音楽再生命令が入力されるのかを確認し(S315)、その結果に応じて音楽を再生するように制御するS316。例えば、音楽制御画面1011に表示された静止及び再生ボタン1017に対する選択命令が入力されると、移動端末機100はこのような選択命令を音楽再生命令と認知し音楽を再生する。
移動端末機100はウェアラブル装置用制御画面1015を利用してウェアラブル装置200の前方カメラモジュール280及び/又は後方カメラモジュール290から映像を撮影するように制御する。
即ち、移動端末機100は前方カメラモジュール280及び/又は後方カメラモジュール290を駆動するためにウェアラブル装置用制御画面1015に表示されたボタン(図36の1021,1023,1025)のうちいずれか一つが選択されるのかを確認する(S317)。ボタンは前方カメラボタン1021、後方カメラボタン1023及び、前方カメラ1021及び後方カメラ1023両方を駆動するためのボタン1025である。
もし、ウェアラブル制御装置用制御画面1015に表示されたボタン1021,1023,1025のうちいずれか一つに対する選択命令が入力されると、移動端末機100はウェアラブル装置200を制御して前記選択命令に当たるカメラを駆動し、そのカメラから入力される映像に対するプレビュー画面をディスプレーする(S318)。
例えば、両方ボタン1025に対する選択命令が入力されると前方カメラモジュール280及び後方カメラモジュール290両方が駆動され、前方カメラモジュール280に入力される前方映像に対する前方プレビュー画面(図37の1024)と後方カメラモジュール290に入力される後方映像に対する後方プレビュー画面(図37の1026)がディスプレーされる。
ユーザから撮影命令が入力されると、移動端末機100をウェアラブル装置200を制御して該当カメラに入力される映像を撮影する(S319)。
一方、ペアリングが完了されると画面上に制御バーが表示される。制御バーはバッテリ状態表示領域であるか或いは上部や下部ベゼルからタッチドラッグ動作を介して他のレイヤー(layer)を形成する制御ウィンドウが表示され、その表示ウィンドウにウェアラブル装置200を制御する制御ウィンドウが表示される。例えば、制御ウィンドウにはウェアラブル装置200のオーディオとカメラをそれぞれ制御するウィンドウが表示される。
図36は、本発明の第13実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する画面例示図である。
図36Aに示したように、移動端末機100のディスプレー部151のホーム画面1001上にウィジェットアイコン1003と多数のアイコン1005がディスプレーされる。ホーム画面1001の下端領域上に以前ボタン、ホームボタン及びメニュボタンを含むソフトキー1007がディスプレーされ、ホーム画面1001の上端領域上に現在使用中の機能を示す状態表示バー1015がディスプレーされている。
以前ボタンは現在画面から以前画面に移動する部材であり、ホームボタンは現在画面をホーム画面1001にすぐに移動する部材であり、メニュボタンは設定、記憶、移動、削除のような多様なメニュを実行する部材である。
状態表示バー1016は、例えば下部方向にドラッグタッチが入力されると、例えばクイック設定機能アイコン、現在実行中の機能の状態や通知などのような多様な機能や状態情報がディスプレーされる。クイック設定機能アイコンとしては、例えばQメモ、Qスライド、振動/音モード、ワイファイ、回転、位置情報、ブルートゥース、機内モード、同期化、NFC、Qボイス、Qリモート、編集などがディスプレーされる。
ウィジェットアイコン1003は、例えば時間情報及び天気情報を含む。ウィジェットアイコン1003はネットワーク上に多様に存在し、これらの多様なウィジェットアイコン1003がダウンロードされて移動端末機100上にディスプレーされる。よって、ユーザは移動端末機100のディスプレー部151の上にディスプレーされるウィジェットアイコン1003を他のウィジェットアイコンに変更することができる。
アイコン1005は特定機能を実行する応用アプリケーションであって、例えば電話アイコン、メールアイコン、ゲームアイコン、マップアイコン、カメラアイコン、設定アイコン、ショッピングアイコン、新聞アイコンのような多様なアイコンが存在する。
ここで、カメラアイコンは移動端末機100に装着されたカメラ121、例えば移動端末機100の前面上に装着された前面カメラと移動端末機100の後面上に装着された後面カメラを実行する。
本発明によると、移動端末機100に装着されたカメラ121が駆動されるだけでなく、ウェアラブル装置200に装着された前方カメラモジュール280及び/又は後方カメラモジュール290も駆動される。ウェアラブル装置200の前方カメラモジュール280及び/又は後方カメラモジュール290はウェアラブル装置200自体的に又は移動端末機200の制御に応じて駆動される。
図36Bに示したように、移動端末機100がウェアラブル装置200とのペアリングが完了されると移動端末機100のホーム画面1001の任意の領域や予め設定された領域上にウェアラブル装置専用アイコン1009がディスプレーされる。
ウェアラブル装置専用アイコン1009は他のアイコン1005と異なるように処理される。例えば、ウェアラブル装置専用アイコン1009は他のアイコン1005より大きく拡大されてティスプレーされる。例えば、ウェアラブル装置専用アイコン1009の縁はハイライト(highlight)されて他のアイコン1005と区分される。例えば、ウェアラブル装置専用アイコン1009は一定周期に点滅するようにディスプレーされる。
ウェアラブル装置専用アイコン1009に対してタッチが入力されると、ウェアラブル装置専用アイコン1009が実行されて図36Cに示しように移動端末機100のディスプレー部151上にウェアラブル装置用制御画面1015がディスプレーされる。
ウェアラブル装置用制御画面1015はホーム画面1001とは別途の画面又はウィンドウであってもよいが、それについては限定しない。
ウェアラブル装置用制御画面1015はホーム画面1001の一部領域にディスプレーされるが、それについては限定しない。
ウェアラブル装置用制御画面1015は移動端末機100のホーム画面1001にディスプレーされるウィジェットアイコン1003を代替してディスプレーされてもよいが、それについては限定しない。このようにウェアラブル装置用制御画面1015がウィジェットアイコン1003のディスプレーされる領域にディスプレーされる場合、ウェアラブル装置用制御画面1015によってアイコン1005が妨害されなくなるため、ユーザはウェアラブル装置200を制御して音楽再生やラジオ聴取だけでなくウェアラブル装置用制御画面1015を介して前方又は後方の状況を感知しながら画面上にディスプレーされる多数のアイコンの実行を介して該当アイコンに付与された機能を利用することができるためユーザの便宜性を極大化することができる。
ウェアラブル装置用制御画面1015は、例えば音楽制御画面1011とカメラ制御画面1013を含む。
一例として、音楽制御画面1011とカメラ制御画面1013はホーム画面1001と別途のウィンドウにディスプレーされる。
他の例として、ホーム画面1001が第1制御領域と第2制御領域とに分割され、音楽制御画面1011が第1制御領域上にディスプレーされてカメラ制御画面1013が第2制御領域上にディスプレーされてもよい。第1及び第2制御領域は左右方向又は上下方向に沿って分割されるかホーム画面1001の対角線ラインを中心に分割されてもよい。
一例として、ホーム画面1001の全体領域は第1及び第2制御領域で構成される。例えば、第1制御領域1001はホーム画面1001の上側に配置されて第2制御領域はホーム画面1001の下側に配置されてもよい。
他の例として、第1及び第2制御領域はホーム画面1001の一部領域に配置される。ホーム画面1001の一部領域が第1及び第2制御領域に分割される。
音楽制御画面1011は前曲ボタン1016、次曲ボタン1018、停止及び再生ボタン1017、リスト確認ボタン1019及び転換ボタン1020を含む。停止及び再生ボタン1017は現在再生中の音楽を停止するか再生する部材である。前曲ボタン1016は停止及び再生ボタン1017に左側にディスプレーされて現在再生中の曲を以前の曲に移動する部材である。次曲ボタン1018は現在再生中の曲を次の曲に移動する部材である。リスト確認ボタン1019は移動端末機100、ウェアラブル装置200又は移動端末機100とネットワークで連結されたネットワークサーバに存在する音楽ファイルリストを検索及び選択する部材である。
図面には前曲ボタン1016、停止及び再生ボタン1017、次曲ブタン1018、リスト確認ボタン1019及び転換ボタン1020は一般的なマークイメージでディスプレーされているが、一般的なマークイメージとは異なるイメージが使用されてもよい。
転換ボタン1020は音楽制御画面1011をラジオ制御画面に変更する。例えば、転換ボタン1020に対するタッチが入力されると音楽制御画面1011がラジオ制御画面に変更される。ラジオ制御画面に変更された状態で転換ボタン1020に対するタッチが更に入力されると、ラジオ制御画面が音楽制御画面1011に変更される。
ラジオ制御画面に変更された場合、全曲ボタン1016と次曲ボタン1018は現在聴取中のラジオチャネルの周波数より低いか高い周波数を有するラジオチャネルを探す機能を有する。さらに、停止及び再生ボタン1017は現在聴取中のラジオチャネルの聴取が中止されるか更に聴取されるようにする。リスト確認ボタン1019は国内外の多様なラジオ放送局リストを検索及び選局する部材である。
一方、カメラ制御画面1013は前方カメラボタン1021、後方カメラボタン1023及び両方ボタン1025を含む。前方カメラボタン1021は前方カメラモジュール280のみを駆動する部材であり、後方カメラボタン1023は後方カメラモジュール290のみを駆動する部材である。両方ボタン1025は前方カメラモジュール280と後方カメラモジュール290を同時に駆動する部材である。もし前方カメラモジュール280と後方カメラモジュール以外に左側カメラモジュール(図7の1503)及び右側カメラモジュール(図71の1501)がウェアラブル装置200に追加に装着される場合、カメラ画面1013の上に左側カメラボタンと右側カメラボタンが更にディスプレーされる。
例えば、前方カメラボタン1021に対するタッチが入力されると、前方カメラモジュール280が駆動されて前方の客体に対する映像がプレビュー状態に移動端末機100のディスプレー部151上にディスプレーされる。
例えば、後方カメラボタン1023に対するタッチが入力されると、後方カメラモジュール290が駆動されて後方の客体に対する映像がプレビュー状態に移動端末機100のディスプレー部151上にディスプレーされる。
例えば、両方ボタン1025に対するタッチが入力されると、前方カメラモジュール280と後方カメラモジュール290それぞれの客体に対する映像がプレビュー状態に移動端末機100のディスプレー部151上にディスプレーされる。
一例として、前方の客体に対する映像と後方の客体に対するプレビュー映像はホーム画面1001と別途のウィンドウにディスプレーされてもよいが、それについては限定しない。
他の例として、前方の客体に対する映像と後方の客体に対するプレビュー映像はカメラ制御画面1013の上にディスプレーされる。
一方、図26Cとは異なって、カメラ制御画面1013上に前記カメラボタン(図示せず)のみがディスプレーされ、このカメラボタンがタッチされた回数に応じて前方カメラモジュール280、後方カメラモジュール290又は前方カメラモジュール280及び後方カメラモジュール290両方が駆動される。例えば、カメラボタンに対してタッチが1回入力されると、前方カメラモジュール280のみ駆動されて前方の客体に対する映像がプレビュー状態にディスプレーされる。例えば、カメラボタンに対してタッチが2回入力されると、後方カメラモジュール290のみ駆動されて後方の客体に対する映像がプレビュー状態にディスプレーされる。例えば、カメラボタンに対してタッチが3回入力されると、前方カメラモジュール280及び後方カメラモジュール290両方が同時に駆動されて前方の客体に対する映像だけでなく後方の客体に対する映像もプレビュー状態にディスプレーされる。
前記実施例以外にも、前方カメラモジュール280と後方カメラモジュール290を単独に又は同時に駆動するための多様なユーザインタフェースが可能であり、このようなユーザインタフェースも本発明の技術的思想の範疇内に含まれることは自明である。
一例として、ウェアラブル装置200が移動端末機100とのペアリングが解除されるかソフトキー1007の以前ボタンやホームボタンに対するタッチが入力される際、このようなウェアラブル装置用制御画面1015が消える。
他の例として、ウェアラブル装置用制御画面1015上に終了ボタン(図示せず)が追加されて終了ボタンに対するタッチが入力される際、ウェアラブル装置用制御画面1015が消える。
前曲ボタン1016、停止及び再生ボタン1016、次曲ボタン1018、リスト確認ボタン1019、転換ボタン1020、前方カメラボタン1021、後方カメラボタン1023及び両方ボタン1025は不透明な部材、透明な部材又は半透明な部材である。
本発明で説明されるウェアラブル装置用制御画面1015上にディスプレーされるボタン1016,1017,1018,1019,1020,1021,1023,1025はQスライド機能の活性化によって不透明な部材から透明な部材に、又は透明な部材から不透明な部材に変更される。
他の例として、前方カメラボタン1021、後方カメラボタン1023及び両方ボタン1025を一つのキーでイメージの同時撮影又は動画の同時撮影が可能で、カメラが120°ごとに装着されているウェアラブル装置200の場合には360°パノラマ撮影が同時に可能である。
また他の例として、撮影されたイメージや動画にはGPS情報が一緒に記憶されてもよい。
更に他の例として、第1制御領域にオーディオ関連制御ウィンドウが形成され、第2制御領域にはカメラに関する制御ウィンドウが形成されてもよい。また、第1制御領域は移動端末機100のディスプレー部151上で状態バー1051が表示された上側に近い領域に配置され、第2制御領域はディスプレー部151の下側と近く配置される。これとは異なって、第1制御領域が下側と近い領域に配置され、第2制御領域が上側と近い領域に配置されてもよい。
図37は、図36cに示されたカメラ制御画面1013上にディスプレーされる両方ボタン1025が選択される際にディスプレーされるプレビュー画面を示す第1画面例示図である。
図37に示したように、カメラ制御画面1013の上にディスプレーされる両方ボタン1025に対するタッチが入力される際、前方カメラモジュール280と後方カメラモジュール290が駆動されて移動端末機100のディスプレー上に前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされる。
さらに、例えば後方プレビュー画面1026と連結された別途の画面1040に同時撮影ボタン1044と画面選択ボタン1046が表示される。同時撮影ボタン1044のタッチ動作によって前方映像と後方映像が同時に撮影される。画面選択ボタン1046のタッチ動作によって前方プレビュー画面1024又は後方プレビュー画面1026のみディスプレーされるように制御される。
前方プレビュー画面1024上には前方カメラモジュール280が活性化されて前方の客体に対する前方プレビュー映像がディスプレーされる。さらに、後方プレビュー画面1026上には後方カメラモジュール290が活性化されて後方の客体に対する後方プレビュー映像がディスプレーされる。
ここで、活性化とは前方カメラモジュール280及び/又は後方カメラモジュール290が駆動されて前方又は後方の客体に対する映像が前方カメラモジュール280及び/又は後方カメラモジュール290を介して入力されるだけでなく、ユーザの撮影命令によって駆動される前方カメラモジュール280及び/又は後方カメラモジュール290によって前方又は後方の客体に対する映像が撮影される状態を意味する。
後方プレビュー画面1026は前方プレビュー画面1024の下側に配置されるが、逆に後方プレビュー画面1026が前方プレビュー画面1025の上側に配置されてもよい。
前方プレビュー画面1024と後方プレビュー画面1026はウェアラブル装置用制御画面1015又はホーム画面1001と別途のウィンドウであってもよいが、それについては限定しない。
他の例として、ホーム画面1001が第1制御領域と第2制御領域とで分割され、前方プレビュー画面が第1制御領域上にディスプレーされ後方プレビュー画面1026が第2制御領域上にディスプレーされてもよい。第1及び第2制御領域は左右方向または上下方向に沿って分割されるかホーム画面1001の対角線ラインを中心に分割されてもよい。
前方プレビュー画面1024と後方プレビュー画面1026それぞれは設定ボタン1025,1035、角度調節ボタン1027,1037、撮影ボタン1031,1041及び映像転換ボタン1033、1043を含む。
撮影ボタン1031一つを利用して映像転換ボタン1033,1043によって転換されたイメージ撮影モードと動画撮影モードにそれぞれ対応するイメージ撮影及び/又は動画撮影を制御することができる。同じく、動画撮影ボタン1041の一つを利用してイメージ撮影及び/又は動画撮影を制御することができる。
設定ボタン1027、1035は音声撮影、明るさ、焦点、解像度、ISO、ホワイトバランス、フィルタ、タイマー、位置情報表示、ボリュームキー、撮影音、ヘルプ、初期化などのような多様な機能を設定するための部材である。
角度調節ボタン1027,1037は前方カメラモジュール280の前方カメラ又は後方カメラモジュール290の後方カメラ視野角を調節する。
撮影されたイメージは撮影方向とGPS情報と時間及び天気などが表示される。即ち、撮影された位置で前方方向であるのか、後方方向であるのかなどの情報を一緒に表示する。又は撮影された位置で東西南北のうちどの一方向で撮影されたのかを表示する。
撮影された情報には移動中に瞬間的に撮影されたのか止まった状態で撮影されたのかに対する情報を一緒に表示する。
撮影時に再生されていた音楽と共に記憶され、撮影されたイメージをディスプレー部151上に表示する際、前記音楽情報を介して関連音楽がされ制されてもよい。或いは関連音楽があることを表示するアイコンを表示し、アイコンをタッチ動作で選択する際に関連音楽ファイルを再生してもよい。
例えば、図38に示したように後方カメラモジュール290の後方カメラに現在の視野角が水平方向を向かってもよい。
このような場合、後方プレビュー画面1026上にディスプレーされる角度調節ボタン1027,1037の第1領域1039aが押されると、図39に示したように後方カメラモジュール290の後方カメラの視野角が設定された角度αだけ上に移動するように調節される。視野角の調節は後方カメラモジュール290が時計方向又は反時計方向に回動されることで行われる。
図示していないが、角度調節ボタン1027,1037の第2領域1039bが押されると後方カメラモジュール290の後方カメラの視野角が下に移動するように調節されてもよい。
他の例として、角度調節ボタン1027,1037の第1領域1039a又は第2領域1039bがタッチ及びホールド入力される間、後方カメラモジュール290の後方カメラの視野角の上に又は下に継続して移動され、角度調節ボタン1027,1037の第1領域1039a又は第2領域1030bに対するホールドが解除さえる際、後方カメラモジュール290の後方カメラに対する視野角の移動が止まる。よって、ユーザは角度調節ボタン1027,1037の第1領域1039a又は第2領域1039bに対する押し持続時間を調節して後方カメラモジュール290の後方カメラを望みの視野角になるように移動する。
図示していないが、前方カメラモジュール280の前方カメラの視野角も後方カメラモジュール290の後方カメラと同じ方式によって調節される。即ち、前方プレビュー画面1204の上にディスプレーされる角度調節ボタン1027の第1領域1029a又は第2領域1209bに対するタッチや押し動作によって前方カメラモジュール280の前方カメラの視野角が調節される。
図示していないが、ウェアラブル装置200に自動水平維持センサ(automatic levelling sensor)が装着され、ユーザが歩くことでウェアラブル装置200が揺れてもウェアラブル装置200の前方カメラモジュール280が前方プレビュー画面1024にディスプレーされる前方映像を常に一定に示し、後方カメラモジュール290が後方プレビュー画面1026にディスプレーされる後方映像を常に一定に示すように調節される。
前方カメラモジュール280又は後方カメラモジュール290の撮影角度調節はボタンで調節されてもよく、手動で角度調節を介して調節してもよい。その他、撮影動作の際に動く物体を真ん中に置いて撮影するように前方カメラモジュール280又は後方カメラモジュール290を自動的に調節する。
撮影ボタン1031,1041は前方の客体又は後方の客体に対するイメージや動画を撮影する。
例えば、撮影ボタン1031,1041に対するタッチが入力されると前方の客体や後方の客体に対するイメージが撮影される。
例えば動画撮影である場合、撮影ボタン1031,1041に対するタッチが入力されると前方の客体や後方の客体に対する動画が撮影され、更に撮影ボタン1031,1041に対するタッチが入力されると前方の客体や後方の客体に対する動画の撮影が終了される。
映像転換ボタン1033,1043はイメージ撮影モードから動画撮影モードに、又は動画撮影モードからイメージ撮影モードに転換する。
基本的にイメージが撮影されるように設定されて映像転換ボタン1033,1043に対するタッチによって動画転換モードに変更されて動画が撮影されるが、それについては限定しない。
図面には前方プレビュー画面1024と後方プレビュー画面1026が互いに接触する。しかし、前方プレビュー画面1024と後方プレビュー画面1026は互いに空間的に離隔されるようにディスプレーされてもよい。例えば、前方プレビュー画面1024はホーム画面1001の第1制御領域、即ち上側にディスプレーされ、後方プレビュー画面1026はホーム画面1001の第2制御領域、即ち下側にディスプレーされ、ホーム画面1001の一部が前方プレビュー画面1024と後方プレビュー画面1026との間の第3制御領域にディスプレーされてもよい。
図40は、図36cに示したカメラ制御画面の上にディスプレーされる両方ボタン1025が選択される際にディスプレーされるプレビュー画面を示す第2画面例示図である。
図40に示したように、両方ボタン1025に対するタッチが入力されると前方プレビュー画面1024と後方プレビュー画面1026を含むプレビュー画面がホーム画面1001上にディスプレーされる。
この際、前方プレビュー画面1204と後方プレビュー画面1026は図36とは異なってカメラ制御画面1013に対応する領域やそれより大きい領域上にディスプレーされる。
図37に示したプレビュー画面1024,1026と図40に示したプレビュー画面1024,1026は互いに異なる。
即ち、図37に示した前方プレビュー画面1024と後方プレビュー画面1026はウェアラブル装置用制御画面1015と別途の新しいウィンドウにディスプレーされる。それに対し、図40に示したように前方プレビュー画面1024と後方プレビュー画面1026はウェアラブル装置用制御画面1015に含まれた音楽制御画面1011に接触するカメラ制御画面1013を代替するかそれより大きい領域にディスプレーされる。言い換えると、前方プレビュー画面1024と後方プレビュー画面1026がウェアラブル装置用制御画面1015と別途ではないウェアラブル装置用制御画面1015に含まれた領域、即ち、カメラ制御画面1013の上にディスプレーされる。このように、前方プレビュー画面1024や後方プレビュー画面1026をウェアラブル装置用制御画面1015と別途のウィンドウに生成せずにウェアラブル装置用制御画面1015に含まれた領域に生成することで、前方プレビュー画面1024や後方プレビュー画面1026を別途の新しいウィンドウに生成する際に発生する駆動が複雑でバッテリ消耗が増大する問題を解消することができる。
音楽制御画面1011はホーム画面1001の第1制御領域上に配置され、前方プレビュー画面1024と後方プレビュー画面1026はホーム画面1001の第2制御領域上に配置される。
また、図37に示したように、音楽制御画面1011と接触して前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされるため、ユーザは音楽再生のための操作に妨害されずに前方プレビュー画面1024や後方プレビュー画面1026を介して特定客体を撮影するか前方や後方を監視することができるためユーザの便宜性を極大化することができる。
一方、移動端末機100自体に装着されたカメラ121によるプレビューウィンドウ(第1プレビューウィンドウと称する)とウェアラブル装置200に装着された前方カメラモジュール280と後方カメラモジュール290によって前方プレビュー画面1024(第2プレビューウィンドウと称する)と後方プレビュー画面1026(第3プレビュー画面と称する)がディスプレーされる。このような場合、第1乃至第3プレビューウィンドウが同時にディスプレーされるか特定プレビューウィンドウを大きい画面で見るように特定プレビューウィンドウのみディスプレーされるように制御されてもよい。例えば、第1プレビューウィンドウが大きく拡大されてディスプレーされ、ユーザから第1ジェスチャー動作、例えばタッチドラッグ動作が入力されると第1乃至第3プレビューウィンドウが同時にディスプレーされ、ユーがからの第2ジェスチャー動作が入力されると第2プレビューウィンドウのみが大きく拡大されてディスプレーされるか更に第1プレビューウィンドウのみが大きく拡大されてディスプレーされる。
図41は、図36cに示したカメラ制御画面上にディスプレーされる両方ボタンが選択される際にディスプレーされるプレビュー画面を示す第3画面例示図である。
図41に示したように、音楽制御画面1011と接触して前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされる。即ち、前方プレビュー画面1204と後方プレビュー画面1026両方が音楽制御画面1011の下側に接触してディスプレーされる。
音楽制御画面1011の長さ方向、即ち水平方向に沿って前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされる。
このように、音楽制御画面1011の長さ方向、即ち水平方向に沿って前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされることで、前方プレビュー画面1024と後方プレビュー画面1026がディスプレー部151上に占める面積が減ってアイコン1005が前方プレビュー画面1024や後方プレビュー画面1026に妨害されずにユーザに示されるため、ユーザが音楽再生、前方又は後方の映像撮影、前方又は後方の監視、そしてアイコン実行を応じに行うことができてユーザの便宜性を増進することができる。
一方、図41に示しように音楽制御画面1011上に通知伝送ボタン1022が表示される。
通知伝送ボタン1022は前方プレビュー画面1024又は後方プレビュー画面1026上に表示されてもよい。
通知伝送ボタン1022は緊急情況は危険情況に対する通知メッセージを予め設定された知人や機関に伝送する機能を行う。知人は親友や父母や兄弟であってもよく、機関は消防署や警察署であってもよい。
例えば、ユーザが緊急情況は危険情況に直面して通知伝送ボタン1022に対する選択命令が入力されると、予め設定された通知メッセージが知人や機関に伝送される。危険情況は第3者による暴力、交通事故などであり得る。緊急情況はユーザが特定地域を歩いているとき火災が発生した場合、通知ボタン1022に対する選択命令が入力され、該当通知メッセージが伝送されて迅速に消防車が出動することができる。
通知伝送ボタン1022は位置情報モジュール115と連動する。このような場合、通知伝送ボタン1022に対する選択命令が入力される際、通知メッセージに位置情報モジュール115に基づいたユーザの位置情報に含まれて位置情報が含まれた通知情報が知人や機関に伝送される。
図42は、図36cに示したカメラ制御画面上にディスプレーされる両方ボタンが選択される際にディスプレーされるプレビュー画面を示す第4画面例示図である。
図42に示したように、音楽制御画面1011と接触して前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされる。即ち、前方プレビュー画面1024と後方プレビュー画面1026共に音楽制御画面1011の下側に接触してディスプレーされる。
詳しくは、例えば前方プレビュー画面1024のサイズが後方プレビュー画面1026のサイズより大きくディスプレーされてもよい。後方プレビュー画面1026は音楽制御画面1011と前方プレビュー画面1024によって囲まれる。音楽制御画面1011の下側の長さは前方プレビュー画面1024の上側の長さと後方プレビュー画面1026の上側の長さの合計長さと同じである。
図43は、図36cに示したカメラ制御画面上にディスプレーされる両方ボタン1025が選択される際にディスプレーされるプレビュー画面を示す第5画面例示図である。
図43Aに示したように、音楽制御画面1011に接触して前方プレビュー画面1024がディスプレーされる。前方プレビュー画面1024のサイズは音楽制御画面1011のサイズと同じであるか大きくてもよいが、それについては限定しない。
前方プレビュー画面1024の一角にはキュー(queue)1045がディスプレーされる。キュー1045は後方プレビュー画面1026をディスプレーするイベント命令である。
キュー1045に後方プレビュー画面1026が隠される。
キュー1045は前方プレビュー画面1024の一角領域、即ち、右上側角領域上にディスプレーされる。
キュー1045は三角形状の黒色イメージで表現されるが、それについては限定しない。
ユーザよりキュー1045に対して特定方向、例えば対角線方向に沿ってフリックタッチが入力されると、図43Bに示したように後方プレビュー画面1206が前方プレビュー画面1024の一領域に示される。即ち、後方プレビュー画面1026がキュー1045から対角線方向に沿って前方プレビュー画面1024上にスライドイン(slide−in)される。
スライドインされた後方プレビュー画面1026は前方プレビュー画面1205のサイズの半分を占めるようにディスプレーされるが、それについては限定しない。
他の例として、スライドインされた後方プレビュー画面1026は図42に示したように前方プレビュー画面1205と音楽制御画面1011によって囲まれながら前方プレビュー画面1024のサイズイより小さいサイズを有してもよい。
スライドインされた後方プレビュー画面1206がどれぐらいのサイズを有するのかは製造会社によって設定される。
一方、スライドインされた後方プレビュー画面1206上の特定地点から元々キュー1045がディスプレーされていた領域に沿ってフリックタッチが入力されると、後方プレビュー画面1026が消えて図43Aに示したようにキュー1045が前方プレビュー画面1024の一角領域にディスプレーされる。
一例として、図72Aに示したように音楽が再生されていない際に前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされるが、音楽制御画面はディスプレーされずにベッドのウィンドウ1040に音楽再生ボタン1048がディスプレーされてもよい。音楽再生ボタン1048に対するタッチ命令が入力されると、図40に示したように前方プレビュー画面1024と後方プレビュー画面1026だけでなく音楽制御画面1011がディスプレーされる。それによって、音楽制御画面1011がディスプレーされなければ音楽制御画面1011がディスプレーされる領域だけ前方プレビュー画面1024と後方プレビュー画面1026それぞれのサイズがより拡大される。
他の例として、図72Bに示したように音楽制御画面1011はディスプレーされるが前方プレビュー画面1024と後方プレビュー画面1026はディスプレーされずに別途のウィンドウ1040に画面選択ボタン1050がディスプレーされてもよい。このような場合、音楽制御画面1011が前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされる領域だけサイズが大きくなる。画面選択ボタン1050の操作に応じて前方プレビュー画面1024及び/又は後方プレビュー画面1026がディスプレーされる。例えば、画面選択ボタン1050に対する1回タッチ命令が入力されると前方プレビュー領域1024のみディスプレーされる。例えば、画面選択ボタン1050に対して連続に2回タッチ命令が入力されると、後方プレビュー画面1026のみディスプレーされる。例えば、画面選択ボタン1050に対して例えば0.5秒以上タッチ及びホールド命令が入力されると前方プレビュー画面1024及び後方プレビュー画面1026が同時にディスプレーされる。
前方プレビュー画面1024及び後方プレビュー画面1026それぞれのサイズは音楽制御画面1011のサイズと同じであるか前方プレビュー画面1024及び後方プレビュー画面1026の全体サイズが音楽制御画面1011のサイズと同じであってもよいが、それについては限定しない。
図44は、本発明の第14実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する順序図である。
第14実施例はフローティングアイコンディスプレーステップS322とフローティングアイコン実行ステップS323を除いてはず35に示した第13実施例と同じであるため、(S322)と(S323)を主に説明する。
図44を参照すると、移動端末機100はウェアラブル装置200とペアリングを行う(S321)。
ウェアラブル装置200の識別情報が移動端末機100に予め登録されてウェアラブル装置200と移動端末機100にそれぞれ通信モジュール114,201cが具備された場合、ウェアラブル装置200が移動端末機100から一定距離以内に近接すると移動端末機100とウェアラブル装置200との間にペアリング過程が行われてもよいが、それについては限定しない。
次に、ウェアラブル装置200とのペアリングが完了されると、移動端末機100はディスプレー部151を制御してフローティングアイコンをディスプレーする(S322)。
フローティングアイコンとはウェアラブル装置200を制御するためのアイコンであり、特定キャラクタ、例えばカメラキャラクタ又は音符(note)キャラクタとカメラキャラクタの組み合わせを有する。
移動端末機100のディスプレー部151の上にディスプレーされるフローティングアイコンは位置領域に固定されるアイコンとは異なって一領域に固定されずランダムにディスプレー151部の全領域又は一部領域内を漂う。例えば、フローティングアイコンはディスプレー部151の画面縁に隣接して時計方向又は反時計方向に漂ってもよい。
例えば、フローティングアイコンは一領域に固定された他のアイコンより大きく拡大されてディスプレーされる。例えば、フローティングアイコンの縁はハイライトされて位置領域に固定された他のアイコンと区分される。例えば、フローティングアイコンは一定周期に点滅するようにディスプレーされてもよい。
ディスプレー部151の画面上を漂うフローティングアイコンに対するタッチが入力されると、移動端末機100はフローティングアイコンを実行するS323。
このようにフローティングアイコンが実行されると、移動端末機100はディスプレー部151を制御してウェアラブル装置用制御画面1015をディスプレーする(S324)。
ウェアラブル装置用制御画面1015は音楽制御画面1011とカメラ制御画面1013を含む。音楽制御画面1011はラジオ制御画面に転換される。即ち、音楽制御画面1011とラジオ制御画面は互いに転換される。
S325乃至S329は図35に示した第13実施例のS315乃至S319と同じであるため、それに関する説明は省略する。
図45は、本発明の第14実施例によるウェアラブル装置を制御するための制御画面を移動端末機100にディスプレーするための方法を説明する画面例示図である。
図36に示した説明と一致する図45の説明は省略するが、このように省略された説明は図36に示した説明から容易に理解されるはずである。
図45に示したように、移動端末機100のディスプレー部151の上にホーム画面1001がディスプレーされ、ホーム画面1001の上にウィジェットアイコン1003、アイコン1005及びソフトキー1007がディスプレーされる。
ウェアラブル装置200が移動端末機100とペアリングされると、ホーム画面1001上にフローティングアイコン1047が追加にディスプレーされる。
フローティングアイコン1047はウェアラブル装置200を制御するようにするアイコンであり、ホーム画面1001上にランダムに漂う。
例えば、フローティングアイコン1047はホーム画面1001の左側縁の位置領域で生成されてディスプレーされた後、ホーム画面1001の左側縁に隣接して下部方向に漂っていてからホーム画面1001の左下側の角で右側方向に漂ってもよい。
フローティングアイコン1047が漂う際、フローティングアイコン1047がアイコン1005、ソフトキー1007又はホーム画面1001の上側にディスプレーされる状態表示バーを通ってもよく通らなくてもよい。
このように漂うフローティングアイコン1047に対するタッチが入力されると、図45Bに示したように移動端末機100のディスプレー部151上にウェアラブル装置用制御画面1015がディスプレーされる。
ウェアラブル装置用制御画面1015はホーム画面1001と別途の画面であってもよいが、それについては限定しない。
ウェアラブル装置用制御画面1015は移動端末機100のホーム画面1001上にディスプレーされるウィジェット1003を代替してディスプレーされる。即ち、ウェアラブル装置用制御画面1015のサイズがウィジェットアイコン1003のサイズと同じである際、ウィジェットアイコン1003の代わりにウィジェットアイコン1003がディスプレーされル領域上にウェアラブル装置用制御画面1015がディスプレーされる。
このようにウェアラブル装置用制御画面1015がウィジェットアイコン1003のディスプレーされる領域にディスプレーされる場合、ウェアラブル装置用制御画面1015によってアイコン1005が妨害されなくなってユーザはウェアラブル装置200を制御して音楽再生やラジオ聴取だけでなくウェアラブル装置用制御画面1015を介して前方又は後方の情況を感知し、フローティングアイコン1047の実行を介して該当アイコン1047に付与された機能を利用することができるためユーザの便宜性を極大化することができる。
ウェアラブル装置用制御画面1015は、例えば音楽制御画面1011とカメラ制御画面1013を含む。
音楽制御画面1011とカメラ制御画面1013はホーム画面1001とは別途のウィンドウでディスプレーされる。
他の例として、ホーム画面1001が第1制御領域と第2制御領域とで分割され、音楽制御画面1011が第1制御領域上にディスプレーされてカメラ制御画面1013が第2制御領域上にディスプレーされてもよい。第1及び第2制御領域は左右方向又は上下方向に沿って分割されるかホーム画面1001の対角線ラインを中心に分割されてもよい。
図46は、本発明の第15実施例によるウェアラブル装置を制御すうための制御画面を移動端末機100にディスプレーする方法を説明する順序図である。
図46を参照すると、移動端末機100はウェアラブル装置200とペアリングを行う(S331)。
次に、ウェアラブル装置200とのペアリングが完了されると、移動端末機100はディスプレー部151を制御してウェアラブル装置用制御画面1015を状態表示バーに隠す(S332)。
ウェアラブル装置用制御画面1015は普段は画面上にディスプレーされないが、ユーザからの特定命令、例えばドラッグタッチが入力される際にディスプレーされる。
移動端末機100のディスプレー部151の上側には状態表示バーがディスプレーされる。このような状態表示バーはディスプレー部151上で画面が変更されてもそのままディスプレー部151の上側に維持される。
状態表示バーに対してフリックタッチが入力されると(S333)、移動端末機100はディスプレー部151を制御してウェアラブル装置用制御画面1015をディスプレーする(S334)。
例えば、ユーザによって状態表示バーから下部方向に沿ってフリックタッチが入力される。このようなフリックタッチに応答して状態表示ウィンドウが下部方向に沿ってスライドインされてディスプレーされる。
このような状態表示ウィンドウにウェアラブル装置用制御画面1015がディスプレーされる。
ウェアラブル装置用制御画面1015は音楽再生やラジオ聴取のための音楽制御画面1013を含む。
S335乃至S339は図35に示した第13実施例のS315乃至S319と同じであるため、それに関する説明は省略する。
図47は、本発明の第15実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する画面例示図である。
図47に示したように、移動端末機100のディスプレー部151上にホーム画面1001がディスプレーされ、ホーム画面1001上にウィジェットアイコン1003、多数のアイコン1005及びソフトキー1007がディスプレーされる。
さらに、ディスプレー部151の上側に状態表示バー1051がディスプレーされる。状態表示バー1051は移動端末機100に現在使用中の機能を表示する部材である。例えば、状態表示バー1051に振動又は着信音の表示、バッテリ残量表示、受信強度表示、時間表示などが含まれる。
ウェアラブル装置200が移動端末機100とペアリングされると、ディスプレー部151上にディスプレーされないが状態表示バー1051にウェアラブル装置用制御画面1015が隠される。
状態表示バー1051から例えば下部方向にドラッグタッチが入力されると、第1乃至第3状態領域1053,1055,1057を含む状態表示ウィンドウ1059がディスプレーされる。
このような場合、状態表示ウィンドウ1059の第1状態領域1053上にクイック設定機能アイコンがディスプレーされ、状態表示ウィンドウ1059の第2状態領域1055上に画面の明るさ/ボリューム調節状態バーがディスプレーされる。
クイック設定機能アイコンとしてはQメモアイコン1061、振動アイコン1063、ワイファイアイコン1065、ブルートゥースアイコン1067、位置情報アイコン1069などが含まれる。
これらのアイコン1061,1063,1065,1067,1069はタッチされるたびに機能が変更され色も変更される。
例えば、Qメモアイコン1061はタッチが入力されるとQメモ機能が活性化され、更にQメモアイコン1061がタッチされるとQメモ機能が非活性化される。
例えば、位置情報アイコン1069はタッチが入力されると位置情報追跡が活性化され、更に位置情報アイコン1069がタッチされると位置情報追跡が非活性化される。
状態表示ウィンドウ1059の第2状態領域1055上に明るさ調節部1071と振動強度調節部1073がディスプレーされる。例えば、明るさ調節部1071の調節によって画面の明るさが可変される。
状態表示ウィンドウ1059の第3状態領域1057上にウェアラブル装置用制御画面1015がディスプレーされる。ウェアラブル装置用制御画面1015のサイズは状態表示ウィンドウ1059のサイズより少なくとも小さい。
ウェアラブル装置用制御画面1015は状態表示ウィンドウ1059の第3状態領域1057に固定されるか第3状態領域1057とは別途のウィンドウで第3状態領域1057上にディスプレーされる。
ウェアラブル装置用制御画面1015の具体的な説明は図36cに関して既に説明したため、これ以上の説明は省略する。
図48は、本発明の第16実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーするための方法を説明する順序図である。
図48を参照すると、移動端末機100はウェアラブル装置200とペアリングを行う(S341)。
この際、移動端末機100のディスプレー部151は電源が印加されないため画面オフ状態である。
たとえ移動端末機100のディスプレー部151が画面オフ状態であっても、移動端末機100の通信モジュール114が活性化されているため移動端末機100とウェアラブル装置200との間のペアリングが正常に行われる。
次に、ウェアラブル装置200とのペアリングが完了されると、移動端末機100はウェアラブル装置用制御画面1015をディスプレーせずに待機する。これは、移動端末機100のディスプレー部151に印加される電源が遮断されて画面オフ状態にあるため、ウェアラブル装置用制御画面1015をディスプレー部151上にディスプレーすることができないためである。
もしユーザから移動端末機100のディスプレー部151を2回叩くタブ、即ちダブルタブ(double tab)が入力されると、移動端末機100はディスプレー部151に電源を供給してディスプレー部151上に画面がディスプレーされる画面オン状態に変更する(S342)。
このように画面がオン状態に変更されても、移動端末機100のディスプレー部151はロック状態に維持される(S343)。即ち、ユーザが移動端末機100にロック状態を設定しておいた場合、移動端末機100のディスプレー部151に対する画面オン状態に変更されてもロック状態に維持され、このようなロック状態が解除されて初めてホーム画面1001がディスプレー部151上にディスプレーされる。
ディスプレー部151の画面がロック状態に維持される場合、ユーザから特定方向へのフリックタッチが入力されると(S344)、移動端末機100はディスプレー部151を制御してウェアラブル装置用制御画面1015をディスプレーする(S345)。
ここで、特定方向へのフリックタッチとはディスプレー部151の画面の任意の地点から左側方向へのフリックタッチを意味するが、それについては限定しない。
S346乃至S350は図35に図示した第13実施例のS315乃至S319と同じであるため、それに関する説明は省略する。
図49は、本発明の第16実施例によるウェアラブル装置を制御するための制御画面を移動端末機にディスプレーする方法を説明する画面例示図である。
図49Aに示したように、移動端末機100のディスプレー部151は電源が印加されていない画面オフ状態である。
画面オフ状態である場合、移動端末機100のディスプレー部151はブラックカラーを有するためディスプレー部151上にいかなる情報もディスプレーされない。
たとえ移動端末機100のディスプレー部151が画面オフ状態であっても移動端末機100の通信モジュール114は活性化状態にあるため、移動端末機100とウェアラブル装置200との間にペアリングが行われる。
即ち、ウェアラブル装置200の識別情報が事前に移動端末機100に登録される一方、ウェアラブル装置200が移動端末機100の一定距離以内に接近すれば移動端末機100とウェアラブル装置200との間にペアリングが行われる。
ある情況ではウェアラブル装置200が移動端末機100の一定距離以内に接近しても移動端末機100とウェアラブル装置200との間にペアリングが行われない。即ち、移動端末機100でペアリング機能が活性化されていないかウェアラブル装置200の電源がつけられていなければ移動端末機100とウェアラブル装置200との間でペアリングが行われる可能性がある。よって、移動端末機100でペアリング機能が活性化されるかウェアラブル装置200の電源がつけられている場合、移動端末機100とウェアラブル装置200との間にペアリングが行われる。
図49Aでは移動端末機100のディスプレー部151が画面オフ状態にあるが、この場合にはウェアラブル装置200の電源がつけられる際に移動端末機100とウェアラブル装置200との間にペアリングが行われる。
一例として、移動端末機100はユーザが移動端末機100の制御命令を入力するように許容するのかに応じてロック状態とアンロック状態にある。
基本的に画面がオフ状態からオン状態に変更されると、ロック状態であるロック画面がディスプレーされる。このようなロック画面に対してユーザからのジェスチャー動作が受信されるとロックが解除される。
例えば、ユーザからロック画面に対して特定方向にタッチ入力が行われると、ロック画面上に検出されたタッチ入力に基づいてロック画面上にディスプレーされる第1アプリケーションの実行画面が消えて第2アプリケーションの実行画面がディスプレーされる。
移動端末機100とウェアラブル装置200との間にペアリングが完了された後、ディスプレー部151に電源が印加される画面オン状態になる。即ち、ユーザから電源ボタンに対するタッチが入力される場合、図49Bに示したように該当電源がディスプレー部151に印加されてディスプレー部151上にロック画面1075がディスプレーされる。
ロック画面1075上にウィジェットアイコン1003とロックパターン1077がディスプレーされる。ユーザから予め設定したロックパターン1077によるスライディング動作が入力されることでロック状態が解除される。本発明はロック状態を解除しなくてもウェアラブル装置200の音楽再生やカメラモジュール280,290の駆動を容易に制御することができる。
例えば、ウィジェットアイコン1003がディスプレーされる領域の任意の地点から左側方向に沿ってフリックタッチが入力されると図49Cに示したようにウェアラブル装置用制御画面1015がディスプレーされる。ウェアラブル装置用制御画面1015はウィジェットアイコン1003がディスプレーされる領域上にディスプレーされるが、それについては限定しない。
ウェアラブル装置用制御画面1015のサイズはウィジェットアイコン1003がディスプレーされる領域と同じであるかそれより大きい。
ウェアラブル装置用制御画面1015は音楽制御画面1011とカメラ制御画面1013を含む。
カメラ制御画面1013は前方カメラボタン1021、後方カメラボタン1023及び両方ボタン1025を含む。
例えば、カメラ制御画面1013の両方ボタン1025に対するタッチが入力されると、図49Dに示したようにカメラ制御画面1013の代わりに前方プレビュー画面1024と後方プレビュー画面1026がディスプレーされる。即ち、カメラ制御画面1013が前方プレビュー画面1024と後方プレビュー画面1026がカメラ制御画面1013に代替される。
前方プレビュー画面1024のサイズが後方プレビュー画面1026のサイズの総サイズはカメラ制御画面1013のサイズと同じであるかそれより大きい。
一例として、前方プレビュー画面1024のサイズと後方プレビュー画面1026のサイズは同じである。
他の例として、前方プレビュー画面1024のサイズは後方プレビュー画面1026のサイズより大きい。
また他の例として、後方プレビュー画面1026は初めにディスプレーされない代わりにキューが前方プレビュー画面1024の一部の角領域にディスプレーされる。キューから例えば対角線方向に沿ってフリックタッチが入力されると、後方プレビュー画面1026が前方プレビュー画面1024の上に示される。言い換えると、後方プレビュー画面1026がキューから対角線後方に沿って前方プレビュー画面1024の上にスライドインされる。
図49Dに示したように、ロック状態で前方プレビュー画面1024や後方プレビュー画面1026がディスプレーされてからロックが解除されても前方プレビュー画面1024や後方プレビュー画面1026と音楽制御画面1011はそのままディスプレー部151のホーム画面1001上にディスプレーされるが、それについては限定しない。
本発明の第16実施例によると、ロック状態でも音楽制御画面1011やカメラ制御画面1013を利用してウェアラブル装置200での音楽再生、ラジオ聴取、前方又は後方の客体に対する撮影又は前方又は後方に対する監視が可能であり、ロック解除を介したホーム画面1001上でウェアラブル装置200を制御する必要がないためユーザの保安信頼度を向上することができる。
以上では具体的に説明していないが、カメラ制御画面1013の前方カメラボタン1021や後方カメラボタン1023に対するタッチが入力されれば音楽制御画面1011に接触して前方プレビュー画面1024や後方プレビュー画面1026がディスプレーされる。
以上ではウェアラブル装置200のカメラモジュール280,290を移動端末機100で活性化する方法を説明した。
これとは異なって、ウェアラブル装置200は自らカメラモジュール280,290を活性化することもできる。
第1例として、図34のウェアラブル装置200のボディ部200a、200bの上面に前方カメラモジュール280と後方カメラモジュール290それぞれを活性化するための活性化ボタン250が具備される。ユーザはこの活性化ボタン250を押すことで前方カメラモジュール280、後方カメラモジュール290又は前方カメラモジュール280と後方カメラモジュール290両方が活性化される。ここで、活性化とは前方カメラモジュール280及び/又は後方カメラモジュール290が駆動されて前方又は後方の客体に対する映像が前方カメラモジュール280及び/又は後方カメラモジュール280を介して入力されるだけでなく、ユーザの撮影命令に応じて前方カメラモジュール280及び/又は後方カメラモジュール290によって前方又は後方の客体に対する映像が撮影可能な状態を意味する。
活性化ボタン250が更に押されると、後方カメラモジュール290又は前方カメラモジュール280と後方カメラモジュール290両方が非活性化される。
他の例として、活性化ボタン250が1回押されると前方カメラモジュール280及び後方カメラモジュール290両方が活性化され、活性化ボタン250が2回押されると前方カメラモジュール280が活性化され、活性化ボタン250が3回押されると後方カメラモジュール290が活性化され、活性化ボタン250が例えば少なくとも0.5秒以上押されると現在活性化されている前方カメラモジュール280及び/又は後方カメラモジュール290が非活性化されてもよいが、それについては限定しない。即ち、活性化ボタン250が1回押される際に前方カメラモジュール280が活性化されてもよく、活性化ボタンが1回押される際に後方カメラモジュール290が活性化されてもよい。言い換えると、前方カメラモジュール280及び後方カメラモジュール290それぞれ又は両方を活性化又は非活性化するために活性化ボタン250が押される回数は多様に変更される。
第2例として、ウェアラブル装置200のボディ部220a、220bの上面に具備された振動感知ボタン(図示せず)に特定回数のタッチが入力されるとこのようなタッチによる振動が感知されてそれによって前方カメラモジュール280と後方カメラモジュール290が活性化される。例えば、図50Aに示したように振動感知ボタンに1回タッチが入力されると、前方カメラモジュール280と後方カメラモジュール290両方が同時に活性化される。例えば、図50Bに示したように振動感知ボタンに2回タッチが入力されると、前方カメラモジュール280のみが活性化される。例えば、図50Cに示したように振動感知ボタンに3回タッチが入力されると、後方カメラモジュール290のみが活性化される。
第3例として、ウェアラブル装置200のボディ部220a、220bの上面に具備された近接センサ204aに接近する程度に応じて前方カメラモジュール280、後方カメラモジュール290又は前方カメラモジュール280と後方カメラモジュール290両方が活性化される。例えば、図51に示したようにユーザの指がウェアラブル装置200の近接センサ204aから第1距離d1に位置すると前方カメラモジュール280と後方カメラモジュール290両方が活性化される。例えば、ユーザの指がウェアラブル装置200の近接センサ204aから第2距離d2に位置すると前方カメラモジュール280が活性化される。例えば、ユーザの指がウェアラブル装置200の近接センサ204aから第3距離d3に位置すると後方カメラモジュール290が活性化される。
以下、以上で説明したウェアラブル装置200、移動端末機100、そしてウェアラブル装置200及び移動端末機100を含むシステムを利用した多様なユーザインタフェースの具現について説明する。
図52乃至図55は、ウェアラブル装置における特定情況で自動的に撮影する方法を示す。
図52は本発明によるウェアラブル装置における特定情況で自動的に撮影する方法を説明する順序図である。
図52を参照すると、ウェアラブル装置200はユーザから入力された自動的に撮影する情況を設定登録する(S411)。
自動的に撮影する状況は例えば音声、音、特定センサ値、位置、顔認識などであってもよいが、それについては限定しない。即ち、いかなる状況であってもウェアラブル装置200で認識することができ、該当状況がウェアラブル装置200に設定登録されていたのであれば本発明の技術的思想の範囲内に含まれることは自明である。
音声とは、人が使用する特定単語やその単語の測定強度である。人の音声が特定強度以上であれば自動的に撮影される。
音とは、人、動物又は無生物が出す特定音やその音の強度である。
特定センサ値とは、近接センサ204aや照度センサ204b(図1の260)での特定センサ値である。
位置とは、地上から特定位置であるか特定高度値である。例えば、ウェアラブル装置200を着用した状態で山に登ったとき、特定高度、例えば1400M以上であればウェアラブル装置200の前方カメラモジュール280及び/又は後方カメラモジュール290によって自動的に撮影される。
このような位置を感知するために、高度センサや位置センサがウェアラブル装置200に装着される。
顔認識とは、特定の人や動物の顔がウェアラブル装置200に予め設定登録された場合、ウェアラブル装置200によって該当顔が認識されるとウェアラブル装置200の前方カメラモジュール280及び/又は後方カメラモジュール290によって自動的に撮影される。
例えば、ウェアラブル装置200を着用して歩いているとき、例えばウェアラブル装置200を着用して歩いているときに目の前の子供たちが「あはは」と笑いながら遊んでいる姿が見えるとする。このような場合、子供たちの笑い声である「あはは」がウェアラブル装置200に予め設定登録されている場合にはウェアラブル装置200の前方カメラモジュール280及び/又は後方カメラモジュール290によって自動的に撮影される。
例えば、ウェアラブル装置200を着用して歩いているときにある人の悲鳴が聞こえるとする。この際、その悲鳴が一定強度以上であればウェアラブル装置200の前方カメラモジュール280及び/又は後方カメラモジュール290によって自動的に撮影される。
例えば、人を含む物体が一定距離以内に接近するとき、そのときの近接センサ204aの特定センサ値がウェアラブル装置200に予め設定された登録臨界値より大きい場合、ウェアラブル装置200の前方カメラモジュール280及び/又は後方カメラモジュール290によって自動的に撮影される。臨界値は製造会社又はユーザによって設定される。
自動的に撮影する状況が設定登録された状態でウェアラブル装置200を着用したユーザが特定場所にいる場合がある(S412)。
ここで、特定場所とは自動的に撮影する状況が発生する場所である。よって、特定場所はこの世に存在する全ての場所に当たり、例えば家、会社、街、飲食店、山、海である。
ユーザが特定場所にいるとき、ウェアラブル装置200の制御部208はユーザの要請に応答してユーザが首に着用しているウェアラブル装置200に装着された前方カメラモジュール280及び/又は後方カメラモジュール290を活性化する(S413)。
ユーザの要請はウェアラブル装置200に装着された活性化ボタン(図1の250)を押す動作によって行われるか移動端末機100にディスプレーされるカメラ制御画面(図36の1013)上の両方ボタン(図36の1025)に対するタッチ動作によって行われる。
移動端末機100にディスプレーされるカメラ制御画面(図36の1013)上の両方ボタン(図36の1025)に対するタッチ動作が入力されると、移動端末機100はこのようなタッチ動作に対応する例えば活性化命令をウェアラブル装置200に伝送し、ウェアラブル装置200の制御部208はこのような活性化命令に応答して前方カメラモジュール280及び/又は後方カメラモジュール280を活性化する。
ウェアラブル装置200の制御部208は前方カメラモジュール280及び/又は後方カメラモジュール290を制御し前方カメラモジュール280及び/又は後方カメラモジュール290に入力される映像を自動的に撮影する(S415)。
もし、左側カメラモジュール1503と右側カメラモジュール1501が更に具備されればそれらのカメラモジュール1501,1503を介しても映像が撮影される。
自動的に撮影する時点はウェアラブル装置200に設定登録された状況が発生することを日下瞬間であるが、それについては限定しない。
自動撮影は静止映像撮影、動画撮影、連続撮影、パノラマ撮影などである。
動画撮影は、設定登録された状況が発生する間に持続されるか予め設定された時間の間に持続される。
パノラマ撮影の間、前方カメラモジュール280及び/又は後方カメラモジュール290は第1方向から第2方向に回動される。例えば、前方カメラモジュール280及び/又は後方カメラモジュール290は左側方向から右側方向に回動する。
ウェアラブル装置200に設定登録された状況が発生するとき、自動撮影は前方カメラモジュール280のみ行われるか後方カメラモジュール290のみ行われるか前方カメラモジュール280及び後方カメラモジュール290両方が行われる。
基本的に前方カメラモジュール280と後方カメラモジュール280両方で自動撮影が行われるように設定され、ユーザによって前方カメラモジュール280のみ又は後方カメラモジュール290のみ自動撮影が行われるようにしてもよい。
ウェアラブル装置200は自動撮影された映像をメモリ207に記憶する(S416)。
また、ウェアラブル装置200は自動撮影されたユーザの移動端末機100、他のユーザの移動端末機100、特定サーバや関連機関に伝送されて記憶される。
ユーザの移動端末機100、他のユーザの移動端末機100、特定サーバや関連機関は予め自動撮影された映像を伝送されると事前にウェアラブル装置200に設定登録される。このような場合、自動撮影されたユーザの追加的な要請がなくても自動的にユーザの移動端末機100、他のユーザの移動端末機100、特定サーバや関連機関に伝送されて記憶される。
例えば、ユーザがウェアラブル装置200を着用した状態で特定場所にいるとき、特定場所で車同士の衝突事故が発生し、このような衝突事故に対する映像が自動撮影されて自動撮影映像が得られる。このような場合、自動撮影された映像はユーザの追加的な要求がなくても自動的に特定場所に近い警察署、交通管制センター又は保険会社に伝送される。
この際、伝送された自動撮影映像には特定場所に関する情報、例えば位置、アドレス及び/又は周辺の有名な建物などが含まれる。ここで、位置とアドレスは位置情報モジュール201dによって得られる。
よって、該当警察署、交通管制センサー又は保険会社ではユーザのウェアラブル装置200から伝送された自動撮影映像と共に特定場所に関する情報を介して車の衝突事故が起こった場所を用意に把握し、迅速に事故現場を収拾することができる。
例えば、ユーザがウェアラブル装置200を着用した状態で特定場所にいるとき、特定場所で凶器による傷害事故が発生し、このような傷害事故に対する映像が自動的に撮影される場合、自動撮影された映像が特定場所に近い警察署や治安完成センサーに伝送される。この際、伝送された自動撮影映像には特定場所に関する情報、例えば位置、アドレス及び/又は周辺の有名な建物などが含まれる。よって、該当警察署や治安完成センターではユーザのウェアラブル装置200から伝送された自動撮影映像と共に特定場所に関する情報を介して傷害事故が起こった場所を用意に把握し、迅速に犯人を逮捕することができる。もし犯人が事件現場から逃げても自動撮影映像に含まれた犯人の顔に基づいて犯人の逮捕が容易になる。
図53は、本発明によるウェアラブル装置における特定状況で自動的に撮影する方法を説明する第1画面例示図である。
図53に示したように、ウェアラブル装置200を首に着用したユーザが特定場所を歩いている場合がある。
一例として、ユーザが歩いているときに前方でウェアラブル装置200に事前に設定登録された状況が発生する場合、即ち「あはは」のような人の笑い声が聞こえる場合、ウェアラブル装置200の前方カメラモジュール280によって前方の客体に対する映像が自動的に撮影される。
他の例として、前方で「あはは」のような人の笑い声が聞こえてユーザがその笑い声を出す客体を見るためにその笑い声が聞こえる方向に視線を向ける場合、ウェアラブル装置200の前方カメラモジュール280によって前方の客体に対する映像が自動的に撮影される。
例えば、ウェアラブル装置200の前方カメラモジュール280の位置は垂直方向にユーザの目と一致する。このような場合、ユーザの目が見る方向にユーザの顔が向けられ、そのときに該当映像が自動撮影されればユーザの望みの客体に対する映像が得られる。
ウェアラブル装置200に事前に設定登録された状況が発生する前に前方カメラモジュール280及び/又は後方カメラモジュール290が活性化される。
基本的に前方カメラモジュール280と後方カメラモジュール290ずべてが活性化され、ユーザの設定変更命令に応じて前方カメラモジュール280のみ又は後方カメラモジュール290のみ活性化されてもよい。
また他の例として、ウェアラブル装置200に音感知センサ(図示せず)が装着されている場合、前方でウェアラブル装置200に設定登録された人の笑い声がする際、音感知センサが人の笑い声を感知しウェアラブル装置200の制御部208が前方カメラモジュール280を制御して前方カメラモジュール280の視野角が人の笑い声がする方向を向かうように前方カメラモジュール280を回動する。次に、ウェアラブル装置200の制御部208は前方カメラモジュール280を制御して前方の客体に対する映像を自動的に撮影する。
自動的に撮影された映像はウェアラブル装置200に記憶される一方、例えばウェアラブル装置200とペアリングされた移動端末機100やネットワークに連結された他の移動端末機100や特定サーバに伝送されて記憶される。
図54は、本発明によるウェアラブル装置における特定状況で自動的に撮影する方法を説明する第2画面例示図である。
図54に示したように、ウェアラブル装置200を首に着用したユーザが特定場所を歩いている場合がある。
一例として、ユーザが歩いている途中に後方からウェアラブル装置200に事前に設定登録された状況が発生する場合、即ち「ドカーン」と車同士がぶつかる音がする場合、ウェアラブル装置200の前方カメラモジュール280によって後方の客体に対する映像が自動的に撮影される。
事前に設定登録された状況はオンラインマーケットやユーザ間のデータ共有が可能で、共有されたデータ情報を介してユーザが置かれた特定状況や業務環境で一般的に聞くことがあまりない異質的なサウンドに対する反応を設定する。
他の例として、ウェアラブル装置200に音感知センサ(図示せず)が装着されている場合、前方でウェアラブル装置200に設定登録された車同士がぶつかる音がする際、音感知センサが車同士のぶつかる音を感知してウェアラブル装置200の制御部208が後方カメラモジュール290を制御し、後方カメラモジュール290の視野角が車同士がぶつかる音がする方向を向かうように後方カメラモジュール290を回動する。次に、ウェアラブル装置200の制御部208は後方カメラモジュール290を制御して後方の客体に対する映像を自動的に撮影する。
自動撮影された映像はウェアラブル装置200に記憶される一方、例えばウェアラブル装置200とペアリングされた移動端末機100や警察署、交通管制センター又は保険会社に伝送されて記憶される。
車同士がぶつかる瞬間を撮影した映像は衝突した車の運転者間の損害や過失を算定するのに非常に重要な証拠として活用されるため、無実に損をする人が出なくなる。
図55は、本発明によるウェアラブル装置における特定状況で自動的に撮影する方法を説明する第3画面例示図である。
図55に示したように、ウェアラブル装置200を首に着用したユーザが特定場所を歩いているとき、後方から包丁を持った犯罪者が接近する場合、ウェアラブル装置200の後方カメラモジュール290によって後方の客体に対する映像が自動的に撮影される。後方の客体とは包丁を持って接近する犯罪者である。
後方から犯罪者が包丁を持って接近する瞬間、自動的に犯罪者に対する映像を撮影するだけでなくユーザにウェアラブル装置200を介して音声や振動のような警報音を通知する。即ち、犯罪者を警戒し他の人の視線を誘導するために警報音やホイッスルの音を発生してもよい。また、急にウェアラブル装置200がユーザの首から外された場合にも同じく動作してもよい。
自動的に撮影された映像はウェアラブル装置200に記憶されるかウェアラブル装置200にペアリングされた移動端末機100に伝送されて記憶される。また、自動的に撮影された映像は関連者や関連機関、例えばユーザの家族や警察署に伝送される。
図53乃至図55に図示した分野以外に多様な分野に本発明による無線音響装置の自動撮影方法が適用される。
図56乃至図58は、ウェアラブル装置でカメラモジュールがゆれる際に写真イメージを撮影する方法を示す。
図56は、本発明によるウェアラブル装置でカメラモジュールがゆれる際に写真イメージを撮影する方法を説明する順序図であり、図57は本発明によるウェアラブル装置でカメラモジュールがゆれる際に写真イメージを撮影する方法を説明する画面例示図である。
図56と図57を参照すると、ウェアラブル装置200は前方カメラモジュール280と後方カメラモジュール290を活性化する(S421)。
一例として、ウェアラブル装置200に装着された活性化ボタン250が押される際に前方カメラモジュール280と後方カメラモジュール290が活性かされる。それによって、前方カメラモジュール280と後方カメラモジュール290それぞれに前方の客体に対する映像と後方の客体に対する映像が入力され、前方カメラモジュール280と後方カメラモジュール290それぞれに具備されたレンズに像が映される。
他の例として、移動端末機100にディスプレーされるカメラ制御画面(図36の1013)上の両方ボタン(図36の1025)に対するタッチ動作が入力されると、移動端末機100はこのようなタッチ動作に対応する、例えば活性化命令をウェアラブル装置200に伝送し、ウェアラブル装置200の制御部208はこのような活性化命令に応答して前方カメラモジュール280及び/又は後方カメラモジュール290を活性化する。
ユーザから写真イメージ撮影命令が入力されるとS422、ウェアラブル装置200は前後方カメラモジュール280,290が揺れるのかを感知する(S423)。
写真イメージ撮影命令は図57Aに図示したようにウェアラブル装置200に装着された撮影ボタン231,233がユーザによって押されることで生成される。
ここで、写真イメージとは一つのフレームの映像を示す静止画像である。
ユーザによって撮影ボタン231,233が押される場合、図57Bに示したように撮影ボタン231,233が装着されたウェアラブル装置200が揺れ、ウェアラブル装置200に装着された前方カメラモジュール280及び/又は後方カメラモジュール290も揺れる可能性がある。
このようなウェアラブル装置200又は前方カメラモジュール280及び/又は後方カメラモジュール290の揺れはウェアラブル装置200のハプティックモジュール205bによって感知される。
次に、ウェアラブル装置200の制御部208はハプティックモジュール205bによって感知されたウェアラブル装置200又は前方カメラモジュール280及び/又は後方カメラモジュール290の揺れの強度を把握し、このような揺れの強度が予め設定した値より大きいのかを把握する。予め設定した値は製造会社やユーザにいよって設定される。
もし前方カメラモジュール280及び/又は後方カメラモジュール290の揺れの強度が予め設定した値より小さければ、ウェアラブル装置200の制御部208は前方カメラモジュール280及び/又は後方カメラモジュール290を制御して前方カメラモジュール280及び/又は後方カメラモジュール290に入力される映像に対する写真イメージを撮影する(S424)。
もし前方カメラモジュール280及び/又は後方カメラモジュール290の揺れの強度が予め設定した値より大きければ、ウェアラブル装置200の制御部208は前方カメラモジュール280及び/又は後方カメラモジュール290を制御して前方カメラモジュール280及び/又は後方カメラモジュール290に入力される映像に対する動画を撮影する(S425)。
ウェアラブル装置200の揺れに対応して前方カメラモジュール280及び/又は後方カメラモジュール290が揺れる途中に写真イメージが撮影されると、該当写真イメージの客体の形態が不明確に示される。よって、このように撮影された写真イメージは捨てられるため大切な思い出をなくす恐れがある。
本発明では前方カメラモジュール280及び/又は後方カメラモジュール290の揺れの強度が予め設定された値より大きければ、図57Cに示したように写真イメージ撮影モードが動画撮影モードに変更されて写真イメージの代わりに動画が撮影される。
前記撮影された動画はメモリ207に臨時に記憶される。
該当動画は予め設定された時間の間に撮影され、例えば略5秒乃至10秒の間に撮影される。
このように5秒乃至10秒の間に動画で撮影されると、この期間の間に前方カメラモジュール280及び/又は後方カメラモジュール290の揺れが減って該当動画の一部フレームのうち揺れのない客体に対するフレーム映像(図58の1083)が存在する可能性がある。
動画撮影モードで撮影された動画は図58に図示したように多数のフレーム映像1081,1082,1083,1084で形成される。ここで、各フレーム映像1081,1082,1083,1084は静止画像である。
多数のフレーム映像1081,1082,1083,1084のうち特定フレーム領域1083は揺れのないきれいな映像である。
ウェアラブル装置200の制御部208は図58に示した多数のフレーム映像1081,1082,1083,1084のうちから最も揺れが小さいフレーム映像1083をユーザが撮影したかった写真イメージとして選択する(S426)。ここで、ウェアラブル装置200の制御部208は前記選択された写真イメージ1083をメモリ207に記憶するか移動端末機100に伝送する。
一方、前記メモリ207に臨時に記憶された動画は予め設定された期間、例えば一日が過ぎてから自動的に削除されてもよいが、それについては限定しない。
図59は、本発明によるウェアラブル装置を利用して前方映像及び後方映像を録画する方法を説明する順序図である。
図59を参照すると、ウェアラブル装置200の制御部208は前方カメラモジュール280と後方カメラモジュール290を活性化する(S431)。
前方カメラモジュール280及び/又は後方カメラモジュール290の活性化はウェアラブル装置200に装着された活性化ボタン250が押されるか移動端末機100にディスプレーされるカメラ制御画面(図36の1013)上の両方ボタン(図36の1025)に対するタッチ動作によって行われる。より詳しくは、上述した図56に関する説明によって容易に理解される。
映像録画命令が入力されると(S433)、ウェアラブル装置200の制御部208は設定時間の間に前方映像と後方映像を録画する一方、前方映像及び後方映像それぞれに対する位置情報を記憶する(S435)。
前方映像は前方カメラモジュール280から録画され、後方映像は後方カメラモジュール290から録画される。
基本的に前方映像と後方映像が同時に録画されるが、ユーザの選択に応じて前方映像のみ又は後方映像のみ録画されてもよい。
前方映像及び/又は後方映像の位置情報は位置情報モジュール210dによって得られる。
例えば、ユーザがウェアラブル装置200を着用した状態で車を運転する場合、車が進行する途中の車の前方と後方それぞれの映像が録画される。
例えば、ユーザがウェアラブル装置200を着用した状態で街を歩いている場合、歩いている途中のユーザの前方と後方それぞれの映像が録画される。
前方映像及び/又は後方映像の録画時間は、例えば一日に設定されてもよい。もしウェアラブル装置200のメモリ207に録画のために割り当てられた記憶空間が十分であれば、ユーザがウェアラブル装置200の電源を強制に遮断しない限り数日ずつ前方映像及び/又は後方映像が録画される。
もし前方映像及び/又は後方映像が録画される途中にメモリ207に録画のために割り当てられた記憶空間がフルになる場合、最初に録画された映像を消してその消したメモリ207の領域に前方映像及び/又は後方映像が録画記憶される。
このような位置情報は後に前記録画された映像が再生されるとき、経路マップを構成する際に使用される。
ウェアラブル装置200に記憶された録画映像と位置情報は自動的に又はユーザの選択に応じて移動端末機100に伝送されて記憶される。また、移動端末機100に予め設定されている場合、前記録画映像と位置情報が自動的に外部サーバに伝送されて記憶される。
図60は、本発明によるウェアラブル装置によって録画された映像を移動端末機にディスプレーする方法を説明する画面例示図である。
図60Aに示したように、移動端末機100のホーム画面1001上にウェアラブル装置200で録画されて伝送された録画映像を再生する特定アイコンがディスプレーされる。
特定アイコンはウェアラブル装置200から前記録画映像が受信される際に生成されてもよいが、それについては限定しない。
特定アイコンは例えばタイムマシーンアイコン1091であってもよいが、それについては限定しない。
タイムマシーンアイコン1091に対するタッチが入力されると、図60Bに示したように録画映像が移動端末機100のディスプレー部151上に再生される。
録画家像はウェアラブル装置200で録画されて位置情報と共に移動端末機100に伝送され、移動端末機100のメモリ170に記憶される。
録画映像はウェアラブル装置200の前方カメラモジュール280によって録画された後方映像を含む。
移動端末機100のディスプレー部151の画面は前方映像再生領域1101、後方映像再生領域1103、録画映像制御領域1109及び経路マップ表示領域1105を含む。
前方映像再生領域1101は前方が録画された前方映像が再生され、後方映像再生領域1103は後方が録画された後方映像が再生される。
前方映像再生領域1101のサイズは後方映像再生領域1103のサイズより大きくてもよいが、それについては限定しない。
後方映像再生領域1103と経路マップ表示領域1105は前方映像再生領域1101の右側の上に表示され、録画映像制御領域1109は前方映像再生領域1101と経路マップ表示領域1105それぞれの下側の上に配置されてもよい。また、経路マップ表示領域1105は後方映像再生領域1103と録画映像制御領域1109との間に配置されてもよいが、それについては限定しない。
経路マップ表示領域1105の上にウェアラブル装置200から録画映像と共に伝送された位置情報に基づいて録画映像に含まれたマップと共に現在の前方映像再生領域1101の上に再生される前方映像と後方映像再生領域1103の上に再生される後方映像でのユーザの位置が表示される。
例えば、録画領域に含まれたユーザの移動経路がA位置からB位置まで移動した場合、A位置とB位置を少なくとも含むマップ情報が経路マップ表示領域1105の上にディスプレーされる。さらに、前方映像再生領域1101の上にユーザがA位置にいるときの前方映像が再生され、同じく後方映像再生領域1103の上にユーザがB位置にいるときの後方映像が現在再生される場合、経路マップ表示領域1105上にディスプレーされるマップ情報上のA位置にユーザの現在位置マーカー1107がディスプレーされる。
ユーザは前方映像再生領域1101上に再生される前方映像と後方映像再生領域1103の上に再生される後方映像と共に経路アップ表示領域1105の上にディスプレーされるユーザの現在位置マーカー1107を介してユーザ自らの経路を容易に把握できる。
録画映像制御領域1109は録画映像、即ち前方映像と後方映像の時間的に進行される再生進行状態をガイドする進行状態ガイド1110と、進行状態ガイド1110上に位置して前方映像再生領域1101上に再生される前方映像と後方映像再生領域1103上に再生される後方映像の現在の再生進行位置を表示する進行状態バー1112を含む。
進行状態バー1112は録画映像、即ち前方映像と後方映像が時間的に再生されることで進行状態バー1112の最左側から右側に移動する。
進行状態バー1112の最左側地点は録画映像の開始時点を示し、進行状態バー1112の最右側地点は録画映像の終了時点を示す。
録画映像制御領域1109で進行状態ガイド1110の上側に第1グループのサムネール(thumnail)イメージ1114と第1グループのサムネールイメージ1114の上側に第2グループのサムネールイメージ1116がディスプレーされる。
第1グループのサムネールイメージ1114は前方映像を構成する多数のフレーム映像のうち一定区間ごとに当たるフレーム映像である。
第2グループのサムネールイメージ1116は後方映像を構成する多数のフレーム映像のうち一定区間ごとに当たるフレーム映像である。
図60では第1グループのサムネールイメージ1114と第2グループのサムネールイメージ1116それぞれ22個のサムネール映像を含むが、本発明はそれに限定しない。
第1グループのサムネールイメージ1114と第2グループのサムネールイメージ1116は普段はディスプレーされず、ユーザから進行状態バー1112に対してタッチ及びホールド動作が入力されれば録画映像制御流域1109で進行状態ガイドバー1110の上側にディスプレーされてもよいが、それについては限定しない。
もしユーザから進行状態バー1112に対してホールド解除が入力されると、第1グループのサムネールイメージ1114と第2グループのサムネールイメージ1116が消える。
進行状態バー1112が位置する地点に対応する第1グループのサムネールイメージ1114のフレーム映像1114aと第2グループのサムネールイメージ1116のフレーム映像1116aは、例えばハイライトされるか点滅するか特定色に表示されて他のフレーム映像と区分される。
一方、ユーザから進行状態バー1112に対してタッチ及びホールドされた状態で右側方向に沿ってユーザが望みに時点にドラッグタッチされてからタッチ解除が入力されると、図60Cにしめしたように進行状態バー1112はユーザの望みの時点に移動する。
このような場合、前方映像再生領域1101の上に進行状態バー1112が移動された時点に当たる前方映像が再生され、後方映像再生領域1103上に進行状態バー1112が移動された時点に当たる後方映像が再生される。
また、経路マップ表示領域1105上に進行状態バー1112が移動された時点に当たる前方映像及び後方映像でのユーザの位置に現在位置マーカー1107が移動されてディスプレーされる。
さらに、進行状態バー1112が移動された時点に当たる第1グループのサムネールイメージ1114のフレーム映像1114bと第2グループのサムネールイメージ1116のフレーム映像1116bは、例えばハイライトされるか点滅するか特定色に表示されて他のフレーム映像と区分される。それとは逆に、以前にハイライトされるか点滅するか特定色に表示されていた第1グループのサムネールイメージ1114のフレーム映像1114aと第2グループのサムネールイメージ1116のフレーム映像1115aは他のフレーム映像と同じくなる。
図61は、図60に示した前方映像再生領域と後方映像再生領域が互いにスイッチングされる方法を説明する画面例示図である。
図61Aに示したように、前方映像再生領域1101の任意の地点から後方映像再生領域1103の任意の地点までタッチ及びドラッグ動作が入力されると、図61bに示したように前方映像再生領域1001と後方映像再生領域1103が互いにスイッチングされる。このような場合、前方映像再生領域1101が後方映像再生領域1103に新しく定義され、新しく定義された後方映像再領域1103上に後方映像が再生される。後方映像再生領域1103が前方映像再生領域1101に新しく定義され、新しく定義された前方映像再領域1101上に前方映像が再生される。
図62は、図60に示した前方映像領域を可変する方法を説明する第1画面例示図である。
図62Aに示したように、前方映像再生領域1101の任意の地点から、例えば経路マップ表示領域1105の任意の領域にタッチ及びドラッグ動作が入力されると、図62Bに示したように、後方映像再生領域1103と経路マップ表示領域1105だけでなく録画映像制御領域1109も消える代わりに、前方映像再生領域1101が後方映像再生領域1103、経路マップ表示領域1105及び録画映像制御領域1109まで拡張される。言い換えると、前方映像再生領域1101がディスプレー部151の画面の全領域に拡張される。
このように、前方映像再生領域1101がディスプレー部151の画面の全領域に拡張された状態で前方映像再生領域1101の任煮の地点に対して1回叩くシングルタブや2回叩くダブルタブが入力されると、図62Cに示したように元の領域に復元される。即ち、ディスプレー部151の画面の全領域に拡張された前方映像領域1101が元のサイズに縮小される一方、ディスプレー部151の画面上から消えた後方映像再生領域1103、経路マップ表示領域1105及び録画映像制御領域1109それぞれがディスプレー部151の画面の元の領域に現れる。
図63は、図60に示された前方映像再生領域を可変する方法を説明する第2画面例示図である。
前方映像再生領域1101の任意の地点から、例えば経路マップ表示領域1105の任煮の領域にタッチ及びドラッグ動作が入力されると(図62a参照)、図63aに示したように後方映像再生領域1103と経路マップ表示領域1105が消える代わりに前方映像再生領域1101が後方映像再生領域1103と経路マップ表示領域1105まで拡張される。
このような場合、後方映像が再生される後方映像再生領域1103が消えてそれ以上後方映像が再生されないため、録画映像制御領域1109にディスプレーされる第2グループのサムネールイメージ1116も録画映像制御領域1109から消える。
前方映像再生領域1101が第2グループのサムネールイメージ1116が消えた領域だけ更に拡張されるため、ユーザは前方映像をより大きいサイズで見ることができる。
このように前方映像再生領域1101が拡張された状態で前方映像再生領域1101の任意の地点に対して1回叩くシングルタブや2回叩くダブルタブが入力されると、図63bに示したように元の領域に復元される。即ち、前記拡張された前方映像再生領域1101が元のサイズに縮小される一方、ディスプレー部151の画面から消えていた後方映像再生領域1103及び経路マップ表示領域1105それぞれがディスプレー部151の画面の元の領域に現れる。
さらに、前記消えていた後方映像再生領域1103に対応して消えていた第2グループのサムネールイメージ1116が録画映像制御領域1109上に現れる。
図59乃至図63に示した映像録画及び録画映像再生方法によって、ユーザはいつでも望みの時点の映像を見ることができる。
図64は、本発明によるウェアラブル装置を利用してユーザが特定場所で建物を容易に探す方法を説明する順序図である。
図64を参照すると、ウェアラブル装置200は移動端末機100から受信された場所及び名前を含む目的地情報をメモリ209に登録するS441。
ウェアラブル装置200に文字を入力するための入力手段がないため、移動端末機100から場所及び名前を含む目的地情報を受信される。
詳しくは、図65Aに示したように移動端末機100のホーム画面1001上に目的地探索アイコン1118がディスプレーされる。
ユーザから目的地探索アイコン1118に対するタッチが入力されると、図65B示したように入力ウィンドウ1121と文字、数字及び特殊文字を入力するためのキーボード1123がディスプレーされる。
入力ウィンドウ1121は名前を入力するための名前入力ウィンドウ1125と場所を入力するための場所入力ウィンドウ1127を含む。
ユーザはキーボード1123を利用して名前入力ウィンドウ1125に名前を入力し、場所入力ウィンドウ1127に場所を入力する。
名前がユーザの探そうとする建物の名前や店の名前である。場所はユーザが行こうとする位置であって、例えばアドレスである。
名前入力ウィンドウ1125に名前が入力されて場所入力ウィンドウ1128に場所が入力された後、ユーザから伝送ボタン1129に対するタッチが入力されるとユーザから入力された場所と名前を含む目的地情報がウェアラブル装置200から伝送される。
他の例として、ユーザが必ずしも前記情報を入力しなくても周辺の代表的な建物の名前、地名などが自動的に入力されてもよい。
ウェアラブル装置200は移動端末機100から受信された場所と名前を含む目的地情報をメモリ207に登録する。
更に図64を参照すると、ウェアラブル装置200は位置情報モジュール201dを活性化するS442。
ウェアラブル装置200や移動端末機100によってユーザの移動が感知されるとき位置情報モジュール201dが活性化されてもよいが、それについては限定しない。
ウェアラブル装置200の位置情報モジュール201dが活性化されることでウェアラブル装置200は位置情報モジュール201dを利用してユーザの位置を把握する。
ユーザの位置が予め登録された場所内にある場合、ウェアラブル装置200の制御部208は前方カメラモジュール280を活性化する(S443)。
ウェアラブル装置200に活性化ボタン250が具備されているが、ユーザから活性化ボタン250が押されなくてもユーザの位置が予め登録された場所内にいれば前方カメラモジュール280が活性化される。
ここで近くとは、予め登録された場所から離隔された半径である。半径とは、例えば略500m又は1kmである。このような半径はユーザによって予め設定されてもよい。
前方カメラモジュール280が活性化されることで、ウェアラブル装置200の制御部208は前方カメラモジュール280を制御して前方カメラモジュール280に入力される前方映像を撮影する(S444)。
ユーザが場所近くで予め登録された名前を探すために辺りを見回し、ユーザが見回すことで前方カメラモジュール280に入力される互いに異なる視野角を有する前方映像が撮影される。
他の例として、前方カメラモジュール280だけでなく後方カメラモジュール290、左側カメラモジュール(図71の1503)と右側カメラモジュール1501が活性化され、それらのカメラモジュール280,290,1501,1503全てから該当映像が撮影される。
ウェアラブル装置200の制御部208は前記撮影された前方映像からテキストを抽出するS445。
前記撮影された前方映像の中には多数のテキスト、キャラクタ、イメージ、図形などが含まれる。
ウェアラブル装置200の制御部208はその中からテキストを抽出する。
映像イメージからテキストを抽出する方法は通常の周知技術から容易に理解されるため、それ以上の説明は省略する。
ウェアラブル装置200の制御部208は前記撮影された前方映像から抽出されたテキストを予め登録された名前と比較し、前記抽出されたテキストが予め登録された名前と同じであるのかを確認する(S446)。
もし前記抽出されたテキストが予め登録された名前と同じでなければ、S444に移動してS445及びS446が繰り返し行われる。
前記抽出されたテキストが予め登録された同じであれば、ウェアラブル装置200の制御部208は目的地を見つけたことをユーザに通知する(S447)。
一例として、ウェアラブル装置200の制御部208は目的地を見つけたことをウェアラブル装置200の音響出力部205aを介して通知するか、ウェアラブル装置200の光出力部205cを介して通知する。
他の例として、ウェアラブル装置200の制御部208は目的地を見つけたことを移動端末機100のディスプレー部151を介して文字メッセージで通知するか、移動端末機100の音響出力部152を介して通知するか移動端末機100の光出力部位154を介して通知する。
図66乃至図68は、本発明のウェアラブル装置で撮影された写真イメージリストを移動端末機上にロードビューマップでディスプレーする方法を示す。
図66は、本発明のウェアラブル装置で撮影された写真イメージリストを移動端末機100上にロードビューマップでディスプレーする方法を説明する順序図である。
図66を参照すると、移動端末機100はウェアラブル装置200から位置情報を利用して撮影された写真イメージリストを音声ファイルと共に受信する(S451)。
写真イメージが撮影されるためにウェアラブル装置200の前方カメラモジュール280及び/又は後方カメラモジュール290が活性化される。例えば、ユーザから活性化ボタン250に対する押し動作が入力されると前方カメラモジュール280及び/又は後方カメラモジュール290が活性化されてもよいが、上述したように移動端末機100によっても可能である。
さらに、ウェアラブル装置200を利用して写真イメージが撮影される際、ウェアラブル装置200の位置情報モジュール201dとマイクロフォン202bが活性化される。
位置情報モジュール201dとマイクロフォン202bはユーザのボタン操作によって活性kされるか、前方カメラモジュール280及び/又は後方カメラモジュール290の活性化と連動して一緒に活性化されてもよい。
図示していないが、ウェアラブル装置200上に前方カメラモジュール280及び/又は後方カメラモジュール290だけでなく左側カメラモジュールと右側カメラモジュールが更に装着される場合、前方カメラモジュール280及び/又は後方カメラモジュール290だけでなく左側カメラモジュール及び右側カメラモジュールも活性化される。
このような場合、前方カメラモジュール280、後方カメラモジュール290、左側カメラモジュール及び右側カメラモジュールが同時に撮影されることでパノラマ写真イメージやロードビュー写真イメージが生成される。即ち、ユーザを中心に380°全ての方向の客体に対する映像が一フレーム単位の写真イメージで生成される。
本発明はウェアラブル装置200上に前方カメラモジュール280及び/又は後方カメラモジュール290が装着されるか、前方カメラモジュール280、後方カメラモジュール290、左側カメラモジュール1503及び右側カメラモジュール1501全てが装着されることを全て含む(図71を参照)。
以下、便宜上ウェアラブル装置200上に前方カメラモジュール280、後方カメラモジュール290、左側カメラモジュール1503及び右側カメラモジュール1501が全て装着されていると仮定して説明する。
ユーザから撮影ボタン231,223に対する押し動作が入力されると、図67に示したようにウェアラブル装置200は前方カメラモジュール280、後方カメラモジュール290、左側カメラモジュール1503及び右側カメラモジュール1501に入力される映像を撮影して各カメラモジュール180,290,1501,1503から撮影された映像に基づいて第1乃至第4領域1134,1135,1136,1137を含む一フレームの写真イメージ1033を生成する。
例えば、第1領域1134は前方カメラモジュール280によって撮影された前方映像であり、第2領域1135は右側カメラモジュール1501によって撮影された右側映像である。第3領域1136は後方カメラモジュール290によって撮影された後方映像であり、第4領域11137は左側カメラモジュール1503によって撮影された左側映像である。各カメラモジュール280,290,1501,1503によって撮影された映像を第1乃至第4領域1134,1135,1136,1137のどの領域に設定するのかは製造会社によって予め設定されるかユーザによって設定されてもよい。
このような場合、図67Aに示したように写真イメージ1133の第1領域1134が移動端末機100の単一画面上にディスプレーされる。写真イメージ1133の第1領域1134がディスプレーされた状態でユーザから左側方向に沿ってタッチドラッグが入力されると、図67Bに示したように写真イメージ1133の第1領域1134が写真イメージ1133の第2領域1135にスイッチングされてディスプレーされる。写真イメージ1133の第2領域1135がディスプレーされた状態でユーザから左側方向に沿ってタッチドラッグが入力されると、図67Cに示したように写真イメージ1133の第2領域1135が写真イメージ1133の第3領域1136にスイッチングされてディスプレーされる。写真イメージ1133の第3領域1136がディスプレーされた状態でユーザから左側方向に沿ってタッチドラッグが入力されると、図67Dに示したように写真イメージ1133の第3領域1136が写真イメージ1133の第4領域1137にスイッチングされてディスプレーされる。
これとは逆に、写真イメージ1133の第4領域1137がディスプレーされた状態で右側方向に沿ってドラッグタッチが入力されるたびに第4領域1137が第3領域1136に、第3領域1136が第2領域1135に、そして第2領域1135が第1領域1134にスイッチングされてディスプレーされる。
よって、ユーザは写真イメージ1133を介してロードビュー映像を見ることができる。言い換えると、ユーザは写真イメージ1133を介して従来に単純に前面写真イメージのみを見ていたことから、更に前面写真イメージだけでなく全ての方向の写真イメージを同時に見ることができるためユーザに写真イメージの楽しさを提供することができる。
即ち、通常一般人が写真を見るときには前面後方の客体のみが見えるが、写真を撮影する当時に前面以外の他の方向の情況はどうだったのか気になるときがある。しかし、従来は前面方向の客体のみを写真で見ることができるため、ユーザの気になるところを解消することができなかった。
本発明は写真撮影当時の前面方向だけでなく全ての方向の客体に対する映像を見ることができるため、ユーザの周辺情況に対する気になる部分を解消することができる。
前記では写真イメージに限って説明しているが、本発明は前方カメラモジュール280、後方カメラモジュール290、左側カメラモジュール1503及び右側カメラモジュール1501によって同時に撮影される動画に対しては同じく適用される。
例えば、前方カメラモジュール280、後方カメラモジュール290、左側カメラモジュール1503及び右側カメラモジュール1501によって同時に撮影される第1乃至第4動画に対して移動端末機100の単一画面上に第1動画が再生されてもよい。このような場合、ユーザから左側方向に沿ったドラッグタッチが入力されるたびに第1動画が第2動画に、第2動画が第3動画に、そして第3動画が第4動画にスイッチングされて再生される。
更に図66を参照すると、写真イメージリストはユーザが様々な場所で撮影して累積された多数の写真イメージを含む。このような写真イメージリストはウェアラブル装置200のメモリ207に記憶されてから移動端末機100に伝送される。
音声ファイルは各写真イメージとリンクされる。例えば、写真を撮影する当時の人の音声、動物の鳴き声や周辺騒音がある。このようなものが写真撮影の際に一緒に録音されて音声ファイルとして生成される。前記生成された音声ファイルは写真イメージにリンクされる一方、ウェアラブル装置200のメモリ207に記憶されてから写真イメージリストと共に移動端末機100に伝送される。
例えば、移動端末機100で特定写真イメージがタッチされるときに特定写真イメージとリンクで連結された音声ファイルが再生されてもよいが、それについては限定しない。
一方、写真イメージには位置情報が含まれる。即ち、各カメラモジュール280,290,1501,1503と位置情報モジュール201dが活性化されるとき、ウェアラブル装置200はユーザの位置を常に把握する一方、各カメラモジュール280,290,1501,1503によって写真が撮影されるのかを確認する。
ユーザから撮影ボタン231,233に対する押し動作が入力されると、ウェアラブル装置200はこれを感知して現在把握された位置情報を各カメラモジュール280,290,1510,1503によって撮影された映像から生成された写真イメージに反映する。
写真イメージに反映された位置情報は移動端末機100でロードビューマップが生成される際、写真イメージに含まれた位置情報に基づいて各写真イメージがロードビューマップ上の該当位置に配列される。
移動端末機100はウェアラブル装置200から受信された写真イメージリストに基づいてロードビューマップを生成し、前記生成されたロードビューマップをメモリ170に記憶する(S453)。
上述したように写真イメージリストは多数の一フレーム写真イメージを含み、各写真イメージは位置情報を含む。
移動端末機100は予め提供されたマップデータに基づいて各写真イメージを位置情報に応じて配列したロードビューマップを生成する。
移動端末機100はディスプレー部151を制御してロードビューマップをディスプレーするS455。
例えば、図68Aに示したように、移動端末機100のホーム画面1001上にロードビューギャラリーアイコン1141がディスプレーされる。
ユーザからロードビューギャラリーアイコン1141に対するタッチが入力されると、図68Bに示したようにロードビューマップ1143がディスプレー部151の画面上にディスプレーされる。
図示していないが、画面は第1領域と第2領域とで区分される。第1領域にマップ情報が表示され、マップ情報の特定位置に当たる写真イメージが第2領域に表示される。もし該当写真イメージが表示される際に該当写真イメージの撮影当時に聞いていた音楽があれば該当音楽が再生されてもよい。一方、画面は第3領域を更に含み、第3領域に前記ディスプレーされるマップ情報から得られた地名や名所、例えばお店、飲食店、遺跡などに対する情報がディスプレーされる。これらの名所は、例えばウェブサーバから獲得されてもよい。
ロードビューマップ1143はユーザが訪問して写真を撮影した場所に配置されるサムネール写真イメージ1145を含む。
特定場所で少なくとも一つ以上の写真イメージが撮影される場合、該当場所に配置されるサムネール写真イメージ1145は少なくとも一つの写真イメージが互いに重なる形状を有する。サムネール写真イメージ1145上に前記撮影された写真イメージの個数を示す数字マークがディスプレーされる。
図示されていないがロードビューマップ1143上にユーザが移動した経路がディスプレーされてもよく、この経路は道とは異なる他のカラーやハッチングを有する。移動方向が分かるように経路上に進行方向を示す矢印がディスプレーされてもよい。
例えば、特定サムネールイメージに対するタッチが入力されると特定サムネールイメージ上にディスプレーされる数字マークに当たる写真イメージが広げられ、ドラッグタッチを介して特定写真イメージに移動し選択すると特定写真イメージが別途のウィンドウにディスプレーされる一方、特定写真イメージにリンクされた音楽ファイルが再生されてユーザは特定写真イメージを鑑賞しながら特定写真イメージを撮影する当時の周辺の音を聞くことができる。
この際、特定写真イメージは図67Aに示した写真イメージの第1領域に当たる。即ち、前方カメラモジュール280によって撮影された特定写真イメージがディスプレーされる。このような場合、上述したようにユーザから左側方向に沿ってドラッグタッチが入力されるたびに右側カメラモジュール1501によって撮影された他のイメージ、後方カメラモジュール290によって撮影されたまた他のイメージ、そして左側カメラモジュール1503によって撮影された更に他の写真イメージが順次にディスプレーされる。
それによって、ユーザは前方カメラモジュール280によって撮影された特定写真イメージのみを見るのではなく右側カメラモジュール1501、後方カメラモジュール290及び左側カメラモジュール1503によって撮影された他の写真イメージも見ることができるため、まるでロードビュー写真を鑑賞することができる。
例えば、前方カメラモジュール280、後方カメラモジュール290、右側カメラモジュール1501及び左側カメラモジュール1503によって時間周期に応じて又は距離に応じて撮影されてもよい。このように撮影されたイメージは移動端末機100に伝送されて記憶される。このような場合、移動端末機100でロードビューマップがディスプレーされるときに時間バーも一緒にディスプレーされる。時間バーを利用して特定時間が選択される際、特定時間で動いた距離とその特定時間に撮影された写真イメージがウィンドウやサムネールイメージでディスプレーされる。
一方、前記撮影された写真イメージと共に撮影当時のGPS情報、ユーザの移動方向情報、撮影当時に聞いていた音楽の情報、天気情報、撮影当時の周辺の音などがタグ(tag)情報として記憶され、タグ情報はイメージやアイコンとして表示される。このような場合、該当アイコンを選択する際に前記選択された写真イメージがディスプレーされると共にGPS情報、移動方向情報、天気情報が共にディスプレーされ、音楽情報に当たる音楽ファイルが再生されるか撮影当時の周辺の音が再生されてもよい。撮影当時に聞いていた音楽は移動端末機100のメモリ170に記憶されているものでもよく、ウェブサーバ上に存在するものでもよい。
他の例として、撮影当時に聞いていた音楽が写真イメージに関して記憶されてもよい。このような場合、音楽ファイルに写真イメージタグ情報が付加される。よって、該当音楽ファイルが再生される際、該当音楽を聞いていた当時に撮影された写真イメージが表示される。写真イメージはスライドで表示される。
他の例として、特定音楽を聞いているときに撮影された写真が特定音楽とリンク連結され、特定音楽を聞くときに該当写真がディスプレーされてもよい。特定音楽を聞く際に一枚の写真が撮影された場合、特定音楽を聞く際に該当写真が別途のウィンドウでディスプレーされる。特定音楽を聞く際に複数の写真が撮影された場合、特定音楽を聞く際に複数の写真がスライドで表示される。
図69は、移動端末機でロードビューマップをディスプレーする方法を説明する他の画面例示図である。
図69Aに示したように、移動端末機100のディスプレー部151の画面が第1及び第2領域1052,1054で区分され、第1領域1052にイメージ表示ウィンドウがディスプレーされて第2領域1054にマップ表示ウィンドウがディスプレーされる。
イメージ表示ウィンドウに写真イメージがスライドで再生され、マップ表示ウィンドウにマップ情報がディスプレーされる。
例えば、第1写真イメージがイメージ表示ウィンドウにディスプレーされる際、マップ表示ウィンドウにディスプレーされるマップの第1位置にマーカー1056が表示される。これからイメージ表示ウィンドウに表示される第1写真イメージがマップの第1位置で撮影されたことが分かる。
例えば、図69Bに示したように、イメージ表示ウィンドウに第2写真イメージがディスプレーされると、マップ表示ウィンドウにディスプレーされるマーカー1056が第2位置に移動されて表示される。これからイメージ表示ウィンドウに表示される第2写真イメージがマップの第2位置で撮影されることが分かる。
本発明によると、写真イメージが撮影された位置や場所をリアルタイムでマップを介して確認することができる。
以上の実施例はグラスディバイスに適用される。
図70は、本発明に関するウェアラブル装置とグラスディバイスを含むシステムを示す概略図である。
図70に示したように、ウェアラブル装置200に装着された前方カメラモジュール280及び後方カメラモジュール290に入力される映像が撮影される。
もしウェアラブル装置200に前方カメラモジュール280及び後方カメラモジュール290以外に左側カメラモジュール(図71の1503)と右側カメラモジュール(図71の1501)が追加に装着されるのであれば、前方カメラモジュール280、後方カメラモジュール290、左側カメラモジュール1503及び/又は右側カメラモジュール1501に入力される映像が撮影される。
この際、映像は静止画像、動画、写真イメージリスト、パノラマなどである。
このように撮影された映像はウェアラブル装置200の通信モジュール114を利用してグラスディバイス1300に伝送される。グラスディバイス1300にも通信モジュールが具備され、前記通信モジュールを利用してウェアラブル装置200から伝送された前記撮影された映像を受信する。
ガラスディバイス1300には映像をディスプレーするためのプリズム1313が具備される。
本体1311によってプリズム1313が支持されるように固定される。プリズム1313は透明な光学素子を含む。
プリズム1313上に映像の像が映り、ユーザが映像を見ることができる。
グラスディバイス1300には映像をプリズム1313に照射するための光源(図示せず)が追加に具備される。
さらに、グラスディバイス1300には前方の映像を撮影するカメラ1315が具備されてもよい。
グラスディバイス1300はユーザがウェアラブル装置200から受信された映像を見るように、該当映像をプリズム1313上に照射する。
ウェアラブル装置200から撮影された映像がガラスディバイス1300に伝送される前に、ウェアラブル装置200とグラスディバイス130との間にペアリングが行われる。
ウェアラブル装置200から撮影された映像はリアルタイム又は一定周期にグラスディバイス1300に伝送される。
ユーザはグラスディバイス1300とウェアラブル装置200着用した状態で、ウェアラブル装置200の各カメラモジュール280,290、図71の1501,1503から撮影された映像をグラスディバイス1300のプリズム1313を介してみることができるため、周囲の危険情況に容易に対処することができる。
図73は、ウェアラブル装置の代わりに移動端末機で写真を撮影する方法を示す順序図である。
図73を参照すると、移動端末機100はウェアラブル装置200とペアリングを行うS461。
ペアリングが完了されると、ウェアラブル装置200の前方カメラモジュール280のは移動端末機の制御によって駆動されるかペアリングが完了したらウェアラブル装置200によって駆動されてもよい。
図74に示したようにもし移動端末機100によってウェアラブル装置200の前方カメラモジュール280が塞がれるとS465、移動端末機100のカメラ121によって前方映像が撮影される。
詳しくは、ウェアラブル装置200は前方カメラモジュール280に入力される前方映像の明るさの変化を利用して前方カメラモジュール280が移動端末機100によって塞がれるのかを感知する。前方カメラモジュール280が移動端末機100によって塞がれる場合、ウェアラブル装置200は移動端末機100に写真撮影命令を伝送する。前記写真撮影命令を伝送された移動端末機100は前方映像を撮影するようにカメラ121を制御する。
本発明のウェアラブル装置によると、移動端末機100上にウェアラブル装置200を駆動するウィジェットアイコンが表示される。ウィジェットアイコンに対するタッチ命令に応じてウェアラブル装置200が駆動される。この際、ウェアラブル装置200の駆動は前方カメラモジュール280と後方カメラモジュール290を駆動することを意味するが、それについては限定しない。ウィジェットアイコンとは、移動端末機100などでウェブブラウザを介せずに特定機能をすぐに実行可能なアプリケーションである。
一方、本発明のウェアラブル装置200はユーザが移動端末機100を利用して映画、写真イメージ又は放送プログラムを見ながら歩く場合、前を見ることができず前方の障害物とぶつかるか障害物に引っかかって転んで怪我をする問題を解決することができる。即ち、ユーザが移動端末機100を利用して映画、写真イメージ又は放送プログラムを見ながら歩くとき、前方の障害物が一定距離以内に接近すればウェアラブル装置200の近接センサ204aなどがそれを感知しユーザに効果音や警報音を提供する。この際、前方の障害物が近づくほど効果音や警報音が大きくなる。
このような効果音や警報音はウェアラブル装置200自体から発生してもよい。又はウェアラブル装置200の近接センサ204aによって感知された障害物情報を移動端末機100に伝送して移動端末機100によって効果音や警報音を発生してもよい。
障害物とは、階段、壁、ドア、車、自転車、人、動物などのようにユーザに被害を与える恐れがある全てのものである。
移動端末機100を見ながら歩く途中に障害物を避ける方法としては、上述したように図37乃至図40に示したように移動端末機100のディスプレー部151の一部領域上に前方カメラモジュール280及び/又は後方カメラモジュール290に入力されるプレビュー映像を前方プレビュー画面1024及び/又は後方プレビュー画面1026上にディスプレーする方法がある。このように、ユーザは移動端末機100を利用して映画や放送プログラムを見ながら歩いても前方プレビュー画面1024及び/又は後方プレビュー画面1025上にディスプレーされる前方プレビュー映像及び/又は後方プレビュー映像を随時に確認することで、前後方の障害物の存在可否を用意に確認し該当障害物を避けることができる。
以上の発明ではウェアラブル装置200に前方カメラモジュール280と後方カメラモジュール290が装着されて前方の映像と後方の映像が取得されることについて説明している。
しかし、本発明はこれに限定されず、図71に示したように、例えばウェアラブル装置200の左側に装着される左側カメラモジュール1503とウェアラブル装置200の右側に装着される右側カメラモジュール1051が更に追加され、前方の映像と後方の映像だけでなくユーザの左側方向の映像と右側方向の映像が獲得され、ユーザを中心に全ての方向の映像が獲得されて、このような映像によってユーザの便宜性を更に極大化することができる。
本発明は図71に示した4つのカメラモジュール280,290,1501,1053より多くのカメラモジュールがウェアラブル装置に装着されて使用されてもよい。
上述した本発明は、プログラムが記録された媒体にコンピュータが読み込めるコードとして具現することができる。コンピュータが読み込める媒体はコンピュータシステムによって読み込めるデータが記憶される全ての種類の記録装置を含む。コンピュータが読み込める媒体の例としては、HDD(Hard Disk Drive)、SSD(Solid State Disk)、SDD(Slicon Disk Drive)、ROM,ROM,CD−ROM、磁気テープ、フロッピディスク、光データ記憶装置などがあり、またキャリアウェーブ(例えば、インターネットを介した伝送)の形態で具現されることも含む。また、前記コンピュータは移動端末機100の制御部180を含んでもよい。よって、前記詳細な説明は全ての面で制限的に解析されてはならず、例示的なものとして考慮されるべきである。本発明の範囲は添付した特許請求の範囲の合理的な解析によって決定されるべきであり、本発明の等価的な範囲内での全ての変更は本発明の範囲に含まれる。

Claims (20)

  1. 第1無線装置、音響出力部及び少なくとも一つ以上のカメラを具備したウェアラブル装置と、
    前記ウェアラブル装置と無線通信を行う第2無線通信装置と、
    情報をディスプレーしタッチ入力を受信可能なタッチスクリーンと、
    前記タッチスクリーンは前記ウェアラブル装置を制御する制御画面を表示するようにするアイコンを有し、前記制御画面は音響を制御する第1制御領域と前記カメラを制御する第2制御領域を含み、
    前記アイコンに対するタッチが入力されると前記タッチスクリーン上に前記第1制御領域と前記第2制御領域を同時に表示するように制御する制御部と、を含む、移動端末機。
  2. 前記制御画面はカメラ制御画面を含み、
    前記カメラ制御画面は前記少なくとも一つ以上のカメラの回動角度を調節するための角度調節ボタンを含む、請求項1に記載の移動端末機。
  3. 前記制御画面はカメラ制御画面を含み、
    前記カメラ制御画面は前記少なくとも一つ以上のカメラを個別的に又は一括して活性化するための少なくとも一つ以上のカメラボタンを含む、請求項1に記載の移動端末機。
  4. 前記制御部は、
    前記カメラボタンに対するタッチが入力されると、前記タッチスクリーンを制御して該当カメラボタンに対応するプレビュー画面をディスプレーする、請求項3に記載の移動端末機。
  5. 前記プレビュー画面は前記カメラ制御画面上にディスプレーされるか前記カメラ制御画面とは別途のウィンドウでディスプレーされる、請求項4に記載の移動端末機。
  6. 前記制御画面は音楽制御画面を更に含み、
    前記カメラ制御画面上に少なくとも一つ以上のプレビュー画面がディスプレーされる際、前記少なくとも一つ以上のプレビュー画面は前記音楽制御画面に対して垂直方向に沿って又は水平方向に沿ってディスプレーされる、請求項5に記載の移動端末機。
  7. 前記カメラ制御画面上に少なくとも一つ以上のプレビュー画面がディスプレーされる際、前記少なくとも一つ以上のプレビュー画面のうち第1プレビュー画面はディスプレーされて第2プレビュー画面は前記第1プレビュー画面の一側にディスプレーされるキューに隠され、
    前記キューに対するフリックタッチが入力されると、前記キューに隠されていた第2プレビュー画面が前記第1プレビュー画面の一領域上にディスプレーされる、請求項5に記載の移動端末機。
  8. 前記アイコンはウェアラブル装置専用アイコン又はフローティングアイコンのうち一つを含む、請求項1に記載の移動端末機。
  9. 前記ウェアラブル装置の前記カメラは少なくとも一つ以上の写真イメージを獲得し、
    前記制御部は、
    前記少なくとも一つ以上の写真イメージを表示し、
    前記少なくとも一つ以上の写真イメージのうち特定写真イメージに対する選択が入力されると前記特定写真イメージを撮影する当時に聞いていた音楽を再生するように制御する、請求項1に記載の移動端末機。
  10. 前記ウェアラブル装置は時間周期又は距離に応じて撮影した写真イメージを獲得し、
    前記制御部は、
    時間バーを表示し、
    前記時間バーから特定時間に対する選択が入力されると前記特定時間で動いた距離と前記特定時間に撮影された写真イメージを表示するように制御する、請求項1に記載の移動端末機。
  11. 前記撮影された写真イメージには撮影当時に再生中の音楽に関するタグ情報が付加され、
    前記制御部は、
    前記タグ情報に関するアイコンを表示し、
    前記タグ情報に関するアイコンに対する選択が入力されると前記撮影当時に再生中の音楽を再生するように制御する、請求項10に記載の移動端末機。
  12. 前記制御部は、
    前記音楽が再生される際、前記撮影された写真イメージを表示するように制御する、請求項11に記載の移動端末機。
  13. 前記制御部は、
    タッチスクリーン上の画面を第1及び第2領域に区分し、
    前記第1領域上に写真イメージがスライドで再生され、
    前記第2領域上に前記写真イメージが撮影された位置を表示するマーカーを含むデータ情報を表示するように制御する、請求項1に記載の移動端末機。
  14. 第1無線装置、音響出力部及び少なくとも一つ以上のカメラを具備したウェアラブル装置と、
    前記ウェアラブル装置と無線通信を行う第2無線通信装置と、
    情報をディスプレーしタッチ入力を受信可能なタッチスクリーンと、
    前記タッチスクリーンは前記ウェアラブル装置を制御する制御画面を表示するようにするアイコンを有し、前記制御画面は音響を制御する音響制御領域と前記少なくとも一つ以上のカメラを制御するためのボタンを含み、
    前記アイコンに対する選択が入力されると前記タッチスクリーン上に前記音響制御画面と前記制御ボタンを同時に表示するように制御する制御部と、を含む、移動端末機。
  15. 前記制御部は、
    前記制御ボタンに対する選択が入力されると前記少なくとも一つ以上のカメラのうち一つ又は2つ以上のカメラに対するプレビュー画面を表示するように制御する、請求項14に記載の移動端末機。
  16. 前記ウェアラブル装置の前記カメラは少なくとも一つ以上の写真イメージを獲得し、
    前記制御部は、
    前記少なくとも一つ以上の写真イメージを表示し、
    前記少なくとも一つ以上の写真イメージのうち特定写真イメージに対する選択が入力されると前記特定写真イメージを撮影する当時に聞いていた音楽を再生するように制御する、請求項14に記載の移動端末機。
  17. 前記ウェアラブル装置は時間周期又は距離に応じて撮影した写真イメージを獲得し、
    前記制御部は、
    時間バーを表示し、
    前記時間バーから特定時間に対する選択が入力されると前記特定時間で動いた距離と前記特定時間に撮影された写真イメージを表示するように制御する、請求項14に記載の移動端末機。
  18. 前記撮影された写真イメージには撮影当時に再生中の音楽に関するタグ情報が付加され、
    前記制御部は、
    前記タグ情報に関するアイコンを表示し、
    前記タグ情報に関するアイコンに対する選択が入力されると前記撮影当時に再生中の音楽を再生するように制御する、請求項17に記載の移動端末機。
  19. 前記制御部は、
    前記音楽が再生される際、前記撮影された写真イメージを表示するように制御する、請求項18に記載の移動端末機。
  20. 前記制御部は、
    タッチスクリーン上の画面を第1及び第2領域に区分し、
    前記第1領域上に写真イメージがスライドで再生され、
    前記第2領域上に前記写真イメージが撮影された位置を表示するマーカーを含むデータ情報を表示するように制御する、請求項14に記載の移動端末機。
JP2015098995A 2014-10-07 2015-05-14 移動端末機 Active JP6130432B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2014-0135131 2014-10-07
KR1020140135131A KR101663375B1 (ko) 2014-10-07 2014-10-07 웨어러블 장치, 이동 단말기 및 시스템
KR10-2014-0136562 2014-10-10
KR1020140136562A KR101609950B1 (ko) 2014-10-10 2014-10-10 무선 음향 장치

Publications (2)

Publication Number Publication Date
JP2016076202A true JP2016076202A (ja) 2016-05-12
JP6130432B2 JP6130432B2 (ja) 2017-05-17

Family

ID=53040340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015098995A Active JP6130432B2 (ja) 2014-10-07 2015-05-14 移動端末機

Country Status (4)

Country Link
US (1) US10216312B2 (ja)
EP (1) EP3007029B1 (ja)
JP (1) JP6130432B2 (ja)
CN (1) CN106200773B (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017510133A (ja) * 2014-01-14 2017-04-06 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 立体的視野及び内部処理機能を備えたスマート・ネックレス
JP2018092141A (ja) * 2016-12-05 2018-06-14 群光電子股▲ふん▼有限公司 パノラマカメラ装置
WO2018116678A1 (ja) * 2016-12-22 2018-06-28 ソニー株式会社 情報処理装置及びその制御方法
WO2018173247A1 (ja) * 2017-03-24 2018-09-27 ヤマハ株式会社 ヘッドフォン及び録音システム
JP2018182626A (ja) * 2017-04-18 2018-11-15 マクセルホールディングス株式会社 連動システム
WO2018211780A1 (ja) * 2017-05-18 2018-11-22 ソニー株式会社 撮像装置
WO2018230192A1 (ja) 2017-06-13 2018-12-20 ソニー株式会社 音響出力装置
JP2020035405A (ja) * 2018-08-31 2020-03-05 株式会社オトングラス 音声出力装置
JP2020511725A (ja) * 2017-03-31 2020-04-16 リンクフロー カンパニー リミテッド 画像基盤の取引方法およびこのような方法を遂行する装置
JP2020086014A (ja) * 2018-11-20 2020-06-04 株式会社リコー ウェアラブル装置
US20200209850A1 (en) * 2018-10-05 2020-07-02 Ahmad Hassan Abu Elreich Methods and systems to facilitate monitoring center for ride share and safe testing method based for selfdriving cars to reduce the false call by deuddaction systems based on deep learning machine
KR20200092379A (ko) * 2018-08-24 2020-08-03 구글 엘엘씨 동적으로 구성가능한 애플리케이션 제어 요소들
JP2020537412A (ja) * 2017-10-26 2020-12-17 パク、サンレ デジタル無線機機能を有するスマートウォッチ
WO2021006655A1 (ko) * 2019-07-10 2021-01-14 링크플로우 주식회사 웨어러블 카메라 및 넥 가이드
JP2021067798A (ja) * 2019-10-23 2021-04-30 株式会社リコー 撮像装置
JP2021078064A (ja) * 2019-11-13 2021-05-20 Fairy Devices株式会社 首掛け型装置
WO2021149309A1 (ja) * 2020-01-21 2021-07-29 株式会社Jvcケンウッド スピーカシステム及び音声出力制御方法
JP2022078056A (ja) * 2016-09-06 2022-05-24 アップル インコーポレイテッド 周辺デバイスと無線ペアリングして、周辺デバイスに関するステータス情報を表示するデバイス、方法、並びにグラフィカルユーザインタフェース
JP2022105030A (ja) * 2020-10-14 2022-07-12 マクセル株式会社 連動システム
US11652510B2 (en) 2020-06-01 2023-05-16 Apple Inc. Systems, methods, and graphical user interfaces for automatic audio routing
US11941319B2 (en) 2020-07-20 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
JP7541337B2 (ja) 2019-09-30 2024-08-28 賢司 松林 防犯カメラ装置
US12192717B2 (en) 2019-07-08 2025-01-07 Apple Inc. Systems, methods, and user interfaces for headphone audio output control
US12197809B2 (en) 2020-07-20 2025-01-14 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10524038B2 (en) 2012-02-22 2019-12-31 Snik Llc Magnetic earphones holder
US9769556B2 (en) 2012-02-22 2017-09-19 Snik Llc Magnetic earphones holder including receiving external ambient audio and transmitting to the earphones
US20180048750A1 (en) * 2012-06-15 2018-02-15 Muzik, Llc Audio/video wearable computer system with integrated projector
US9578307B2 (en) 2014-01-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10248856B2 (en) 2014-01-14 2019-04-02 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9915545B2 (en) 2014-01-14 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10024679B2 (en) 2014-01-14 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10360907B2 (en) 2014-01-14 2019-07-23 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10024667B2 (en) 2014-08-01 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable earpiece for providing social and environmental awareness
US10024678B2 (en) 2014-09-17 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable clip for providing social and environmental awareness
US9922236B2 (en) 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness
US9576460B2 (en) 2015-01-21 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable smart device for hazard detection and warning based on image and audio data
WO2016119894A1 (en) * 2015-01-30 2016-08-04 Doro AB Proximity-based accidental lock screen command prevention for mobile communication terminal
KR102312259B1 (ko) * 2015-02-02 2021-10-13 삼성디스플레이 주식회사 착용 가능한 표시 장치
US10490102B2 (en) 2015-02-10 2019-11-26 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for braille assistance
KR20160099397A (ko) * 2015-02-12 2016-08-22 삼성전자주식회사 제한된 실행 환경에서 결제 기능을 수행하기 위한 방법 및 장치
US9586318B2 (en) 2015-02-27 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Modular robot with smart device
US9677901B2 (en) 2015-03-10 2017-06-13 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing navigation instructions at optimal times
US9811752B2 (en) 2015-03-10 2017-11-07 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable smart device and method for redundant object identification
US9972216B2 (en) 2015-03-20 2018-05-15 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for storing and playback of information for blind users
US10395555B2 (en) 2015-03-30 2019-08-27 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing optimal braille output based on spoken and sign language
JP2016208348A (ja) * 2015-04-24 2016-12-08 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
US10131362B1 (en) 2015-06-23 2018-11-20 United Services Automobile Association (Usaa) Automobile detection system
US9898039B2 (en) * 2015-08-03 2018-02-20 Toyota Motor Engineering & Manufacturing North America, Inc. Modular smart necklace
JP6510652B2 (ja) 2015-08-26 2019-05-08 富士フイルム株式会社 撮像システム及び撮像制御方法
US9826302B2 (en) * 2015-09-08 2017-11-21 Motorola Mobility Llc Electronic device with magnetically stowable speaker assemblies
US9871546B2 (en) * 2015-09-11 2018-01-16 Panasonic Intellectual Property Corporation Of America Wearable terminal mountable on part of body of user
WO2017051605A1 (ja) * 2015-09-25 2017-03-30 富士フイルム株式会社 撮像システム及び撮像制御方法
US10630871B2 (en) * 2015-11-03 2020-04-21 Sam Salemnia Body mounted camera system
CN105549814B (zh) * 2015-12-01 2020-12-25 惠州Tcl移动通信有限公司 一种基于移动终端的拍照方法及该移动终端
US10679058B2 (en) * 2016-01-06 2020-06-09 Orcam Technologies Ltd. Wearable apparatus and methods for processing images to identify contextual situations
KR102606286B1 (ko) * 2016-01-07 2023-11-24 삼성전자주식회사 전자 장치 및 전자 장치를 이용한 소음 제어 방법
US10024680B2 (en) 2016-03-11 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Step based guidance system
US11272281B2 (en) 2016-04-19 2022-03-08 Snik Llc Magnetic earphones holder
US10455306B2 (en) * 2016-04-19 2019-10-22 Snik Llc Magnetic earphones holder
US10631074B2 (en) 2016-04-19 2020-04-21 Snik Llc Magnetic earphones holder
US10317939B2 (en) * 2016-04-26 2019-06-11 Westunitis Co., Ltd. Neckband type computer
US9958275B2 (en) 2016-05-31 2018-05-01 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for wearable smart device communications
JP6727036B2 (ja) * 2016-06-01 2020-07-22 キヤノン株式会社 電子機器、その制御方法、プログラム及び記録媒体
US10238571B2 (en) * 2016-06-22 2019-03-26 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices and methods of calibrating image data of a vision-assist device
US10561519B2 (en) 2016-07-20 2020-02-18 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device having a curved back to reduce pressure on vertebrae
CN106059615A (zh) * 2016-08-11 2016-10-26 京东方科技集团股份有限公司 定位方法及系统、可穿戴设备
CN106128030B (zh) * 2016-08-18 2018-05-15 王靖明 一种智能带有警报功能的助听装置
KR101835337B1 (ko) * 2016-08-26 2018-03-07 엘지전자 주식회사 휴대용 음향기기
US10432851B2 (en) 2016-10-28 2019-10-01 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device for detecting photography
USD827143S1 (en) * 2016-11-07 2018-08-28 Toyota Motor Engineering & Manufacturing North America, Inc. Blind aid device
US10012505B2 (en) 2016-11-11 2018-07-03 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable system for providing walking directions
US10521669B2 (en) 2016-11-14 2019-12-31 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing guidance or feedback to a user
EP3324270A1 (en) * 2016-11-16 2018-05-23 Thomson Licensing Selection of an object in an augmented reality environment
EP3529693A1 (en) * 2016-11-28 2019-08-28 Google LLC System and method of user interface for audio device
USD830997S1 (en) * 2016-12-09 2018-10-16 Lg Electronics Inc. Wireless headset communication device
USD853569S1 (en) 2017-01-16 2019-07-09 Meltin Mmi Co., Ltd. Biosignal detector
US10172760B2 (en) 2017-01-19 2019-01-08 Jennifer Hendrix Responsive route guidance and identification system
WO2018133025A1 (zh) * 2017-01-20 2018-07-26 歌尔股份有限公司 便携式耳机装置
JP1589838S (ja) * 2017-01-20 2017-11-06
KR102676278B1 (ko) * 2017-02-20 2024-06-19 삼성전자주식회사 전자 장치 및 전자 장치에서 360도 영상 디스플레이 방법
KR102304701B1 (ko) * 2017-03-28 2021-09-24 삼성전자주식회사 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
US10785360B2 (en) * 2017-05-07 2020-09-22 Compal Electronics, Inc. Electronic device used for video conference
CN107229947B (zh) * 2017-05-15 2020-11-06 翔创科技(北京)有限公司 一种基于动物识别的金融保险方法及系统
USD830335S1 (en) * 2017-05-23 2018-10-09 Spigen Korea Co., Ltd. Wireless headset
USD853353S1 (en) * 2017-05-30 2019-07-09 Lg Electronics Inc. Wireless headset
EP3631874B1 (en) * 2017-05-30 2025-01-08 Magic Leap, Inc. Power supply assembly with fan assembly for electronic device
US10114221B1 (en) * 2017-07-03 2018-10-30 Essential Products, Inc. Toggling a 360-degree camera to selfie view
JP7398962B2 (ja) 2017-07-28 2023-12-15 マジック リープ, インコーポレイテッド 画像を表示するためのファンアセンブリ
US10462345B2 (en) 2017-08-11 2019-10-29 Essential Products, Inc. Deformable structure that compensates for displacement of a camera module of a camera accessory
USD856966S1 (en) * 2017-08-21 2019-08-20 Bluecom Co., Ltd. Neckband wireless headset
USD856965S1 (en) * 2017-08-21 2019-08-20 Bluecom Co., Ltd. Neckband wireless headset
USD853351S1 (en) * 2017-08-28 2019-07-09 Harman International Industries, Incorporated Headphones
CN111434091A (zh) * 2017-09-08 2020-07-17 拉姆希·马洛夫 在手持终端中实现真正全面屏的系统和方法
CN109587591A (zh) * 2017-09-28 2019-04-05 富泰华工业(深圳)有限公司 耳挂式音乐播放器
USD842837S1 (en) * 2017-09-29 2019-03-12 Qunru Li Headset
CN107890673A (zh) * 2017-09-30 2018-04-10 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
CN109729467A (zh) * 2017-10-27 2019-05-07 北京金锐德路科技有限公司 用于脖戴式语音交互耳机的触摸装置
US11843715B2 (en) * 2017-11-23 2023-12-12 Huawei Technologies Co., Ltd. Photographing method and terminal
US10054845B1 (en) 2017-12-14 2018-08-21 Motorola Solutions, Inc. Portable communication device with camera mounting mechanism
US10469116B2 (en) 2017-12-14 2019-11-05 Motorola Solutions, Inc. Portable communication device providing configurable wearable architecture
CN108244742A (zh) * 2017-12-31 2018-07-06 江苏密斯欧智能科技有限公司 一种智能头盔
CN110413134B (zh) * 2018-04-26 2023-03-14 Oppo广东移动通信有限公司 佩戴状态检测方法及相关设备
TWI674439B (zh) * 2018-05-03 2019-10-11 宏達國際電子股份有限公司 頭戴式顯示裝置
US11009712B2 (en) 2018-05-03 2021-05-18 Htc Corporation Head-mounted display device
CN108854069B (zh) * 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 音源确定方法和装置、存储介质及电子装置
US10529216B1 (en) * 2018-06-19 2020-01-07 Rachel Thibault Personal proximity sensor systems
WO2020023491A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Thermal management system for electronic device
TWM568985U (zh) * 2018-08-15 2018-10-21 華碩電腦股份有限公司 升降組件及電子裝置
JP7163748B2 (ja) * 2018-12-05 2022-11-01 トヨタ自動車株式会社 車両用表示制御装置
US11463663B2 (en) 2019-06-21 2022-10-04 Mindgam3 Institute Camera glasses for law enforcement accountability
CN115686705B (zh) * 2019-07-31 2023-11-28 华为技术有限公司 一种界面显示方法及电子设备
US11036465B2 (en) * 2019-10-28 2021-06-15 Bose Corporation Sleep detection system for wearable audio device
JP1667788S (ja) * 2020-01-07 2020-09-07
US11924583B2 (en) * 2020-01-20 2024-03-05 Ronald Baker Mobilarm
JP7299193B2 (ja) * 2020-04-16 2023-06-27 トヨタ自動車株式会社 表示制御装置、表示制御方法及びプログラム
US12067212B2 (en) * 2020-07-27 2024-08-20 Digital Turbine, Inc. Dynamically replacing interactive content of a quick setting bar
US11323664B1 (en) * 2021-01-08 2022-05-03 I Can See You Inc., The New Technology Wearable electronic device for providing audio output and capturing visual media
US11722779B2 (en) 2021-06-22 2023-08-08 Snap Inc. Viewfinder ring flash
US11683592B2 (en) * 2021-06-30 2023-06-20 Snap Inc. Adaptive front flash view
US11812127B2 (en) * 2021-10-27 2023-11-07 Dell Products L.P. Monitor with integrated camera to achieve optimized vertical dimension
US20240329823A1 (en) * 2023-03-28 2024-10-03 App-Pop-Up Inc. Asystem and method for modulating a graphical user interface (gui) based on real time status criteria

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002057934A (ja) * 2000-07-27 2002-02-22 Acer Communications & Multimedia Inc ブルートゥース可能な遠隔機能を有するプレビュー装置及び方法
US20100118158A1 (en) * 2008-11-07 2010-05-13 Justin Boland Video recording camera headset
US20110254964A1 (en) * 2010-04-19 2011-10-20 Shenzhen Aee Technology Co., Ltd. Ear-hanging miniature video camera
JP2011223465A (ja) * 2010-04-13 2011-11-04 Canon Inc 表示制御装置及び表示制御方法
JP3172921U (ja) * 2011-10-28 2012-01-12 許逢龍 無線プロトコルをプログラミング可能に内蔵された無線遠隔制御雲台装置
US20120094601A1 (en) * 2010-10-14 2012-04-19 Fih (Hong Kong) Limited Bluetooth headset with camera function and rear view monitor system employing the same
JP2012519422A (ja) * 2009-02-27 2012-08-23 ファウンデーション プロダクションズ エルエルシー ヘッドセットに基づく通信プラットホーム
JP2013054770A (ja) * 2012-11-20 2013-03-21 Jvc Kenwood Corp 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040106964A (ko) 2003-06-10 2004-12-20 주식회사 아이오코리아 실시간 동영상 원격 감시 시스템
US8155367B2 (en) * 2006-11-27 2012-04-10 Sanjeev Kumar Singh Hand-held, portable electronic device with a retainer port for removably coupling an attachable wireless audiophone thereto
CN101285941A (zh) 2008-05-14 2008-10-15 熊克明 一种与手机或移动多媒体影音互动的视频眼镜及互动方法
JP4582428B2 (ja) * 2008-08-29 2010-11-17 ソニー株式会社 地名登録装置及び地名登録方法
KR20110111247A (ko) 2010-04-02 2011-10-10 삼성전자주식회사 상향링크 제어 정보를 전송하기 위한 방법 및 장치
US8788197B2 (en) * 2010-04-30 2014-07-22 Ryan Fink Visual training devices, systems, and methods
JP5700204B2 (ja) 2011-01-26 2015-04-15 カシオ計算機株式会社 頭部装着型撮像装置
CN103477304A (zh) 2011-02-10 2013-12-25 三星电子株式会社 包含触摸屏显示器的便携式设备以及控制它的方法
US8851372B2 (en) * 2011-07-18 2014-10-07 Tiger T G Zhou Wearable personal digital device with changeable bendable battery and expandable display used as standalone electronic payment card
CN202475562U (zh) 2012-02-15 2012-10-03 孙强 眼镜式手机多媒体投影通讯装置
KR101250951B1 (ko) 2012-07-23 2013-04-09 정윤석 위험요소 감지 기능을 가지는 양귀 삽입형 보청기 및 이를 이용한 위험요소 감지 시스템
WO2014089569A1 (en) * 2012-12-09 2014-06-12 WinguMD, Inc. Medical photography user interface utilizing a body map overlay in camera preview to control photo taking and automatically tag photo with body location
KR101386728B1 (ko) 2012-12-17 2014-04-21 광주광역시 광산구 휴대용 전기 음향변환기
EP2746726A1 (en) * 2012-12-21 2014-06-25 GN Store Nord A/S System and method for tagging an audio signal to an object or a location; system and method of playing back a tagged audio signal
KR102025544B1 (ko) 2013-01-02 2019-11-04 삼성전자주식회사 착용식 비디오 장치 및 이를 구비하는 비디오 시스템
KR101498087B1 (ko) 2013-02-21 2015-03-03 엘지전자 주식회사 블루투스 헤드셋
US10091419B2 (en) * 2013-06-14 2018-10-02 Qualcomm Incorporated Computer vision application processing
US8780201B1 (en) * 2013-07-26 2014-07-15 SkyBell Technologies, Inc. Doorbell communication systems and methods
KR20150014553A (ko) * 2013-07-29 2015-02-09 삼성전자주식회사 멀티비전 스크린을 구성하는 방법 및 이를 지원하는 전자장치
US9304599B2 (en) * 2014-03-21 2016-04-05 Dell Products L.P. Gesture controlled adaptive projected information handling system input and output devices

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002057934A (ja) * 2000-07-27 2002-02-22 Acer Communications & Multimedia Inc ブルートゥース可能な遠隔機能を有するプレビュー装置及び方法
US20100118158A1 (en) * 2008-11-07 2010-05-13 Justin Boland Video recording camera headset
JP2012519422A (ja) * 2009-02-27 2012-08-23 ファウンデーション プロダクションズ エルエルシー ヘッドセットに基づく通信プラットホーム
JP2011223465A (ja) * 2010-04-13 2011-11-04 Canon Inc 表示制御装置及び表示制御方法
US20110254964A1 (en) * 2010-04-19 2011-10-20 Shenzhen Aee Technology Co., Ltd. Ear-hanging miniature video camera
US20120094601A1 (en) * 2010-10-14 2012-04-19 Fih (Hong Kong) Limited Bluetooth headset with camera function and rear view monitor system employing the same
JP3172921U (ja) * 2011-10-28 2012-01-12 許逢龍 無線プロトコルをプログラミング可能に内蔵された無線遠隔制御雲台装置
JP2013054770A (ja) * 2012-11-20 2013-03-21 Jvc Kenwood Corp 情報処理装置、情報処理方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016010773; 'これを知らずしてiPhoneを語るべからず! iPhone小技・スゴ技道場' iPhoneMagazine 第31巻, 20121019, 第34〜36ページ, 株式会社三栄書房 *

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017510133A (ja) * 2014-01-14 2017-04-06 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 立体的視野及び内部処理機能を備えたスマート・ネックレス
US12079532B2 (en) 2016-09-06 2024-09-03 Apple Inc. Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices
JP2022078056A (ja) * 2016-09-06 2022-05-24 アップル インコーポレイテッド 周辺デバイスと無線ペアリングして、周辺デバイスに関するステータス情報を表示するデバイス、方法、並びにグラフィカルユーザインタフェース
JP7361815B2 (ja) 2016-09-06 2023-10-16 アップル インコーポレイテッド 周辺デバイスと無線ペアリングして、周辺デバイスに関するステータス情報を表示するデバイス、方法、並びにグラフィカルユーザインタフェース
JP2018092141A (ja) * 2016-12-05 2018-06-14 群光電子股▲ふん▼有限公司 パノラマカメラ装置
US10146105B2 (en) 2016-12-05 2018-12-04 Chicony Electronics Co., Ltd. Around-view camera device
WO2018116678A1 (ja) * 2016-12-22 2018-06-28 ソニー株式会社 情報処理装置及びその制御方法
WO2018173247A1 (ja) * 2017-03-24 2018-09-27 ヤマハ株式会社 ヘッドフォン及び録音システム
JP2020511725A (ja) * 2017-03-31 2020-04-16 リンクフロー カンパニー リミテッド 画像基盤の取引方法およびこのような方法を遂行する装置
JP2018182626A (ja) * 2017-04-18 2018-11-15 マクセルホールディングス株式会社 連動システム
WO2018211780A1 (ja) * 2017-05-18 2018-11-22 ソニー株式会社 撮像装置
WO2018230192A1 (ja) 2017-06-13 2018-12-20 ソニー株式会社 音響出力装置
US11146875B2 (en) 2017-06-13 2021-10-12 Sony Corporation Sound output device
JP2020537412A (ja) * 2017-10-26 2020-12-17 パク、サンレ デジタル無線機機能を有するスマートウォッチ
JP7269933B2 (ja) 2018-08-24 2023-05-09 グーグル エルエルシー 動的に構成可能なアプリケーション制御要素
JP2021523426A (ja) * 2018-08-24 2021-09-02 グーグル エルエルシーGoogle LLC 動的に構成可能なアプリケーション制御要素
KR20200092379A (ko) * 2018-08-24 2020-08-03 구글 엘엘씨 동적으로 구성가능한 애플리케이션 제어 요소들
KR102373451B1 (ko) 2018-08-24 2022-03-11 구글 엘엘씨 동적으로 구성가능한 애플리케이션 제어 요소들
JP7207694B2 (ja) 2018-08-31 2023-01-18 株式会社オトングラス 音声出力装置
JP2020035405A (ja) * 2018-08-31 2020-03-05 株式会社オトングラス 音声出力装置
US11609565B2 (en) * 2018-10-05 2023-03-21 Ahmad Hassan Abu Elreich Methods and systems to facilitate monitoring center for ride share and safe testing method based for selfdriving cars to reduce the false call by deuddaction systems based on deep learning machine
US20230161342A1 (en) * 2018-10-05 2023-05-25 Ahmad Hassan Abu Elreich Methods and systems to reduce false calls in self driving vehicles
US20200209850A1 (en) * 2018-10-05 2020-07-02 Ahmad Hassan Abu Elreich Methods and systems to facilitate monitoring center for ride share and safe testing method based for selfdriving cars to reduce the false call by deuddaction systems based on deep learning machine
JP2020086014A (ja) * 2018-11-20 2020-06-04 株式会社リコー ウェアラブル装置
US12192717B2 (en) 2019-07-08 2025-01-07 Apple Inc. Systems, methods, and user interfaces for headphone audio output control
KR20210007280A (ko) * 2019-07-10 2021-01-20 링크플로우 주식회사 웨어러블 카메라 및 넥 가이드
WO2021006655A1 (ko) * 2019-07-10 2021-01-14 링크플로우 주식회사 웨어러블 카메라 및 넥 가이드
KR102270886B1 (ko) * 2019-07-10 2021-06-30 링크플로우 주식회사 웨어러블 카메라 및 넥 가이드
JP7541337B2 (ja) 2019-09-30 2024-08-28 賢司 松林 防犯カメラ装置
JP2021067798A (ja) * 2019-10-23 2021-04-30 株式会社リコー 撮像装置
JP7395953B2 (ja) 2019-10-23 2023-12-12 株式会社リコー 撮像装置
JP2021078064A (ja) * 2019-11-13 2021-05-20 Fairy Devices株式会社 首掛け型装置
WO2021149309A1 (ja) * 2020-01-21 2021-07-29 株式会社Jvcケンウッド スピーカシステム及び音声出力制御方法
US11722178B2 (en) 2020-06-01 2023-08-08 Apple Inc. Systems, methods, and graphical user interfaces for automatic audio routing
US11652510B2 (en) 2020-06-01 2023-05-16 Apple Inc. Systems, methods, and graphical user interfaces for automatic audio routing
US11941319B2 (en) 2020-07-20 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
US12197809B2 (en) 2020-07-20 2025-01-14 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
JP2022105030A (ja) * 2020-10-14 2022-07-12 マクセル株式会社 連動システム

Also Published As

Publication number Publication date
CN106200773A (zh) 2016-12-07
US20160098138A1 (en) 2016-04-07
CN106200773B (zh) 2019-08-27
US10216312B2 (en) 2019-02-26
EP3007029A1 (en) 2016-04-13
EP3007029B1 (en) 2017-12-27
JP6130432B2 (ja) 2017-05-17

Similar Documents

Publication Publication Date Title
JP6130432B2 (ja) 移動端末機
KR102316327B1 (ko) 가상 공간의 캡쳐 방법 및 그 전자장치
KR102225947B1 (ko) 이동단말기 및 그 제어방법
CN106231173B (zh) 移动终端及其控制方法
KR101609950B1 (ko) 무선 음향 장치
KR102184272B1 (ko) 글래스 타입 단말기 및 이의 제어방법
JP6428268B2 (ja) 画像表示装置及び画像表示方法、並びに画像表示システム
KR101663375B1 (ko) 웨어러블 장치, 이동 단말기 및 시스템
US20160241767A1 (en) Mobile terminal and method for controlling the same
US20150011204A1 (en) Mobile terminal and method of controlling the mobile terminal
KR20170067058A (ko) 이동 단말기 및 그 제어방법
KR20170131101A (ko) 이동 단말기 및 그 제어방법
CN105450848A (zh) 移动终端及其控制方法
KR102223728B1 (ko) 이동단말기 및 그 제어방법
EP3306372A1 (en) Head mounted display
US10424268B2 (en) Mobile terminal and controlling method thereof
CN106713738A (zh) 移动终端及其控制方法
KR20180028211A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
KR20180095197A (ko) 이동단말기 및 그 제어방법
US20170230114A1 (en) Mobile terminal and control method therefor
EP4113517A1 (en) Method and apparatus for processing videos
US20180332163A1 (en) Mobile terminal and control method therefor
KR20180056062A (ko) 디스플레이 디바이스 및 그 제어방법
KR20170046947A (ko) 이동 단말기 및 제어 방법
KR20170035755A (ko) 이동 단말기 및 그 제어 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170413

R150 Certificate of patent or registration of utility model

Ref document number: 6130432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250