Nothing Special   »   [go: up one dir, main page]

JP4314502B2 - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP4314502B2
JP4314502B2 JP15059799A JP15059799A JP4314502B2 JP 4314502 B2 JP4314502 B2 JP 4314502B2 JP 15059799 A JP15059799 A JP 15059799A JP 15059799 A JP15059799 A JP 15059799A JP 4314502 B2 JP4314502 B2 JP 4314502B2
Authority
JP
Japan
Prior art keywords
character string
application
unit
extraction
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP15059799A
Other languages
Japanese (ja)
Other versions
JP2000339401A (en
Inventor
雅宏 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP15059799A priority Critical patent/JP4314502B2/en
Priority to US09/569,251 priority patent/US7428569B1/en
Publication of JP2000339401A publication Critical patent/JP2000339401A/en
Application granted granted Critical
Publication of JP4314502B2 publication Critical patent/JP4314502B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は情報処理装置及び情報処理方法に関し、例えばパーソナルコンピュータに適用して好適なものである。
【0002】
【従来の技術】
従来、パーソナルコンピュータ(以下、これをコンピュータ装置と呼ぶ)は内部のハードディスクに格納された例えばウィンドウズ98(商標)等のOS(Operating System)に基づいてシステム全体を管理しており、当該OSを介してアプリケーションソフトウェア(以下、これをアプリケーションと呼ぶ)を起動させることにより所望の処理を実行するようになされている。
【0003】
このようなコンピュータ装置のOSにおいては、ユーザの使い勝手の向上のために種々様々なユーザインターフェースが開発されており、例えば所定の情報やプログラムが格納されているファイルの拡張子(.COMや.DOC等)に対して当該ファイルを参照するために必要なアプリケーションを関連付けることにより、ファイルを単位としたデータ及びアプリケーション間の連携や、データのアプリケーションへの埋め込みが実現されている。
【0004】
また最近では、文字列抽出システム (特願平09-305351)と呼ばれるプログラムを一部に含んだアプリケーションが提案されており、当該アプリケーションを用いた場合にはファイル内のテキストデータのうち所望の文字列(例えば英単語)が画面上のカーソルによって指定されると、前後のスペースやピリオド等の終端文字で挟まれた部分を指定された英単語として抽出し、辞書アプリケーションによってその英単語の意味を検索してカーソル近傍に表示することが行われている。
【0005】
【発明が解決しようとする課題】
ところでかかる構成のコンピュータ装置においては、ファイルを単位としたデータ及びアプリケーション間の連携を行うことはできるが、ファイルを構成しているテキストデータのうち指定された文字列が表す情報の種類(例えば住所、電話番号又は電子メールアドレス等)を判別することができず、このため情報の種類毎にそれぞれ関連したアプリケ−ションと文字列の情報とを連携させることは困難であった。
【0006】
例えば図18に示すように、アプリケーション画面上の文字列「Phone:03-5448-○△△×」にカーソルが重ねられたときに、マウスを右クリックしても通常のポップアップメニューPM1が表示されるだけであり、文字列の種類である電話番号に関連したアプリケーションと文字列の情報とを連携させるには、煩雑な操作を行わなければならなかった。
【0007】
すなわちコンピュータ装置においては、カーソルが重ねられた部分を電話番号としてではなく単なる文字列として認識するだけであり、この文字列の情報である電話番号を他のアプリケーションで利用する場合、OSのコピー機能を用いて電話番号のデータを一旦クリップボードに保存した後、電話番号を利用するアプリケーションを起動させて該当する箇所に電話番号のデータを貼り付けるカットアンドペースト操作を実行しなければならず、操作が煩雑で面倒であるという問題があった。
【0008】
また文字列抽出システムを一部に含んだアプリケーションを搭載したコンピュータ装置においては、ファイルを構成しているテキストデータのうち英単語を文字列として抽出し、当該抽出した文字列に対して予め関連付けられた辞書アプリケーションを連携させて英単語の意味を検索することはできるが、文字列が表す情報の種類を判別することはできなかった。このためコンピュータ装置では、文字列が例えば住所又は電話番号あるいは電子メールアドレス等であったときに、それぞれに関連したアプリケーション(例えば住所に対応する地図上の場所を表示するためのアプリケーション、電話をかけるためのアプリケーション、電子メールを送信するためのアプリケーション)と文字列の情報とを連携させることは困難であった。
【0009】
本発明は以上の点を考慮してなされたもので、ユーザによる簡単な操作だけで文字列を解析して所望の処理を実行し得る一段と操作性に優れた情報処理装置及び情報処理方法を提案しようとするものである。
【0010】
【課題を解決するための手段】
かかる課題を解決するため本発明において情報処理装置は、複数のアプリケーションを記憶する記憶手段と、画像を撮像する撮像手段によって得られた画像データを取得する取得手段と、画像データから文字列及び上記文字列に対応するアプリケーションを特定するための特定情報を抽出する抽出手段と、当該抽出手段によって抽出された文字列を画像データと共に所定の表示手段に表示する表示制御手段と、記憶手段を参照し、表示手段に表示されている文字列の中から選択された文字列に対応する特定情報に基づいてアプリケーションを起動させ、抽出手段により抽出された文字列についてアプリケーションによる所定の処理を実行させるアプリケーション処理手段とを設けるようにする。
これにより、撮像手段によって撮像された画像から文字列及び当該文字列に対応したアプリケーションを特定するための特定情報を抽出し、この文字列を表示することにより画像から何の文字列が抽出されたのかをユーザに対して目視確認させたうえで、任意の文字列がユーザによって選択されたとき、その特定情報に対応したアプリケーションを起動させて文字列に対する所定の処理を実行させることができるので、ユーザに対して画像を撮像させ、抽出された文字列を選択させるだけの簡易な操作により、画像から文字列を選択して当該文字列に対する所定のアプリケーション処理を行わせるまでの一連の処理を自動的に実行することができる。
【0011】
また本発明において情報処理方法は、画像を撮像する撮像手段によって得られた画像データを取得手段によって取得する取得ステップと、画像データから文字列及び文字列に対応するアプリケーションを特定するための特定情報を抽出手段によって抽出する抽出ステップと、抽出手段によって抽出された文字列を表示制御手段によって画像データと共に所定の表示手段に表示する表示制御ステップと、アプリケーション処理手段によって、記憶手段を参照し、表示手段に表示されている文字列の中から選択された文字列に対応する特定情報に基づいてアプリケーションを起動させ、抽出手段により抽出された文字列についてアプリケーションによる所定の処理を実行させるアプリケーション処理ステップとを有するようにする。
これにより、撮像手段によって撮像された画像から文字列及び当該文字列に対応したアプリケーションを特定するための特定情報を抽出し、この文字列を表示することにより画像から何の文字列が抽出されたのかをユーザに対して目視確認させたうえで、任意の文字列がユーザによって選択されたとき、その特定情報に対応したアプリケーションを起動させて文字列に対する所定の処理を実行させることができるので、ユーザに対して画像を撮像させ、抽出された文字列を選択させるだけの簡易な操作により、画像から文字列を選択して当該文字列に対する所定のアプリケーション処理を行わせるまでの一連の処理を自動的に実行することができる。
【0013】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0014】
(1)コンピュータ装置の外観構成
図1において、1は全体として本発明の情報処理装置を構成する携帯型パーソナルコンピュータ装置(以下、これをコンピュータ装置と呼ぶ)を示し、この場合B5サイズ以下の持ち運び易いノート型パーソナルコンピュータである。
【0015】
このコンピュータ装置1は、本体2と当該本体2に対して開閉自在に取り付けられた表示部3とによって構成されている。本体2には、上面に各種文字や記号及び数字等を入力する複数の操作キー4、表示部3に表示されるカーソルを移動するときに操作するスティック式ポインティングデバイス5、内蔵スピーカ6、表示部3に設けられたCCD(Charge Coupled Device) カメラ23によって画像を撮像するときに操作するシャッタボタン7が設けられている。
【0016】
表示部3の正面には、LCD(Liquid Crystal Display)でなる液晶ディスプレイ21が設けられており、正面の中央上端部にCCDカメラ23を備えた撮像部22が表示部3に対して回動自在に取り付けられている。
【0017】
すなわち撮像部22は、表示部3の正面方向及び背面方向との間の180度の角度範囲内で回動して任意の位置に位置決めし得るようになされている。また撮像部22には、図2に示すようにCCDカメラ23のフォーカス調整を行う調整リング25が設けられており、CCDカメラ23によって撮像対象を撮像する際のピント調整を調整リング25の回転動作によって容易に実行している。
【0018】
また表示部3(図1)の正面には、撮像部22の左隣にマイクロフォン24が設けられており、当該マイクロフォン24を介して表示部3の背面側(図5)からも集音し得るようになされている。
【0019】
また表示部3における正面の中央下端部には、LED(Light Emitting Diode)でなる電源ランプPL、電池ランプBL、メッセージランプML及びその他の種々の用途に対応したランプが設けられている。
【0020】
さらに表示部3の正面上端部には、マイクロフォン24の左隣にツメ13が設けられると共に、当該ツメ13と対応する本体2の所定位置に孔部8が設けられており、表示部3を本体2に閉塞した状態でツメ13が孔部8に嵌合されてロックするようになされている。
【0021】
本体2の正面には、図2に示すようにスライドレバー9が設けられており、当該スライドレバー9を正面に沿って矢印方向にスライドすることにより、孔部8に嵌合されたツメ13のロックを解除して表示部3を本体2に対して展開し得るようになされている。
【0022】
また本体2の正面には、1回のボタン操作で電源オンから所定のアプリケーションソフトウェア(以下、これを単にアプリケーションと呼ぶ)を立ち上げて予め設定しておいた一連の動作を自動的に実行するためのプログラマブルパワーキー(PPKキー)10が左端部に設けられると共に、右端部に複数の吸気孔11が設けられている。
【0023】
本体2の左側面には、図3に示すようにスライド式の電源スイッチ40、4ピン対応のIEEE(Institute of Electrical and Electronics Engineers) 1394端子41、USB(Universal Serial Bus)端子42、マイクロフォン用入力端子43、ヘッドフォン端子44及びIrDA(Infrared Data Association) 準拠の赤外線ポート45が設けられている。
【0024】
本体2の右側面には、図4に示すように排気孔12が設けられており、当該排気孔12の右隣にはPCMCIA(Personal Computer Memory Card International Association) カード(以下、これをPCカードと呼ぶ)を挿入するためのPCカードスロット13が設けられている。
【0025】
また本体2の下面には、図5に示すように増設メモリを取り付けるための開口部25を被覆する蓋26が取り付けられると共に、当該蓋26のロック用ツメを外すためのピン挿入用孔48が設けられている。
【0026】
(2)コンピュータ装置の回路構成
図6に示すように本体2においては、起動シーケンス制御部83のPCI(Peripheral Component Interconnect) バス51に、CPU(Central Processing Unit) 52、PC(Personal Computer) カードスロット13、RAM(Random Access Memory)54、表示部3の液晶ディスプレイ21に表示する画像を生成するためのグラフィックス処理回路55及び他のコンピュータ装置や外部機器と接続してディジタルデータを取り込むためのIEEE1394端子41に直結されたIEEEインターフェース56が接続されている。
【0027】
CPU52は、本体2における各種機能を統括的に制御するコントローラであり、RAM54にロードされた各種プログラムやアプリケーションを実行することにより各種機能を実行し得るようになされている。
【0028】
PCIバス51は、ISA(Industrial Standard Architecture)バス59に接続されており、当該ISAバス59にはハードディスクドライブ60、I/O(In/Out)コントローラ61、キーボードコントローラ62、ポインティングデバイスコントローラ63、サウンドチップ64、LCDコントローラ65、モデム66及びUSBインターフェース67が接続されている。
【0029】
ここでキーボードコントローラ62は、操作キー4(図1)の押下に応じた制御信号の入力をコントロールし、ポインティングデバイスコントローラ63はスティック式ポインティングデバイス5(図1)による制御信号の入力をコントロールする。
【0030】
またサウンドチップ64は、マイクロフォン24(図1)からの音声入力を取り込み又は内蔵スピーカ6(図1)に対して音声信号を供給し、モデム66は公衆電話回線90、インターネットサービスプロバイダ(以下、これをプロバイダと呼ぶ)91を介してインターネット92やメールボックス93Aを有したメールサーバ93に接続する。なおUSBインターフェース67は、USB端子42に接続されており、USBマウスやフロッピーディスクドライブ等の周辺機器を接続するようになされている。
【0031】
ハードディスクドライブ60には、CCDカメラ23を介して静止画像を取り込むためのキャプチャーソフトウェア60A、地図検索を行うためのディジタル地図ソフトウェア60B及びWindows98(商標) でなるOS(Operating System)60Cや各種アプリケーションソフトウェア(図示せず)が格納されており、必要に応じてCPU52によって読み出されてRAM54にロードされる。
【0032】
I/Oコントローラ61は、I/Oインターフェース69、CPU70、EEPROM(Electrically Erasable and Programmable Read Only Memory) でなるROM(Read Only Memory)71及びRAM72が相互に接続されて構成されており、RTC(Real-Time Clock) 81によって現在時刻が常時供給されている。
【0033】
I/Oコントローラ61のROM71には、BIOS(Basic Input/Output Sustem) 73、ウェイクアッププログラム74、キー入力監視プログラム75及びLED制御プログラム76が格納されると共に、RAM72にはキー入力ステイタスレジスタ77、設定時刻レジスタ78、LED制御レジスタ79及びキー対応アプリケーションレジスタ80が設けられている。
【0034】
RAM72に格納されているキー入力ステイタスレジスタ77は、操作キーフラグを格納し得るようになされており、CPU70はキー入力監視プログラム75に基づいてワンタッチ操作用のPPKキー10(図2)が押下されたか否かを監視し、当該PPKキー10が押下されるとキー入力ステイタスレジスタ77に操作キーフラグを格納する。
【0035】
また設定時刻レジスタ78は、ユーザが予め任意に設定した開始時刻等の時間情報を格納し得るようになされており、CPU70はウェイクアッププログラム74に基づいてRTC81から与えられる現在時刻が任意に設定した開始時刻になったか否かを検出し、開始時刻になると所定の処理を実行する。
【0036】
さらにキー対応アプリケーションレジスタ80は、PPKキー10や予め設定された操作キー4の組み合わせに対応して、PPKキー10や複数の組み合わせでなる操作キー4と起動すべきアプリケーションとの対応関係を記憶しており、CPU70はPPKキー10や予め設定された組み合わせの操作キー4が押下されたときに、対応するアプリケーションを立ち上げるための制御データをISAバス59及びPCIバス51を順次介してCPU52に送出し、当該CPU52によって制御データに応じたアプリケーションを立ち上げる。
【0037】
またLED制御レジスタ79は、キー対応アプリケーションレジスタ80に記憶したアプリケーションが立ち上げられて動作が終了すると終了フラグを格納し、CPU70はLED制御プログラム76に基づいてLED制御レジスタ79に終了フラグが格納されていることを検出すると、メッセージランプMLを点灯する。
【0038】
なおLED制御レジスタ79は、電源スイッチ40が押下されると電源フラグを格納し、バッテリから供給される電源電圧で本体2が動作するときには電池フラグを格納する。従ってCPU70は、LED制御プログラム76に基づいて電源フラグ又は電池フラグが格納されていることを検出すると、電源ランプPL及び電池ランプBLを点灯する。
【0039】
ここでI/Oコントローラ61には、バックアップ用のバッテリ82が接続されていることにより、本体2の電源スイッチ40がオフで図示しない電源から電力の供給がなされていない状態でもRAM72のキー入力ステイタスレジスタ77、設定時刻レジスタ78、LED制御レジスタ79及びキー対応アプリケーションレジスタ80の各データを保持するようになされている。
【0040】
またI/Oコントローラ61に接続された反転スイッチ88は、撮像部22(図1)が表示部3の液晶ディスプレイ21の反対側を撮像する方向に180度回転されたときオンされ、その状態をCPU70に通知する。またPPKキー10も、反転スイッチ88が押下されたときと同様に、その状態をCPU70に通知する。
【0041】
さらに半押しスイッチ86は、本体2の上面に設けられたシャッタボタン7が半押し状態にされたときオンしてその状態をI/Oコントローラ61のCPU70に通知し、全押しスイッチ87はシャッタボタン7が全押し状態にされたときオンしてその状態をI/Oコントローラ61のCPU70に通知するようになされている。
【0042】
すなわちI/Oコントローラ61のCPU70は、ハードディスクドライブ60のキャプチャーソフトウェア60Aを立ち上げた状態で、ユーザによってシャッタボタン7が半押し状態にされると静止画像モードに入り、CCDカメラ23を制御して静止画像のフリーズを実行し、全押し状態にされるとフリーズされた静止画像データを取り込み、データ処理部85に送出する。
【0043】
これに対してI/Oコントローラ61のCPU70は、キャプチャーソフトウェア60Aを立ち上げない状態で動画像モードに入ると、最大60秒程度までの動画像を取り込み、データ処理部85に送出する。
【0044】
またI/Oコントローラ61は、PCIバス51に接続されているグラフィックス処理回路55を制御するようになされており、CCDカメラ23によって取り込まれた静止画又は動画でなる画像データをデータ処理部85によって所定のデータ処理を施した後にグラフィックス処理回路55に入力する。
【0045】
グラフィックス処理回路55は、供給された画像データを内蔵のVRAM(Video Random Access Memory)55Aに格納して適宜読み出した後LCDコントローラ65に送出し、必要に応じてハードディスクドライブ60に格納する。
【0046】
LCDコントローラ65は、表示部3のバックライト84を制御して液晶ディスプレイ21の後方から照明すると共に、グラフィックス処理回路55から供給された画像データを液晶ディスプレイ21に出力して表示させるようになされている。
【0047】
一方、CPU52はハードディスクドライブ60から読み出したディジタル地図ソフトウェア60BをRAM54上に立ち上げた場合、当該ディジタル地図ソフトウェア60Bによる地図データをグラフィックス処理回路55に送出する。
【0048】
このときグラフィックス処理回路55は、供給された地図データに基づいて液晶ディスプレイ21に表示する地図画像データを生成してVRAM55Aに格納し、適宜読み出してLCDコントローラ65に送出する。
【0049】
これによりLCDコントローラ65は、グラフィックス処理回路55から供給された地図画像データに基づいて表示部3の液晶ディスプレイ21に地図画像を表示させるようになされている。
【0050】
またPCIバス51に接続されているPCカードスロット13は、オプション機能を追加するときにPCカード(図示せず)を介して適宜装着され、当該PCカードを介してCPU52とデータを授受するようになされている。例えばPCカードスロット13にPCMCIA型のGPS(Global Positioning System) カード57が装着された場合、当該GPSカード57に接続されるGPSアンテナ58によりGPS衛星からの電波を受信して現在位置データを得るようになされている。
【0051】
これによりGPSカード57は、GPSアンテナ58を介して受信した現在位置データ(緯度データ、経度データ及び高度データ)をPCIバス51を介してCPU52へ送出する。
【0052】
この場合CPU52は、現在位置データをグラフィックス処理回路55に送出し、当該グラフィックス処理回路55により現在位置データに基づく現在位置を示す矢印アイコンを生成した後、LCDコントローラ65を介して液晶ディスプレイ21の地図画像に矢印アイコンを重ねた状態で表示するようになされている。
【0053】
かくして液晶ディスプレイ21は、GPSカード57によって検出した位置データを基に矢印アイコンを地図画像上で移動させながら表示し得るようになされている。
【0054】
(3)本発明におけるOS上で動作するアプリケーションプログラムの構成
ここでハードディスクドライブ60のハードディスクに格納され、起動時にRAM54へロードされるOSは、各種システム機能を呼び出すためのシステム関数群からなる図示しないAPI(Application Program Interface) を備えており、CPU52によりAPIを介してOS上でアプリケーションプログラム(以下、これを単にアプリケーションと記述する)を起動することにより、液晶ディスプレイ21にアプリケーション画面を表示する。
【0055】
また、OS上で動作する各種アプリケーションによって後述する文字列解析連携システムが構成されており、当該文字列解析連携システムでは各種アプリケーションがデータを授受して連携動作することによって文字列解析連携機能を有するようになされている。
【0056】
従ってCPU52が文字列解析連携システムにおける各種アプリケーションに従って処理を行うことにより、ユーザが注目する文字列を抽出し、当該抽出した文字列が表す情報の種類(例えば、抽出した文字列が住所、電話番号、郵便番号又は緯度経度を表すマップコード等のいずれであるか)を判別すると共に、当該判別した文字列の情報そのもの(住所、電話番号、郵便番号又はマップコード)を求め、これを文字列の種類に関連したアプリケーションに供給して連携させるようになされている。次に、この文字列解析連携システムの構成について説明する。
【0057】
図7に示すように、文字列解析連携システム100において文字列読取部104、文字列取込部101、文字列解析部102、解析結果表示部103、ディスパッチ部105及び連携処理部106は、OS上で各々並列に動作する各種アプリケーションによって構成されている。
【0058】
すなわち、ここでは各アプリケーション毎のモジュールを便宜上、文字列読取部104、文字列取込部101〜解析結果表示部103及びディスパッチ部105、連携処理部106にそれぞれ分けて説明しており、各モジュール毎の処理についてはCPU52が行っている。
【0059】
ここで文字列読取部104においては、画像中の文字列をテキストデータとして読み取るサイバークリップ(商標)301と呼ばれるアプリケーションに従ってCPU52が文字列読取処理を実行する。
【0060】
また文字列取込部101〜解析結果表示部103及びディスパッチ部105においては、文字列の解析及び供給処理を行うアドレスキャッチャ(商標)302と呼ばれるアプリケーションに従って、CPU52が文字列の解析及び供給処理を実行する。
【0061】
さらに連携処理部106においては、供給された文字列データD2に該当する地図上の地点を検索して表示するナビンユー(商標)302と呼ばれるアプリケーション(ディジタル地図ソフトウェア60B)に従ってCPU52が地点検索処理を実行する。
【0062】
実際上、文字列読取部104においては、CCDカメラ23によって撮像された画像中の文字列を読み取る。
【0063】
そして文字列取込部101においては、読み取られた文字列を監視しており、当該文字列にカーソルが合わせられて指定されると、これを文字列D1として取り込み、文字列解析部102に送出する。ここで文字列読取部104による文字列の具体的な読取方法及び文字列取込部101による文字列の具体的な取込方法については後述する。
【0064】
文字列解析部102は、例えば住所データベース、電話番号データベース、郵便番号データベース及びマップコードデータベースや、これ以外の種々のデータベースを含む解析用データベース102Aと接続されており、文字列取込部101から供給された文字列D1と解析用データベース102Aから読み出したデータとを比較参照する。
【0065】
これにより文字列解析部102は、供給された文字列D1が表す情報の種類(住所、電話番号、郵便番号又はマップコード)を判別し、当該種類に対応した種類IDを生成した後、文字列D1が表す情報そのものである文字列データD2(住所、電話番号、郵便番号又はマップコードのデータそのもの)を取り出し、種類IDと文字列データD2とを解析結果表示部103に送出する。
【0066】
解析結果表示部103は、文字列解析部102から供給された種類ID及び文字列データD2に基づいて情報の種類と文字列データD2とを含む所定の解析結果画面(後述する)を生成して液晶ディスプレイ21に表示することにより、ユーザに対して文字列D1が表す情報の種類を認識させ得るようになされている。
【0067】
そして解析結果表示部103は、解析結果画面の中に表示されている検索実行ボタン(後述する)がユーザによってクリックされたとき、保持している種類ID及び文字列データD2をディスパッチ部105に送出する。
【0068】
ディスパッチ部105は、解析結果表示部103から供給された種類IDに関連したディジタル地図ソフトウェア60B(ナビンユー303)をハードディスクドライブ60により読み出してRAM54上で立ち上げた後、文字列データD2をディジタル地図ソフトウェア60Bに供給するようになされている。
【0069】
連携処理部106は、ディスパッチ部105によって起動されたディジタル地図ソフトウェア60Bに文字列データD2が供給されたので、ディジタル地図ソフトウェア60Bと文字列データD2とを連携させる。
【0070】
これにより連携処理部106は、ディジタル地図ソフトウェア60B(ナビンユー303)に従って解析結果の文字列データD2(住所、電話番号、郵便番号又はマップコードのデータ)に該当する地図上の地点を検索し、当該検索した地点を含む地図画面を生成して液晶ディスプレイ21に表示するようになされている。
【0071】
(3−1)CCDカメラで撮影された画像中の文字列の解析処理及びアプリケーションとの連携処理
実際上図8に示すようにコンピュータ装置1では、表示部3の撮像部22(図1)を液晶ディスプレイ21の背面方向に向け、ユーザの手に保持された例えば名刺110と撮像部22のCCDカメラ23(図示せず)とが対向した状態でシャッタボタン7が押下されると名刺110を撮像する。なお、ここでは名刺110を用いているが、書籍や葉書等の文字が記入されたものであれば何でも構わない。
【0072】
このときコンピュータ装置1は、CCDカメラ23によって撮像される名刺110の画像をデータ処理部85(図6)、グラフィックス処理回路55及びLCDコントローラ65を介して液晶ディスプレイ21のアプリケーション画面中に図9に示すようなクリップ画面410として表示する。
【0073】
このクリップ画面410には、CCDカメラ23で撮像中の名刺110を映したファインダ形状のファインダ表示領域411、CCDカメラ23を介して読み取った文字列D1を新しい順に上から登録して表示する読取履歴欄412、読取モードの切換を行うオートモードボタン413、マニュアルモードボタン414が設けられている。
【0074】
クリップ画面410において、ユーザはオートモードボタン413によってオートモードを選択し、ファインダ表示領域411のほぼ中央の認識枠411Aの中に読み取りを希望する文字列(「03-5448-○△△×」)をセットすると共に、調整リング25(図2)を介してフォーカス調整を行う。
【0075】
このとき情報種類対応システム100の文字列読取部104は、認識枠411Aの中にセットされた画像中の文字列(「03-5448-○△△×」)を例えばOCR(Optical Character Reader)装置によって認識して読み取り、これを文字列D1として読取履歴欄412に登録して表示する。
【0076】
また文字列読取部104は、読み取った文字列D1(「03-5448-○△△×」)を読取履歴欄412の最上段に登録して表示する。さらに文字列読取部104は、クリップ画面410の外にカーソル409が位置していた場合、当該カーソル409を文字列D1上に自動的に移動して合わせるようになされている。この場合、カーソル409は文字列D1の先頭(左端)の文字である「0」の左隣に移動され、この状態で文字列D1に重ねられたものとして認識される。
【0077】
また図9のクリップ画面410において、さらに別の文字列D1が読み取られて読取履歴欄412の最上段に追加された場合、カーソル409の位置は移動せず、直前に読み取られた文字列D1(「03-5448-○△△×」)が最上段から1段下がって表示され、最新の別の文字列D1上にカーソル409が位置することになる。すなわちカーソル409は、結果的に直前に読み取られた文字列D1(「03-5448-○△△×」)に対して相対的に移動したことになる。
【0078】
因みにクリップ画面410においては、マニュアルモードボタン414によってマニュアルモードを選択することが可能であり、この場合ファインダ表示領域411のほぼ中央の認識枠411Aをドラッグすることにより認識枠411Aの大きさを変更したり、認識枠411Aの位置を変更することができる。
【0079】
ユーザは、認識枠411Aの中に文字列D1をセットしてフォーカス調整を行い、この状態でロックボタン415をクリックすることで認識すべき文字列D1を固定させ、次にクリップボタン416をクリックすることにより、文字列D1を読み取らせて読取履歴欄412の最上段に登録して表示させることができる。
【0080】
なお、クリップ画面410の読取履歴欄412に表示された文字列D1を消去する場合には、消去したい文字列D1にカーソルを合わせてデリートボタン418をクリックすればよく、文字列D1をコピーして使用する場合には、コピーしたい文字列D1にカーソルを合わせてコピーボタン417をクリックすればよい。
【0081】
ところでクリップ画面410では、読取履歴欄412の最上段に表示された文字列D1にカーソル409が重ねられて所定時間(例えば1秒間)以上経過すると、文字列解析連携システム100は文字列取込部101によってカーソル409が重ねられている文字列D1を全て取り込み、これを文字列解析部102に送出する。なお文字列解析連携システム100では、文字列D1にカーソル409が重ねられて1秒間以上経過したときに文字列D1を取り込むが、経過時間については1秒間に限るものではなく、設定次第で変更し得る。
【0082】
ここでOSは、文字列にカーソル409が重ねられると、当該重ねられた部分の文字列D1がカーソル409で見えなくなることを防ぐために再表示を行うが、この再表示を行うときにアプリケーションからAPIに再度供給される文字列D1を文字列取込部101によって取り込むようになされている。
【0083】
文字列解析部102は、文字列取込部101から供給された文字列D1(「03-5448-○△△×」)と解析用データベース102Aから読み出したデータのフォーマットとを比較参照することにより、文字列D1が表す情報の種類(この場合の文字列D1の種類は電話番号である)を判別して種類IDを生成した後、電話番号に該当する部分の文字列データD2(すなわち「03-5448-○△△×」)を抽出し、種類ID及び文字列データD2(「03-5448-○△△×」)を解析結果表示部103に送出する。
【0084】
解析結果表示部103は、図10に示すように種類IDに対応した情報の種類と文字列データD2とを含む所定の解析結果画面420を生成し、これを読取履歴欄412の文字列D1近傍に表示する。
【0085】
ここで解析結果画面420では、認識結果表示欄421に解析結果「電話番号 03-5448- ○△△×」が表示されており、これによりカーソルが重ねられた文字列D1が表す情報の種類が「電話番号」であり、その電話番号自体が「 03-5448- ○△△×」であることをユーザに認識させる。
【0086】
また解析結果画面420では、認識結果表示欄421に表示した解析結果に対する認識レベルを示した認識レベルバー422が表示されており、この認識レベルバー422が右側に振れるほど解析結果の確からしさが高いことを示し、ユーザに対して一目で解析結果の確からしさを認識させ得るようになされている。
【0087】
さらに解析結果画面420では、認識レベルバー422の上段に検索実行ボタン423が表示されており、当該検索実行ボタン423がユーザによってクリック操作されると、解析結果表示部103は検索実行ボタン423のクリック操作をトリガとして、保持していた種類ID及び文字列データD2をディスパッチ部105(図7)に送出する。
【0088】
ディスパッチ部105は、種類IDに対応したアプリケーションがハードディスクドライブ60のハードディスクに格納されている場合、該当するアプリケーションであるディジタル地図ソフトウェア60B(ナビンユー303)をRAM54上で立ち上げると共に、当該ディジタル地図ソフトウェア60Bに対して文字列データD2を供給する。
【0089】
連携処理部106は、立ち上げられたディジタル地図ソフトウェア60B(ナビンユー303)と文字列データD2とを連携させ、ディジタル地図ソフトウェア60B(ナビンユー303)に従って文字列データD2(「03-5448-○△△×」)に該当する地図上の地点を検索し、図11に示すように検索した地点を含む領域の地図画面430を生成して液晶ディスプレイ21に表示する。
【0090】
この地図画面430では、文字列D1の解析結果である「03-5448 」の局番代表が存在する地図上の地点を表示すると共に、解析結果画面420を重ねて表示している。但し連携処理部106は、文字列データD2(「03-5448-○△△×」)とディジタル地図ソフトウェア60Bの地点データベースとを照合して完全に合致する建物や施設が存在していれば、その地点をカーソルがクロスする箇所に表示する。
【0091】
なお、図10に示した解析結果画面420の検索実行ボタン423がユーザによってクリック操作されるまでは、ディスパッチ部105は種類IDに対応したディジタル地図ソフトウェア60B(ナビンユー303)を立ち上げて文字列データD2を供給することはない。
【0092】
従って、ユーザは文字列D1の解析結果に対してディジタル地図ソフトウェア60Bと連携させる意思があるときに解析結果画面420の検索実行ボタン423をクリックすればよく、ディジタル地図ソフトウェア60Bと連携させる意思がないときには検索実行ボタン423をクリックすることなく、次の文字列D1の解析処理へ移行すれば良い。
【0093】
次に、上述のCCDカメラ23によって撮影した名刺110の画像から文字列D1を認識して読み取るまでの文字列読取処理手順について説明する。この場合CPU52は、文字列読取部104におけるサイバークリップ301のアプリケーションに従って図12に示すフローチャートの文字列読取処理を実行する。
【0094】
CPU52は、まずルーチンRT1の開始ステップから入ってステップSP1に移る。ステップSP1においてのCPU52は文字列読取部104の処理に入ると、ユーザのシャッタボタン7の操作によりCCDカメラ23で名刺110が撮影されると、次のステップSP2へ移る。
【0095】
ステップSP2においてCPU52は、OCR装置を用いてファインダ表示領域411の認識枠411Aの中にセットされた文字列D1の読取処理を実行し、次のステップSP3に移る。
【0096】
ステップSP3においてCPU52は、ステップSP2における文字列D1の読取処理が成功したか否かを判定する。ここで否定結果が得られると、このことはフォーカスが合っていないか、又は認識枠411Aの中に正確にセットされなかったことにより文字列D1を読み取れなかったことを表しており、このときCPU52はステップSP1に戻って上述の処理を繰り返す。
【0097】
これに対してステップSP3において肯定結果が得られると、このことは名刺110を撮影した画像の中から認識枠411Aにセットされた文字列D1の読み取りに成功したことを示しており、このときCPU52は次のステップSP4に移る。
【0098】
ステップSP4においてCPU52は、読み取った文字列D1をクリップ画面410における読取履歴欄412の最上段に登録して表示し、次のステップSP5に移る。
【0099】
ステップSP5においてCPU52は、読取履歴欄412の最上段に登録した文字列D1上にカーソル409を移動し、次のステップSP6に移って文字列読取処理手順を終了する。
【0100】
続いて、上述のルーチンRT1の文字列読取処理手順(図12)によって読み取られた文字列D1を取り込んで解析するまでの文字列解析処理手順について説明する。この場合CPU52は、文字列取込部101〜解析結果表示部103におけるアドレスキャッチャ302のアプリケーションに従って図13に示すフローチャートの文字列解析処理を実行する。
【0101】
CPU52は、まずルーチンRT2の開始ステップから入ってステップSP11に移る。ステップSP11においてCPU52は文字列取込部101における処理に入ると、クリップ画面410の読取履歴欄412に表示された新たな文字列D1にカーソル409が重ねられた状態で所定時間以上経過したか否かを判定する。
【0102】
ここで否定結果が得られると、このことは文字列D1にカーソル409られた状態で所定時間以上経過することなくカーソル409が既に移動されたことを表しており、このときCPU52はステップSP11に戻る。
【0103】
これに対してステップSP11において肯定結果が得られると、このことは読取履歴欄412の文字列D1にカーソル409が重ねられた状態で所定時間以上経過したこと、すなわちカーソル409が重ねられた文字列D1を解析する意思がユーザにあることを表しており、このときCPU52は次のステップSP12に移る。
【0104】
ステップSP12においてCPU52は、カーソル409が重ねられた文字列D1を取り込み次のステップSP13に移る。
【0105】
ステップSP13においてCPU52は文字列解析部102の処理に入ると、取り込んだ文字列D1を解析データベース102Aのデータと比較参照することにより、文字列D1が表す情報の種類を表す種類IDの判別、及び文字列データD2の抽出処理を実行し、次のステップSP14に移る。
【0106】
ステップSP14においてCPU52は、文字列D1が表す情報の種類を判別し得たか否かを判定する。ここで否定結果が得られると、このことは解析データベース102Aのデータと比較参照した結果、文字列D1が住所、電話番号、郵便番号及びマップコードのいずれでもなく、文字列D1が表す情報の種類を判別し得なかったことを表しており、このときCPU52はステップSP17に移って文字列解析処理を終了する。
【0107】
これに対してステップSP14において肯定結果が得られると、このことは文字列D1が表す情報の種類を「電話番号」であると判別し得たことを表しており、このときCPU52は解析結果表示部103の処理に入って次のステップSP15に移る。
【0108】
ステップSP15においてCPU52は、文字列D1の種類ID及び文字列データD2を保持し、次のステップSP16に移る。
【0109】
ステップSP16においてCPU52は、文字列D1の種類ID及び文字列データD2を基に解析結果画面420を生成し、これをクリップ画面410の文字列D1近傍に表示し(図10)、次のステップSP17に移って文字列解析処理手順を終了する。
【0110】
引き続き、上述のルーチンRT2の文字列解析処理手順(図13)によって得られた文字列データD2を、当該文字列データD2を用いて地点検索を行うディジタル地図ソフトウェア60B(ナビンユー303)に受け渡す解析結果供給処理手順について説明する。この場合CPU52は、解析結果表示部103及びディスパッチ部105におけるアドレスキャッチャ302のアプリケーションに従って図14に示すフローチャートの解析結果供給処理を実行する。
【0111】
CPU52は、まずルーチンRT3の開始ステップから入ってステップSP21に移る。ステップSP21においてCPU52は解析結果表示部103における処理に入ると、解析結果画面420の検索実行ボタン423(図10)がクリックされたか否かを判定する。
【0112】
ここで否定結果が得られると、このことは解析結果画面420の検索実行ボタン423がクリックされず、文字列データD2を用いた検索処理を実行する意思がユーザにないことを示しており、このときCPU52は、ステップSP26に移って解析結果供給処理を終了する。
【0113】
これに対してステップSP21において肯定結果が得られると、このことは解析結果画面420の検索実行ボタン423がユーザによってクリックされたので、文字列データD2を用いた検索処理を実行する意思がユーザにあることを示しており、このときCPU52は次のステップSP22に移る。
【0114】
ステップSP22においてCPU52は、解析結果表示部103が保持している種類ID及び文字列データD2をディスパッチ部105(図7)へ供給し、次のステップSP23に移る。
【0115】
ステップSP23においてCPU52はディスパッチ部105における処理に入ると、種類IDに対応するアプリケーションであるディジタル地図ソフトウェア60B(ナビンユー303)をハードディスクドライブ60によって起動し、次のステップSP24に移る。
【0116】
ステップSP24においてCPU52は、種類IDに対応するアプリケーションであるディジタル地図ソフトウェア60B(ナビンユー303)を起動し得たか否かを判定する。ここで否定結果が得られると、このことは種類IDに対応するディジタル地図ソフトウェア60B(ナビンユー303)が存在せずに起動し得なかったことを表しており、このときCPU52はステップSP26に移って解析結果供給処理を終了する。
【0117】
これに対してステップSP24において肯定結果が得られると、このことは種類IDに対応するディジタル地図ソフトウェア60B(ナビンユー303)を起動し得たことを表しており、このときCPU52は次のステップSP25に移る。
【0118】
ステップSP25においてCPU52は、ステップSP24で起動したディジタル地図ソフトウェア60B(ナビンユー303)に対して文字列データD2(03-5448-○△△×)を供給し、次のステップSP26に移って解析結果供給処理手順を終了する。
【0119】
最後に、上述のルーチンRT3の解析結果供給処理手順(図14)のステップSP25によって供給された文字列データD2の電話番号に該当する地図上の地点をディジタル地図ソフトウェア60B(ナビンユー303)に従って検索し、その検索結果に対応した地図画面430を表示するまでのアプリケーション連携処理手順について説明する。この場合CPU52は、連携処理部106におけるナビンユー303のアプリケーションに従って図15に示すフローチャートのアプリケーション連携処理を実行する。
【0120】
CPU52は、まずルーチンRT4の開始ステップから入ってステップSP31に移る。ステップSP31においてCPU52は連携処理部106における処理に入ると、種類IDに対応するアプリケーションのディジタル地図ソフトウェア60Bに対して文字列データD2が供給されたか否かを判定する。ここで否定結果が得られると、このことは文字列データD2が供給されなかったことを表しており、このときCPU52はステップSP39に移ってアプリケーション連携処理を終了する。
【0121】
これに対してステップSP31において肯定結果が得られると、このことはディジタル地図ソフトウェア60Bに対して文字列データD2が供給されたことを表しており、このときCPU52は次のステップSP32〜ステップSP35のいずれかに移る。
【0122】
この場合CPU52は電話番号の文字列データD2(「03-5448-○△△×」)が供給されたことを認識しているのでステップSP33に移る。因みにCPU52は、郵便番号の文字列データD2が供給された場合にはステップSP32に移り、住所の文字列データD2が供給された場合にはステップSP34に移り、マップコードの文字列データD2が供給された場合にはステップSP35に移る。
【0123】
ステップSP33においてCPU52は、ハードディスクドライブ60により電話番号−緯度経度テーブルから文字列データD2の電話番号に該当する緯度経度を検索して取得し、次のステップSP36に移る。
【0124】
ステップSP36においてCPU52は、文字列データD2の電話番号(「03-5448-○△△×」)に該当する緯度経度を取得できたか否かを判定する。ここで否定結果が得られると、このことは文字列データD2に該当する緯度経度が電話番号−緯度経度テーブルに登録されていないために取得し得なかったことを表しており、このときCPU52はステップSP39に移ってアプリケーション連携処理を終了する。
【0125】
これに対してステップSP36において肯定結果が得られると、このことは文字列データD2に該当する緯度経度を取得し得たことを表しており、このときCPU52は次のステップSP37に移る。
【0126】
ステップSP37においてCPU52は、ディジタル地図ソフトウェア60B(ナビンユー303)に従って文字列データD2(電話番号)に該当する緯度経度を中心とした地図上の地点を検索し、当該地点を含む領域の地図画面430を生成し、次のステップSP38に移る。
【0127】
ステップSP38においてCPU52は、地図画面430を液晶ディスプレイ21に表示し、次のステップSP39に移ってアプリケーション連携処理手順を終了する。
【0128】
(3−2)アプリケーション画面上でカーソルが重ねられた文字列の解析処理及びアプリケーションとの連携処理
またコンピュータ装置1では、液晶ディスプレイ21のアプリケーション画面上でユーザのマウス操作によってカーソルが文字列に重ねられて所定時間(例えば1秒間)以上経過すると、文字列取込部101(図7)によってカーソルが重ねられている部分の前後数文字分に相当する文字列D1を取り込み、文字列解析部102に送出する。
【0129】
例えば図16に示すように、アプリケーション画面に表示された「Phone:03-5448-○△△×」の文字列上にカーソル449が重ねられると、文字列取込部101はカーソル449が重ねられている部分の前後数文字分に相当する文字列D1「Phone:03-5448-○△△×」を取り込み、これを文字列解析部102に送出する。ここで、文字列取込部101が取り込むべき文字列D1における前後数文字分の範囲は予め設定されているが、任意に設定変更可能である。
【0130】
文字列解析部102は、文字列取込部101から供給された文字列D1(「Phone:03-5448-○△△×」)と解析用データベース102Aから読み出したデータのフォーマットとを比較参照することにより、文字列D1が表す情報の種類(この場合の文字列D1の種類は電話番号である)を判別して種類IDを生成した後、電話番号に該当する部分の文字列データD2(すなわち「03-5448-○△△×」)を抽出し、種類ID及び文字列データD2(「03-5448-○△△×」)を解析結果表示部103に送出する。
【0131】
解析結果表示部103は、種類IDに対応した情報の種類と文字列データD2とを含む所定の解析結果画面450を生成し、これをカーソル449で指定された文字列D1の近傍に表示する。
【0132】
ここで解析結果画面450では、図10に示した解析結果画面420と同様に認識結果表示欄451に解析結果「電話番号 03-5448- ○△△×」が表示されており、これによりカーソル449が重ねられた部分の文字列D1が表す情報の種類が「電話番号」であり、その電話番号自体が「 03-5448- ○△△×」であることをユーザに認識させる。
【0133】
また解析結果画面450では、解析結果画面420と同様に認識結果表示欄451に解析結果に対する認識レベルを示した認識レベルバー452が表示されており、この認識レベルバー452が右側に振れるほど解析結果の確からしさが高いことを示し、ユーザに対して一目で解析結果の確からしさを認識させ得るようになされている。
【0134】
さらに解析結果画面450では、解析結果画面420と同様に認識レベルバー452の上段に検索実行ボタン453が表示されており、当該検索実行ボタン453がユーザによってクリック操作されると、解析結果表示部103は、検索実行ボタン453のクリック操作をトリガとして、保持していた種類ID及び文字列データD2をディスパッチ部105に送出する。
【0135】
ディスパッチ部105は、種類IDに対応したアプリケーションがハードディスクドライブ60のハードディスクに格納されている場合、該当するアプリケーションのディジタル地図ソフトウェア60B(ナビンユー303)を立ち上げ、文字列データD2(「03-5448-○△△×」)をディジタル地図ソフトウェア60Bに供給する。
【0136】
これにより連携処理部106は、ディジタル地図ソフトウェア60B(ナビンユー303)に従って文字列データD2(「03-5448-○△△×」)に該当する地図上の地点を検索し、検索した地点を含む領域の地図画面430(図11)として液晶ディスプレイ21に表示する。
【0137】
次に、アプリケーション画面上でカーソル449が重ねられたテキスト文書の文字列D1を取り込み、当該文字列D1を解析する取込及び解析処理手順を説明する。この場合CPU52は、文字列取込部101〜解析結果表示部103におけるアドレスキャッチャ302のアプリケーションに従って図17に示すフローチャートの取込及び解析処理を実行する。
【0138】
CPU52は、まずルーチンRT5の開始ステップから入ってステップSP41に移る。ステップSP41においてCPU52は文字列取込部101における処理に入ると、アプリケーション画面に表示されているテキスト文書の文字列にカーソル449が重ねられたか否かを判定する。
【0139】
ここで否定結果が得られると、このことは文字列にカーソル449が重ねられていないことを表しており、このときCPU52は、ステップSP41に戻って文字列にカーソル449が重ねられるまで待ち受ける。
【0140】
これに対してステップSP41において肯定結果が得られると、このことは文字列にカーソル449が重ねられていることを表しており、このときCPU52は、次のステップSP42に移る。
【0141】
ステップSP42においてCPU52は文字列解析部102における処理に入ると、文字列にカーソル449が重ねられた状態で所定時間以上が経過したか否かを判定する。ここで否定結果が得られると、このことは文字列にカーソル449が重ねられた状態で所定時間以上経過することなくカーソル449が既に移動されたことを示しており、このときCPU52は、ステップSP41に戻って上述の処理を繰り返す。
【0142】
これに対してステップSP42において肯定結果が得られると、このことは文字列にカーソル449が重ねられた状態で所定時間以上経過したことを表しており、このときCPU52は次のステップSP43に移る。
【0143】
ステップSP43においてCPU52は、ルーチンRT2(図13)のステップSP12と同様に、カーソル449が重ねられた部分の文字列を取り込み、これを文字列D1として文字列解析部102に送出し、次のステップSP44に移る。
【0144】
ステップSP44においてCPU52は文字列解析部102における処理に入ると、ルーチンRT2のステップSP13と同様に、文字列D1が表す情報の種類IDを判別すると共に文字列データD2を抽出し、次のステップSP45に移る。
【0145】
ステップSP45においてCPU52は、ルーチンRT2のステップSP14と同様に、文字列D1が表す情報の種類を判別し得たか否かを判定する。ここで否定結果が得られると、このことは文字列D1が表す情報の種類を判別し得なかったことを表しており、このときCPU52はステップSP48に移って文字列の取込及び解析処理を終了する。
【0146】
これに対してステップSP45において肯定結果が得られると、このことは文字列D1が表す情報の種類を判別し得たことを表しており、このときCPU52は文字列D1の種類ID及び文字列データD2を解析結果表示部103に送出し、次のステップSP46に移る。
【0147】
ステップSP46においてCPU52は解析結果表示部103における処理に入ると、ルーチンRT2のステップSP15と同様に、文字列D1の種類ID及び文字列データD2を保持し、次のステップSP47に移る。
【0148】
ステップSP47においてCPU52は、ルーチンRT2のステップSP16と同様に、種類ID及び文字列データD2を基に解析結果画面420を生成し、これをクリップ画面410上の文字列D1近傍に表示し(図11)、次のステップSP48に移って文字列の取込及び解析処理手順を終了する。
【0149】
(4)本実施の形態における動作及び効果
以上の構成において、コンピュータ装置1のCPU52は、CCDカメラ23によって名刺110を撮影し、クリップ画面410(図9)におけるファインダ表示領域411の認識枠411Aの中にセットされた文字列D1に対してフォーカスが合わせられると、サイバークリップ301のアプリケーションに従って文字列D1を認識して読み取った後、読取履歴欄412に登録して表示すると共に、登録した文字列D1にカーソル409を移動して合わせる。
【0150】
そしてCPU52は、アドレスキャッチャ302のアプリケーションに従って読取履歴欄412の文字列D1にカーソル409が重ねられた状態で所定時間以上経過したか否かを監視しており、所定時間以上経過したことを検出すると文字列D1を取り込む。
【0151】
続いてCPU52は、取り込んだ文字列D1が表す情報の種類を判別すると共に文字列データD2を抽出した後、解析結果表示部103によって解析結果画面420を生成して液晶ディスプレイ21に表示する。
【0152】
このようにコンピュータ装置1は、液晶ディスプレイ21に解析結果画面420を表示することにより、CCDカメラ23によって撮影した名刺110の文字列D1の解析結果が「電話番号」であり、その番号が「03-5448-○△△×」であることをユーザに対して認識させると共に、認識レベルバー422によって解析結果の確からしさを一目で認識させ得る。
【0153】
続いてCPU52は、解析結果画面420の検索実行ボタン423がユーザによってクリックされると、アドレスキャッチャ302のアプリケーションに従って文字列D1の種類IDに対応したディジタル地図ソフトウェア60B(ナビンユー303)を起動し、当該ディジタル地図ソフトウェア60B(ナビンユー303)に文字列データD2を供給する。
【0154】
このときCPU52では、解析結果画面420の検索実行ボタン423がユーザによってクリックされるまでは、ディジタル地図ソフトウェア60B(ナビンユー303)に対して文字列データD2を供給して連携しないようになされており、これによりユーザが解析結果を確認した後に文字列データD2に応じた検索処理を実行する意思があるときのみ連携動作を実行させることができ、かくしてユーザの意思に反した処理の実行を防止している。
【0155】
そしてCPU52は、ディジタル地図ソフトウェア60B(ナビンユー303)と文字列データD2とを連携させると、ディジタル地図ソフトウェア60B(ナビンユー303)に従って文字列データD2に該当する緯度経度を取得し、当該緯度経度を中心とした地図上の地点を検索し、検索結果に対応する地図画面430を液晶ディスプレイ21に表示する。
【0156】
すなわちユーザは、CCDカメラ23によってクリップ画面410に映し出された文字列D1を認識枠411Aの中にセットしてフォーカス調整するだけで文字列D1の解析結果画面420を得て情報の種類を確認することができ、また解析結果画面420の検索実行ボタン423に対するクリック操作を行うだけで、文字列D2に該当する地図上の地点を含む地図画面430を確認することができる。
【0157】
同様にコンピュータ装置1は、液晶ディスプレイ21に表示されたアプリケーション画面の文字列にカーソル449が所定時間以上重ねられたとき、これを文字列D1として取り込んで解析することにより解析結果画面420を表示し、当該解析結果画面420の検索実行ボタン423がクリックされたときに、ディジタル地図ソフトウェア60Bと文字列データD2とを連携させて地点検索を実行することができる。
【0158】
すなわちユーザは、この場合もアプリケーション画面の解析したい文字列にカーソル449を合わせるマウス操作を行うだけで文字列D1の解析結果画面450(図16)を得て情報の種類を確認することができ、また解析結果画面450の検索実行ボタン453に対するクリック操作を行うだけで、文字列D2に該当する地図上の地点を地図画面430(図11)を介して確認することができる。
【0159】
以上の構成によれば、コンピュータ装置1はCCDカメラ23で撮影した名刺110の画像の中からユーザによって指定された文字列D1を読み取って解析し、液晶ディスプレイ21に解析結果画面420を表示することにより、当該解析結果画面420を介して文字列D1が表す情報の種類及び文字列データD2をユーザに対して認識させることができ、かくしてユーザは解析を希望する名刺110をCCDカメラ23で撮影させるだけの簡単な操作で文字列D1の解析結果を認識することができる。
【0160】
またコンピュータ装置1では、ユーザが解析結果画面420を確認して解析結果に納得した後に検索実行ボタン423をクリックすると、文字列D1が表す情報の種類に対応するディジタル地図ソフトウェア60B(ナビンユー303)を起動して文字列データD2を連携させ、文字列データD2に該当する地図上の地点を検索し、その地点の領域を含む地図画面430を液晶ディスプレイ21に表示することにより、ユーザは解析結果に納得すると共に地点検索を実行する意思があるときに検索実行ボタン423をクリックするだけの簡単な操作で検索結果を容易に得ることができる。
【0161】
(5)他の実施の形態
なお上述の実施の形態においては、撮像手段としてのCCDカメラ23で撮影された画像の認識枠411Aの中にセットされた文字列D1を文字列読取手段としてのCPU52及びサイバークリップ301のアプリケーションによりOCR装置を用いて読み取るようにした場合について述べたが、本発明はこれに限らず、OCR装置以外の他の種々の方法によってCCDカメラ23で撮影された画像中の文字列D1を読み取るようにしても良い。
【0162】
また上述の実施の形態においては、各種アプリケーションを連携動作させることにより機能するようになされた文字列解析連携システム100に従ってCPU52が文字列解析連携処理を実行するようにした場合について述べたが、本発明はこれに限らず、フロッピーディスク、CD−ROM(Compact Disc-Read Only Memory) 、DVD(Digital Video Disc)等のパッケージメディア、プログラムが一時的もしくは永続的に格納される半導体メモリや磁気ディスク、さらにローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線又は無線通信媒体及びこれらの通信媒体を介して提供されるプログラムを転送もしくは受信するルータやモデム等の各種通信インターフェース等の提供媒体によって提供されるOSの一部として含まれる文字列解析連携システム100に従ってCPU52が文字列解析連携処理を実行するようにしても良い。
【0163】
さらに上述の実施の形態においては、文字列取込解析手段としてのCPU52及びアドレスキャッチャ302のアプリケーションによって文字列D1を取り込んで解析し、表示制御手段としてのCPU52及びアドレスキャッチャ302のアプリケーションによって表示手段としての液晶ディスプレイ21に解析結果画面420を表示することにより、文字列D1が表す情報の種類を電話番号であるとユーザに認識させ、連携手段としてのCPU52及びディジタル地図ソフトウェア(ナビンユー303)のアプリケーションによって文字列データD2の電話番号に該当する地点の検索を実行し、その検索結果に対応する地図画面430を表示するようにした場合について述べたが、本発明はこれに限らず、文字列D1が表す情報の種類を郵便番号、住所、緯度経度、当該緯度経度を表すマップコード、電子メールアドレス、URL(Uniform Resource Locator)、日時、金額の単位、又はkm、kg、cm、yard……等の汎用的な単位であると判別し、郵便番号が定義されている地図上の位置を検索して示す郵便番号位置検索アプリケーション、住所に対応する地図上の位置を検索して示す住所位置検索アプリケーション、緯度経度に対応する地図上の位置を検索して示す緯度経度検索アプリケーション、マップコードに対応する地図上の位置を検索して示すマップコード検索アプリケーション、電子メールアドレスに対して電子メールを送信する電子メール送信アプリケーション、URLに基づいてホームページを開くHTML(Hyper Text Markup Language)ブラウザ、日時に対応したカレンダや予定表を開くスケジューラアプリケーション、所定の金額を他の貨幣の単位に応じた金額に自動換算する貨幣換算アプリケーション、又は単位に応じた数値を用いて種々の計算を行う電子計算機アプリケーション、郵便番号、住所、緯度経度、マップコード、電子メールアドレス又はURLを基に個人情報を検索する個人情報検索アプリケーションと文字列データD2とをそれぞれ連携させて所定の処理を実行するようにしても良い。
【0164】
さらに上述の実施の形態においては、カメラ一体型のコンピュータ装置1におけるCCDカメラ23によって撮像した画像の中から文字列を読み取るようにした場合について述べたが、本発明はこれに限らず、ディジタルスチールカメラ等によって撮像された画像を外部からIEEE1394端子41を介して取り込み、その中から文字列を読み取るようにしても良い。
【0165】
【発明の効果】
上述のように本発明によれば、撮像手段によって撮像された画像から文字列及び当該文字列に対応したアプリケーションを特定するための特定情報を抽出し、この文字列を表示することにより画像から何の文字列が抽出されたのかをユーザに対して目視確認させたうえで、任意の文字列がユーザによって選択されたとき、その特定情報に対応したアプリケーションを起動させて文字列に対する所定の処理を実行させることができるので、ユーザに対して画像を撮像させ、抽出された文字列を選択させるだけの簡易な操作により、画像から文字列を選択して当該文字列に対する所定のアプリケーション処理を行わせるまでの一連の処理を自動的に実行することができ、かくしてユーザによる簡単な操作だけで文字列を解析して所望の処理を実行し得る一段と操作性の優れた情報処理装置を実現できる。
【0166】
また本発明によれば、撮像手段によって撮像された画像から文字列及び当該文字列に対応したアプリケーションを特定するための特定情報を抽出し、この文字列を表示することにより画像から何の文字列が抽出されたのかをユーザに対して目視確認させたうえで、任意の文字列がユーザによって選択されたとき、その特定情報に対応したアプリケーションを起動させて文字列に対する所定の処理を実行させることができるので、ユーザに対して画像を撮像させ、抽出された文字列を選択させるだけの簡易な操作により、画像から文字列を選択して当該文字列に対する所定のアプリケーション処理を行わせるまでの一連の処理を自動的に実行することができ、かくしてユーザによる簡単な操作だけで文字列を解析して所望の処理を実行し得る情報処理方法を実現できる。
【図面の簡単な説明】
【図1】コンピュータ装置の全体構成を示す略線的斜視図である。
【図2】本体の正面構成を示す略線図である。
【図3】本体に対して表示部を閉じた状態を示す略線図である。
【図4】本体に対して表示部を180度開いた状態を示す略線図である。
【図5】本体の下面構成を示す略線図である。
【図6】コンピュータ装置の回路構成を示すブロック図である。
【図7】本発明による文字列解析連携システムの構成を示すブロック図である。
【図8】CCDカメラによる名刺の撮影状態を示す略線図である。
【図9】クリップ画面を示す略線図である。
【図10】文字列の解析結果画面を示す略線図である。
【図11】検索結果の地図画面を示す略線図である。
【図12】CCDカメラで撮影された画像中の文字列を読み取る読取処理手順を示すフローチャートである。
【図13】文字列解析処理手順を示すフローチャートである。
【図14】解析結果供給処理手順を示すフローチャートである。
【図15】アプリケーション連携処理手順を示すフローチャートである。
【図16】カーソルで指定された文字列の解析結果画面を示す略線図である。
【図17】アプリケーション画面においてカーソルで指定された文字列の取込及び解析処理手順を示すフローチャートである。
【図18】従来の通常のポップアップメニューを示す略線図である。
【符号の説明】
1……コンピュータ装置、2……本体、3……表示部、21……液晶ディスプレイ、23……CCDカメラ、52……CPU、54……RAM、60……ハードディスク、100……文字列解析連携システム、101……文字列取込部、102……文字列解析部、103……解析結果表示部、104……文字列読取部、105……ディスパッチ部、110……名刺。
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an information processing apparatus.as well asInformation processingTo the lawFor example, it is suitable for application to a personal computer.
[0002]
[Prior art]
Conventionally, a personal computer (hereinafter referred to as a computer device) manages the entire system based on an OS (Operating System) such as Windows 98 (trademark) stored in an internal hard disk, and via the OS. Thus, desired processing is executed by starting application software (hereinafter referred to as an application).
[0003]
In the OS of such a computer device, various user interfaces have been developed to improve the user-friendliness. For example, file extensions (.COM and .DOC that store predetermined information and programs) are developed. Etc.) is associated with an application necessary for referring to the file, so that data and application are linked in units of files, and data is embedded in the application.
[0004]
Recently, an application partially including a program called a character string extraction system (Japanese Patent Application No. 09-305351) has been proposed. When this application is used, a desired character in the text data in the file is proposed. When a string (for example, an English word) is specified by the cursor on the screen, the part between the preceding and following spaces and periods is extracted as the specified English word, and the meaning of the English word is determined by the dictionary application. Searching and displaying in the vicinity of the cursor is performed.
[0005]
[Problems to be solved by the invention]
By the way, in the computer device having such a configuration, it is possible to perform cooperation between data and applications in units of files, but the type of information (for example, an address) represented by a specified character string among text data constituting the file. Therefore, it is difficult to link the application and the character string information associated with each type of information.
[0006]
For example, as shown in FIG. 18, when the cursor is over the character string “Phone: 03-5448- ○ △△ ×” on the application screen, the normal pop-up menu PM1 is displayed even if the mouse is right-clicked. In order to link the application related to the phone number, which is the type of character string, with the character string information, a complicated operation has to be performed.
[0007]
That is, in the computer apparatus, the part where the cursor is superimposed is recognized not as a telephone number but merely as a character string. When the telephone number which is information on the character string is used in another application, the OS copy function After saving the phone number data to the clipboard using, start the application that uses the phone number and execute the cut-and-paste operation to paste the phone number data at the appropriate location. There was a problem that it was complicated and troublesome.
[0008]
In addition, in a computer device equipped with an application partially including a character string extraction system, English words are extracted as character strings from the text data constituting the file, and the extracted character strings are associated in advance. The dictionary application can be linked to search for the meaning of English words, but the type of information represented by the character string cannot be determined. For this reason, in a computer device, when a character string is, for example, an address, a telephone number, an e-mail address, or the like, an application (for example, an application for displaying a location on a map corresponding to an address, a call is made) It has been difficult to link character string information with an application for transmitting an e-mail).
[0009]
  The present invention has been made in consideration of the above points, and is an information processing apparatus that is more excellent in operability and can analyze a character string and execute a desired process with only a simple operation by a user.as well asInformation processingThe lawIt is what we are going to propose.
[0010]
[Means for Solving the Problems]
  In order to solve this problem, in the present invention, the information processing apparatusStorage means for storing multiple applications and taking imagesBy imaging meansObtainedimageGet to get dataMeans,Identification to identify the character string and the application corresponding to the character string from the image dataExtract informationExtractionMeans,ExtractionBy meansExtractedStringTogether with image dataDisplay control means for displaying on a predetermined display means;, Referring to the storage means, starting the application based on the specific information corresponding to the character string selected from the character strings displayed on the display means, and for the character string extracted by the extracting means Application processing means for executing processing;ProvideLike that.
  As a result, the image was picked up by the image pickup means.imageFromStringAnd after extracting the specific information for specifying the application corresponding to the character string, and letting the user visually confirm what character string was extracted from the image by displaying this character string, When an arbitrary character string is selected by the user, an application corresponding to the specific information can be activated to execute a predetermined process on the character string. A simple operation that simply selects a column automatically executes a series of processes from selecting a character string from an image to performing predetermined application processing on that character string.can do.
[0011]
  In the present invention, the information processing method includes:Taking an imageBy imaging meansObtainedimageAcquiring data by acquisition meansSteps,Extraction means for identifying specific information for identifying character strings and applications corresponding to character strings from image dataExtractExtractionSteps,ExtractionBy meansExtractedStringTogether with image data by display control meansA display control step for displaying on a predetermined display means;The character string extracted by the extraction means by referring to the storage means by the application processing means, starting the application based on the specific information corresponding to the character string selected from the character strings displayed on the display means, And an application processing step for executing a predetermined process by the application.
  As a result, the image was picked up by the image pickup means.imageFromStringAnd after extracting the specific information for specifying the application corresponding to the character string, and letting the user visually confirm what character string was extracted from the image by displaying this character string, When an arbitrary character string is selected by the user, an application corresponding to the specific information can be activated to execute a predetermined process on the character string. A simple operation that simply selects a column automatically executes a series of processes from selecting a character string from an image to performing predetermined application processing on that character string.can do.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0014]
(1) External configuration of computer device
In FIG. 1, reference numeral 1 denotes a portable personal computer device (hereinafter referred to as a computer device) that constitutes the information processing apparatus of the present invention as a whole. In this case, it is a portable personal computer of B5 size or less.
[0015]
The computer apparatus 1 includes a main body 2 and a display unit 3 attached to the main body 2 so as to be freely opened and closed. The main body 2 includes a plurality of operation keys 4 for inputting various characters, symbols, numbers, and the like on the upper surface, a stick-type pointing device 5 that is operated when a cursor displayed on the display unit 3 is moved, a built-in speaker 6, and a display unit A shutter button 7 is provided which is operated when an image is captured by a CCD (Charge Coupled Device) camera 23 provided in 3.
[0016]
A liquid crystal display 21 composed of an LCD (Liquid Crystal Display) is provided in front of the display unit 3, and an imaging unit 22 having a CCD camera 23 at the center upper end of the front is rotatable with respect to the display unit 3. Is attached.
[0017]
That is, the imaging unit 22 can be rotated and positioned at an arbitrary position within an angle range of 180 degrees between the front direction and the back direction of the display unit 3. Further, as shown in FIG. 2, the imaging unit 22 is provided with an adjustment ring 25 that performs focus adjustment of the CCD camera 23, and the adjustment operation of the adjustment ring 25 is performed to adjust the focus when the imaging target is imaged by the CCD camera 23. Easy to run by.
[0018]
Further, a microphone 24 is provided on the front side of the display unit 3 (FIG. 1) on the left side of the imaging unit 22, and sound can be collected from the back side of the display unit 3 (FIG. 5) via the microphone 24. It is made like that.
[0019]
Further, a power supply lamp PL made of LEDs (Light Emitting Diodes), a battery lamp BL, a message lamp ML, and other lamps corresponding to various uses are provided at the lower center of the front of the display unit 3.
[0020]
Further, a claw 13 is provided on the upper front end portion of the display unit 3 on the left side of the microphone 24, and a hole 8 is provided at a predetermined position of the main body 2 corresponding to the claw 13, so that the display unit 3 is connected to the main unit. In the state closed to 2, the claw 13 is fitted into the hole 8 and locked.
[0021]
As shown in FIG. 2, a slide lever 9 is provided on the front surface of the main body 2. By sliding the slide lever 9 along the front surface in the direction of the arrow, the claw 13 fitted in the hole 8 is provided. The display unit 3 can be unfolded with respect to the main body 2 by releasing the lock.
[0022]
On the front of the main body 2, a predetermined series of operations are automatically executed by starting up predetermined application software (hereinafter simply referred to as an application) from power-on with a single button operation. A programmable power key (PPK key) 10 is provided at the left end, and a plurality of intake holes 11 are provided at the right end.
[0023]
On the left side of the main body 2, as shown in FIG. 3, a slide type power switch 40, a 4-pin compatible IEEE (Institute of Electrical and Electronics Engineers) 1394 terminal 41, a USB (Universal Serial Bus) terminal 42, an input for a microphone A terminal 43, a headphone terminal 44, and an infrared port 45 compliant with IrDA (Infrared Data Association) are provided.
[0024]
As shown in FIG. 4, an exhaust hole 12 is provided on the right side of the main body 2. A PCMCIA (Personal Computer Memory Card International Association) card (hereinafter referred to as a PC card) is located on the right side of the exhaust hole 12. A PC card slot 13 is provided for inserting a PC card slot 13.
[0025]
Further, as shown in FIG. 5, a lid 26 for covering the opening 25 for attaching the additional memory is attached to the lower surface of the main body 2, and a pin insertion hole 48 for removing the locking claw of the lid 26 is provided. Is provided.
[0026]
(2) Circuit configuration of computer device
As shown in FIG. 6, in the main body 2, a PCI (Peripheral Component Interconnect) bus 51 of the activation sequence control unit 83 is connected to a CPU (Central Processing Unit) 52, a PC (Personal Computer) card slot 13, and a RAM (Random Access Memory). 54, an IEEE interface directly connected to an IEEE 1394 terminal 41 for connecting to a graphics processing circuit 55 for generating an image to be displayed on the liquid crystal display 21 of the display unit 3 and another computer device or an external device and capturing digital data 56 is connected.
[0027]
The CPU 52 is a controller that comprehensively controls various functions in the main body 2, and can execute various functions by executing various programs and applications loaded in the RAM 54.
[0028]
The PCI bus 51 is connected to an ISA (Industrial Standard Architecture) bus 59. The ISA bus 59 includes a hard disk drive 60, an I / O (In / Out) controller 61, a keyboard controller 62, a pointing device controller 63, a sound. A chip 64, an LCD controller 65, a modem 66, and a USB interface 67 are connected.
[0029]
Here, the keyboard controller 62 controls the input of a control signal in response to pressing of the operation key 4 (FIG. 1), and the pointing device controller 63 controls the input of the control signal by the stick type pointing device 5 (FIG. 1).
[0030]
The sound chip 64 takes in an audio input from the microphone 24 (FIG. 1) or supplies an audio signal to the built-in speaker 6 (FIG. 1). A modem 66 includes a public telephone line 90, an Internet service provider (hereinafter referred to as this). Is connected to a mail server 93 having the Internet 92 and a mail box 93A. The USB interface 67 is connected to the USB terminal 42 so as to connect peripheral devices such as a USB mouse and a floppy disk drive.
[0031]
The hard disk drive 60 includes a capture software 60A for capturing a still image via the CCD camera 23, a digital map software 60B for performing a map search, an OS (Operating System) 60C made up of Windows 98 (trademark), and various application software ( (Not shown) is stored, and is read by the CPU 52 and loaded into the RAM 54 as necessary.
[0032]
The I / O controller 61 includes an I / O interface 69, a CPU 70, a ROM (Read Only Memory) 71 composed of an EEPROM (Electrically Erasable and Programmable Read Only Memory), and a RAM 72, which are connected to each other. -Time Clock) 81, the current time is always supplied.
[0033]
The ROM 71 of the I / O controller 61 stores a BIOS (Basic Input / Output System) 73, a wake-up program 74, a key input monitoring program 75, and an LED control program 76, and the RAM 72 stores a key input status register 77, A set time register 78, an LED control register 79, and a key corresponding application register 80 are provided.
[0034]
The key input status register 77 stored in the RAM 72 can store an operation key flag, and the CPU 70 determines whether the PPK key 10 (FIG. 2) for one-touch operation is pressed based on the key input monitoring program 75. If the PPK key 10 is pressed, an operation key flag is stored in the key input status register 77.
[0035]
The set time register 78 can store time information such as a start time arbitrarily set by the user in advance. The CPU 70 arbitrarily sets the current time given from the RTC 81 based on the wakeup program 74. It is detected whether or not the start time is reached. When the start time is reached, a predetermined process is executed.
[0036]
Further, the key corresponding application register 80 stores a correspondence relationship between the PPK key 10 or the operation key 4 composed of a plurality of combinations and the application to be activated corresponding to the combination of the PPK key 10 or the preset operation key 4. When the PPK key 10 or a preset operation key 4 is pressed, the CPU 70 sends control data for starting up the corresponding application to the CPU 52 via the ISA bus 59 and the PCI bus 51 in sequence. Then, an application corresponding to the control data is started by the CPU 52.
[0037]
The LED control register 79 stores an end flag when the application stored in the key corresponding application register 80 is started and the operation ends. The CPU 70 stores an end flag in the LED control register 79 based on the LED control program 76. If it is detected, the message lamp ML is turned on.
[0038]
The LED control register 79 stores a power flag when the power switch 40 is pressed, and stores a battery flag when the main body 2 operates with a power supply voltage supplied from a battery. Therefore, when the CPU 70 detects that the power flag or the battery flag is stored based on the LED control program 76, the CPU 70 turns on the power lamp PL and the battery lamp BL.
[0039]
Here, since the backup battery 82 is connected to the I / O controller 61, the key input status of the RAM 72 can be obtained even when the power switch 40 of the main body 2 is off and power is not supplied from a power source (not shown). Each data of the register 77, the set time register 78, the LED control register 79, and the key corresponding application register 80 is held.
[0040]
The reversing switch 88 connected to the I / O controller 61 is turned on when the imaging unit 22 (FIG. 1) is rotated 180 degrees in the direction of imaging the opposite side of the liquid crystal display 21 of the display unit 3. The CPU 70 is notified. The PPK key 10 also notifies the CPU 70 of the state in the same manner as when the reverse switch 88 is pressed.
[0041]
Further, the half-press switch 86 is turned on when the shutter button 7 provided on the upper surface of the main body 2 is half-pressed, and notifies the CPU 70 of the I / O controller 61 of the state, and the full-press switch 87 is a shutter button. 7 is turned on when it is fully pressed, and the state is notified to the CPU 70 of the I / O controller 61.
[0042]
That is, the CPU 70 of the I / O controller 61 enters the still image mode and controls the CCD camera 23 when the shutter button 7 is pressed halfway by the user with the capture software 60A of the hard disk drive 60 started up. The freeze of the still image is executed, and when it is fully pressed, the frozen still image data is captured and sent to the data processing unit 85.
[0043]
On the other hand, when the CPU 70 of the I / O controller 61 enters the moving image mode without starting up the capture software 60A, it captures a moving image of up to about 60 seconds and sends it to the data processing unit 85.
[0044]
The I / O controller 61 controls the graphics processing circuit 55 connected to the PCI bus 51, and the image processing unit 85 converts the image data that is a still image or a moving image captured by the CCD camera 23 into the data processing unit 85. Then, the data is input to the graphics processing circuit 55 after predetermined data processing.
[0045]
The graphics processing circuit 55 stores the supplied image data in a built-in VRAM (Video Random Access Memory) 55A, reads it out as appropriate, sends it to the LCD controller 65, and stores it in the hard disk drive 60 as necessary.
[0046]
The LCD controller 65 controls the backlight 84 of the display unit 3 to illuminate from behind the liquid crystal display 21 and outputs the image data supplied from the graphics processing circuit 55 to the liquid crystal display 21 for display. ing.
[0047]
On the other hand, when the CPU 52 starts up the digital map software 60 </ b> B read from the hard disk drive 60 on the RAM 54, the CPU 52 sends map data from the digital map software 60 </ b> B to the graphics processing circuit 55.
[0048]
At this time, the graphics processing circuit 55 generates map image data to be displayed on the liquid crystal display 21 based on the supplied map data, stores it in the VRAM 55A, reads it out as appropriate, and sends it to the LCD controller 65.
[0049]
Accordingly, the LCD controller 65 displays a map image on the liquid crystal display 21 of the display unit 3 based on the map image data supplied from the graphics processing circuit 55.
[0050]
The PC card slot 13 connected to the PCI bus 51 is appropriately mounted via a PC card (not shown) when adding an optional function, and exchanges data with the CPU 52 via the PC card. Has been made. For example, when a PCMCIA-type GPS (Global Positioning System) card 57 is installed in the PC card slot 13, the GPS antenna 58 connected to the GPS card 57 receives radio waves from GPS satellites to obtain current position data. Has been made.
[0051]
As a result, the GPS card 57 sends the current position data (latitude data, longitude data, and altitude data) received via the GPS antenna 58 to the CPU 52 via the PCI bus 51.
[0052]
In this case, the CPU 52 sends the current position data to the graphics processing circuit 55 and generates an arrow icon indicating the current position based on the current position data by the graphics processing circuit 55, and then the liquid crystal display 21 via the LCD controller 65. The map image is displayed with an arrow icon superimposed on it.
[0053]
Thus, the liquid crystal display 21 can display the arrow icon while moving it on the map image based on the position data detected by the GPS card 57.
[0054]
(3) Configuration of application program operating on OS in the present invention
Here, the OS stored in the hard disk of the hard disk drive 60 and loaded into the RAM 54 at the time of startup includes an API (Application Program Interface) (not shown) composed of system functions for calling various system functions. By starting an application program (hereinafter simply referred to as an application) on the OS, an application screen is displayed on the liquid crystal display 21.
[0055]
In addition, a character string analysis cooperation system, which will be described later, is configured by various applications operating on the OS, and the character string analysis cooperation system has a character string analysis cooperation function when various applications exchange data and perform a cooperative operation. It is made like that.
[0056]
Accordingly, the CPU 52 performs processing according to various applications in the character string analysis cooperation system, thereby extracting the character string noted by the user, and the type of information represented by the extracted character string (for example, the extracted character string is an address, a telephone number) , The map code representing the zip code or latitude / longitude) and the information of the determined character string itself (address, telephone number, zip code or map code) is obtained, It is designed to link to applications related to types. Next, the configuration of this character string analysis cooperation system will be described.
[0057]
As shown in FIG. 7, in the character string analysis cooperation system 100, the character string reading unit 104, the character string capturing unit 101, the character string analysis unit 102, the analysis result display unit 103, the dispatch unit 105, and the cooperation processing unit 106 It is composed of various applications that operate in parallel.
[0058]
That is, here, for convenience, the modules for each application are described separately for the character string reading unit 104, the character string capturing unit 101 to the analysis result display unit 103, the dispatch unit 105, and the cooperation processing unit 106. The CPU 52 performs each process.
[0059]
Here, in the character string reading unit 104, the CPU 52 executes a character string reading process in accordance with an application called Cyberclip (trademark) 301 that reads a character string in an image as text data.
[0060]
Further, in the character string fetching unit 101 to the analysis result display unit 103 and the dispatch unit 105, the CPU 52 performs character string analysis and supply processing according to an application called an address catcher (trademark) 302 that performs character string analysis and supply processing. Execute.
[0061]
Further, in the cooperation processing unit 106, the CPU 52 executes point search processing according to an application (digital map software 60B) called Nabinyu (trademark) 302 that searches for and displays points on the map corresponding to the supplied character string data D2. To do.
[0062]
In practice, the character string reading unit 104 reads a character string in an image captured by the CCD camera 23.
[0063]
The character string fetching unit 101 monitors the read character string. When the cursor is positioned on the character string and designated, the character string fetching unit 101 fetches the character string as a character string D1 and sends it to the character string analyzing unit 102. To do. Here, a specific method for reading a character string by the character string reading unit 104 and a specific method for reading a character string by the character string taking unit 101 will be described later.
[0064]
The character string analysis unit 102 is connected to an analysis database 102A including, for example, an address database, a telephone number database, a postal code database, a map code database, and various other databases, and is supplied from the character string capturing unit 101. The read character string D1 is compared with the data read from the analysis database 102A.
[0065]
As a result, the character string analysis unit 102 determines the type of information (address, telephone number, postal code, or map code) represented by the supplied character string D1, generates a type ID corresponding to the type, Character string data D2 (address, telephone number, postal code, or map code data itself) that is the information itself represented by D1 is extracted, and the type ID and character string data D2 are sent to the analysis result display unit 103.
[0066]
The analysis result display unit 103 generates a predetermined analysis result screen (described later) including the type of information and the character string data D2 based on the type ID and character string data D2 supplied from the character string analysis unit 102. By displaying on the liquid crystal display 21, the user can recognize the type of information represented by the character string D1.
[0067]
Then, the analysis result display unit 103 sends the type ID and character string data D2 held to the dispatch unit 105 when a search execution button (described later) displayed in the analysis result screen is clicked by the user. To do.
[0068]
The dispatch unit 105 reads the digital map software 60B (Nabin Yu 303) related to the type ID supplied from the analysis result display unit 103 by the hard disk drive 60 and starts it on the RAM 54, and then the character string data D2 is converted into the digital map software. 60B is supplied.
[0069]
Since the character string data D2 is supplied to the digital map software 60B activated by the dispatch unit 105, the cooperation processing unit 106 links the digital map software 60B and the character string data D2.
[0070]
Thereby, the cooperation processing unit 106 searches for a point on the map corresponding to the character string data D2 (address, telephone number, postal code, or map code data) of the analysis result according to the digital map software 60B (Nabinyu 303). A map screen including the searched point is generated and displayed on the liquid crystal display 21.
[0071]
(3-1) Analysis processing of character string in image photographed by CCD camera and cooperation processing with application
In practice, as shown in FIG. 8, in the computer apparatus 1, for example, the business card 110 held in the user's hand and the CCD of the imaging unit 22 with the imaging unit 22 (FIG. 1) of the display unit 3 facing the back of the liquid crystal display 21. When the shutter button 7 is pressed while facing the camera 23 (not shown), the business card 110 is imaged. Here, the business card 110 is used, but anything may be used as long as characters such as a book or a postcard are entered.
[0072]
At this time, the computer apparatus 1 displays the image of the business card 110 captured by the CCD camera 23 in the application screen of the liquid crystal display 21 via the data processing unit 85 (FIG. 6), the graphics processing circuit 55 and the LCD controller 65. Is displayed as a clip screen 410 as shown in FIG.
[0073]
In this clip screen 410, a finder-shaped finder display area 411 showing the business card 110 being imaged by the CCD camera 23, and a reading history in which the character string D1 read through the CCD camera 23 is registered and displayed from the top in the new order. A column 412, an auto mode button 413 for switching the reading mode, and a manual mode button 414 are provided.
[0074]
On the clip screen 410, the user selects the auto mode with the auto mode button 413, and the character string desired to be read (“03-5448- ○ ΔΔ ×”) in the recognition frame 411A at the substantially center of the finder display area 411. , And focus adjustment is performed via the adjustment ring 25 (FIG. 2).
[0075]
At this time, the character string reading unit 104 of the information type corresponding system 100 converts, for example, an OCR (Optical Character Reader) device into a character string (“03-5448- ○ ΔΔ ×”) in the image set in the recognition frame 411A. Is read and registered in the reading history column 412 as a character string D1 and displayed.
[0076]
Further, the character string reading unit 104 registers and displays the read character string D1 (“03-5448- ○ ΔΔ ×”) in the uppermost row of the reading history column 412. Further, when the cursor 409 is positioned outside the clip screen 410, the character string reading unit 104 automatically moves the cursor 409 onto the character string D1 to match it. In this case, the cursor 409 is moved to the left of “0”, which is the first (leftmost) character of the character string D1, and is recognized as being superimposed on the character string D1 in this state.
[0077]
In the clip screen 410 of FIG. 9, when another character string D1 is read and added to the top row of the reading history column 412, the position of the cursor 409 does not move and the character string D1 ( “03-5448- ○ ΔΔ ×”) is displayed one step down from the top row, and the cursor 409 is positioned on another latest character string D1. That is, as a result, the cursor 409 has moved relative to the character string D1 (“03-5448- ◯ ΔΔ ×”) read immediately before.
[0078]
Incidentally, in the clip screen 410, the manual mode can be selected by the manual mode button 414. In this case, the size of the recognition frame 411A is changed by dragging the recognition frame 411A at the substantially center of the finder display area 411. Or the position of the recognition frame 411A can be changed.
[0079]
The user sets the character string D1 in the recognition frame 411A, performs focus adjustment, and clicks the lock button 415 in this state to fix the character string D1 to be recognized, and then clicks the clip button 416. As a result, the character string D1 can be read and registered and displayed in the uppermost row of the reading history column 412.
[0080]
When erasing the character string D1 displayed in the reading history column 412 of the clip screen 410, it is only necessary to place the cursor on the character string D1 to be erased and click the delete button 418, and copy the character string D1. In order to use, it is only necessary to place the cursor on the character string D1 to be copied and click the copy button 417.
[0081]
On the clip screen 410, when the cursor 409 is overlaid on the character string D1 displayed at the top of the reading history column 412 and a predetermined time (for example, 1 second) has elapsed, the character string analysis cooperation system 100 displays the character string capturing unit. All the character strings D1 on which the cursor 409 is overlapped by 101 are fetched and sent to the character string analysis unit 102. In the character string analysis collaboration system 100, the character string D1 is captured when the cursor 409 is superimposed on the character string D1 and one second or more elapses. However, the elapsed time is not limited to one second and is changed depending on the setting. obtain.
[0082]
Here, when the cursor 409 is overlaid on the character string, the OS performs re-display to prevent the character string D1 of the overlapped portion from being invisible with the cursor 409. The character string D1 supplied again is taken in by the character string fetching unit 101.
[0083]
The character string analysis unit 102 compares the character string D1 (“03-5448- ○ ΔΔ ×”) supplied from the character string fetch unit 101 with the format of the data read from the analysis database 102A. After identifying the type of information represented by the character string D1 (in this case, the type of the character string D1 is a telephone number) and generating a type ID, the character string data D2 corresponding to the telephone number (that is, “03 -5448- ○ ΔΔ × ”) is extracted, and the type ID and character string data D2 (“ 03-5448- ○ ΔΔ × ”) are sent to the analysis result display unit 103.
[0084]
As shown in FIG. 10, the analysis result display unit 103 generates a predetermined analysis result screen 420 including the type of information corresponding to the type ID and the character string data D2, and displays this in the vicinity of the character string D1 in the reading history column 412. To display.
[0085]
Here, in the analysis result screen 420, the analysis result “phone number 03-5448- ○ ΔΔ ×” is displayed in the recognition result display field 421, so that the type of information represented by the character string D 1 on which the cursor is superimposed is displayed. “Telephone number”, and the user recognizes that the telephone number itself is “03-5448- ○ ΔΔ ×”.
[0086]
In the analysis result screen 420, a recognition level bar 422 indicating the recognition level for the analysis result displayed in the recognition result display field 421 is displayed, and the more probable the analysis result is as the recognition level bar 422 moves to the right. The user can recognize the accuracy of the analysis result at a glance.
[0087]
Further, in the analysis result screen 420, a search execution button 423 is displayed in the upper part of the recognition level bar 422. When the search execution button 423 is clicked by the user, the analysis result display unit 103 clicks the search execution button 423. With the operation as a trigger, the type ID and the character string data D2 that are held are sent to the dispatch unit 105 (FIG. 7).
[0088]
When the application corresponding to the type ID is stored in the hard disk of the hard disk drive 60, the dispatch unit 105 starts up the corresponding digital map software 60B (Nabinyu 303) on the RAM 54, and at the same time the digital map software 60B. Is supplied with character string data D2.
[0089]
The linkage processing unit 106 links the launched digital map software 60B (Nabinyu 303) and character string data D2, and in accordance with the digital map software 60B (Nabinyou 303), character string data D2 (“03-5448- ○ Δ △ A point on the map corresponding to “x”) is searched, and a map screen 430 of an area including the searched point is generated and displayed on the liquid crystal display 21 as shown in FIG.
[0090]
On this map screen 430, the point on the map where the station number representative of “03-5448”, which is the analysis result of the character string D1, is displayed, and the analysis result screen 420 is displayed in an overlapping manner. However, the cooperation processing unit 106 collates the character string data D2 (“03-5448- ○ ΔΔ ×”) with the point database of the digital map software 60B, and if there is a completely matching building or facility, The point is displayed where the cursor crosses.
[0091]
Until the search execution button 423 on the analysis result screen 420 shown in FIG. 10 is clicked by the user, the dispatch unit 105 starts up the digital map software 60B (Nabin Yu 303) corresponding to the type ID and character string data. D2 is not supplied.
[0092]
Accordingly, when the user intends to link the analysis result of the character string D1 with the digital map software 60B, the user may click the search execution button 423 on the analysis result screen 420, and does not intend to link with the digital map software 60B. Sometimes, it is only necessary to shift to the analysis processing of the next character string D1 without clicking the search execution button 423.
[0093]
Next, a character string reading process procedure until the character string D1 is recognized and read from the image of the business card 110 photographed by the CCD camera 23 will be described. In this case, the CPU 52 executes the character string reading process of the flowchart shown in FIG. 12 according to the application of the cyber clip 301 in the character string reading unit 104.
[0094]
The CPU 52 first enters from the start step of the routine RT1 and proceeds to step SP1. When the CPU 52 in step SP1 enters the process of the character string reading unit 104, when the business card 110 is photographed by the CCD camera 23 by the user's operation of the shutter button 7, the process proceeds to the next step SP2.
[0095]
In step SP2, the CPU 52 executes the reading process of the character string D1 set in the recognition frame 411A of the finder display area 411 using the OCR device, and proceeds to the next step SP3.
[0096]
In step SP3, the CPU 52 determines whether the reading process of the character string D1 in step SP2 is successful. If a negative result is obtained here, this means that the character string D1 could not be read because it was out of focus or was not set correctly in the recognition frame 411A. At this time, the CPU 52 Returns to step SP1 and repeats the above process.
[0097]
On the other hand, if a positive result is obtained in step SP3, this indicates that the character string D1 set in the recognition frame 411A is successfully read from the image obtained by photographing the business card 110, and at this time, the CPU 52 Moves to the next step SP4.
[0098]
In step SP4, the CPU 52 registers and displays the read character string D1 in the top row of the reading history column 412 in the clip screen 410, and proceeds to the next step SP5.
[0099]
In step SP5, the CPU 52 moves the cursor 409 onto the character string D1 registered at the top of the reading history column 412, moves to the next step SP6, and ends the character string reading processing procedure.
[0100]
Subsequently, a character string analysis processing procedure until the character string D1 read by the character string reading processing procedure (FIG. 12) of the above-described routine RT1 is taken and analyzed will be described. In this case, the CPU 52 executes the character string analysis process of the flowchart shown in FIG. 13 according to the application of the address catcher 302 in the character string fetch unit 101 to the analysis result display unit 103.
[0101]
The CPU 52 first enters from the start step of the routine RT2, and proceeds to step SP11. In step SP11, when the CPU 52 enters the process in the character string capturing unit 101, whether or not a predetermined time or more has elapsed with the cursor 409 overlaid on the new character string D1 displayed in the reading history column 412 of the clip screen 410. Determine whether.
[0102]
If a negative result is obtained here, this means that the cursor 409 has already been moved without elapse of a predetermined time in a state where the cursor 409 is on the character string D1, and at this time, the CPU 52 returns to step SP11. .
[0103]
On the other hand, if a positive result is obtained in step SP11, this means that a predetermined time or more has passed with the cursor 409 overlaid on the character string D1 in the reading history column 412, that is, the character string on which the cursor 409 is overlaid. This indicates that the user intends to analyze D1, and at this time, the CPU 52 proceeds to the next step SP12.
[0104]
In step SP12, the CPU 52 takes in the character string D1 on which the cursor 409 is superimposed, and proceeds to the next step SP13.
[0105]
In step SP13, when the CPU 52 enters the processing of the character string analysis unit 102, by comparing and referring to the captured character string D1 with the data in the analysis database 102A, the type ID representing the type of information represented by the character string D1 is determined. The extraction process of the character string data D2 is executed, and the process proceeds to the next step SP14.
[0106]
In step SP14, the CPU 52 determines whether the type of information represented by the character string D1 has been determined. If a negative result is obtained here, this means that the character string D1 is neither an address, a telephone number, a postal code nor a map code, but is a type of information represented by the character string D1 as a result of comparison with the data of the analysis database 102A. The CPU 52 moves to step SP17 and ends the character string analysis process.
[0107]
On the other hand, if an affirmative result is obtained in step SP14, this indicates that the type of information represented by the character string D1 can be determined to be “telephone number”. At this time, the CPU 52 displays the analysis result. The process of the unit 103 is started and the process proceeds to the next step SP15.
[0108]
In step SP15, the CPU 52 holds the type ID of the character string D1 and the character string data D2, and proceeds to the next step SP16.
[0109]
In step SP16, the CPU 52 generates an analysis result screen 420 based on the type ID of the character string D1 and the character string data D2, and displays it in the vicinity of the character string D1 on the clip screen 410 (FIG. 10). Next step SP17 Then, the character string analysis processing procedure is finished.
[0110]
Subsequently, the character string data D2 obtained by the character string analysis processing procedure (FIG. 13) of the above-described routine RT2 is transferred to the digital map software 60B (Nabinyu 303) that performs point search using the character string data D2. The result supply processing procedure will be described. In this case, the CPU 52 executes the analysis result supply process of the flowchart shown in FIG. 14 according to the application of the address catcher 302 in the analysis result display unit 103 and the dispatch unit 105.
[0111]
The CPU 52 first enters the start step of the routine RT3 and proceeds to step SP21. In step SP21, when the CPU 52 starts processing in the analysis result display unit 103, the CPU 52 determines whether or not the search execution button 423 (FIG. 10) on the analysis result screen 420 has been clicked.
[0112]
If a negative result is obtained here, this indicates that the search execution button 423 on the analysis result screen 420 is not clicked, and the user has no intention to execute the search processing using the character string data D2. The CPU 52 moves to step SP26 and ends the analysis result supply process.
[0113]
On the other hand, if a positive result is obtained in step SP21, this means that the search execution button 423 on the analysis result screen 420 has been clicked by the user, so that the user is willing to execute the search process using the character string data D2. In this case, the CPU 52 proceeds to the next step SP22.
[0114]
In step SP22, the CPU 52 supplies the type ID and character string data D2 held in the analysis result display unit 103 to the dispatch unit 105 (FIG. 7), and proceeds to the next step SP23.
[0115]
In step SP23, when the CPU 52 enters processing in the dispatch unit 105, the hard disk drive 60 starts up the digital map software 60B (Nabin Yu 303), which is an application corresponding to the type ID, and proceeds to the next step SP24.
[0116]
In step SP24, the CPU 52 determines whether or not the digital map software 60B (Nabin Yu 303), which is an application corresponding to the type ID, has been activated. If a negative result is obtained here, this means that the digital map software 60B (Nabinyu 303) corresponding to the type ID does not exist and cannot be started. At this time, the CPU 52 proceeds to step SP26. The analysis result supply process ends.
[0117]
On the other hand, if an affirmative result is obtained in step SP24, this indicates that the digital map software 60B (Nabinyu 303) corresponding to the type ID could be started, and at this time, the CPU 52 proceeds to the next step SP25. Move.
[0118]
In step SP25, the CPU 52 supplies the character string data D2 (03-5448- ○ ΔΔ ×) to the digital map software 60B (Nabinyu 303) started in step SP24, and proceeds to the next step SP26 to supply analysis results. The processing procedure ends.
[0119]
Finally, a point on the map corresponding to the telephone number of the character string data D2 supplied in step SP25 of the analysis result supply processing procedure (FIG. 14) of the above-described routine RT3 is searched according to the digital map software 60B (Nabinyu 303). The application cooperation processing procedure until the map screen 430 corresponding to the search result is displayed will be described. In this case, the CPU 52 executes the application cooperation process of the flowchart shown in FIG. 15 according to the application of the Nabin You 303 in the cooperation processing unit 106.
[0120]
The CPU 52 first enters from the start step of the routine RT4 and proceeds to step SP31. In step SP31, when the CPU 52 starts processing in the cooperation processing unit 106, the CPU 52 determines whether or not the character string data D2 is supplied to the digital map software 60B of the application corresponding to the type ID. If a negative result is obtained here, this indicates that the character string data D2 has not been supplied. At this time, the CPU 52 proceeds to step SP39 and ends the application linkage processing.
[0121]
On the other hand, if a positive result is obtained in step SP31, this indicates that the character string data D2 has been supplied to the digital map software 60B. At this time, the CPU 52 performs steps SP32 to SP35. Move to one.
[0122]
In this case, since the CPU 52 recognizes that the character string data D2 (“03-5448- ○ ΔΔ ×”) of the telephone number has been supplied, the CPU 52 proceeds to step SP33. Incidentally, the CPU 52 proceeds to step SP32 when the character string data D2 of the zip code is supplied, and moves to step SP34 when the character string data D2 of the address is supplied, and the character string data D2 of the map code is supplied. If so, the process proceeds to step SP35.
[0123]
In step SP33, the CPU 52 retrieves and acquires the latitude / longitude corresponding to the telephone number of the character string data D2 from the telephone number-latitude / longitude table by the hard disk drive 60, and proceeds to the next step SP36.
[0124]
In step SP36, the CPU 52 determines whether or not the latitude and longitude corresponding to the telephone number (“03-5448- ◯ ΔΔ ×”) of the character string data D2 has been acquired. If a negative result is obtained here, this means that the latitude / longitude corresponding to the character string data D2 could not be obtained because it was not registered in the telephone number-latitude / longitude table. The process moves to step SP39 to end the application cooperation process.
[0125]
On the other hand, if a positive result is obtained in step SP36, this indicates that the latitude / longitude corresponding to the character string data D2 has been acquired. At this time, the CPU 52 proceeds to the next step SP37.
[0126]
In step SP37, the CPU 52 searches for a point on the map centered on the latitude and longitude corresponding to the character string data D2 (telephone number) according to the digital map software 60B (Nabinyu 303), and displays a map screen 430 of an area including the point. Generate and move to next step SP38.
[0127]
In step SP38, the CPU 52 displays the map screen 430 on the liquid crystal display 21, moves to the next step SP39, and ends the application cooperation processing procedure.
[0128]
(3-2) Analysis processing of character string on which cursor is superimposed on application screen and cooperation processing with application
Further, in the computer apparatus 1, when a cursor is superimposed on a character string by a user's mouse operation on the application screen of the liquid crystal display 21 and a predetermined time (for example, 1 second) or more elapses, the character string capturing unit 101 (FIG. 7) The character string D1 corresponding to several characters before and after the portion where “is overlaid” is captured and sent to the character string analysis unit 102.
[0129]
For example, as illustrated in FIG. 16, when the cursor 449 is overlaid on the character string “Phone: 03-5448- ○ ΔΔ ×” displayed on the application screen, the character string capturing unit 101 causes the cursor 449 to overlap. A character string D1 “Phone: 03-5448- ○ ΔΔ ×” corresponding to several characters before and after the current part is taken in and sent to the character string analysis unit 102. Here, the range of several characters before and after the character string D1 to be captured by the character string capturing unit 101 is set in advance, but can be arbitrarily changed.
[0130]
The character string analysis unit 102 compares and refers to the character string D1 (“Phone: 03-5448- ○ ΔΔ ×”) supplied from the character string capturing unit 101 and the format of the data read from the analysis database 102A. Thus, after determining the type of information represented by the character string D1 (in this case, the type of the character string D1 is a telephone number) and generating a type ID, the character string data D2 of the portion corresponding to the telephone number (ie, “03-5448- ○ ΔΔ ×”) is extracted, and the type ID and character string data D 2 (“03-5448- ○ ΔΔ ×”) are sent to the analysis result display unit 103.
[0131]
The analysis result display unit 103 generates a predetermined analysis result screen 450 including the type of information corresponding to the type ID and the character string data D2, and displays this in the vicinity of the character string D1 designated by the cursor 449.
[0132]
Here, in the analysis result screen 450, the analysis result “phone number 03-5448- ○ ΔΔ ×” is displayed in the recognition result display field 451 as in the analysis result screen 420 shown in FIG. The user recognizes that the type of information represented by the character string D1 in the part where “is overlaid” is “telephone number” and that the telephone number itself is “03-5448- ○ ΔΔx”.
[0133]
In the analysis result screen 450, similarly to the analysis result screen 420, a recognition level bar 452 indicating a recognition level for the analysis result is displayed in the recognition result display field 451. The analysis result is increased as the recognition level bar 452 moves to the right side. The accuracy of the analysis result is high, and the user can recognize the accuracy of the analysis result at a glance.
[0134]
Further, in the analysis result screen 450, similarly to the analysis result screen 420, a search execution button 453 is displayed above the recognition level bar 452, and when the search execution button 453 is clicked by the user, the analysis result display unit 103 is displayed. Sends the held type ID and character string data D2 to the dispatch unit 105 using the click operation of the search execution button 453 as a trigger.
[0135]
When an application corresponding to the type ID is stored in the hard disk of the hard disk drive 60, the dispatch unit 105 starts up the digital map software 60B (Nabinyu 303) of the corresponding application, and character string data D2 (“03-5448- ○ △△ × ”) is supplied to the digital map software 60B.
[0136]
Thereby, the cooperation processing unit 106 searches for a point on the map corresponding to the character string data D2 (“03-5448- ○ ΔΔ ×”) according to the digital map software 60B (Nabinyu 303), and includes the searched point. Is displayed on the liquid crystal display 21 as a map screen 430 (FIG. 11).
[0137]
Next, a description will be given of a capture and analysis processing procedure for capturing the character string D1 of the text document on which the cursor 449 is superimposed on the application screen and analyzing the character string D1. In this case, the CPU 52 executes the capture and analysis processing of the flowchart shown in FIG. 17 according to the application of the address catcher 302 in the character string capture unit 101 to the analysis result display unit 103.
[0138]
The CPU 52 first enters the start step of the routine RT5 and moves to step SP41. In step SP41, when the CPU 52 starts processing in the character string fetch unit 101, the CPU 52 determines whether or not the cursor 449 is overlaid on the character string of the text document displayed on the application screen.
[0139]
If a negative result is obtained here, this indicates that the cursor 449 is not overlaid on the character string, and at this time, the CPU 52 returns to step SP41 and waits until the cursor 449 is overlaid on the character string.
[0140]
On the other hand, if a positive result is obtained in step SP41, this indicates that the cursor 449 is superimposed on the character string, and at this time, the CPU 52 proceeds to the next step SP42.
[0141]
In step SP42, when the CPU 52 starts processing in the character string analysis unit 102, the CPU 52 determines whether or not a predetermined time or more has elapsed with the cursor 449 overlaid on the character string. If a negative result is obtained here, this indicates that the cursor 449 has already been moved without elapse of a predetermined time in a state where the cursor 449 is overlaid on the character string, and at this time, the CPU 52 performs step SP41. Return to and repeat the above process.
[0142]
On the other hand, if a positive result is obtained in step SP42, this indicates that a predetermined time or more has elapsed with the cursor 449 overlaid on the character string, and at this time, the CPU 52 proceeds to the next step SP43.
[0143]
In step SP43, as in step SP12 of the routine RT2 (FIG. 13), the CPU 52 takes in the character string of the portion where the cursor 449 is overlapped, and sends this as a character string D1 to the character string analysis unit 102. Next step Move on to SP44.
[0144]
In step SP44, when the CPU 52 starts processing in the character string analysis unit 102, as in step SP13 of the routine RT2, the CPU 52 determines the type ID of the information represented by the character string D1 and extracts the character string data D2, and the next step SP45. Move on.
[0145]
In step SP45, as in step SP14 of the routine RT2, the CPU 52 determines whether or not the type of information represented by the character string D1 has been determined. If a negative result is obtained here, this means that the type of information represented by the character string D1 could not be discriminated. At this time, the CPU 52 proceeds to step SP48 and performs character string capturing and analysis processing. finish.
[0146]
On the other hand, if an affirmative result is obtained in step SP45, this means that the type of information represented by the character string D1 can be determined. At this time, the CPU 52 determines the type ID and character string data of the character string D1. D2 is sent to the analysis result display unit 103, and the process proceeds to the next step SP46.
[0147]
In step SP46, when the CPU 52 enters the processing in the analysis result display unit 103, similarly to step SP15 of the routine RT2, the CPU 52 holds the type ID and character string data D2 of the character string D1, and proceeds to the next step SP47.
[0148]
In step SP47, as in step SP16 of the routine RT2, the CPU 52 generates an analysis result screen 420 based on the type ID and character string data D2, and displays this in the vicinity of the character string D1 on the clip screen 410 (FIG. 11). ), The process proceeds to the next step SP48, and the character string fetching and analysis processing procedure is terminated.
[0149]
(4) Operations and effects in the present embodiment
In the above configuration, the CPU 52 of the computer apparatus 1 captures the business card 110 with the CCD camera 23, and the character string D1 set in the recognition frame 411A of the finder display area 411 on the clip screen 410 (FIG. 9). When the focus is adjusted, the character string D1 is recognized and read in accordance with the application of the cyber clip 301, and then registered and displayed in the reading history column 412, and the cursor 409 is moved to the registered character string D1 to be adjusted.
[0150]
Then, the CPU 52 monitors whether or not a predetermined time or more has passed with the cursor 409 being superimposed on the character string D1 in the reading history column 412 according to the application of the address catcher 302. The character string D1 is captured.
[0151]
Subsequently, the CPU 52 determines the type of information represented by the captured character string D1 and extracts the character string data D2, and then generates an analysis result screen 420 by the analysis result display unit 103 and displays it on the liquid crystal display 21.
[0152]
In this way, the computer apparatus 1 displays the analysis result screen 420 on the liquid crystal display 21 so that the analysis result of the character string D1 of the business card 110 photographed by the CCD camera 23 is “phone number”, and the number is “03”. -5448- ○ ΔΔx ”can be recognized by the user, and the accuracy of the analysis result can be recognized at a glance by the recognition level bar 422.
[0153]
Subsequently, when the search execution button 423 on the analysis result screen 420 is clicked by the user, the CPU 52 activates the digital map software 60B (Nabinyu 303) corresponding to the type ID of the character string D1 according to the application of the address catcher 302, and The character string data D2 is supplied to the digital map software 60B (Nabinyu 303).
[0154]
At this time, in the CPU 52, until the search execution button 423 on the analysis result screen 420 is clicked by the user, the character string data D2 is supplied to the digital map software 60B (Nabinyu 303) so as not to cooperate. As a result, the collaborative operation can be executed only when the user intends to execute the search process corresponding to the character string data D2 after confirming the analysis result, thus preventing the execution of the process against the user's intention. Yes.
[0155]
When the digital map software 60B (Nabinyu 303) and the character string data D2 are linked, the CPU 52 obtains the latitude and longitude corresponding to the character string data D2 according to the digital map software 60B (Nabinyu 303), and centers the latitude and longitude. A point on the map is searched, and a map screen 430 corresponding to the search result is displayed on the liquid crystal display 21.
[0156]
That is, the user simply sets the character string D1 displayed on the clip screen 410 by the CCD camera 23 in the recognition frame 411A and adjusts the focus, obtains the analysis result screen 420 of the character string D1 and confirms the type of information. In addition, the map screen 430 including the point on the map corresponding to the character string D2 can be confirmed only by performing a click operation on the search execution button 423 on the analysis result screen 420.
[0157]
Similarly, when the cursor 449 is superimposed on a character string on the application screen displayed on the liquid crystal display 21 for a predetermined time or longer, the computer apparatus 1 displays the analysis result screen 420 by capturing the character string D1 and analyzing it. When the search execution button 423 on the analysis result screen 420 is clicked, a point search can be executed by linking the digital map software 60B and the character string data D2.
[0158]
That is, the user can check the type of information by obtaining the analysis result screen 450 (FIG. 16) of the character string D1 simply by performing a mouse operation to align the cursor 449 with the character string to be analyzed on the application screen. Further, the user can confirm the point on the map corresponding to the character string D2 via the map screen 430 (FIG. 11) simply by performing a click operation on the search execution button 453 on the analysis result screen 450.
[0159]
According to the above configuration, the computer device 1 reads and analyzes the character string D1 designated by the user from the image of the business card 110 taken by the CCD camera 23, and displays the analysis result screen 420 on the liquid crystal display 21. Thus, the user can recognize the type of information represented by the character string D1 and the character string data D2 via the analysis result screen 420, and the user causes the CCD camera 23 to photograph the business card 110 desired to be analyzed. The analysis result of the character string D1 can be recognized with a simple operation.
[0160]
In the computer apparatus 1, when the user confirms the analysis result screen 420 and agrees with the analysis result and clicks the search execution button 423, the digital map software 60B (Nabin Yu 303) corresponding to the type of information represented by the character string D1 is displayed. The user starts and links the character string data D2, searches for a point on the map corresponding to the character string data D2, and displays the map screen 430 including the area of the point on the liquid crystal display 21, so that the user can obtain the analysis result. The search result can be easily obtained by a simple operation of clicking the search execution button 423 when the user is satisfied and intends to execute the point search.
[0161]
(5) Other embodiments
In the above-described embodiment, the character string D1 set in the recognition frame 411A of the image photographed by the CCD camera 23 as the imaging means is subjected to OCR by the application of the CPU 52 and the cyber clip 301 as the character string reading means. Although the case where reading is performed using the apparatus has been described, the present invention is not limited to this, and the character string D1 in the image photographed by the CCD camera 23 by various methods other than the OCR apparatus is read. Also good.
[0162]
In the above-described embodiment, the case has been described in which the CPU 52 executes the character string analysis cooperation process according to the character string analysis cooperation system 100 configured to function by cooperatively operating various applications. The invention is not limited to this, package media such as floppy disks, CD-ROMs (Compact Disc-Read Only Memory), DVDs (Digital Video Discs), semiconductor memories and magnetic disks in which programs are temporarily or permanently stored, Furthermore, it is provided by providing media such as a local area network, the Internet, a wired or wireless communication medium such as digital satellite broadcasting, and various communication interfaces such as a router and a modem that transfer or receive a program provided via the communication medium. String solution included as part of the OS The CPU 52 may execute the character string analysis cooperation process according to the analysis cooperation system 100.
[0163]
Furthermore, in the above-described embodiment, the character string D1 is captured and analyzed by the application of the CPU 52 and the address catcher 302 as the character string capture analysis unit, and is displayed as the display unit by the application of the CPU 52 and the address catcher 302 as the display control unit. The analysis result screen 420 is displayed on the liquid crystal display 21 to allow the user to recognize that the type of information represented by the character string D1 is a telephone number, and depending on the application of the CPU 52 and the digital map software (Nabinyu 303) as linkage means. Although the case where the search corresponding to the telephone number of the character string data D2 is executed and the map screen 430 corresponding to the search result is displayed has been described, the present invention is not limited to this, and the character string D1 is Post the type of information you represent Number, address, latitude / longitude, map code representing the latitude / longitude, e-mail address, URL (Uniform Resource Locator), date / time, monetary unit, or general unit such as km, kg, cm, yard ... Zip code location search application that searches and shows the location on the map where the zip code is defined, address location search application that searches and shows the location on the map corresponding to the address, map corresponding to latitude and longitude Latitude / longitude search application for searching and showing the upper position, map code search application for searching and showing the position on the map corresponding to the map code, e-mail sending application for sending e-mail to the e-mail address, URL HTML (Hyper Text Markup Language) browser to open the homepage based on the calendar, calendar corresponding to the date and time Scheduler application that opens the calendar, monetary conversion application that automatically converts a predetermined amount into an amount according to another monetary unit, or an electronic computer application that performs various calculations using numerical values according to the unit, zip code, address The personal information search application for searching for personal information based on the latitude / longitude, the map code, the e-mail address or the URL and the character string data D2 may be linked to execute predetermined processing.
[0164]
Further, in the above-described embodiment, the case where a character string is read from an image captured by the CCD camera 23 in the camera-integrated computer apparatus 1 has been described. An image captured by a camera or the like may be fetched from the outside via the IEEE 1394 terminal 41, and a character string may be read from the image.
[0165]
【The invention's effect】
  As described above, according to the present invention,Imaged by imaging meansimageFromStringAnd after extracting the specific information for specifying the application corresponding to the character string, and letting the user visually confirm what character string was extracted from the image by displaying this character string, When an arbitrary character string is selected by the user, an application corresponding to the specific information can be activated to execute a predetermined process on the character string. A simple operation that simply selects a column automatically executes a series of processes from selecting a character string from an image to performing predetermined application processing on that character string.Thus, it is possible to realize an information processing apparatus with much higher operability that can analyze a character string and execute a desired process only with a simple operation by a user.
[0166]
  Also according to the invention,Imaged by imaging meansimageFromStringAnd after extracting the specific information for specifying the application corresponding to the character string, and letting the user visually confirm what character string was extracted from the image by displaying this character string, When an arbitrary character string is selected by the user, an application corresponding to the specific information can be activated to execute a predetermined process on the character string. A simple operation that simply selects a column automatically executes a series of processes from selecting a character string from an image to performing predetermined application processing on that character string.Thus, it is possible to realize an information processing method that can analyze a character string and execute a desired process with a simple operation by a user.
[Brief description of the drawings]
FIG. 1 is a schematic perspective view showing an overall configuration of a computer apparatus.
FIG. 2 is a schematic diagram illustrating a front configuration of a main body.
FIG. 3 is a schematic diagram illustrating a state in which a display unit is closed with respect to a main body.
FIG. 4 is a schematic diagram showing a state where the display unit is opened 180 degrees with respect to the main body.
FIG. 5 is a schematic diagram showing a lower surface configuration of a main body.
FIG. 6 is a block diagram illustrating a circuit configuration of a computer device.
FIG. 7 is a block diagram showing a configuration of a character string analysis cooperation system according to the present invention.
FIG. 8 is a schematic diagram showing a state of taking a business card by a CCD camera.
FIG. 9 is a schematic diagram illustrating a clip screen.
FIG. 10 is a schematic diagram illustrating a character string analysis result screen;
FIG. 11 is a schematic diagram illustrating a map screen of a search result.
FIG. 12 is a flowchart showing a reading processing procedure for reading a character string in an image photographed by a CCD camera.
FIG. 13 is a flowchart showing a character string analysis processing procedure.
FIG. 14 is a flowchart showing an analysis result supply processing procedure;
FIG. 15 is a flowchart illustrating an application cooperation processing procedure.
FIG. 16 is a schematic diagram showing an analysis result screen of a character string designated by a cursor.
FIG. 17 is a flowchart showing a procedure for taking in and analyzing a character string designated by a cursor on an application screen.
FIG. 18 is a schematic diagram showing a conventional normal pop-up menu.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Computer apparatus, 2 ... Main body, 3 ... Display part, 21 ... Liquid crystal display, 23 ... CCD camera, 52 ... CPU, 54 ... RAM, 60 ... Hard disk, 100 ... Character string analysis Linked system 101... Character string fetching section 102... Character string analyzing section 103... Analysis result display section 104... Character string reading section 105.

Claims (13)

複数のアプリケーションを記憶する記憶手段と、
画像を撮像する撮像手段によって得られた画像データを取得する取得手段と、
上記画像データから文字列及び上記文字列に対応するアプリケーションを特定するための特定情報を抽出する抽出手段と、
上記抽出手段によって抽出された上記文字列を上記画像データと共に所定の表示手段に表示する表示制御手段と、
上記記憶手段を参照し、上記表示手段に表示されている上記文字列の中から選択された文字列に対応する上記特定情報に基づいて上記アプリケーションを起動させ、上記抽出手段により抽出された上記文字列について上記アプリケーションによる所定の処理を実行させるアプリケーション処理手段と
を具える情報処理装置。
Storage means for storing a plurality of applications;
Acquisition means for acquiring image data obtained by an imaging means for capturing an image;
Extraction means for extracting specific information for specifying a character string and an application corresponding to the character string from the image data;
Display control means for displaying the character string extracted by the extraction means together with the image data on a predetermined display means;
The character extracted by the extraction means by referring to the storage means, starting the application based on the specific information corresponding to the character string selected from the character strings displayed on the display means, An information processing apparatus comprising: an application processing unit that executes predetermined processing by the application on a column.
上記抽出手段は、OCR(Optical Character Reader)手段を用いて上記画像中の上記文字列を認識して抽出する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the extraction unit recognizes and extracts the character string in the image using an OCR (Optical Character Reader) unit.
上記抽出手段は、抽出した上記文字列を上記表示手段の表示画面内の所定のリストに登録して表示すると共に、上記リストに表示した最新の上記文字列にカーソルを合わせることにより上記文字列を選択させる
請求項1に記載の情報処理装置。
The extraction means registers and displays the extracted character string in a predetermined list in the display screen of the display means, and moves the cursor to the latest character string displayed in the list to display the character string. The information processing apparatus according to claim 1, wherein the information processing apparatus is selected.
上記文字列は、電話番号である
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the character string is a telephone number.
上記記憶手段は郵便番号に対応する位置情報を記憶し、
上記抽出手段は上記文字列として郵便番号を抽出し、
上記アプリケーション処理手段は、上記記憶手段を参照し、上記抽出手段により抽出された上記郵便番号に対応する上記位置情報に基づいて地図画面を生成する
請求項1に記載の情報処理装置。
The storage means stores position information corresponding to the postal code,
The extraction means extracts a zip code as the character string,
The information processing apparatus according to claim 1, wherein the application processing unit generates a map screen based on the position information corresponding to the zip code extracted by the extraction unit with reference to the storage unit.
上記記憶手段は住所に対応する位置情報を記憶し、
上記抽出手段は上記文字列として住所を抽出し、
上記アプリケーション処理手段は、上記記憶手段を参照し、上記抽出手段により抽出された上記住所に対応する上記位置情報に基づいて地図画面を生成する
請求項1に記載の情報処理装置。
The storage means stores position information corresponding to the address,
The extraction means extracts an address as the character string,
The information processing apparatus according to claim 1, wherein the application processing unit generates a map screen based on the position information corresponding to the address extracted by the extraction unit with reference to the storage unit.
上記記憶手段はマップコードに対応する位置情報を記憶し、
上記抽出手段は上記文字列としてマップコードを抽出し、
上記アプリケーション処理手段は、上記記憶手段を参照し、上記抽出手段により抽出された上記マップコード住所に対応する上記位置情報に基づいて地図画面を生成する
請求項1に記載の情報処理装置。
The storage means stores position information corresponding to the map code,
The extraction means extracts a map code as the character string,
The information processing apparatus according to claim 1, wherein the application processing unit generates a map screen based on the position information corresponding to the map code address extracted by the extraction unit with reference to the storage unit.
上記抽出手段は上記文字列として緯度経度を抽出し、
上記アプリケーション処理手段は、上記記憶手段を参照し、上記抽出手段により抽出された上記緯度経度に基づいて地図画面を生成する
請求項1に記載の情報処理装置。
The extraction means extracts latitude and longitude as the character string,
The information processing apparatus according to claim 1, wherein the application processing unit generates a map screen based on the latitude and longitude extracted by the extraction unit with reference to the storage unit.
上記抽出手段は上記文字列として電子メールアドレスを抽出し、
上記アプリケーション処理手段は、上記記憶手段を参照し、上記抽出手段により抽出された上記電子メールアドレスに対して電子メールを送信するための電子メールアプリケーションを上記記憶手段から読み出して起動する
請求項1に記載の情報処理装置。
The extraction means extracts an email address as the character string,
The application processing means refers to the storage means, reads out an e-mail application for transmitting an e-mail to the e-mail address extracted by the extraction means from the storage means, and activates the e-mail application. The information processing apparatus described.
上記抽出手段は上記文字列としてURL(Uniform Resource Locator)を抽出し、
上記アプリケーション処理手段は、上記記憶手段を参照し、上記抽出手段により抽出された上記URLに基づいてホームページを開くためのブラウザを上記記憶手段から読み出して起動する
請求項1に記載の情報処理装置。
The extraction means extracts a URL (Uniform Resource Locator) as the character string,
The information processing apparatus according to claim 1, wherein the application processing unit reads the browser for opening a home page from the storage unit based on the URL extracted by the extraction unit with reference to the storage unit and activates the browser.
上記抽出手段は上記文字列として日時を抽出し、
上記アプリケーション処理手段は、上記記憶手段を参照し、上記抽出手段により抽出された上記日時に基づいてスケジューラアプリケーションを上記記憶手段から読み出して起動する
請求項1に記載の情報処理装置。
The extraction means extracts date and time as the character string,
The information processing apparatus according to claim 1, wherein the application processing unit reads the scheduler application from the storage unit and starts the scheduler application based on the date and time extracted by the extraction unit with reference to the storage unit.
上記抽出手段は上記文字列として金額を抽出する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the extraction unit extracts an amount of money as the character string.
画像を撮像する撮像手段によって得られた画像データを取得手段によって取得する取得ステップと、
上記画像データから文字列及び上記文字列に対応するアプリケーションを特定するための特定情報を抽出手段によって抽出する抽出ステップと、
上記抽出手段によって抽出された上記文字列を表示制御手段によって上記画像データと共に所定の表示手段に表示する表示制御ステップと、
アプリケーション処理手段によって、上記記憶手段を参照し、上記表示手段に表示されている上記文字列の中から選択された文字列に対応する上記特定情報に基づいて上記アプリケーションを起動させ、上記抽出手段により抽出された上記文字列について上記アプリケーションによる所定の処理を実行させるアプリケーション処理ステップと
を有する情報処理方法。
An acquisition step of acquiring image data obtained by an imaging means for capturing an image by an acquisition means;
An extraction step of extracting specific information for specifying a character string and an application corresponding to the character string from the image data by an extraction unit;
A display control step of displaying the character string extracted by the extraction means on a predetermined display means together with the image data by a display control means;
The application processing means refers to the storage means, starts the application based on the specific information corresponding to the character string selected from the character strings displayed on the display means, and uses the extraction means to And an application processing step for executing predetermined processing by the application on the extracted character string.
JP15059799A 1999-05-14 1999-05-28 Information processing apparatus and information processing method Expired - Lifetime JP4314502B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15059799A JP4314502B2 (en) 1999-05-28 1999-05-28 Information processing apparatus and information processing method
US09/569,251 US7428569B1 (en) 1999-05-14 2000-05-11 Information processing apparatus, information processing method, and provision medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15059799A JP4314502B2 (en) 1999-05-28 1999-05-28 Information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2000339401A JP2000339401A (en) 2000-12-08
JP4314502B2 true JP4314502B2 (en) 2009-08-19

Family

ID=15500368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15059799A Expired - Lifetime JP4314502B2 (en) 1999-05-14 1999-05-28 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP4314502B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034942A (en) * 2005-07-29 2007-02-08 Kobe Steel Ltd Information processor and program therefor
JP7464462B2 (en) * 2016-04-28 2024-04-09 オナー デバイス カンパニー リミテッド Human-computer interaction method and device
WO2017185272A1 (en) 2016-04-28 2017-11-02 华为技术有限公司 Man-machine interaction method and device therefor

Also Published As

Publication number Publication date
JP2000339401A (en) 2000-12-08

Similar Documents

Publication Publication Date Title
US20080317346A1 (en) Character and Object Recognition with a Mobile Photographic Device
JP3786166B2 (en) Image processing apparatus, image processing method, and image processing program
US6389182B1 (en) Image processing apparatus, image processing method and storage medium
JP4674644B2 (en) Image processing apparatus, image processing method, and image processing program medium
US7958135B2 (en) Information processing apparatus, information recording system, information recording method, and computer-readable medium storing program
US7386576B2 (en) Data file storage device with automatic filename creation function, data file storage program and data file storage method
US20100216441A1 (en) Method for photo tagging based on broadcast assisted face identification
US20030052907A1 (en) Information processing apparatus and method, and distribution medium
EP1984850A1 (en) Method and system for tagging digital data
US20120219239A1 (en) System, Method, and Devices for Searching for a Digital Image over a Communication Network
WO2012050672A2 (en) Image identification and sharing on mobile devices
US20110010631A1 (en) System and method of storing and retrieving associated information with a digital image
US7428569B1 (en) Information processing apparatus, information processing method, and provision medium
JP2003067379A (en) Processor and method for processing information, program storage medium, and program
US8209326B2 (en) Information system, method, device and method providing system for conveying predetermined information as comment data
JP4314502B2 (en) Information processing apparatus and information processing method
JP4352287B2 (en) Image processing apparatus, image processing method, and image processing program medium
JP4697819B2 (en) Information processing apparatus, information processing method, and recording medium
JP2000148797A (en) Image processor and method for image processing and image processing program storage medium
JP2000207338A (en) Device and method for processing information and distribution medium
JP2000076285A (en) Information processor, information processing method and supply medium
TW201120767A (en) Method and system for searching image and computer program product using the method
JP2000207487A (en) Device and method for information processing and providing medium
JP4273379B2 (en) Information processing apparatus and method, and recording medium
US20070284450A1 (en) Image handling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090423

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090506

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term