JP2016033831A - Overlapped annotation output - Google Patents
Overlapped annotation output Download PDFInfo
- Publication number
- JP2016033831A JP2016033831A JP2015236361A JP2015236361A JP2016033831A JP 2016033831 A JP2016033831 A JP 2016033831A JP 2015236361 A JP2015236361 A JP 2015236361A JP 2015236361 A JP2015236361 A JP 2015236361A JP 2016033831 A JP2016033831 A JP 2016033831A
- Authority
- JP
- Japan
- Prior art keywords
- output
- displaying
- display
- annotation
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
現代のコンピューティングデバイスは、複数のプログラムを同時に実行する能力を提供する。デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、携帯情報端末、および携帯電話機さえ、複数のアプリケーションを同時に実行することを可能にするマルチプロセッシング能力を有する。したがって、例示のシナリオでは、そのようなデバイスのユーザが、ビデオを再生する第1プログラムを実行し、メモなどのユーザ入力を記録する第2プログラムを同時に実行することができる。 Modern computing devices provide the ability to run multiple programs simultaneously. Desktop computers, laptop computers, tablet computers, personal digital assistants, and even cellular phones have multiprocessing capabilities that allow multiple applications to run simultaneously. Thus, in an exemplary scenario, a user of such a device can execute a first program that plays a video and simultaneously execute a second program that records user input such as notes.
たとえば、デスクトップコンピュータまたはラップトップコンピュータなどの豊富なディスプレイを有するコンピューティングデバイスは、第1アプリケーションでのビデオの表示および第2アプリケーションでのユーザ入力の記録に同時に対処することができる。しかし、相対的に小さいディスプレイを有する携帯電話機および携帯情報端末などのコンピューティングデバイスについて、2つのアプリケーションの同時ビューイングは、時々不可能ではないとしても、むずかしい。さらに、アプリケーションの性質およびこれらのアプリケーションのユーザの意図する使用に応じて、アプリケーションプログラムの間の切替は、有用な代替案ではない。たとえば、ユーザが、ビデオ電話会議であるものとすることができるビデオストリームを見ると同時に、ビデオストリームに関するメモをとることを望む場合がある。相対的に小さいディスプレイを有する携帯電話機またはPDAなどのデバイスでは、ビデオストリームを見るアプリケーションとメモをとるアプリケーションとの両方を同時に提示することが、可能ではない。さらに、2つのアプリケーションの間での切替は、ユーザが、両方のアクティビティ(ビデオを見ることとメモをとることと)に同時にかかわることを阻むが、この同時にかかわることは、技術の限界がなければ、ユーザが行うことを望むものである。 For example, a computing device having a rich display, such as a desktop or laptop computer, can simultaneously handle the display of video in a first application and the recording of user input in a second application. However, for computing devices such as mobile phones and personal digital assistants with relatively small displays, simultaneous viewing of the two applications is sometimes difficult if not impossible. Furthermore, switching between application programs is not a useful alternative, depending on the nature of the applications and the intended use of the users of these applications. For example, a user may wish to take a note about a video stream while viewing a video stream that may be a video conference call. In devices such as mobile phones or PDAs with relatively small displays, it is not possible to present both an application that watches a video stream and an application that takes notes simultaneously. In addition, switching between the two applications prevents the user from being involved in both activities (watching videos and taking notes) at the same time, but without this technical limitation. , What the user wants to do.
効果的に、第1出力を表示し、第1出力に重畳されたユーザ入力に対応する第2出力を同時に表示するシステムおよび方法に関する技術を、全般的に説明する。第1出力および第2出力がオーバーラップするディスプレイの領域内で、第2出力は、不透明であり、第1出力は、不透明の第2出力を通して可視である。第1出力および第2出力がオーバーラップしないディスプレイの領域内で、第1出力が可視である。 Techniques relating to systems and methods that effectively display a first output and simultaneously display a second output corresponding to a user input superimposed on the first output are generally described. Within the region of the display where the first output and the second output overlap, the second output is opaque and the first output is visible through the opaque second output. The first output is visible in the region of the display where the first output and the second output do not overlap.
例示的シナリオでは、第1出力を、ビデオ電話会議のビデオストリームとすることができる。第2出力は、電話会議中にユーザから受け取られる注釈またはメモを含む。注釈またはメモは、第1出力が表示されるディスプレイ上で受け取られるユーザ入力に対応することができる。ディスプレイを、たとえば接触感知ディスプレイとすることができ、ユーザ入力を、電話会議のビデオストリームがディスプレイに表示されつつある間にディスプレイ上で入力された手書きのメモまたは注釈とすることができる。したがって、ビデオ電話会議からのビデオが表示されつつある間に、オペレータは、ディスプレイ上でメモまたは注釈を記録することができ、それらユーザ入力に対応するマーキングまたは出力は、ビデオ出力に重畳して表示される。ビデオすなわち第1出力および注釈すなわち第2出力がオーバーラップするディスプレイの領域では、注釈が不透明であり、ビデオは、不透明の第2出力を通して可視である。第1出力および第2出力がオーバーラップしないディスプレイの領域では、第1出力が可視である。 In an exemplary scenario, the first output may be a video conference video stream. The second output includes annotations or notes received from the user during the conference call. The annotation or note can correspond to user input received on the display on which the first output is displayed. The display can be, for example, a touch-sensitive display, and the user input can be handwritten notes or annotations entered on the display while a video conference video stream is being displayed on the display. Thus, while the video from the video conference call is being displayed, the operator can record notes or annotations on the display, and the markings or output corresponding to those user inputs are displayed superimposed on the video output. Is done. In the area of the display where the video or first output and the annotation or second output overlap, the annotation is opaque and the video is visible through the opaque second output. In areas of the display where the first output and the second output do not overlap, the first output is visible.
開示される実施形態のもう1つの態様によれば、第1出力および第2出力を、2つの出力を同期化する情報と一緒に格納することができる。たとえば、第1出力がビデオ出力であり、第2出力がユーザの入力したメモまたは注釈を含む例のシナリオでは、ビデオと注釈との両方が、ビデオに対する相対的な、特定のメモまたは注釈が表示された時刻を記録する同期化する情報と一緒に格納される。第1出力、第2出力、および同期化情報を、後の時に取り出し、最初に表示された出力のタイミングシーケンスに従って出力を表示するのに使用することができる。たとえば、格納された第1出力がビデオであり、格納された第2出力がビデオの再生中に作られたメモまたは注釈を表す例のシナリオでは、取り出された格納されたビデオが、再生され、注釈が、オリジナルマーキングが行われた、再生中のビデオに対する相対的なタイミングを再現するのに適当なインターバルで、再生中のビデオに重畳される。 According to another aspect of the disclosed embodiment, the first output and the second output can be stored together with information that synchronizes the two outputs. For example, in an example scenario where the first output is a video output and the second output includes user-entered notes or annotations, both the video and annotations display a specific note or annotation relative to the video. Stored along with information to synchronize to record the recorded time. The first output, the second output, and the synchronization information can be retrieved at a later time and used to display the output according to the timing sequence of the initially displayed output. For example, in an example scenario where the stored first output is video and the stored second output represents notes or annotations made during video playback, the retrieved stored video is played back, Annotations are superimposed on the playing video at appropriate intervals to reproduce the relative timing for the playing video where the original marking was made.
開示される実施形態のもう1つの態様によれば、メモまたは注釈を、ユーザコマンドならびに/または表示するデバイスによって強制される(または適用される)所定のプリファレンスおよびルールに応答して、ディスプレイ上で移動し、またはディスプレイから除去することができる。たとえば、第1出力がビデオ出力であり、第2出力がユーザの入力したメモまたは注釈を含む例のシナリオでは、ユーザは、注釈またはメモをディスプレイ上で移動することを要求することができる。ユーザは、注釈をドラッグして、注釈をディスプレイの異なる部分に移動する望みを示すことができる。同様に、ユーザ入力に応答して、システムは、現在表示されている注釈をディスプレイから除去することができる。もう1つの実施形態では、デバイスは、第2出力が規定された時間期間にわたって表示された後に、第2出力をディスプレイの特定の部分に移動し、またはディスプレイから除去しなければならないと指定する事前定義のルールを含むことができる。 According to another aspect of the disclosed embodiment, notes or annotations are displayed on a display in response to user commands and / or predetermined preferences and rules that are enforced (or applied) by a device that displays them. Can be moved or removed from the display. For example, in an example scenario where the first output is a video output and the second output includes a user input note or annotation, the user may request that the annotation or note move on the display. The user can drag the annotation to indicate the desire to move the annotation to a different part of the display. Similarly, in response to user input, the system can remove the currently displayed annotation from the display. In another embodiment, the device specifies in advance that the second output should be moved to a particular portion of the display or removed from the display after the second output has been displayed for a defined time period. Definition rules can be included.
この「課題を解決するための手段」は、下の「発明を実施するための形態」でさらに説明する概念の選択物を単純化された形で導入するために提供される。この「課題を解決するための手段」は、請求される主題の主要な特徴または本質的特徴を識別することを意図されたものではなく、請求される主題の範囲を限定するのに使用されることも意図されていない。他の特徴は、下で説明される。 This “means for solving the problem” is provided to introduce in a simplified form a selection of concepts further described below in the “DETAILED DESCRIPTION”. This "means for solving the problem" is not intended to identify key or essential features of the claimed subject matter, but is used to limit the scope of the claimed subject matter. It is not intended. Other features are described below.
次の詳細な説明では、その一部を形成する添付図面を参照する。図面では、文脈がそうではないと規定しない限り、類似する記号が、通常は類似するコンポーネントを識別する。詳細な説明、図面、および特許請求の範囲で説明される例示的実施形態は、限定的であることを意図されたものではない。本明細書で提示される主題の趣旨または範囲から逸脱せずに、他の実施形態を利用することができ、他の変更を行うことができる。本明細書で全体的に説明され、図面に示された本開示の諸態様を、さまざまな異なる構成で配置し、置換し、組み合わせ、分離し、設計することができ、そのすべてが本明細書で明示的に企図されていることが、たやすく理解されるであろう。 In the following detailed description, reference is made to the accompanying drawings that form a part hereof. In the drawings, similar symbols typically identify similar components, unless context dictates otherwise. The illustrative embodiments described in the detailed description, drawings, and claims are not meant to be limiting. Other embodiments may be utilized and other changes may be made without departing from the spirit or scope of the subject matter presented herein. The aspects of the present disclosure generally described herein and illustrated in the drawings may be arranged, replaced, combined, separated, and designed in a variety of different configurations, all of which are described herein. It will be readily understood that this is explicitly contemplated.
概要
現代のコンピューティングデバイスは、複数のプログラムを同時に実行する能力を提供する。したがって、例示のシナリオでは、ユーザは、ビデオを再生する第1プログラムを実行し、メモなどのユーザ入力を記録する第2プログラムを同時に実行することができる。たとえば、デスクトップコンピュータまたはラップトップコンピュータなどの豊富なディスプレイインターフェースを有するコンピューティングデバイスは、第1アプリケーションでのビデオの表示および第2アプリケーションでのユーザ入力の記録に同時に対処することができる。しかし、相対的に限られたまたは小さいディスプレイインターフェースを有する携帯電話機および携帯情報端末などのコンピューティングデバイスについて、2つのアプリケーションの同時ビューイングは、むずかしい。
Overview Modern computing devices provide the ability to run multiple programs simultaneously. Thus, in the illustrated scenario, the user can execute a first program that plays a video and simultaneously execute a second program that records user input such as notes. For example, a computing device having a rich display interface, such as a desktop computer or laptop computer, can simultaneously handle the display of video in a first application and the recording of user input in a second application. However, for computing devices such as mobile phones and personal digital assistants with relatively limited or small display interfaces, simultaneous viewing of two applications is difficult.
効果的に、第1出力を表示し、第1出力に重畳されたユーザ入力に対応する第2出力を同時に表示するシステムおよび方法に関する技術を、全般的に開示する。第1出力および第2出力がオーバーラップするディスプレイの領域内で、第2出力は、不透明であり、第1出力は、不透明の第2出力を通して可視である。第1出力および第2出力がオーバーラップしないディスプレイの領域内で、第1出力が可視である。例示的シナリオでは、第1出力を、ビデオ電話会議のビデオ部分とすることができ、第2出力を、電話会議中にユーザから受け取られる注釈またはメモとすることができる。注釈またはメモを、第1出力が表示されるディスプレイ上で受け取ることができる。 Techniques relating to systems and methods that effectively display a first output and simultaneously display a second output corresponding to a user input superimposed on the first output are generally disclosed. Within the region of the display where the first output and the second output overlap, the second output is opaque and the first output is visible through the opaque second output. The first output is visible in the region of the display where the first output and the second output do not overlap. In an exemplary scenario, the first output can be a video portion of a video conference call and the second output can be an annotation or note received from a user during the conference call. An annotation or note can be received on the display on which the first output is displayed.
例のコンピューティング配置
図1に、本明細書で説明する主題の諸態様を実施できる例示的コンピューティング配置を示す。具体的には、図1は、本明細書で説明されるように重畳された出力を提供するようにそれぞれを適合させることができるコンピューティングデバイス110からなる例示のコンピューティング配置100を示す。デバイス110は、たとえば、デスクトップコンピュータ110a、ラップトップコンピュータ110b、電話機110c、タブレットコンピューティングデバイス110d、携帯情報端末(PDA)110e、および携帯電話機110fのいずれかを含み、これらのそれぞれを、たとえば2つの実行中のアプリケーションからの2つの出力フィードを同時に表示するように適合させることができる。例のシナリオでは、デバイス110a〜fの任意の1つが、第1アプリケーションの出力を表示し、たとえばビデオ出力を表示し、同時に、第2アプリケーションへの入力を表示し、たとえばデバイスオペレータによって入力されたメモまたは注釈を表示することができる。より具体的には、デバイス110a〜fの任意の1つを、ビデオを表示すると同時に、タッチスクリーンディスプレイ上で手書き注釈を受け取り、ディスプレイ上に注釈に対応するマーキングを表示するようにプログラムすることができる。代替のシナリオでは、デバイス110a〜fの任意の1つは、静止イメージを表示すると同時に、イメージが表示されている間にデバイスオペレータによって入力された入力を表示することができる。
Example Computing Arrangement FIG. 1 illustrates an example computing arrangement in which aspects of the subject matter described herein can be implemented. Specifically, FIG. 1 illustrates an
デバイス110のそれぞれを、通信ネットワーク150と通信するように適合させることができる。通信ネットワーク150は、コンピューティングデバイス110a〜fとデバイス110a〜fによってアクセスされる任意のサーバとの間の通信を提供するのに適する任意のタイプのネットワークとすることができる。通信ネットワーク150は、異なる技術を使用することができる別個のネットワークの組合せを含むことができる。たとえば、通信ネットワーク150は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、セルラネットワーク、またはその組合せを含むことができる。通信ネットワーク150は、無線、有線、またはその組合せを含むことができる。例の実施形態では、通信ネットワーク150は、インターネットを含み、さらに、インターネットと通信するように適合された任意のネットワークを含むことができる。通信ネットワーク150は、デバイス110の間でビデオ、オーディオ、および他のデータを通信するように適合された無線テレフォニネットワークを含むことができる。特定のシナリオでは、テレフォニネットワークは、デバイス110の間でビデオ電話会議を通信するように適合される。
Each of the devices 110 can be adapted to communicate with the
図2に、例示的なディスプレイ装置200を示す。ディスプレイ装置200を、図1に示されたデバイスのいずれかでディスプレイコンポーネントとして使用することができるが、ディスプレイ装置200のサイズは、それがその一部である特定のシステムに依存して変化する可能性がある。たとえば、ディスプレイ装置200が、デスクトップシステム110aに含まれる場合には、ディスプレイ装置200は、ディスプレイ装置200が電話機110fまたはPDA 110eに含まれる状況より大きくなる可能性が高い。ディスプレイ装置200を、出力を電子的に表示するのに適する任意のデバイスとすることができ、たとえばビデオ、静止イメージ、テキスト、グラフィックス、ならびに電子的に表現できる任意の他のタイプの出力を表示するように適合させることができる。例示の実施形態では、ディスプレイ装置200は、たとえば接触感知スクリーン202などの入力デバイスをも含むことができる。例示の実施形態では、接触感知スクリーン202は、その表面上で入力を受け取り、ディスプレイ装置200上で入力の位置に対応する位置に電子マーキングを生成するように適合される。たとえば、ユーザは、彼/彼女の指および手ならびに/またはスタイラスなどのポインティングデバイスを接触感知スクリーン202上で使用して、入力することができ、この入力は、ディスプレイ装置200上で入力に対応する位置に表示される電子マーキングによって反映される。
An
図3に、その上に第1出力310を表示された例示的なディスプレイ装置200を示す。図3の例示的実施形態では、第1出力310は、人の顔を表す。例示のシナリオでは、第1出力310を、ビデオイメージとすることができ、たとえば、ビデオ電話会議のビデオストリームとすることができる。図3に示された例では、第1出力310が、人の肖像を示し、ビデオ出力を表すが、第1出力310は、任意のタイプの画像を表すことができ、たとえば、静止イメージ、グラフィックス、および/またはテキストを含む任意のタイプのコンテンツとすることができる。さらに、第1出力310を、ディスプレイ装置200上で提示される任意の出力とすることができる。
FIG. 3 shows an
図4に、その上に第2出力410を表示された例示的なディスプレイ装置200を示す。図4の例示的実施形態では、第2出力410がテキストである。例示のシナリオでは、第2出力410を、ユーザ入力に対応するテキストとすることができる。より具体的には、第2出力410は、接触感知スクリーン202上で受け取られたか、たとえばキーボードまたはコンピュータによる音声認識などの他の入力手段を介して入力されたユーザ入力に対応するテキストを含むことができる。図4に示された例では、第2出力410がテキストを示すが、第2出力410は、たとえばビデオ、静止イメージ、グラフィックス、および/またはテキストを含む任意のタイプのコンテンツを表すことができる。
FIG. 4 illustrates an
したがって、図3および図4に示されているように、ディスプレイ装置200は、例示の実施形態で電話会議のビデオフィードとすることができる第1出力310と、例示の実施形態でユーザ入力に対応するテキストまたは注釈とすることができる第2出力410とを表示するように適合される。たとえば、携帯電話機110fおよびPDA 110eなどのデバイスについて、ディスプレイ装置200は、第1出力310と第2出力410との両方の同時表示に対処するのに十分に大きくはない可能性が高い。さらに、ディスプレイ装置200に表示される2つの出力の間での切替は、ユーザが同時に複数のアクティビティにかかわるのを阻むので、決して有利ではない。
Thus, as shown in FIGS. 3 and 4, the
例示的実施形態では、デバイス110a〜fのうちの任意の1つが、2つの出力を重畳するように適合されたディスプレイ装置200を含むことができる。図5に、その上に2つの出力を同時に表示された例示的なディスプレイ装置200を示す。図示されているように、第1出力310が表示され、第2出力410は、第1出力310の上に重畳して表示される。第2出力410が第1出力310にオーバーラップするディスプレイ装置200の領域内では、第2出力310は、不透明であるが、第1出力310は、第2出力410の背後で可視である。第1出力310が第2出力410によってオーバーラップされない領域では、第1出力310は、はっきりと可視である。第2出力410は、第2出力410の下で第1出力310が見えることを可能にするレベルの透明度を有することができる。第2出力410の不透明さのレベルを、変更し、これによって、2つの出力がオーバーラップする部分での第1出力310の可視性を高め、または下げることができる。さらに、第1出力310を可視にすることを可能にしながらよりよくまたはより少なく識別できるようにするために、第2出力410を、特定のカラーリング方式を用いて表示することができる。第2出力410が、接触感知スクリーン202上で入力されたユーザ入力に対応するシナリオでは、第2出力410を、それがその上に表示される背景に対して相対的に目立つ特定の灰色を使用して表示することができる。代替実施形態では、第2出力410の色を、第2出力410をよりよくまたはより少なく識別できるようにするために、赤、黄色、黒、または応用例に適する任意の他の色とすることができる。
In the exemplary embodiment, any one of
第1出力310を、たとえばビデオ、静止イメージ、グラフィックス、テキスト、その他を含む任意のタイプのデータとすることができる。例のシナリオでは、第1出力310を、ビデオストリーム、より具体的にはオーディオ/ビデオ電話会議のビデオストリーム部分とすることができる。第2出力410を、ビデオストリームを見ている間に受け取られたユーザ入力に対応する出力とすることができる。ユーザ入力を、任意の適切な手段によって受け取ることができる。例のシナリオでは、ユーザ入力を、接触感知スクリーン202上で受け取ることができる。そのようなシナリオでは、ディスプレイ装置200のユーザは、第1出力310を見ると同時に、接触感知スクリーン202上でメモまたは注釈を入力することができる。受け取られたユーザ入力に対応する第2出力410は、第1出力310に重畳される。ユーザは、第1出力310を見ると同時に、第1出力310によって引き起こされ得るメモおよび注釈すなわち第2出力410を取り込み、表示することができる。第1出力310が電話会議のビデオストリームであるシナリオでは、電話に参加する人は、電話に参加し続け、ビデオを見ると同時に、接触感知スクリーン202上でメモまたは注釈を記録することもできる。このシナリオでは、第1出力310は、第2出力410がその上に重畳される場合であっても、可視であり、識別できる状態であり続ける。手書き注釈を同時に提示しながらディスプレイ装置200上でのビデオの表示の組合せは、メモを記録できるガラスセパレータの向こうの人と話しているという感覚を生じる。
The
図6に、重畳されたディスプレイ出力を提供するように適合された例示的なコンピューティングデバイス110上に含まれる例の論理コンポーネントのブロック図を示す。論理コンポーネントを、たとえば、デスクトップ110a、ラップトップ110b、電話機110c、タブレットコンピューティングデバイス110d、PDA 110e、および携帯電話機110fを含む任意のタイプのコンピューティングデバイス上に含めることができる。例の実施形態では、例示的なデバイス110は、ディスプレイ装置200上での表示のためにデータを受け取るように動作する受取データ制御ロジック610を含むことができる。たとえば、受取データ制御ロジック610を、ビデオストリームまたはたとえば静止イメージ、テキスト、および/もしくはグラフィックスを含む任意のタイプのデータの受取を調整するように適合させることができる。
FIG. 6 illustrates a block diagram of example logical components included on an exemplary computing device 110 adapted to provide a superimposed display output. The logical components can be included on any type of computing device including, for example,
例の実施形態では、例示的なデバイス110は、さらに、たとえば接触感知スクリーン、キーボード、その他から受け取られたユーザ入力を制御するように動作するユーザインターフェース入力制御ロジック612を含むことができる。デバイス110が、静止イメージまたはビデオ会議のビデオストリームを表示するように適合される例のシナリオでは、ユーザインターフェース入力制御ロジック612を、接触感知スクリーン202から入力を受け取るように適合させることができる。ユーザインターフェース入力制御ロジック612を、たとえば、ビデオ、イメージ、静止イメージ、テキスト、およびグラフィックスを含む任意のタイプのユーザ入力を受け取るように適合させることができる。同様に、ユーザインターフェース入力ロジック612を、たとえば接触感知スクリーンまたはディスプレイ、物理キーボード、仮想キーボード、ポインティングマウス、コンピュータによる音声認識システム、その他を含む任意の適切な入力デバイスからの入力を制御するように適合させることができる。ユーザインターフェース入力ロジック612および受取データ制御ロジック610を、同一のまたは別々のソフトウェアアプリケーション内に含めることができる。
In an example embodiment, exemplary device 110 may further include user interface
出力制御ロジック614は、デバイス出力を制御するように適合される。たとえば、出力制御ロジック614は、ディスプレイ装置200上の第1出力310の表示および第2出力410の第一出力310への重畳を可能にすることができる。例のシナリオでは、出力制御ロジック614を、ビデオ会議のビデオストリームと、ビデオストリームに重畳されたユーザ入力に対応する注釈とを表示するように適合させることができる。もう1つの例のシナリオでは、出力制御ロジック614を、静止イメージと、接触感知スクリーン202から受け取られた注釈とを表示するように適合させることができる。出力制御ロジック614を、受取データ制御ロジック610およびユーザインターフェース入力制御ロジック612と共通のプログラムアプリケーション内に含めることができるが、その代わりに、受取データ制御ロジック610およびユーザインターフェース入力制御ロジック612を含む1つまたは複数のアプリケーションとは別々とすることができる。
出力制御ロジック614を、第1出力310および第2出力410がディスプレイ装置200に表示される間にこの2つの出力の完全性(integrity)を維持するように適合させることができる。言い替えると、第2出力410の明瞭さは、第2出力410が第1出力310に重畳されている間に第1出力310に対して変更が行われる可能性がある場合であっても、維持される。たとえば、第1出力310が、その性質によって経時的に変化するビデオ出力を含む場合に、第2出力410の明瞭さおよび鮮明度は、第1出力310に含まれるビデオストリーム内の連続する変化によって影響されない。出力制御ロジック614は、表示の前に出力310および410に対応するデータをバッファリングし、第1出力310のバッファリングされたデータの上に第2出力410のバッファリングされたデータをマッピングすることができる。たとえば、出力制御ロジック614は、第2出力410および第1出力310のデータを、ディスプレイ装置220上の画素位置にマッピングすることができる。マッピングは、別々の出力310および410の完全性の制御を可能にする。その後、出力制御ロジック614は、表示のために、第1出力310データ上にマッピングされた第2出力410データを通信することができる。
The
受取データストア616は、ディスプレイ装置200上で受け取られ、表示されるデータを格納するロジックおよびコンピューティングメモリを含む。たとえば、受取データストア616は、第1出力310のコピーを格納する。デバイス110が、ビデオ会議のビデオストリームを受け取るように適合される例示のシナリオでは、ビデオストリームおよび対応するオーディオストリームを、受取データストア616内に格納することができる。
Receive
ユーザ入力データストア618は、ユーザ入力に対応するデータおよびそれに対応する出力を格納するロジックおよびコンピューティングメモリを含む。たとえば、ユーザ入力が接触感知スクリーン202上で受け取られる例示のシナリオでは、入力に対応するデータならびにディスプレイ装置200上で生成された対応する出力が、ユーザ入力データストア618に格納される。また、ユーザ入力データおよび対応する出力を、たとえばビデオ出力などの任意の他の出力と同期化するのに使用できる任意のデータを、ユーザ入力データストア618に格納することができる。たとえば、ビデオの表示に対する相対的な、入力の受取および対応する出力の生成のタイミングに関する情報を記録することができる。タイミング情報を、オリジナル表示のタイミングインターバルと一致する2つの出力の表示の同期化に適する任意のタイプの情報とすることができる。タイミング情報は、絶対タイミング情報を含むことができ、あるいは、第1出力の再生時間に対する相対的なタイミング情報とすることができる。たとえば、タイミング情報は、特定の第2出力が、対応する第1出力の再生時間の3分目に表示されたことを指定することができる。
User
同期化制御ロジック614は、格納されたデータの同期化された表示を制御するように適合される。たとえば、データストア616を表示する要求に応答して、同期化制御ロジックは、出力制御ロジック614に2つの出力ストリームのオリジナル表示のタイミングと一致して格納されたデータを表示させるために、ストア616および618からデータを取り出し、ストア618に格納された同期化情報を使用するように適合される。たとえば、接触感知スクリーン202上で受け取られたユーザ入力に対応する出力がディスプレイ装置200上で提示されるビデオストリームに重畳して表示される例示のシナリオでは、同期化制御ロジック614を、2つの出力が最初に表示された時に適用されたタイミングおよびシーケンスと一致する形でデータストア616および618からの対応する格納されたデータを提示するように適合させることができる。
The
重畳された出力処理
図7は、第1出力310に重畳された第2出力410を提示する例示のプロセスの流れ図である。例示のプロセスを、たとえばデバイス110a〜fのいずれかを含む任意の適切なデバイス上で実施することができる。例示のプロセスは、ブロック710、712、および/または714のうちの1つまたは複数によって示されるように、1つまたは複数の動作、アクション、または機能を含むことができる。さらに、本明細書で説明する上記および他のプロセスおよび/または方法について、別個のブロックとして図示されるが、所望の実施態様に応じて、さまざまなブロックを、追加のブロックに分割し、より少数のブロックに組み合わせ、または除去することができる。処理を、ブロック710で開始することができる。
Overlapped Output Processing FIG. 7 is a flowchart of an exemplary process for presenting a
ブロック710(第1出力を提供する)では、第1出力310を、ディスプレイ装置200上で表示する。第1出力310は、ディスプレイ装置200上での表示に適切な任意の出力とすることができる。たとえば、第1出力310を、ビデオ、イメージ、静止イメージ、テキスト、グラフィックス、または任意の他の出力タイプとすることができる。1つの例示のシナリオでは、第1出力310は、電話会議のビデオストリームを含むことができる。ビデオの表示と同時に、ビデオに対応するオーディオを、デバイス110のスピーカコンポーネントによって出力することができる。処理は、ブロック710からブロック712に継続することができる。
At block 710 (providing a first output), the
ブロック712(入力を受け取る)では、ユーザ入力をデバイス110で受け取る。入力を、デバイス110上での受取に適切なすべてのものとすることができ、たとえばタッチ入力、機械的入力、および/またはオーディオ入力を含むことができる。さらに、入力を、たとえば接触感知スクリーン、物理キーボード、仮想キーボード、マウス、音声認識ソフトウェアを伴うマイクロホン、その他を含む任意の適切な入力デバイスを介して受け取ることができる。例のシナリオでは、入力は、第1出力310がディスプレイ装置200上に表示されている間に接触感知スクリーン202上で受け取られる。より具体的には、ビデオ電話会議ストリームとすることができるビデオストリームがディスプレイ装置200上に表示されている間に、手書き入力を、接触感知スクリーン202上で受け取ることができる。処理は、ブロック712からブロック714に継続することができる。
At block 712 (receive input), user input is received at the device 110. The input can be anything suitable for receipt on the device 110 and can include, for example, touch input, mechanical input, and / or audio input. Further, input can be received via any suitable input device including, for example, touch sensitive screens, physical keyboards, virtual keyboards, mice, microphones with voice recognition software, and the like. In the example scenario, the input is received on the touch
ブロック714(第1出力に重畳して第2出力を提供する)では、ブロック712で受け取られたユーザ入力に対応する第2出力410を、ディスプレイ装置200上で表示する。第2出力410は、第1出力310と同時に表示され、これに重畳される。第1出力310および第2出力410がオーバーラップするディスプレイ装置220の領域では、第2出力410は、不透明であり、第1出力310は、不透明の第2出力410を通して可視である。第2出力410を、第1出力310がディスプレイ装置200上で可視にすることができるように、少なくとも部分的に透明にすることができる。第1出力310および第2出力410がオーバーラップしないディスプレイ装置200の領域では、第1出力310は、可視である。
At block 714 (providing a second output superimposed on the first output), a
第2出力410が第1出力310にオーバーラップするディスプレイ装置200の領域では、不透明の度合またはレベルおよび反対に透明度のレベルが、デバイスオペレータのプリファレンスに依存して変化することができる。したがって、不透明のレベルは、非常に不透明から非常に透明まで変化することができる。同様に、第1出力310が、2つの出力がオーバーラップする領域内で第2出力410によって部分的に隠されるか暗くされる度合は、大きくからごくわずかまで変化することができる。実際に、いくつかの実施形態では、第1出力310をほぼ完全に隠すことができ、他の実施形態では、第1出力310はごくわずかに隠される。
In the area of the
ブロック712で、第1出力310が表示されている間に、メモまたは注釈がデバイス110への入力として受け取られる例示のシナリオでは、ブロック714で、入力に対応するマーキング、注釈、および/またはメモが、ディスプレイ装置200上で、入力に対応する位置に表示される。より具体的には、手書きの注釈またはメモが、接触感知スクリーン202上でユーザによって受け取られる場合に、対応する注釈が、ディスプレイ装置200上で第1出力310に重畳して表示され、この第1出力310は、たとえばオーディオ/ビデオ会議のビデオ出力とすることができる。代替実施形態では、注釈は、物理キーボードまたは仮想キーボード上で作られ、対応するメモまたは注釈が、ディスプレイ装置200上で第1出力310に重畳して表示される。もう1つの実施形態では、ユーザ入力は、コンピュータによる音声認識を介して入力され、対応する出力が、ディスプレイ装置200上で第1出力310に重畳して表示される。
In an exemplary scenario where a note or annotation is received as input to the device 110 while the
例示のシナリオでは、デバイス110は、第1出力310および第2出力410がディスプレイ装置200上で表示される間に、この2つの出力の完全性を維持するように動作する。言い替えると、第2出力410の明瞭さは、第2出力410が第1出力310に重畳されている間に、第1出力310に対して変更が行われる可能性がある場合であっても、維持される。同様に、第1出力310の明瞭さおよび完全性は、第2出力410が第1出力310に重畳されている間に、第2出力410に対して変更が行われる可能性がある場合であっても、維持される。例示のシナリオでは、第1出力310は、ビデオ出力を含む。その性質により、ビデオ出力は、動きを描写するために経時的に変化する。第2出力410の明瞭さおよび鮮明度は、第1出力310に含まれるビデオストリーム内の連続する変化によって影響されない。同様に、第2出力410が、たとえば連続する手書きメモが受け取られる時など、経時的に変化するシナリオでは、第1出力310の明瞭さが維持される。
In the illustrated scenario, device 110 operates to maintain the integrity of the two outputs while
ブロック714での出力の提供に関連して、デバイス110は、任意の適切な形で出力310および410の完全性および明瞭さを維持することができる。例示の実施形態では、ディスプレイ装置220は、ディスプレイデバイスの通常の動作と一致し、提示されるデータを継続的にリフレッシュする。例示のシナリオでは、デバイス110は、表示の前に、出力310および410に対応するデータをバッファリングすることができる。デバイス110、具体的には出力制御614ロジックは、第1出力310のバッファリングされたデータ内にまたはその上に第2出力410のバッファリングされたデータをマッピングすることができる。たとえば、出力制御ロジック614は、第2出力410および第1出力310のデータを、ディスプレイ装置220上の画素位置にマッピングすることができる。バッファリングおよびマッピングは、別々の出力310および410の完全性の制御を可能にする。その後、第1出力310データ上にマッピングされた第2出力410データを含むデータが、ディスプレイ装置220によって表示される。表示の前にデータをバッファリングし、マッピングするロジックを、たとえば、ディスプレイ装置220上の画素表示を制御するグラフィックスコントローラおよびまたはディスプレイコントローラによって実施することができる。
In connection with providing the output at
潜在的な実施形態のもう1つの態様によれば、第1出力310および第2出力410を、格納し、その後に取り出し、表示することができる。出力を、別々に独立に取り出し、表示することができる。しかし、出力を、同時に取り出し、表示することもでき、出力は、同期化され、出力が最初に表示された時に使用されたものと同一の相対タイミングで表示される。図8は、第1出力310および第2出力410を格納し、取り出す、例示のプロセスの流れ図である。例のプロセスは、ブロック810、812、814、および/または816のうちの1つまたは複数によって示されるように、1つまたは複数の動作、アクション、または機能を含むことができる。処理を、ブロック810で開始することができる。
According to another aspect of a potential embodiment, the
ブロック810(第1出力を格納する)では、第1出力310を、たとえばデータベースストア616に格納する。たとえば、第1出力310が、ビデオ電話会議の出力である例のシナリオでは、ビデオストリーム、およびいくつかのシナリオではオーディオストリームが、データベースストア616に格納される。処理は、ブロック810から812に継続することができる。
At block 810 (store the first output), the
ブロック812(第2出力を格納する)では、第2出力410および対応するユーザ入力が、たとえばデータベースストア618に格納されまたは記録される。たとえば、ユーザ入力が、ディスプレイ装置200上でメモまたは注釈として受け取られ、表示される例示のシナリオでは、ブロック812で、これらの注釈が、データベースストア618に格納される。処理は、ブロック812からブロック814に継続することができる。
At block 812 (store the second output), the
ブロック814(同期化する情報を格納する)では、第2出力410を第1出力310に同期化する情報を格納する。たとえば、同期化情報を、ユーザ入力データストア618に格納することができる。格納される同期化情報を、第1出力310に対する相対的な第2出力410の時間的配置を記録し、再現するのに有用な任意のデータとすることができる。言い替えると、第2出力410が第1出力310に対して相対的にいつ表示されたのかを示すデータを、記録することができる。第1出力310が、オーディオ/ビデオ会議のビデオストリームであり、第2出力410が、ユーザ入力に対応する注釈またはメモを含む例示のシナリオでは、同期化情報は、さまざまな第2出力410が表示された、第1出力310の再生時間に対する相対的な時刻を取り込む。たとえば、第2出力410が、ビデオストリームを含む第1出力310の表示の30秒目に表示された場合に、同期化情報は、第2出力410がビデオストリームの30秒目に表示されたことを記録する情報を含む。第1出力310のオーディオ部分が記録される実施形態では、オーディオを第2出力410に同期化する情報を記録することもできる。処理は、ブロック814から816に継続することができる。
Block 814 (stores information to be synchronized) stores information for synchronizing the
ブロック816(格納された第1出力および/または第2出力を取り出し、出力する)では、第1出力310の格納されたデータおよび/または第2出力410の格納されたデータを、取り出し、表示することができる。たとえば、格納された第1出力310が、ビデオストリームおよびオーディオストリームを含み、格納された第2出力410が、ビデオストリームに対して作られ、これに重畳された注釈を含む場合に、ブロック816では、格納された情報をメモリから取り出し、表示することができる。前に言及したように、第2出力410および第1出力310は、同期化され、その結果、第2出力410は、第1出力310および第2出力410が最初に表示された時の表示の相対タイミングと一致する、第1出力310に対する相対的な適当な時刻に表示される。例示の実施形態では、格納された第1出力310は、ビデオおよびオーディオを含むことができ、格納された第2出力410は、注釈を含むことができる。すべてを、メモリから取り出し、格納された同期化情報に合うように出力することができる。もう1つのシナリオでは、格納された出力のうちの1つのみまたは一部を再生することができる。たとえば、メモまたは注釈を含むことができる第2出力410を、第1出力310とは別々に表示することができる。もう1つの例示のシナリオでは、第1出力310のオーディオ部分が再生されている間に、第2出力410を取り出し、表示することができる。そのようなシナリオでは、注釈またはメモは、オーディオストリームに対する相対的なメモまたは注釈の時間的配置と一致するように、オーディオ再生と同期化されて表示される。
At block 816 (retrieving and outputting the stored first output and / or second output), the stored data of the
開示される実施形態のもう1つの態様によれば、第2出力410を、ディスプレイ装置200上で移動し、かつ/またはこれから除去することができる。そのような機能性は、ディスプレイ装置200が相対的に小さく、第2出力410がディスプレイ装置200のあまりに多くまたは特定の部分をカバーする場合に、特に有用である可能性がある。第2出力410を、より少なく隠すようにディスプレイ装置200上で移動することができる。その代わりにまたはそれに加えて、第2出力410を、ディスプレイ装置200から除去することができる。
According to another aspect of the disclosed embodiment, the
図9は、ディスプレイ装置上で第2出力を移動し、かつ/またはディスプレイ装置から第2出力を除去する、例のプロセスの流れ図である。例のプロセスは、ブロック910および/または912のうちの1つまたは複数によって示されるように、1つまたは複数の動作、アクション、または機能を含むことができる。処理を、ブロック910で開始することができる。
FIG. 9 is a flow diagram of an example process for moving a second output on a display device and / or removing a second output from the display device. An example process may include one or more operations, actions, or functions, as indicated by one or more of
ブロック910(第2出力のすべてまたは一部を移動する)では、第2出力410のすべてまたは一部を、ディスプレイ装置200上で移動することができる。たとえば、第2出力410を、第1出力310とのより少ない量のオーバーラップを有するように移動することができる。したがって、例示の実施形態では、第2出力410を、ユーザ入力に応答してディスプレイ装置200上で移動することができる。たとえば、第2出力410を、第2出力410上でのマウスカーソルドラッグに応答して移動することができる。例示の実施形態では、第2出力410を、規定された時間期間の後にデバイス110によって自動的に移動することができる。たとえば、第2出力410を、第2出力410が5分にわたって表示された後に、たとえば最下部など、ディスプレイ装置200の特定の部分にデバイス110によって自動的に移動することができる。処理は、ブロック910から912に継続することができる。
In block 910 (moving all or part of the second output), all or part of the
ブロック912(第2出力のすべてまたは一部を除去する)では、第2出力410のすべてまたは一部を、ディスプレイ装置200から除去することができる。たとえば、第2出力410を、ユーザ入力に応答して、またはデバイス110によって実施されるか適用されるルールまたは要件に応答して、除去することができる。例示のシナリオでは、第2出力410を、ユーザ入力に応答してディスプレイ装置200から除去することができる。たとえば、ユーザは、追加のメモまたは注釈のための余地を作るために、ディスプレイ装置200上に表示されるメモまたは注釈のすべてまたは一部をクリアすることを選択することができる。例の実施形態では、デバイス110は、規定された時間期間が満了した後に、ユーザ入力に対応する出力を除去しなければならないことを指定するルールを含むことができる。たとえば、出力が、10分にわたって表示された後に、デバイス110は、ディスプレイ装置200を除去することができる。
In block 912 (removing all or part of the second output), all or part of the
例示のコンピューティング環境
図10に、本明細書で説明されるシステムおよび方法を実施するのに使用できる例示のコンピューティングシステム1000のブロック図を示す。たとえば、コンピューティングシステム1000を使用して、デバイス110a〜fのいずれをも実施することができる。コンピューティングシステム1000を、主に、ソフトウェアの形とすることができるコンピュータ可読命令によって制御することができる。たとえば、コンピューティングシステム1000を、本明細書で説明するものと一致する機能性を実行する命令を含むコンピューティングアプリケーション1080によって制御することができる。コンピュータ可読命令は、コンピューティングシステム1000がコンピュータ可読命令自体を格納し、これにアクセスするための命令を含むことができる。そのようなソフトウェアを、中央処理装置(CPU)1010内で実行して、コンピューティングシステム1000にプロセスまたはこれに関連する機能を実行させることができる。多くの既知のコンピュータサーバ、ワークステーション、パーソナルコンピュータ、または類似物では、CPU 1010を、マイクロプロセッサと呼ばれるマイクロ電子チップCPUによって実施することができる。
Exemplary Computing Environment FIG. 10 illustrates a block diagram of an
動作時に、CPU 1010は、命令をフェッチし、復号し、かつ/または実行することができ、主データ転送経路またはシステムバス1005を介して他のリソースへおよびこれから情報を転送することができる。そのようなシステムバスは、コンピューティングシステム1000内のコンポーネントを接続することができ、データ交換の媒体を定義することができる。コンピューティングシステム1000は、さらに、システムバス1005に結合されたメモリデバイスを含むことができる。例の実施形態によれば、メモリデバイスは、ランダムアクセスメモリ(RAM)1025および読取り専用メモリ(ROM)1030を含むことができる。RAM 1025およびROM 1030は、情報を格納し、取り出すことを可能にする回路網を含むことができる。一実施形態では、ROM 1030は、変更できない格納されたデータを含むことができる。さらに、RAM 1025に格納されたデータを、通常、CPU 1010または他のハードウェアデバイスによって読み取るか変更することができる。RAM 1025および/またはROM 1030へのアクセスを、メモリコントローラ1020によって制御することができる。メモリコントローラ1020は、命令が実行される時に仮想アドレスを物理アドレスに変換するアドレス変換機能を提供することができる。
In operation, the
さらに、コンピューティングシステム1000は、CPU 1010から接触感知入力1040、キーボード1045、マウス1050、およびオーディオ入出力デバイス1055などの周辺機器へ命令を通信する責任を負うことができる周辺コントローラ1035を含むことができる。コンピューティングシステム1000は、さらに、ディスプレイコントローラ1063によって制御できるディスプレイ1065を含むことができる。ディスプレイ1065を使用して、コンピューティングシステム1000によって生成されたビジュアル出力を表示することができ、ディスプレイ1065は、本明細書で議論したディスプレイ装置200に対応することができる。そのようなビジュアル出力は、テキスト、グラフィックス、アニメーション付きグラフィックス、ビデオ、または類似物を含むことができる。ディスプレイコントローラ1063は、ディスプレイ1065に送ることができるビデオ信号を生成する電子コンポーネントを含むことができる。さらに、コンピューティングシステム1000は、図1に関連して上で説明した、ネットワーク150などの外部通信ネットワークにコンピューティングシステム2000を接続するのに使用できるネットワークアダプタ1070を含むことができる。
Further,
したがって、本出願人は、ユーザインターフェース処理を実行するシステムおよび方法の例の実施形態を開示した。本出願人は、第1出力を表示し、同時に、第1出力に重畳されてユーザ入力に対応する第2出力を表示するシステムおよび方法を開示する。第1出力および第2出力がオーバーラップするディスプレイの領域では、第2出力は不透明であり、第1出力は、不透明の第2出力を通して可視である。第1出力および第2出力がオーバーラップしないディスプレイの領域では、第1出力が可視である。 Accordingly, Applicants have disclosed exemplary embodiments of systems and methods for performing user interface processing. Applicants disclose a system and method for displaying a first output and simultaneously displaying a second output superimposed on the first output and corresponding to a user input. In the region of the display where the first output and the second output overlap, the second output is opaque and the first output is visible through the opaque second output. In areas of the display where the first output and the second output do not overlap, the first output is visible.
本明細書で説明するさまざまな技法を、ハードウェアもしくはソフトウェアに関連して、または、適当な場合にこの両方の組合せに関連して実施できることを理解されたい。したがって、本明細書で説明される主題の方法もしくは装置、またはそのある態様もしくは部分が、フロッピ(登録商標)ディスケット、CD−ROM、ハードドライブ、または任意の他の機械可読記憶媒体などの有形の媒体内で実施されるプログラムコード(すなわち、命令)の形をとることができ、プログラムコードがコンピュータなどの機械にロードされ、その機械によって実行される時に、その機械が、本明細書で説明される主題を実践する装置になる。プログラムコードが媒体に格納される場合に、当該のプログラムコードが、当該のアクションを集合的に実行する1つまたは複数の媒体に格納される、すなわち、一緒に扱われる1つまたは複数の媒体が、アクションを実行するコードを含むが、複数の媒体がある場合に、コードの特定の部分が特定の媒体に格納されるという要件がない場合がある。プログラム可能コンピュータでのプログラムコード実行の場合に、コンピューティングデバイスは、一般に、プロセッサ、プロセッサによって読取可能な記憶媒体(揮発性および不揮発性のメモリおよび/または記憶要素を含む)、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスを含む。1つまたは複数のプログラムは、たとえばAPI、再利用可能コントロール、または類似物の使用を介して、本明細書で説明される主題に関連して説明されたプロセスを実施するか利用することができる。そのようなプログラムは、コンピュータシステムと通信するために、好ましくは高水準の手続き指向プログラミング言語またはオブジェクト指向プログラミング言語で実施される。しかし、プログラム(1つまたは複数)を、望まれる場合にアセンブリ言語または機械語で実施することができる。どの場合でも、言語は、コンパイルされる言語または解釈される言語とすることができ、ハードウェア実施態様と組み合わせることができる。 It should be understood that the various techniques described herein may be implemented in connection with hardware or software or, where appropriate, with a combination of both. Accordingly, a subject method or apparatus described herein, or some aspect or portion thereof, is tangible, such as a floppy diskette, CD-ROM, hard drive, or any other machine-readable storage medium. It can take the form of program code (ie, instructions) implemented in a medium, which is described herein when the program code is loaded into and executed by a machine, such as a computer. It becomes a device to practice the subject. When program code is stored on a medium, the program code is stored on one or more media that collectively perform the action, i.e., one or more media that are handled together , Including code to perform an action, but there may be no requirement that a particular portion of code be stored on a particular medium when there are multiple media. In the case of program code execution in a programmable computer, the computing device is typically a processor, a processor-readable storage medium (including volatile and non-volatile memory and / or storage elements), at least one input device , And at least one output device. One or more programs may implement or utilize the processes described in connection with the subject matter described herein, for example, through the use of APIs, reusable controls, or the like. . Such a program is preferably implemented in a high level procedural or object oriented programming language to communicate with a computer system. However, the program (s) can be implemented in assembly language or machine language if desired. In any case, the language can be a compiled or interpreted language and can be combined with a hardware implementation.
例の実施形態が、1つまたは複数の独立型のコンピュータシステムまたはデバイスの文脈で本明細書で説明される主題の態様の利用に言及する場合があるが、本明細書で説明される主題は、そのように限定されるのではなく、ネットワークコンピューティング環境または分散コンピューティング環境などの任意のコンピューティング環境に関連して実施され得る。さらに、本明細書で説明される主題の諸態様を、複数の処理チップまたはデバイス内でまたはこれにまたがって実施することができ、ストレージを、同様に、複数のデバイスにまたがって拡散させることができる。そのようなデバイスは、パーソナルコンピュータ、ネットワークサーバ、ハンドヘルドデバイス、スーパーコンピュータ、または自動車もしくは航空機などの他のシステムに一体化されたコンピュータを含むことができる。 Although example embodiments may refer to the use of aspects of the subject matter described herein in the context of one or more stand-alone computer systems or devices, the subject matter described herein is It can be implemented in connection with any computing environment, such as, but not limited to, a network computing environment or a distributed computing environment. Moreover, aspects of the subject matter described in this specification can be implemented in or across multiple processing chips or devices, and storage can be spread across multiple devices as well. it can. Such devices can include personal computers, network servers, handheld devices, supercomputers, or computers integrated into other systems such as cars or aircraft.
主題を、構造的特徴および/または方法論的行為に固有の言語で説明したが、添付の特許請求の範囲で定義される主題が、必ずしも上で説明した特定の特徴または行為に限定されないことを理解されたい。たとえば、オーディオ/ビデオ電話会議のビデオ部分の表示と、接触感知スクリーンまたはディスプレイから受け取られる注釈の重畳とを用いる例示のシナリオを説明した。しかし、本明細書で説明される方法およびシステムを、出力タイプの任意の組合せに適用することができる。たとえば、第1出力を、電話会議の一部ではないビデオストリームとすることができる。第1出力を、静止イメージとすることができる。第2出力を、接触感知スクリーンではなくキーボードを介して入力することができる。上で説明された特定の特徴および行為は、下にリストされた請求項の主題を実施する例の形態として開示される。 Although the subject matter has been described in language specific to structural features and / or methodological acts, it is understood that the subject matter defined in the appended claims is not necessarily limited to the specific features or acts described above. I want to be. For example, an exemplary scenario has been described that uses the display of the video portion of an audio / video conference call and the overlay of annotations received from a touch-sensitive screen or display. However, the methods and systems described herein can be applied to any combination of output types. For example, the first output can be a video stream that is not part of a conference call. The first output can be a still image. The second output can be input via a keyboard rather than a touch sensitive screen. Certain features and acts described above are disclosed as example forms of implementing the claimed subject matter listed below.
さまざまな態様および実施形態を本明細書で開示したが、他の態様および実施形態が、当業者には明白であろう。本明細書で開示されたさまざまな態様および実施形態は、例示のためのものであって、限定的であることは意図されておらず、真の趣旨および範囲は、次の特許請求の範囲によって示される。 While various aspects and embodiments have been disclosed herein, other aspects and embodiments will be apparent to those skilled in the art. The various aspects and embodiments disclosed herein are for purposes of illustration and are not intended to be limiting, with the true spirit and scope being determined by the following claims. Indicated.
Claims (143)
前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することであって、前記第2出力は、ユーザ入力に対応する、表示することと
を含み、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第2出力は、不透明であり、前記第1出力は、前記不透明の第2出力を通して可視であり、
前記第1出力および前記第2出力がオーバーラップしない前記ディスプレイの領域内で、前記第1出力は、可視である
ユーザインターフェース処理の方法。 Displaying the first output on the display;
Displaying a second output superimposed on the first output on the display, the second output corresponding to a user input and displaying, wherein the first output and the second Within the region of the display where the outputs overlap, the second output is opaque, the first output is visible through the opaque second output;
A method of user interface processing in which the first output is visible within an area of the display where the first output and the second output do not overlap.
前記ビデオを格納することと、
前記注釈を前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記注釈、および前記注釈を前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたビデオおよび前記取り出された注釈を表示することであって、前記注釈は、前記ビデオに重畳され、前記ビデオと同期化される、表示することと
をさらに含む、請求項20、21、または25に記載の方法。 Storing the annotation;
Storing the video;
Storing information for synchronizing the annotation to the video;
Retrieving the video, the annotation, and the information for synchronizing the annotation to the video;
22. Displaying the retrieved video and the retrieved annotation further comprising displaying the annotation superimposed on the video and synchronized with the video. Or the method according to 25.
前記ビデオ、前記オーディオ、および前記注釈を格納することと、
前記注釈を前記オーディオおよび前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記オーディオ、前記注釈、および前記注釈を前記オーディオおよびビデオに同期化する前記情報を取り出すことと、
前記取り出されたオーディオを再生することと、
前記ディスプレイ上で前記取り出されたビデオを表示することと、
前記ディスプレイ上で前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオおよび前記取り出されたオーディオに同期化される、表示することと
をさらに含む、請求項20、21、または25に記載の方法。 Generating audio as soon as the video is displayed;
Storing the video, the audio, and the annotation;
Storing information for synchronizing the annotation to the audio and the video;
Retrieving the information that synchronizes the video, the audio, the annotation, and the annotation with the audio and video;
Playing the extracted audio;
Displaying the retrieved video on the display;
Displaying the retrieved annotation on the display, wherein the retrieved annotation is superimposed on the retrieved video and synchronized to the retrieved video and the retrieved audio; 26. The method of claim 20, 21, or 25, further comprising: displaying.
前記オーディオを記録することと
をさらに含む、請求項31に記載の方法。 32. The method of claim 31, further comprising: generating audio, wherein the audio is synchronized with the video, generating and recording the audio.
前記表示された記録されたビデオと同期化して前記記録されたオーディオを再生することと、
前記表示された記録されたビデオに重畳して前記表示された記録されたビデオと同期化して前記記録された注釈を表示することと
をさらに含む、請求項34に記載の方法。 Displaying the recorded video;
Playing back the recorded audio in synchronization with the displayed recorded video;
35. The method of claim 34, further comprising: displaying the recorded annotation in synchronization with the displayed recorded video superimposed on the displayed recorded video.
ディスプレイと、
入力デバイスと、
コンピューティングプロセッサであって、前記コンピューティングプロセッサは、前記ディスプレイおよび前記入力デバイスに通信的に結合される、コンピューティングプロセッサと、
前記プロセッサに通信的に結合されたメモリであって、前記メモリは、前記装置によって実行された時に、前記装置に
ディスプレイ上に第1出力を表示することと、
前記ディスプレイ上に前記第1出力に重畳して第2出力を表示することであって、前記第2出力は、ユーザ入力を不透明に表示するように構成される、表示することと
を含む動作を実行させる命令を含む、メモリと
を含み、前記第2出力は、前記重畳された第2出力を通して可視である
装置。 A device,
Display,
An input device;
A computing processor, wherein the computing processor is communicatively coupled to the display and the input device;
A memory communicatively coupled to the processor, the memory displaying a first output on a display on the device when executed by the device;
Displaying a second output superimposed on the first output on the display, wherein the second output is configured to display user input in an opaque manner. A memory including instructions to be executed, wherein the second output is visible through the superimposed second output.
前記注釈を格納することと、
前記ビデオを格納することと、
前記注釈を前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記注釈、および前記注釈を前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたビデオおよび前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオと同期化される、表示することと
を含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項66、67、または71に記載の装置。 The memory is
Storing the annotation;
Storing the video;
Storing information for synchronizing the annotation to the video;
Retrieving the video, the annotation, and the information for synchronizing the annotation to the video;
Displaying the retrieved video and the retrieved annotation, wherein the retrieved annotation is superimposed on the retrieved video and synchronized with the retrieved video; 72. The apparatus of claim 66, 67, or 71, further comprising instructions that cause the apparatus to perform further operations comprising:
ビデオの表示と同時にオーディオを生成することと、
前記ビデオ、前記オーディオ、および前記注釈を格納することと、
前記注釈を前記オーディオおよびビデオに同期化する情報を格納することと、
前記ビデオ、前記オーディオ、前記注釈、および前記注釈を前記オーディオおよび前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたオーディオを再生することと、
前記ディスプレイ上で前記取り出されたビデオを表示することと、
前記ディスプレイ上で前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオおよび前記取り出されたオーディオに同期化される、表示することと
を含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項66、67、または71に記載の装置。 The memory is
Generating audio as soon as the video is displayed;
Storing the video, the audio, and the annotation;
Storing information for synchronizing the annotation to the audio and video;
Retrieving the information that synchronizes the video, the audio, the annotation, and the annotation with the audio and the video;
Playing the extracted audio;
Displaying the retrieved video on the display;
Displaying the retrieved annotation on the display, wherein the retrieved annotation is superimposed on the retrieved video and synchronized to the retrieved video and the retrieved audio; 72. The apparatus of claim 66, 67, or 71, further comprising instructions that cause the apparatus to perform further operations including displaying.
前記メモリは、前記ビデオおよび前記注釈を記録することを含むさらなる動作を前記装置に実行させる命令をさらに含み、前記記録された注釈は、前記記録されたビデオに同期化される
請求項76に記載の装置。 Displaying the second output superimposed on the first output on the display includes displaying an annotation corresponding to the received user input on the display, the annotation superimposed on the video. And
77. The memory further includes instructions that cause the device to perform further operations including recording the video and the annotation, and the recorded annotation is synchronized to the recorded video. Equipment.
オーディオを生成することであって、前記オーディオは、前記ビデオと同期化される、生成することと
前記オーディオを記録することと
を含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項77に記載の装置。 The memory is
78. Generating audio, wherein the audio is further synchronized with the video, further comprising instructions that cause the device to perform further operations including generating and recording the audio. The device described in 1.
前記記録されたビデオを表示することと、
前記表示された記録されたビデオと同期化して前記記録されたオーディオを再生することと、
前記表示された記録されたビデオに重畳し、前記表示された記録されたビデオと同期化して前記記録された注釈を表示することと
を含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項80に記載の装置。 The memory is
Displaying the recorded video;
Playing back the recorded audio in synchronization with the displayed recorded video;
Further comprising instructions for causing the device to perform further operations including superimposing on the displayed recorded video and displaying the recorded annotation in synchronization with the displayed recorded video. Item 80. The apparatus according to Item 80.
ディスプレイ上で第1出力を表示することと、
前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することであって、前記第2出力は、ユーザ入力に対応する、表示することと
を含む動作を実行させる命令をその上に格納された有形のコンピュータ可読媒体であって、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第2出力は、可視であり、前記第1出力は、前記表示された第2出力を通して部分的に隠されるが可視であり、
前記第1出力および前記第2出力がオーバーラップしない前記ディスプレイの領域内で、前記第1出力は、可視である
有形のコンピュータ可読媒体。 When executed by a computing device, the computing device
Displaying the first output on the display;
Displaying a second output superimposed on the first output on the display, wherein the second output corresponds to a user input and includes instructions for performing an operation including displaying A stored tangible computer readable medium, wherein the second output is visible and the first output is the display within an area of the display where the first output and the second output overlap. Partially hidden through visible second output, but visible
A tangible computer readable medium wherein the first output is visible within an area of the display where the first output and the second output do not overlap.
前記ビデオを格納することと、
前記注釈を前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記注釈、および前記注釈を前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたビデオおよび前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオと同期化される、表示することと
を含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項117、118、または122に記載の有形のコンピュータ可読媒体。 Storing the annotation;
Storing the video;
Storing information for synchronizing the annotation to the video;
Retrieving the video, the annotation, and the information for synchronizing the annotation to the video;
Displaying the retrieved video and the retrieved annotation, wherein the retrieved annotation is superimposed on the retrieved video and synchronized with the retrieved video; 122. The tangible computer readable medium of claim 117, 118, or 122, further comprising instructions that cause the computing device to perform further operations comprising:
前記ビデオ、前記オーディオ、および前記注釈を格納することと、
前記注釈を前記オーディオおよび前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記オーディオ、前記注釈、および前記注釈を前記オーディオおよび前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたオーディオを再生することと、
前記ディスプレイ上で前記取り出されたビデオを表示することと、
前記ディスプレイ上で前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオおよび前記取り出されたオーディオに同期化される、表示することと
を含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項117、118、または122に記載の有形のコンピュータ可読媒体。 Generating audio as soon as the video is displayed;
Storing the video, the audio, and the annotation;
Storing information for synchronizing the annotation to the audio and the video;
Retrieving the information that synchronizes the video, the audio, the annotation, and the annotation with the audio and the video;
Playing the extracted audio;
Displaying the retrieved video on the display;
Displaying the retrieved annotation on the display, wherein the retrieved annotation is superimposed on the retrieved video and synchronized to the retrieved video and the retrieved audio; 122. The tangible computer readable medium of claim 117, 118, or 122, further comprising instructions that cause the computing device to perform further operations including displaying.
前記有形のコンピュータ可読媒体は、前記ビデオの表示と同時に前記ディスプレイ上でユーザ入力を受け取ることを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む
請求項98に記載の有形のコンピュータ可読媒体。 Displaying the first output on the display includes displaying video on the display, wherein the tangible computer readable medium includes receiving user input on the display simultaneously with the display of the video. 99. The tangible computer readable medium of claim 98, further comprising instructions that cause the computing device to execute.
前記有形のコンピュータ可読媒体は、前記ビデオおよび前記注釈を記録することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含み、前記記録された注釈は、前記記録されたビデオに同期化される
請求項127に記載の有形のコンピュータ可読媒体。 Displaying the second output superimposed on the first output on the display includes displaying an annotation corresponding to the received user input on the display, wherein the annotation is displayed on the video. The superimposed tangible computer readable medium further includes instructions that cause the computing device to perform further operations including recording the video and the annotation, wherein the recorded annotation is synchronized to the recorded video. 128. The tangible computer readable medium of claim 127.
前記オーディオを記録することと
を含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項128に記載の有形のコンピュータ可読媒体。 Generating audio, wherein the audio is further synchronized with the video, further comprising instructions for causing the computing device to perform further operations including generating and recording the audio. The tangible computer-readable medium according to Item 128.
前記表示された記録されたビデオと同期化して前記記録されたオーディオを再生することと、
前記表示された記録されたビデオに重畳し、前記表示された記録されたビデオと同期化して前記記録された注釈を表示することと
を含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項131に記載の有形のコンピュータ可読媒体。 Displaying the recorded video;
Playing back the recorded audio in synchronization with the displayed recorded video;
Further comprising instructions for causing the computing device to perform further operations including overlaying the displayed recorded video and displaying the recorded annotation in synchronization with the displayed recorded video. 132. A tangible computer readable medium according to claim 131.
Displaying the first output on the display includes displaying the output on one or more of a telephone, a mobile phone, a personal digital assistant, a laptop computer, a tablet computer, and a desktop computer; 144. A tangible computer readable medium according to any one of claims 98 to 141.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015236361A JP2016033831A (en) | 2015-12-03 | 2015-12-03 | Overlapped annotation output |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015236361A JP2016033831A (en) | 2015-12-03 | 2015-12-03 | Overlapped annotation output |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013549694A Division JP5852135B2 (en) | 2011-03-16 | 2011-03-16 | Superimposed annotation output |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016033831A true JP2016033831A (en) | 2016-03-10 |
Family
ID=55452669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015236361A Pending JP2016033831A (en) | 2015-12-03 | 2015-12-03 | Overlapped annotation output |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016033831A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020080753A1 (en) * | 2018-10-18 | 2020-04-23 | 삼성전자주식회사 | Electronic device and method of controlling electronic device |
US11531455B2 (en) | 2018-10-18 | 2022-12-20 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6051884A (en) * | 1983-08-31 | 1985-03-23 | ナイルス部品株式会社 | Charactor superinposition display |
WO2008041270A1 (en) * | 2006-09-29 | 2008-04-10 | Fujitsu Microelectronics Limited | Image synthesizing device and image synthesizing method |
-
2015
- 2015-12-03 JP JP2015236361A patent/JP2016033831A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6051884A (en) * | 1983-08-31 | 1985-03-23 | ナイルス部品株式会社 | Charactor superinposition display |
WO2008041270A1 (en) * | 2006-09-29 | 2008-04-10 | Fujitsu Microelectronics Limited | Image synthesizing device and image synthesizing method |
Non-Patent Citations (1)
Title |
---|
相田 彰大: "観察行為を対象とした視覚データ管理のための「その場アノテーション」システムの開発", 電子情報通信学会技術研究報告, vol. 110, no. 147, JPN6016038561, 17 July 2010 (2010-07-17), pages 27 - 32, ISSN: 0003413821 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020080753A1 (en) * | 2018-10-18 | 2020-04-23 | 삼성전자주식회사 | Electronic device and method of controlling electronic device |
US11531455B2 (en) | 2018-10-18 | 2022-12-20 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
US12026666B2 (en) | 2018-10-18 | 2024-07-02 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5852135B2 (en) | Superimposed annotation output | |
US10782844B2 (en) | Smart whiteboard interactions | |
US8915106B2 (en) | Means for processing information | |
US9049482B2 (en) | System and method for combining computer-based educational content recording and video-based educational content recording | |
US10074216B2 (en) | Information processing to display information based on position of the real object in the image | |
US20140205259A1 (en) | Screen recording for creating contents in mobile devices | |
JP2017162434A (en) | Method, program and device for generating web-based copy of document | |
CN108427589B (en) | Data processing method and electronic equipment | |
JPWO2018186031A1 (en) | Information processing device, information processing method, and program | |
US11430186B2 (en) | Visually representing relationships in an extended reality environment | |
US20160182579A1 (en) | Method of establishing and managing messaging sessions based on user positions in a collaboration space and a collaboration system employing same | |
US11694371B2 (en) | Controlling interactivity of digital content overlaid onto displayed data via graphics processing circuitry using a frame buffer | |
US10528319B2 (en) | Audio association systems and methods | |
Makhsadov et al. | Vrysmart: a framework for embedding smart devices in virtual reality | |
JP2016033831A (en) | Overlapped annotation output | |
US11775051B2 (en) | Apparatus and associated methods for presentation of presentation data | |
US20230043683A1 (en) | Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry | |
US20220350650A1 (en) | Integrating overlaid digital content into displayed data via processing circuitry using a computing memory and an operating system memory | |
US20180225476A1 (en) | Automated image editing system | |
US11805176B1 (en) | Toolbox and context for user interactions | |
US20240338160A1 (en) | Audience Engagement | |
US20230326094A1 (en) | Integrating overlaid content into displayed data via graphics processing circuitry and processing circuitry using a computing memory and an operating system memory | |
US20220244903A1 (en) | Application casting | |
WO2024222356A1 (en) | Special-effect generation method and apparatus, and computer device and storage medium | |
US20240094886A1 (en) | Applying visual modifiers to objects of interest selected by a pointer from a video feed in a frame buffer via processing circuitry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151203 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170427 |