Nothing Special   »   [go: up one dir, main page]

JP4165160B2 - Design production support system and design production support program - Google Patents

Design production support system and design production support program Download PDF

Info

Publication number
JP4165160B2
JP4165160B2 JP2002264823A JP2002264823A JP4165160B2 JP 4165160 B2 JP4165160 B2 JP 4165160B2 JP 2002264823 A JP2002264823 A JP 2002264823A JP 2002264823 A JP2002264823 A JP 2002264823A JP 4165160 B2 JP4165160 B2 JP 4165160B2
Authority
JP
Japan
Prior art keywords
image
information
design
user
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002264823A
Other languages
Japanese (ja)
Other versions
JP2004102734A (en
Inventor
吉嗣 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2002264823A priority Critical patent/JP4165160B2/en
Publication of JP2004102734A publication Critical patent/JP2004102734A/en
Application granted granted Critical
Publication of JP4165160B2 publication Critical patent/JP4165160B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、目標とするデザインのイメージ、実際に制作されたデザインのイメージ及びデザインからユーザが受けるイメージに基づいてデザイン制作の支援を行うデザイン制作支援システム、デザイン制作支援方法及びデザイン制作支援プログラムに関する。
【0002】
【従来の技術】
企業のコーポレートマーク、商品、プレゼンテーション資料やウェブサイトのページ等に施されたデザインは顧客や使用者等が受けるイメージ(印象)に対して大きな影響を与える。従って、そのデザイン制作においては、企業戦略、商品販売戦略、情報提供等をする者が受け手(ユーザ)に対して与えようとするイメージを的確に表現することが重要である。
【0003】
例えば、商品のデザイン制作をデザイン制作者に依頼して行う場合には、図26に示すように、依頼主であるクライアントが商品やプレゼンテーション資料に必要とされる目標イメージを決定し(S100)、デザイン制作者がそのイメージに合致するデザインの制作を行い(S102)、制作されたデザインのイメージの評価を行い(S104)、必要とするイメージと現実のデザインのイメージとの相違に基づいて依頼主はデザイン修正が必要な場合は修正を指示し、修正が必要でない場合には最終的なデザインが決定される(S106)。
【0004】
このようなデザイン制作の中で、商品、プレゼンテーション資料及びウェブページ等の画像の描画・着色を支援するアプリケーションソフトウェアが多数開発されている。これらの多くは、実際の着色をアプリケーションの使用者に委ねており、デザイン制作に不慣れな使用者はイメージを的確に表すことが困難である。
【0005】
そこで、人間の感性に基づいて画像処理や画像のイメージ評価を行う方法についての研究がなされている。
【0006】
特開平8−249441号公報には、対話型配色支援装置が開示されている。この装置では、デザイン制作者が画像を編集する際に、背景、文字又はグラフ等の配色の適正度を数値表示、絵表示又は量表示等により使用者に示すことができる。また、デザイン制作者が目標とするイメージに対して適正度が高い配色を候補パレットとして提示することができる。
【0007】
【特許文献1】
特開平8−249441号公報
【0008】
【発明が解決しようとする課題】
上記従来の技術において、実際のデザインの適正度を求めるためには、デザイン制作の前に目標となるイメージを予め想定しておく必要があった。
【0009】
すなわち、デザイン制作者又は制作の依頼主は、企業戦略又は商品販売戦略から他社商品に対する独自性を打ち出すために必要なイメージはどのようなものであるのか、プレゼンテーションの内容に沿った資料が必要とするイメージはどのようなものであるのか、情報が氾濫するインターネットにおいて独自性を有するウェブページを提示するために必要なイメージとはどのようなものであるのか、等を的確に把握して、デザイン制作の目標となるイメージを予め決定しておかなければならない。デザイン制作の流れにおいて最も困難な作業は、この目標となるイメージ自体を決定することにあった。
【0010】
しかしながら、従来の配色支援装置では、デザイン制作の目標となるイメージを決定するために必要な指標を提示することはできなかった。そのため、デザイン制作者や制作の依頼主が、目標となるイメージを適切に決定・修正することが困難であった。
【0011】
また、デザインの制作は、デザイン制作者の主観的なイメージに頼るところが多く、実際に制作したデザインと目標とするイメージとの相違をデザイン制作者自身が客観的に判断することは困難であった。さらに、通常、デザイン制作を依頼する依頼主はデザインの制作に対する専門知識を持っておらず、制作されたデザインのイメージと目標とするイメージとの相違を認識することは極めて難しかった。
【0012】
すなわち、実際のデザインのイメージと目標とするイメージとの相違を視覚的に明確に示すことができず、デザイン作成者や依頼主は、実際のイメージがどの程度目標とするイメージに近いのか、又は相違するのか、又はその相違はどの程度なのか、等を容易に把握することができなかった。そのため、デザインを修正するための方向性を見出せない場合があった。
【0013】
本発明は、上記従来の技術の課題を鑑み、デザイン制作におけるイメージの決定、評価及び修正を容易とするデザイン制作支援システム、デザイン制作支援方法及びデザイン制作支援プログラムを提供することを目的とする。
【0014】
【課題を解決するための手段】
【0021】
上記課題を解決するための本発明は、形容詞群からなる文字情報を含むデザインのイメージを表現するイメージ表現情報をイメージ情報データベースとして記憶するイメージ表現情報記憶手段、イメージマップ画面を分割した各領域に割り当てられたイメージに関する情報と、イメージ表現情報と、を関連付けたイメージ評価データベースを記憶するイメージ評価情報記憶手段、ユーザからのイメージ表現情報の選択を受けて、前記イメージ評価データベースにおいて前記選択されたイメージ表現情報に関連付けられているイメージに関する情報をデザイン制作の際に目標とする目標イメージ情報として決定する目標イメージ決定手段、前記イメージに関する情報と、デザインが有する物理的特徴量と、を関連付けたデザイン評価データベースを記憶するデザイン評価情報記憶手段と、制作されたデザインが有する物理的特徴量を抽出し、前記デザイン評価データベースにおいて前記抽出された物理的特徴量に関連付けられているイメージに関する情報をデザインイメージ情報として決定するデザインイメージ決定手段、前記制作されたデザインからユーザが受けるイメージに合うイメージ表現情報をユーザから取得し、前記イメージ評価データベースにおいて前記取得されたイメージ表現情報に関連付けられているイメージに関する情報をユーザイメージ情報として決定するユーザイメージ決定手段、前記イメージマップ画面と重ね合わせて、前記目標イメージ決定手段で決定された前記目標イメージ情報、前記デザインイメージ決定手段で決定された前記デザインイメージ情報及び前記ユーザイメージ決定手段で決定された前記ユーザイメージ情報を前記イメージマップ画面の領域のうちそれらの各情報が割り当てられた領域に表示するイメージ表示手段、前記イメージマップ画面を分割した各領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩の組み合わせを修正用データベースとして記憶する修正用情報記憶手段と、前記制作されたデザインの修正が指示された場合、前記目標イメージ情報が表示された前記イメージマップの領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩を前記修正用データベースから抽出して前記イメージマップの領域に重ね合わせて表示する色彩表示手段、を含むことを特徴とする。
【0028】
上記課題を解決するための本発明は、形容詞群からなる文字情報を含むデザインのイメージを表現するイメージ表現情報をイメージ情報データベースとして記憶するイメージ表現情報記憶手段、イメージマップ画面を分割した各領域に割り当てられたイメージに関する情報と、イメージ表現情報と、を関連付けたイメージ評価データベースを記憶するイメージ評価情報記憶手段、前記イメージに関する情報と、デザインが有する物理的特徴量と、を関連付けたデザイン評価データベースを記憶するデザイン評価情報記憶手段と、前記イメージマップ画面を分割した各領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩の組み合わせを修正用データベースとして記憶する修正用情報記憶手段と、を備えるコンピュータに、ユーザからのイメージ表現情報の選択を受けて、前記イメージ評価データベースにおいて前記選択されたイメージ表現情報に関連付けられているイメージに関する情報をデザイン制作の際に目標とする目標イメージ情報として決定する目標イメージ決定工程、制作されたデザインが有する物理的特徴量を抽出し、前記デザイン評価データベースにおいて前記抽出された物理的特徴量に関連付けられているイメージに関する情報をデザインイメージ情報として決定するデザインイメージ決定工程、前記制作されたデザインからユーザが受けるイメージに合うイメージ表現情報をユーザから取得し、前記イメージ評価データベースにおいて前記取得されたイメージ表現情報に関連付けられているイメージに関する情報をユーザイメージ情報として決定するユーザイメージ決定工程、前記イメージマップ画面と重ね合わせて、前記目標イメージ情報、前記デザインイメージ情報及び前記ユーザイメージ情報を前記イメージマップ画面の領域のうちそれらの各情報が割り当てられた領域に表示するイメージ表示工程と、前記制作されたデザインの修正が指示された場合、前記目標イメージ情報が表示された前記イメージマップの領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩を前記修正用データベースから抽出して前記イメージマップの領域に重ね合わせて表示する色彩表示工程、を含む処理を実行させることを特徴とする。
【0029】
【発明の実施の形態】
1.装置構成
本発明の実施の形態におけるデザイン制作支援システムは、図1のように、マネジメントサーバ100、クライアントコンピュータ102a,102b・・・及びネットワーク104から構成される。マネジメントサーバ100及びクライアントコンピュータ102a,102b・・・は、ネットワーク104を介して、情報伝達可能に接続される。
【0030】
マネジメントサーバ100は、図2のように、制御部10、記憶部12、入力部14、出力部16及びネットワークインターフェース部18から基本的に構成される。
【0031】
制御部10は、記憶部12に保存されたデザイン制作支援プログラムを読み出して実行する。また、処理に必要なデータを入力部14、ネットワーク104から取り込み、記憶部12に格納する。また、処理に必要な場合には、記憶部12に保持されたデータを読み出して処理に供する。さらに、処理結果を再び記憶部12に格納し、必要に応じて出力部16又はネットワーク104に出力する。
【0032】
記憶部12は、デザイン制作支援プログラム及び入力部14やネットワークから取り込まれるキーワード等の各種データを格納及び保持する。また、処理に必要とされるイメージ表現データベース、イメージ評価データベース、デザイン評価データベース、デザインデータベース、イメージマップ表示用データベース等のデータベースを格納及び保持する。各々のデータベースの内容及び使用方法については後述する。記憶部12としては、主として半導体メモリが用いられるが、例えば、ハードディスク、光ディスク、光磁気ディスク、磁気テープなどの記憶装置を用いることもできる。
【0033】
入力部14は、使用者が処理に必要なデータを入力する際に用いられる。入力部14としては、例えば、キーボード等の文字入力装置やマウス、ライトペン等のポインティングデバイスを用いることができる。また、紙などの記録媒体に作成された既存のプレゼンテーション資料等を電子データとして読み込む場合には、スキャナ等の画像読取装置、音声等を入力する場合にはデジタル信号への変換が可能な音声入力装置を用いることができる。
【0034】
出力部16は、処理に必要なデータの入力を促す入力画面、制御部10での処理結果を示す出力画面等を表示する。出力部16としては、例えば、ディスプレイ、プリンタ等の画像出力装置を用いることができる。
【0035】
ネットワークインターフェース部18は、マネジメントサーバ100をネットワーク104と情報伝達可能に接続するために用いられる。
【0036】
また、クライアントコンピュータ102a,102b・・・もマネジメントサーバ100と同様の構成を有するものとしても良い。クライアントコンピュータ102a,102b・・・においても、ネットワーク104を介することによって、マネジメントサーバ100の記憶部12に保存されているプログラムを実行し、データを適宜読み出して利用することができる。
【0037】
2.動作説明
本実施の形態におけるデザイン制作支援方法を、図3を参照して、以下に詳細に説明する。
【0038】
ここで、デザインの制作を行う者(以下、デザイン制作者という)、デザイン制作者に対してデザインの制作を依頼する者(以下、依頼主という)及び制作されたデザインの受け手となる者(以下、ユーザという)がシステムを利用するものとして説明を行う。また、デザイン制作者、依頼主及びユーザのいずれもが行うことができる作業については、一般的に操作者が操作を行うものとする。通常、デザイン制作者、依頼主及びユーザは異なる者であるが、デザイン制作者自身が制作したデザインを適切に修正するときなどは、デザイン制作者、依頼主及びユーザが同一者となる場合もある。
【0039】
クライアントコンピュータ102a,102b・・・は、ネットワーク104を介して、それぞれマネジメントサーバ100と接続されて通信を行い、いずれもデザイン制作者の端末としても、依頼主の端末としても機能することができる。以下の説明においては便宜上、操作者はマネジメントサーバ100を用いて処理を行うものとする。
【0040】
デザイン制作支援方法は、図3のように、ステップS10の目標イメージ決定工程、ステップS20のデザインイメージ評価工程、ステップS30のユーザイメージ取得工程及びステップS40のイメージ提示・修正工程を含んでなる。
【0041】
これらの各工程はコンピュータで処理可能なプログラムにコーディングされ、マネジメントサーバ100の記憶部12に格納及び保持されており、制御部10によって実行することができる。
【0042】
プログラムの処理が開始されると、ステップS0において、図4のように、制御部10はメインメニュー画面1000を出力部16に表示させ、操作者に対して所望の処理を選択するように促す。ここで、メインメニュー画面1000においては、マウスポインタ5が表示され、所望の処理を示す画面位置をクリックすることによって、各処理の実行が開始される。
【0043】
また、メインメニュー画面1000には、制作の対象となっているデザインの識別番号を入力するボックス15が設けられており、以下の処理において対象となるデータベース等はこのボックス15に入力された番号で識別されることとなる。
【0044】
例えば、ボックス15に識別番号として“9”を入力し、目標イメージ決定ボタン20が表示されている位置にマウスポインタ5を移動させ、マウスをクリックすることによって、デザインの識別番号は9となり、ステップS10の目標イメージ決定工程に処理が移行する。
【0045】
2−1.目標イメージ決定工程
ステップS10の目標イメージ決定工程では、制作対象となるデザインに必要とされるイメージに関する情報(以下、目標イメージ情報という)が定められる。目標イメージ決定工程は、図5に示すフローチャートによって処理される。
【0046】
まず、ステップS10aにおいて、制御部10は、目標イメージ入力画面1002を出力部16に表示させる。目標イメージ入力画面1002は、図6に示すように、デザインのイメージを表現する複数の情報を提示して、依頼主からデザイン制作の目標となるイメージにあった情報を選択させるものである。
【0047】
ここで、デザインのイメージを表現する情報は、デザインのイメージを端的に表現する形容詞群からなる文字情報、複数の色彩を組み合わせたカラーパレット群からなる色彩情報等を、デザイン制作の対象に応じて適宜選択して用いることが好適である。これらの情報は、イメージ表現データベースとして予め記憶部12に保存しておくことによって、適宜読み出して用いることができる。以下の説明では、イメージ表現データベースは、図7のように、形容詞群からなる文字情報を用いたものとする。
【0048】
次に、ステップS10bにおいて、依頼主は入力部14を用いて、デザインに要求されるイメージに沿った情報を選択する。
【0049】
例えば、図6のように、形容詞が列挙表示された目標イメージ入力画像1002において、マウスポインタ5を表示する。依頼主は、入力部14としてマウスを用い、デザインに要求されるイメージに合う形容詞に付設されたチェックボックス28にマウスポインタ5を移動させ、マウスをクリックすることによって選択する。選択されたチェックボックス28には、チェックマークを表示させる。選択が終了すると、マウスポインタ5を決定ボタン29の位置に移動させ、マウスをクリックすることによって、選択された形容詞の文字情報が記憶部12に保存される。図6の例では、「行動的な」及び「素直な」という文字情報が選択され、記憶部12に保存される。
【0050】
イメージを表現する情報の選択方法は、これに限られるものではなく、依頼主の入力が容易に行える方法であれば他の方法を用いても良い。
【0051】
次に、ステップS10cにおいて、選択された情報に基づいて、デザイン制作の目標イメージ情報が定められる。目標イメージ情報の決定には、イメージ評価データベースが用いられる。イメージ評価データベースには、図8のように、イメージ表現データベースに含まれる情報に対して目標イメージ情報が関連付けて保持されている。
【0052】
制御部10は、選択された情報を記憶部12から読み出し、イメージ評価データベースを参照することによって、その情報に関連付けられた目標イメージ情報を抽出する。抽出された目標イメージ情報は、デザインの識別番号に関連付けて記憶部12に保存される。
【0053】
例えば、選定された文字情報が「素直な」であった場合、図8のイメージ評価データベースの例では、目標イメージ情報として「ナチュラル」が0.9、「プリティ」が0.1の割合で選ばれる。
【0054】
目標イメージ情報が選定されると、目標イメージ決定工程を終了し、制御部10は、ステップS0に制御を戻す。
【0055】
なお、目標イメージ決定工程の処理は、これに限られるものではない。例えば、デザインの対象がプレゼンテーション資料、ウェブページ、新商品の外観又は企業のブランドロゴ等のように複数の色彩が施されたものである場合、複数の色彩の組み合わせであるカラーパレット群をイメージ表現データベースとして登録しておき、それらを目標イメージ入力画面に列挙表示して、依頼主に選択させることによって、選択されたカラーパレットに関連付けられた目標イメージ情報を選定することもできる。
【0056】
また、本実施の形態では、一人の依頼主のみの情報選択に基づいて目標イメージ情報を定めるものとしたが、上記工程を繰返すことによって複数の者から得られた情報に基づいて目標イメージ情報を定めることも好適である。
【0057】
例えば、企業内の複数の役員から企業のコーポレートカラーの目標イメージ情報を抽出したり、複数の商品開発担当者から商品デザインの目標イメージ情報を抽出する場合に非常に有効である。
【0058】
2−2.デザインイメージ評価工程
ステップS0において、デザインイメージ評価ボタン22がクリックされると、ステップS20のデザインイメージ評価工程に処理が移行される。
【0059】
ステップS20のデザインイメージ評価工程においては、実際のデザインのイメージに関する情報(以下、デザインイメージ情報という)が抽出される。デザインイメージ評価工程は、図9のフローチャートに沿って処理される。
【0060】
まず、ステップS20aにおいて、実際のデザインをデータとして取り込み、記憶部12に格納及び保持する。制御部10は、図10のように、デザイン取込画面1004を出力部16に表示して、デザイン制作者に対してデザインに関するデータの入力を促す。
【0061】
例えば、デザイン制作者はウェブページをデザインし、それを予めネットワーク104上にアップロードしておく。次に、デザイン取込画面1004のURL入力ボックス30にそのウェブページのURLを入力し、デザイン取込画像1004上に表示されたマウスポインタ5をウェブデザイン取込ボタン32に移動させて、マウスをクリックすることによって、デザインイメージ評価の対象となるウェブページの取得先を指定する。制御部10は指定を受けると、ネットワーク104を介して、指定されたURLからウェブページの画像データを取り込む。取り込まれた画像データは、図11のように、画像データの識別情報(例えばURL)と関連付けられてデザインデータベースとして記憶部12に順次蓄積される。
【0062】
なお、デザインの識別番号に対して、未だデザインデータベースが生成されていない場合には、デザインの識別番号に関連付けて新たなデザインデータベースを生成する。一方、既にデザインの識別番号に対するデザインデータベースが存在している場合には、既存のデザインデータベースに対して画像データの識別情報及び画像データが付加的に蓄積される。
【0063】
また、制作したウェブページのみならず、例えば、競合他社のウェブページのURLを指定することによって、それらのウェブページの画像データを取り込んで評価することも可能である。
【0064】
なお、デザイン制作の対象がプレゼンテーション資料、新商品又は企業のブランドロゴ等である場合には、スキャナ等の画像データの読取装置を用いて、画像データを取り込むことも好適である。この場合、デザイン取込画面1004の画像取込ボタン34をクリックすることによって、既存の画像読取ツールを起動するようにすることが好ましい。
【0065】
以下の説明では、例として図12のウェブページの画像が取り込まれたものとする。
【0066】
ステップS20bでは、取り込まれた画像データが人間に与えるイメージの評価を行う
【0067】
すなわち、制御部10は取り込んだ画像データを記憶部12から読み出し、図12のように領域分割する。領域分割には、既存の画像領域分割ツールを用いることができる。次に、面積、位置、大きさ、色平均、他の領域との色差等の物理的特徴量を分割された領域毎に抽出する。
【0068】
一方、物理的特徴量の組み合わせに対してデザインイメージ情報を関連付けてデザイン評価データベースとして記憶部12に格納及び保持する。例えば、図13のように、背景領域、背景領域を除く最も大きな領域を持つメイン領域及びメイン領域に対してアクセントとなるアクセント領域の各領域の色彩(図中ではハッチングで示す)の組を生成し、それらの色彩の組から人間が受けるイメージを表すデザインイメージ情報を関連付けて保存しておく。
【0069】
このデザイン評価データベースに基づいて、実際の画像データの背景領域、メイン領域及びアクセント領域から平均色を抽出し、その平均色の組み合わせからデザインイメージ情報を抽出することができる。抽出されたデザインイメージ情報は、図11のように、画像データの識別番号及び評価対象となった画像データと関連付けられてデザインデータベースとして記憶部12に格納及び保持される。
【0070】
例えば、図12の画像データの背景領域、メイン領域及びアクセント領域の各領域から平均色を抽出すると、図13のデザイン評価データベースに基づいて、「ナチュラル」というデザインイメージ情報を求めることができる。
【0071】
また、画像データから得られた物理的特徴量そのものをデザインイメージ情報とすることも好適である。例えば、画像データの背景領域、メイン領域及びアクセント領域の平均色の組み合わせ自体をカラーパレットとしてデザインイメージ情報としても良い。
【0072】
デザインイメージが選定されると、デザインイメージ評価工程を終了し、制御部10は、ステップS0に制御を戻す。
【0073】
2−3.ユーザイメージ取得工程
ステップS0において、ユーザイメージ取得工程ボタン24がクリックされると、ステップS30のユーザイメージ取得工程に処理が移行される。
【0074】
ステップS30のユーザイメージ取得工程では、ステップS20で取り込まれた画像データについてユーザが持つイメージ(以下、ユーザイメージ情報という)の取得を行う。ユーザイメージ取得工程は、図14に示すフローチャートによって処理される。
【0075】
まず、ステップS30aにおいて、制御部10は、画像データ選択画面1006を出力部16に表示させ、ステップS20で取り込まれた画像データのうちイメージ取得の対象となる画像データの選択を促す。
【0076】
画像データ選択画面1006は、図15のように、記憶部12のデザインデータベースに保持されている画像データに関する情報を画面上に列挙して表示し、いずれの画像データに対するユーザイメージ情報を取得するか、を選択させるものが好適である。ただし、画像データ選択画面1006の態様はこれに限られるものではなく、デザインデータベースに保持されている画像データの選択が可能であれば良い。
【0077】
画像データに対するイメージの入力を行うユーザは、マウス等の入力部14を用いて、画像データ選択画面1006の画像データに関する各情報に設けられたチェックボックス40へマウスポインタ5を移動させ、マウスをクリックすることによって情報を選ぶ。次に、選択決定ボタン42にマウスポインタ5を移動させてマウスをクリックすることにより、画像データの選択を決定する。
【0078】
ステップS30bでは、制御部10は、ユーザイメージ入力画面1008を出力部16に表示させ、画像データを見たユーザが受けるイメージの入力を促す。
【0079】
ユーザイメージ入力画面1008は、図16のように、選択された画像データの内容を表示する領域43と、デザインのイメージを表現する情報を列挙表示する領域44とに分割される。
【0080】
制御部10は、記憶部12に保持されているデザインデータベースから、ステップS30aで選択された画像データを読み出し、その画像データを画像データ表示領域43に画像形成して表示する。例えば、ウェブページの画像データが選択された場合、図16のように、デザインデータベースからその画像データのURLを読み出し、そのURLからその画像データを取り込んでディスプレイ上に表示する。
【0081】
さらに、制御部10は、記憶部12に保持されているイメージ表現データベースからデザインのイメージを表現する情報を読み出し、イメージ表現表示領域44に表示させる。イメージ表現データベースに含まれるイメージを表現する情報は、ステップS10の目標イメージ決定工程と同様に、デザインのイメージを表現する複数の形容詞、色彩の組からなるカラーパレットを含む色彩情報等から画像データの種類に応じて適宜選択して用いることが好適である。ここでは、イメージ情報データベースは複数の形容詞群からなる文字情報を含むものとする。
【0082】
次に、ステップS30cにおいて、ユーザは、画像データ表示領域43に表示された画像のデザインを見たときに感ずるイメージに合った情報を入力部14を用いて選択する。
【0083】
例えば、図16のように、形容詞が列挙されたイメージ表現表示領域44にマウスポインタ5を表示しておき、ユーザはマウスを用いて、デザインから受けるイメージに合致する形容詞に設けられたチェックボックス46にマウスポインタ5を移動させ、マウスをクリックして選択する。選択されたチェックボックス46にはチェックマークを表示させる。スクロールボタン48上にマウスポインタ5を移動させ、マウスをクリックすることにより形容詞の表示を適宜変更することができる。形容詞の選択が終了すると、マウスポインタ5を決定ボタン47の位置まで移動させてマウスをクリックすることによって、選択された形容詞の文字情報が記憶部12に保存される。
【0084】
例えば、図16では、「行動的な」及び「しゃれた」という文字情報が選択され、記憶部12に保存される。
【0085】
ユーザのイメージを取得する方法はこれに限られるものではない。すなわち、ユーザが画像データのデザインに対するイメージを容易に入力できるものであれば良い。
【0086】
次に、ステップS30dにおいて、選択された情報に基づいて、ユーザイメージ情報が定められる。ユーザイメージ情報の決定には、ステップS10の目標イメージ決定工程で用いられたイメージ評価データベースが使用される。
【0087】
制御部10は、選択された情報を記憶部12から読み出し、イメージ評価データベースを参照することによって、選択された情報の組に関連付けられたユーザイメージ情報を抽出する。
【0088】
例えば、文字情報「しゃれた」が選択された場合、図8のイメージ評価データベースでは、ユーザイメージ情報として「エレガント」が1.0の割合で選ばれる。
【0089】
抽出されたユーザイメージ情報は、図17のように、画像データと関連付けられてユーザイメージ情報データベースとして記憶部12に保存される。
【0090】
なお、未だユーザイメージ情報データベースが生成されていない場合には、デザインの識別番号毎にユーザイメージ情報データベースを生成する。一方、デザインの識別番号に対してユーザイメージ情報データベースが存在している場合には、既存のユーザイメージ情報データベースに画像データ及びユーザイメージ情報が付加される。
【0091】
ユーザイメージ情報が選定されると、ユーザイメージ取得工程を終了し、制御部10は、ステップS0に制御を戻す。
【0092】
なお、ユーザイメージ情報を表す情報は本実施の形態のように形容詞の文字情報に限られない。例えば、ステップS10の目標イメージ決定工程と同様に、色彩の組からなるカラーパレット群の中からユーザイメージ情報を選択させる態様も好適である。
【0093】
さらに、上記工程を複数のユーザに行わせ、同一の画像データに対する複数のユーザからのユーザイメージ情報を取得することも好適である。これによって、画像データに対して幅広く客観的なイメージの評価を得ることができる。
【0094】
2−4.イメージ提示・修正工程
ステップS0において、イメージ提示・修正工程ボタン26がクリックされると、ステップS40のイメージ提示・修正工程に処理が移行される。
【0095】
ステップS40のイメージ提示・修正工程は、図18に示すフローチャートに沿って実行され、ステップS10で求めた目標イメージ情報、ステップS20で求めたデザインイメージ情報及びステップS30で求めたユーザイメージ情報の表示を行う。
【0096】
まず、ステップS40aにおいて、制御部10は、表示選択画面1010を出力部16に表示させ、いずれの情報の表示を行うかを操作者に選択させる。
【0097】
表示選択画面1010では、図19のように、表示の対象となるデザインの識別番号を入力ボックス54に入力する。また、チェックボックス50を選択して、決定ボタン52をクリックすることによって、目標イメージ情報、デザインイメージ情報及びユーザイメージ情報の中から表示する情報を選択する。
【0098】
次に、表示する情報の入力を受けた制御部10は、ステップS40bにおいて、イメージマップ画面1012上に目標イメージ情報、デザインイメージ情報又はユーザイメージ情報を表示する。
【0099】
イメージマップ画面1012は、図20のように、複数の領域に分割されており、各々の領域に領域識別番号が付与されている。一方、記憶部12には、イメージ表示用データベースとして、領域識別番号毎にイメージを表現する情報が対応付けられて保持されている。
【0100】
制御部10は、イメージ表示用データベースを参照することによって、目標イメージ情報、デザインイメージ情報又はユーザイメージ情報に対応付けられている領域識別番号を抽出する。そして、抽出された領域識別番号が付与されたイメージマップ画面1012上の領域に対応する各情報を表示する。
【0101】
ここで、イメージマップ画面1012に座標軸を設けて、その座標軸に沿ってイメージが所定の傾向で変化していくように領域識別番号を割り付けることが好適である。
【0102】
例えば、図21に示すイメージマップ画面1012の例では、“暖かい”から“冷たい”までのデザインの暖かさを示すX座標と、“柔らかい”から“硬い”までのデザインの硬さを示すY座標と、の二つの直交座標を設け、それぞれのイメージの変化に沿ってイメージを表す情報が割り当てられている。
【0103】
なお、イメージマップ画面1012上への情報の割り当て方法はこれに限られるものではなく、対象とするデザインの種類に応じて座標軸の設定を変更することが好ましい。
【0104】
ステップS40aにおいて目標イメージ情報が選択された場合、図22のように、デザイン識別番号に関連付けられた目標イメージ情報がイメージマップ画面1012に重ね合わせて表示される。
【0105】
ステップS40aにおいてデザインイメージ情報が選択された場合、図23のように、デザイン識別番号に関連付けられたデザインデータベースに含まれるデザインイメージ情報がイメージマップ画面1012に重ね合わせて表示される。このとき、デザインデータベースに含まれる画像データ毎に情報の表示色を変更する等して、表示された情報の識別を容易にすることが好ましい。また、各々のデザインイメージ情報の代わりに、又は、各々のデザインイメージ情報と併せて、それらに対応する画像データ自体を表示することも好適である。
【0106】
ステップS40aにおいてユーザイメージ情報が選択された場合、図24のように、デザイン識別番号に関連付けられたユーザイメージ情報データベースに含まれるユーザイメージ情報がイメージマップ画面1012に重ね合わせて表示される。このとき、ユーザイメージ情報データベースに含まれる画像データ毎に情報の表示色を変更する等して、表示された情報の識別を容易にすることが好ましい。
【0107】
さらに、ステップS40aにおいて、目標イメージ情報とデザインイメージ情報の両方が選択された場合、図25のように、デザイン識別番号に関連付けられた目標イメージ情報及びデザインイメージ情報の両方がイメージマップ画面1012に重ね合わせて表示される。同様に、目標イメージ情報とユーザイメージ情報の両方が選択された場合、デザインイメージ情報とユーザイメージ情報の両方が選択された場合、又は目標イメージ情報、デザインイメージ情報及びユーザイメージ情報の全てが選択された場合にも各々の情報をイメージマップ画面1012に重ね合わせて表示する。
【0108】
このように、目標イメージ情報、デザインイメージ情報及びユーザイメージ情報を1つのイメージマップ画面1012に重ね合わせて表示することによって、デザイン制作者、依頼主及びユーザがデザイン制作の目標となるイメージ、実際のデザインが有するイメージ及び実際のデザインからユーザが受け取るイメージを視覚的に比較しながら確認することができる。このとき、イメージマップ画面1012上では、各々の情報がイメージ傾向を示す座標軸に沿って表示されるため、目標となるイメージ、実際のデザインのイメージ及びユーザの受け取るイメージがどの程度相違するのか、その相違はどのような傾向であるのか、等を明確に把握することができる。
【0109】
さらに、ステップS20において、他社のウェブページや他の商品のデザインに対してデザインイメージ情報を求めておくことにより、これらの情報と目標イメージ情報を比較して確認することもできる。これにより、他社のウェブページや他の商品のイメージと制作するデザインの目標イメージとの一致又は相違を把握することが容易となる。
【0110】
さらに、ステップS30において、同一のデザインに対して複数のユーザからのユーザイメージ情報を取得しておくことによって、イメージマップ画面1012上においてユーザイメージ情報の分布傾向を容易に確認することができる。また、目標イメージ情報やデザインイメージ情報と、ユーザイメージ情報の分布傾向の一致又は相違を一見して確認することができる。
【0111】
なお、目標イメージ情報、デザインイメージ情報及びユーザイメージ情報として形容詞ではなくカラーパレットを用いた場合には、イメージマップ画面1012上の各領域にカラーパレットを対応付けておき、目標イメージ情報、デザインイメージ情報及びユーザイメージ情報に対応する領域にカラーパレットを表示しても良い。
【0112】
さらに、本実施の形態では、目標イメージ情報の修正を行うことやデザインイメージの修正に役立つ情報の提示を行うこともできる。イメージマップ画面1012上の目標イメージ修正ボタン64又はデザインイメージ修正情報提示ボタン65にマウスポインタ5を移動させてマウスをクリックすることによって、ステップS40cに処理が移行される。
【0113】
目標イメージ情報の修正が指示されると、制御部10は目標イメージ情報の設定処理を開始する。
【0114】
操作者は、イメージマップ画面1012上に表示されたデザインイメージ情報やユーザイメージ情報を参照しながら、イメージマップ画面1012上の領域にマウスポインタ5を移動させてマウスをクリックする。制御部10は、マウスポインタ5の位置を取得し、イメージ表現用データベースを参照することによって、その領域に割り当てられたイメージを表現する情報を新たな目標イメージ情報として設定する。ここで、設定された新たな目標イメージ情報の確認を容易にするために、目標イメージ情報を表示する領域66を設けて目標イメージ情報を表示させることも好適である。
【0115】
上記目標イメージ情報の設定方法を用いれば、例えば、競合他社のウェブデザインをデザインイメージ情報としてイメージマップ画面1012上に重ね合わせて表示しておき、自社のウェブデザインの目標イメージを競合他社のウェブデザインのイメージと異なるものとしたいときには、競合他社のウェブデザインのデザインイメージ情報が表示された領域と重複しない領域を指定することによって適切な目標イメージ情報を容易に設定することができる。逆に、競合他社と似通ったイメージを有するウェブデザインとしたい場合には、競合他社のウェブデザインのデザインイメージ情報が表示された領域を指定することによって適切な目標イメージ情報を設定することができる。同様に、ユーザイメージ情報をイメージマップ画面1012上に重ね合わせて表示することによって、ユーザが受け取るイメージを参考にしながら新たな目標イメージ情報を設定することも可能である。
【0116】
また、イメージマップ画面1012に設けられたデザインイメージ修正情報提示ボタン65にマウスポインタ5を移動させ、マウスをクリックすることによって、操作者がデザインイメージ情報の修正に必要な情報を提示することもできる。例えば、イメージマップ画面1012の各領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩の組み合わせを予めデータベース化しておき、目標イメージ情報が表示された領域に対応する色彩の組をイメージマップ画面1012に重ね合わせて表示させることが好適である。デザインを表示された色彩の組み合わせに変更することで、目標イメージに近づけることができる。
【0117】
このように、目標イメージ情報の修正やデザイン修正の支援情報の提示を同一のイメージマップ画面1012上において行うことによって、目標とするイメージ、実際のデザインのイメージ、ユーザが受け取るイメージを視覚的に確認しながら作業を行うことができる。
【0118】
すなわち、本実施の形態によれば、デザイン制作の目標となるイメージ、実際のデザインが有するイメージ及び実際のデザインからユーザが受けるイメージの一致や相違を同一のイメージマップ画面上で確認することができる。
【0119】
それにより、依頼主やデザイン制作者はデザイン制作の目標イメージ設定の適否を視覚的に把握することができ、目標イメージやデザインイメージの修正を容易に行うことが可能となる。また、デザイン制作の作業において依頼主とデザイン制作者との情報の擦り合わせが容易となって作業を円滑に行うことができる。
【0120】
さらに、依頼主が目標とするイメージや制作したデザインからユーザが受けるイメージに基づいて、デザインの修正の方向性を見出すことが容易となる。
【0121】
なお、上記実施の形態においては、ウェブページ、プレゼンテーション資料、商品のデザイン等の視覚的なデザインを対象としたが、コマーシャル音声等の音声データに対しても目標イメージ情報、デザインイメージ情報及びユーザイメージ情報を取得して、同一のイメージマップ画面上に表示することで同様の効果を得ることができる。
【0122】
【発明の効果】
本発明によれば、デザイン制作の目標となるイメージ、実際のデザインが持つイメージ及びデザインからユーザが受け取るイメージの一致及び相違を明確に把握することができる。それにより、目標とするイメージや実際のデザインの修正を容易に行うことを可能とする。
【図面の簡単な説明】
【図1】 本発明の実施の形態におけるデザイン制作支援システムの全体構成のブロック図を示す。
【図2】 本発明の実施の形態におけるマネジメントサーバの構成のブロック図を示す。
【図3】 本発明の実施の形態におけるデザイン制作支援方法のメインのフローチャートを示す図である。
【図4】 本発明の実施の形態におけるメインメニュー画面を示す図である。
【図5】 本発明の実施の形態における目標イメージ決定工程のフローチャートを示す図である。
【図6】 本発明の実施の形態における目標イメージ入力画面を示す図である。
【図7】 本発明の実施の形態におけるイメージ表現データベースを示す図である。
【図8】 本発明の実施の形態におけるイメージ評価データベースを示す図である。
【図9】 本発明の実施の形態におけるデザインイメージ評価工程のフローチャートを示す図である。
【図10】 本発明の実施の形態におけるデザインイメージ評価画面を示す図である。
【図11】 本発明の実施の形態におけるデザインデータベースを示す図である。
【図12】 本発明の実施の形態におけるウェブページの例を示す図である。
【図13】 本発明の実施の形態におけるデザイン評価データベースを示す図である。
【図14】 本発明の実施の形態におけるユーザイメージ取得工程のフローチャートを示す図である。
【図15】 本発明の実施の形態における画像データ選択画面を示す図である。
【図16】 本発明の実施の形態におけるユーザイメージ入力画面を示す図である。
【図17】 本発明の実施の形態におけるユーザイメージ情報データベースを示す図である。
【図18】 本発明の実施の形態におけるイメージ提示・修正工程のフローチャートを示す図である。
【図19】 本発明の実施の形態における表示選択画面を示す図である。
【図20】 本発明の実施の形態におけるイメージマップ画面を示す図である。
【図21】 本発明の実施の形態におけるイメージ表示用データベースを示す図である。
【図22】 目標イメージ情報を重ね合わせて表示したイメージマップ画面を示す図である。
【図23】 デザインイメージ情報及び画像データを重ね合わせて表示したイメージマップ画面を示す図である。
【図24】 ユーザイメージ情報を重ね合わせて表示したイメージマップ画面を示す図である。
【図25】 目標イメージ情報、デザインイメージ情報及び画像データを重ね合わせて表示したイメージマップ画面を示す図である。
【図26】 デザイン制作のフローチャートを示す図である。
【符号の説明】
5 マウスポインタ、10 制御部、12 記憶部、14 入力部、15 入力ボックス、16 出力部、18 ネットワークインターフェース部、20 目標イメージ決定ボタン、22 デザインイメージ評価ボタン、24 ユーザイメージ取得ボタン、26 イメージ提示・修正ボタン、28 チェックボックス、29 決定ボタン、30 入力ボックス、32 ウェブデザイン取込ボタン、34 画像取込ボタン、36 背景領域、37 メイン領域、38 アクセント領域、40 チェックボックス、42 選択決定ボタン、43 画像データ表示領域、44 イメージ表現表示領域、46 チェックボックス、47 決定ボタン、48 スクロールボタン、50 チェックボックス、52 決定ボタン、54入力ボックス、60 イメージ情報表示領域、62a X座標軸、62b Y座標軸、64 目標イメージ修正ボタン、65 デザインイメージ修正情報提示ボタン、66 目標イメージ表示領域、68 画像データの表示、100 マネジメントサーバ、102a,102b,102c クライアントコンピュータ、104 ネットワーク、1000 メインメニュー画面、1002 目標イメージ入力画面、1004 デザインイメージ評価画面、1006 画像データ選択画面、1008 ユーザイメージ入力画面、1010 表示選択画面、1012イメージマップ画面。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a design creation support system, a design creation support method, and a design creation support program for supporting design creation based on a target design image, an actually created design image, and an image received by a user from the design. .
[0002]
[Prior art]
Designs applied to corporate marks, products, presentation materials, website pages, etc. have a great influence on the image (impression) received by customers and users. Therefore, in the design production, it is important to accurately express the image that the person who performs the corporate strategy, product sales strategy, information provision, etc. intends to give to the receiver (user).
[0003]
For example, in the case where the design creator is requested to design the product, as shown in FIG. 26, the client as the client determines a target image required for the product or the presentation material (S100). The design creator creates a design that matches the image (S102), evaluates the image of the created design (S104), and requests the client based on the difference between the required image and the actual design image. If a design modification is necessary, a modification is instructed. If a modification is not necessary, a final design is determined (S106).
[0004]
In such design production, many application software that supports drawing and coloring of images such as products, presentation materials, and web pages has been developed. Many of them leave the actual coloring to the application user, and it is difficult for a user who is unfamiliar with the design creation to accurately represent the image.
[0005]
Therefore, research has been conducted on methods for image processing and image evaluation based on human sensitivity.
[0006]
Japanese Patent Application Laid-Open No. 8-249441 discloses an interactive color arrangement support apparatus. In this apparatus, when the design creator edits an image, the appropriateness of the color scheme of the background, characters, graphs, etc. can be shown to the user by numerical display, picture display, or quantity display. In addition, it is possible to present a color scheme having a high degree of appropriateness as a candidate palette for an image targeted by a design creator.
[0007]
[Patent Document 1]
JP-A-8-249441
[0008]
[Problems to be solved by the invention]
In the above-described conventional technology, in order to obtain the appropriateness of the actual design, it is necessary to assume a target image in advance before design production.
[0009]
In other words, the design creator or the client of the production needs materials in line with the contents of the presentation, what kind of image is necessary to bring out the uniqueness of other companies' products from the corporate strategy or product sales strategy. Design what the image to do is exactly what the image required to present a unique web page on the Internet flooded with information, etc. The image that is the target of the production must be determined in advance. The most difficult task in the design process was to determine the target image itself.
[0010]
However, the conventional color arrangement support apparatus cannot present an index necessary for determining an image that is a target of design production. For this reason, it has been difficult for design creators and client clients to appropriately determine and correct the target image.
[0011]
In addition, design creation often relies on the subjective image of the design creator, making it difficult for the design creator to objectively determine the difference between the actual design and the target image. . Furthermore, the client who requests the design production usually has no expertise in design production, and it is extremely difficult to recognize the difference between the image of the produced design and the target image.
[0012]
In other words, the difference between the actual design image and the target image cannot be clearly shown visually, and the design creator or client can determine how close the actual image is to the target image, or It was not possible to easily grasp the difference or how much the difference was. For this reason, there are cases where the direction for correcting the design cannot be found.
[0013]
The present invention has been made in view of the above-described problems of the conventional technology, and an object thereof is to provide a design production support system, a design production support method, and a design production support program that facilitate determination, evaluation, and correction of an image in design production.
[0014]
[Means for Solving the Problems]
[0021]
  The present invention for solving the above problems is as follows.Image representation information storage means for storing image representation information representing an image of a design including character information consisting of adjectives as an image information database, information about images assigned to each area obtained by dividing an image map screen, and image representation information And an image evaluation information storage means for storing an image evaluation database associated with the information, and information related to an image associated with the selected image expression information in the image evaluation database in response to selection of image expression information from the user.Target when creating a designEyesTarget image determination means for determining the target image information,Design evaluation information storage means for storing a design evaluation database that associates information about the image with physical features of the design, and producedPhysical features of the designAnd information on the image associated with the extracted physical feature amount in the design evaluation database.As design image informationdecideDesign imageDecisionmeans,ProducedImage that user receives from designThe image representation information suitable for the user is acquired from the user, and the information related to the image associated with the acquired image representation information in the image evaluation databaseAs user image informationdecideUser imageDecisionmeansThe aboveThe target image information determined by the target image determination means and the design image superimposed on an image map screenDecisionBy meansIt has been determinedThe design image information and the user imageDecisionBy meansDecisionSaid user image informationNews,AboveImage to be displayed in the area to which each information is assigned in the area of the image map screendisplaymeansA correction information storage means for storing a combination of colors of a background area, a main area and an accent area suitable for an image assigned to each area obtained by dividing the image map screen as a correction database; and the produced design When the correction is instructed, the colors of the background area, the main area and the accent area corresponding to the image assigned to the area of the image map on which the target image information is displayed are extracted from the correction database, and Color display means for displaying the image on the image map area,It is characterized by including.
[0028]
  The present invention for solving the above problems is as follows.Image representation information storage means for storing image representation information representing an image of a design including character information consisting of adjectives as an image information database, information about images assigned to each area obtained by dividing an image map screen, and image representation information Image evaluation information storage means for storing an image evaluation database in association with each other, design evaluation information storage means for storing a design evaluation database in which information about the image and physical features of the design are associated, and the image Correction information storage means for storing a combination of colors of a background area, a main area, and an accent area suitable for an image assigned to each area obtained by dividing the map screen as a correction database.On the computer,In response to the selection of the image expression information from the user, information on the image associated with the selected image expression information in the image evaluation databaseTarget when creating a designEyesTarget image determination process to determine as target image information,ProducedPhysical features of the designAnd information on the image associated with the extracted physical feature amount in the design evaluation database.As design image informationdecideDesign imageDecisionProcess,ProducedImage that user receives from designThe image representation information suitable for the user is acquired from the user, and the information related to the image associated with the acquired image representation information in the image evaluation databaseAs user image informationdecideUser imageDecisionProcess,AboveThe target image information, the design image information, and the user image information are superimposed on an image map screen.News,AboveImage to be displayed in the area to which each information is assigned in the area of the image map screendisplayProcess,When correction of the produced design is instructed, the background database, the main area, and the accent area corresponding to the image assigned to the image map area on which the target image information is displayed are displayed in the correction database. A color display step of extracting from the image map area and displaying it superimposed on the image map area,It is characterized by executing a process including:
[0029]
DETAILED DESCRIPTION OF THE INVENTION
1. Device configuration
The design production support system according to the embodiment of the present invention includes a management server 100, client computers 102a, 102b,... The management server 100 and the client computers 102a, 102b,... Are connected via the network 104 so that information can be transmitted.
[0030]
As shown in FIG. 2, the management server 100 basically includes a control unit 10, a storage unit 12, an input unit 14, an output unit 16, and a network interface unit 18.
[0031]
The control unit 10 reads and executes the design creation support program stored in the storage unit 12. Further, data necessary for processing is fetched from the input unit 14 and the network 104 and stored in the storage unit 12. Further, when necessary for the processing, the data held in the storage unit 12 is read and used for the processing. Further, the processing result is stored again in the storage unit 12 and output to the output unit 16 or the network 104 as necessary.
[0032]
The storage unit 12 stores and holds various data such as a design creation support program and keywords input from the input unit 14 or the network. Further, it stores and holds databases such as an image expression database, an image evaluation database, a design evaluation database, a design database, and an image map display database required for processing. The contents and usage of each database will be described later. As the storage unit 12, a semiconductor memory is mainly used. For example, a storage device such as a hard disk, an optical disk, a magneto-optical disk, or a magnetic tape can also be used.
[0033]
The input unit 14 is used when a user inputs data necessary for processing. As the input unit 14, for example, a character input device such as a keyboard or a pointing device such as a mouse or a light pen can be used. Also, when reading existing presentation materials created on a recording medium such as paper as electronic data, an image reading device such as a scanner, or a voice input that can be converted into a digital signal when inputting voice, etc. An apparatus can be used.
[0034]
The output unit 16 displays an input screen that prompts input of data necessary for processing, an output screen that shows a processing result in the control unit 10, and the like. As the output unit 16, for example, an image output device such as a display or a printer can be used.
[0035]
The network interface unit 18 is used to connect the management server 100 to the network 104 so that information can be transmitted.
[0036]
Further, the client computers 102a, 102b,... May have the same configuration as the management server 100. Also in the client computers 102a, 102b..., The program stored in the storage unit 12 of the management server 100 can be executed via the network 104, and the data can be read and used as appropriate.
[0037]
2. Operation explanation
The design production support method in the present embodiment will be described in detail below with reference to FIG.
[0038]
Here, the person who produces the design (hereinafter referred to as the design creator), the person who requests the design creator to produce the design (hereinafter referred to as the client), and the person who receives the produced design (hereinafter referred to as the client) The user will be described as using the system. Moreover, it is assumed that the operator generally performs operations that can be performed by any of the design creator, the client, and the user. Usually, the design creator, the client, and the user are different, but the design creator, the client, and the user may be the same when appropriately modifying the design created by the designer. .
[0039]
Client computers 102a, 102b,... Are connected to and communicate with the management server 100 via the network 104, respectively, and can function both as a design creator's terminal and as a client's terminal. In the following description, for the sake of convenience, it is assumed that the operator performs processing using the management server 100.
[0040]
As shown in FIG. 3, the design production support method includes a target image determination process in step S10, a design image evaluation process in step S20, a user image acquisition process in step S30, and an image presentation / modification process in step S40.
[0041]
Each of these steps is coded in a computer-processable program, stored and held in the storage unit 12 of the management server 100, and can be executed by the control unit 10.
[0042]
When the processing of the program is started, in step S0, as shown in FIG. 4, the control unit 10 displays the main menu screen 1000 on the output unit 16, and prompts the operator to select a desired process. Here, on the main menu screen 1000, the mouse pointer 5 is displayed, and the execution of each process is started by clicking a screen position indicating a desired process.
[0043]
Further, the main menu screen 1000 is provided with a box 15 for inputting an identification number of a design to be produced, and the database to be processed in the following processing is the number input in this box 15. Will be identified.
[0044]
For example, by inputting “9” as an identification number in the box 15, moving the mouse pointer 5 to the position where the target image determination button 20 is displayed and clicking the mouse, the design identification number becomes 9, The process proceeds to the target image determination step of S10.
[0045]
2-1. Target image determination process
In the target image determination step in step S10, information related to an image required for the design to be produced (hereinafter referred to as target image information) is determined. The target image determination step is processed according to the flowchart shown in FIG.
[0046]
First, in step S10a, the control unit 10 causes the output unit 16 to display a target image input screen 1002. As shown in FIG. 6, the target image input screen 1002 presents a plurality of pieces of information representing the design image, and allows the client to select information that matches the target image of the design production.
[0047]
Here, the information that expresses the image of the design includes character information that consists of adjectives that express the design image, color information that consists of a color palette that combines multiple colors, etc. It is preferable to select and use as appropriate. These pieces of information can be appropriately read and used by storing them in the storage unit 12 in advance as an image expression database. In the following description, it is assumed that the image expression database uses character information composed of adjective groups as shown in FIG.
[0048]
Next, in step S10b, the client uses the input unit 14 to select information along the image required for the design.
[0049]
For example, as shown in FIG. 6, the mouse pointer 5 is displayed in the target image input image 1002 in which adjectives are listed and displayed. The client uses the mouse as the input unit 14, moves the mouse pointer 5 to the check box 28 attached to the adjective that matches the image required for the design, and selects by clicking the mouse. A check mark is displayed in the selected check box 28. When the selection is completed, the character information of the selected adjective is saved in the storage unit 12 by moving the mouse pointer 5 to the position of the decision button 29 and clicking the mouse. In the example of FIG. 6, the character information “behavioral” and “honest” is selected and stored in the storage unit 12.
[0050]
The method for selecting information representing an image is not limited to this, and other methods may be used as long as the requester can easily input.
[0051]
Next, in step S10c, target image information for design production is determined based on the selected information. An image evaluation database is used to determine the target image information. As shown in FIG. 8, target image information is held in the image evaluation database in association with information included in the image expression database.
[0052]
The control unit 10 reads out the selected information from the storage unit 12, and extracts target image information associated with the information by referring to the image evaluation database. The extracted target image information is stored in the storage unit 12 in association with the design identification number.
[0053]
For example, if the selected character information is “obvious”, in the example of the image evaluation database in FIG. 8, “natural” is selected as the target image information at a ratio of 0.9, and “pretty” is selected at a ratio of 0.1. It is.
[0054]
When the target image information is selected, the target image determination process is ended, and the control unit 10 returns the control to step S0.
[0055]
Note that the processing of the target image determination step is not limited to this. For example, if the target of the design is a presentation material, a web page, the appearance of a new product, or a brand logo of a company, etc., a color palette group that is a combination of multiple colors is represented as an image. It is also possible to select target image information associated with the selected color pallet by registering them as a database, listing them on the target image input screen, and allowing the client to select them.
[0056]
In the present embodiment, the target image information is determined based on information selection of only one client, but the target image information is determined based on information obtained from a plurality of persons by repeating the above steps. It is also preferable to define.
[0057]
For example, it is very effective when extracting corporate image target image information of a corporate color from a plurality of officers within a company, or extracting product design target image information from a plurality of product developers.
[0058]
2-2. Design image evaluation process
If the design image evaluation button 22 is clicked in step S0, the process proceeds to the design image evaluation process in step S20.
[0059]
In the design image evaluation process in step S20, information related to the actual design image (hereinafter referred to as design image information) is extracted. The design image evaluation process is processed according to the flowchart of FIG.
[0060]
First, in step S20a, an actual design is taken in as data, and stored and held in the storage unit 12. As illustrated in FIG. 10, the control unit 10 displays a design capture screen 1004 on the output unit 16 and prompts the design creator to input data related to the design.
[0061]
For example, the design creator designs a web page and uploads it on the network 104 in advance. Next, the URL of the web page is input to the URL input box 30 of the design capture screen 1004, the mouse pointer 5 displayed on the design capture image 1004 is moved to the web design capture button 32, and the mouse is moved. Click to specify the acquisition destination of the web page for design image evaluation. When receiving the designation, the control unit 10 takes in the image data of the web page from the designated URL via the network 104. The captured image data is sequentially stored in the storage unit 12 as a design database in association with identification information (for example, URL) of the image data as shown in FIG.
[0062]
If a design database has not yet been generated for the design identification number, a new design database is generated in association with the design identification number. On the other hand, when a design database for the design identification number already exists, image data identification information and image data are additionally stored in the existing design database.
[0063]
In addition, by designating the URLs of the web pages of competitors as well as the produced web pages, it is also possible to capture and evaluate image data of those web pages.
[0064]
In addition, when the object of design production is presentation material, a new product, a company brand logo, or the like, it is also preferable to capture image data using an image data reading device such as a scanner. In this case, it is preferable to activate an existing image reading tool by clicking the image capture button 34 on the design capture screen 1004.
[0065]
In the following description, it is assumed that the image of the web page in FIG. 12 is captured as an example.
[0066]
  In step S20b, the image given to the human by the captured image data is evaluated..
[0067]
That is, the control unit 10 reads the captured image data from the storage unit 12, and divides the area as shown in FIG. An existing image area dividing tool can be used for the area division. Next, physical features such as area, position, size, color average, and color difference from other regions are extracted for each divided region.
[0068]
On the other hand, design image information is associated with a combination of physical features and stored in the storage unit 12 as a design evaluation database. For example, as shown in FIG. 13, a set of colors (indicated by hatching in the figure) of the background area, the main area having the largest area excluding the background area, and the accent area that is an accent to the main area is generated. Then, design image information representing an image received by a human from the set of colors is associated and stored.
[0069]
Based on this design evaluation database, an average color can be extracted from the background region, main region, and accent region of actual image data, and design image information can be extracted from the combination of the average colors. As shown in FIG. 11, the extracted design image information is stored and held in the storage unit 12 as a design database in association with the identification number of the image data and the image data to be evaluated.
[0070]
For example, when an average color is extracted from each of the background area, main area, and accent area of the image data in FIG. 12, design image information “natural” can be obtained based on the design evaluation database in FIG.
[0071]
It is also preferable to use the physical feature quantity itself obtained from the image data as design image information. For example, the combination of the average colors of the background area, the main area, and the accent area of the image data itself may be used as the design image information as a color palette.
[0072]
When the design image is selected, the design image evaluation process is terminated, and the control unit 10 returns the control to step S0.
[0073]
2-3. User image acquisition process
When the user image acquisition process button 24 is clicked in step S0, the process proceeds to the user image acquisition process in step S30.
[0074]
In the user image acquisition step of step S30, an image held by the user (hereinafter referred to as user image information) is acquired for the image data captured in step S20. The user image acquisition process is processed according to the flowchart shown in FIG.
[0075]
First, in step S30a, the control unit 10 displays the image data selection screen 1006 on the output unit 16, and prompts the user to select image data to be acquired from the image data captured in step S20.
[0076]
As shown in FIG. 15, the image data selection screen 1006 lists and displays information on the image data held in the design database of the storage unit 12 on the screen, and which image data the user image information is acquired from. It is preferable to select these. However, the mode of the image data selection screen 1006 is not limited to this, and it is sufficient that the image data held in the design database can be selected.
[0077]
A user who inputs an image with respect to image data moves the mouse pointer 5 to a check box 40 provided for each piece of information related to image data on the image data selection screen 1006 using the input unit 14 such as a mouse, and clicks the mouse. Select information by doing. Next, the selection of the image data is determined by moving the mouse pointer 5 to the selection determination button 42 and clicking the mouse.
[0078]
In step S30b, the control unit 10 displays the user image input screen 1008 on the output unit 16, and prompts the user to input an image received by viewing the image data.
[0079]
As shown in FIG. 16, the user image input screen 1008 is divided into an area 43 for displaying the contents of the selected image data and an area 44 for enumerating and displaying information representing design images.
[0080]
The control unit 10 reads out the image data selected in step S30a from the design database held in the storage unit 12, and forms and displays the image data in the image data display area 43. For example, when image data of a web page is selected, as shown in FIG. 16, the URL of the image data is read from the design database, and the image data is fetched from the URL and displayed on the display.
[0081]
Furthermore, the control unit 10 reads out information representing the design image from the image representation database held in the storage unit 12 and displays the information in the image representation display area 44. Similar to the target image determination step in step S10, the information representing the image included in the image representation database is obtained from image data from color information including a plurality of adjectives representing a design image and a color palette composed of color sets. It is preferable to select and use as appropriate according to the type. Here, it is assumed that the image information database includes character information composed of a plurality of adjective groups.
[0082]
Next, in step S <b> 30 c, the user uses the input unit 14 to select information that matches the image felt when viewing the design of the image displayed in the image data display area 43.
[0083]
For example, as shown in FIG. 16, the mouse pointer 5 is displayed in the image expression display area 44 in which adjectives are listed, and the user uses the mouse to check boxes 46 provided for adjectives that match the image received from the design. The mouse pointer 5 is moved to and selected by clicking the mouse. A check mark is displayed in the selected check box 46. The adjective display can be changed as appropriate by moving the mouse pointer 5 on the scroll button 48 and clicking the mouse. When the selection of the adjective is completed, the character information of the selected adjective is stored in the storage unit 12 by moving the mouse pointer 5 to the position of the decision button 47 and clicking the mouse.
[0084]
For example, in FIG. 16, the character information “behavioral” and “fancy” is selected and stored in the storage unit 12.
[0085]
The method for acquiring the user's image is not limited to this. That is, it is sufficient if the user can easily input an image for the design of the image data.
[0086]
Next, in step S30d, user image information is determined based on the selected information. For the determination of the user image information, the image evaluation database used in the target image determination process in step S10 is used.
[0087]
The control unit 10 reads the selected information from the storage unit 12 and refers to the image evaluation database to extract user image information associated with the selected set of information.
[0088]
For example, when the character information “Fancy” is selected, “elegant” is selected as the user image information at a rate of 1.0 in the image evaluation database of FIG.
[0089]
The extracted user image information is associated with the image data and stored in the storage unit 12 as a user image information database as shown in FIG.
[0090]
If a user image information database has not yet been generated, a user image information database is generated for each design identification number. On the other hand, when a user image information database exists for the design identification number, image data and user image information are added to the existing user image information database.
[0091]
When the user image information is selected, the user image acquisition process is terminated, and the control unit 10 returns the control to step S0.
[0092]
The information representing the user image information is not limited to the adjective character information as in the present embodiment. For example, a mode in which user image information is selected from a color pallet group consisting of a set of colors is also suitable as in the target image determination step in step S10.
[0093]
Further, it is also preferable to cause a plurality of users to perform the above-described process and acquire user image information from a plurality of users for the same image data. This makes it possible to obtain a wide and objective evaluation of the image data.
[0094]
2-4. Image presentation / correction process
When the image presentation / correction process button 26 is clicked in step S0, the process proceeds to the image presentation / correction process in step S40.
[0095]
The image presentation / correction process in step S40 is executed according to the flowchart shown in FIG. 18, and displays the target image information obtained in step S10, the design image information obtained in step S20, and the user image information obtained in step S30. Do.
[0096]
First, in step S40a, the control unit 10 displays the display selection screen 1010 on the output unit 16, and allows the operator to select which information is to be displayed.
[0097]
On the display selection screen 1010, as shown in FIG. 19, the identification number of the design to be displayed is input in the input box. Further, by selecting the check box 50 and clicking the decision button 52, information to be displayed is selected from the target image information, the design image information, and the user image information.
[0098]
Next, in response to the input of information to be displayed, the control unit 10 displays target image information, design image information, or user image information on the image map screen 1012 in step S40b.
[0099]
The image map screen 1012 is divided into a plurality of areas as shown in FIG. 20, and an area identification number is assigned to each area. On the other hand, the storage unit 12 stores information representing an image for each region identification number in association with each other as an image display database.
[0100]
The control unit 10 extracts an area identification number associated with the target image information, design image information, or user image information by referring to the image display database. Then, each piece of information corresponding to the area on the image map screen 1012 to which the extracted area identification number is assigned is displayed.
[0101]
Here, it is preferable to provide a coordinate axis on the image map screen 1012 and assign an area identification number so that the image changes with a predetermined tendency along the coordinate axis.
[0102]
For example, in the example of the image map screen 1012 shown in FIG. 21, the X coordinate indicating the warmth of the design from “warm” to “cold” and the Y coordinate indicating the hardness of the design from “soft” to “hard”. And two orthogonal coordinates are provided, and information representing the image is assigned along the change of each image.
[0103]
Note that the method of assigning information on the image map screen 1012 is not limited to this, and it is preferable to change the setting of the coordinate axes in accordance with the type of the target design.
[0104]
When the target image information is selected in step S40a, the target image information associated with the design identification number is displayed superimposed on the image map screen 1012 as shown in FIG.
[0105]
When the design image information is selected in step S40a, the design image information included in the design database associated with the design identification number is displayed superimposed on the image map screen 1012 as shown in FIG. At this time, it is preferable to easily identify the displayed information by changing the display color of the information for each image data included in the design database. It is also preferable to display the image data itself corresponding to the design image information instead of or together with the design image information.
[0106]
When the user image information is selected in step S40a, the user image information included in the user image information database associated with the design identification number is displayed superimposed on the image map screen 1012 as shown in FIG. At this time, it is preferable to easily identify the displayed information by changing the display color of the information for each image data included in the user image information database.
[0107]
Furthermore, when both the target image information and the design image information are selected in step S40a, both the target image information and the design image information associated with the design identification number are superimposed on the image map screen 1012 as shown in FIG. Displayed together. Similarly, when both target image information and user image information are selected, when both design image information and user image information are selected, or all of target image information, design image information, and user image information are selected. In this case, each piece of information is superimposed on the image map screen 1012 and displayed.
[0108]
In this way, by displaying the target image information, design image information, and user image information superimposed on one image map screen 1012, the design creator, the client, and the user can create an image that is the target of design production, the actual image It is possible to confirm the image of the design and the image received by the user from the actual design while visually comparing them. At this time, since each piece of information is displayed on the image map screen 1012 along the coordinate axis indicating the image tendency, how much the target image, the actual design image, and the image received by the user differ. It is possible to clearly grasp the tendency of the difference.
[0109]
Furthermore, in step S20, by obtaining design image information for the design of other companies' web pages and other products, it is possible to compare and confirm these information and target image information. Thereby, it becomes easy to grasp the coincidence or difference between the images of other companies' web pages and other products and the design target image to be produced.
[0110]
Furthermore, by acquiring user image information from a plurality of users for the same design in step S30, the distribution tendency of the user image information can be easily confirmed on the image map screen 1012. Further, it is possible to confirm at a glance whether the target image information and the design image information match the user image information with the distribution tendency or the difference.
[0111]
When a color palette is used instead of adjectives as target image information, design image information, and user image information, a color palette is associated with each area on the image map screen 1012 so that the target image information, design image information In addition, a color palette may be displayed in an area corresponding to user image information.
[0112]
Furthermore, in the present embodiment, it is possible to correct the target image information and present information useful for correcting the design image. When the mouse pointer 5 is moved to the target image correction button 64 or the design image correction information presentation button 65 on the image map screen 1012, and the mouse is clicked, the process proceeds to step S40c.
[0113]
When the correction of the target image information is instructed, the control unit 10 starts the target image information setting process.
[0114]
The operator moves the mouse pointer 5 to an area on the image map screen 1012 and clicks the mouse while referring to the design image information and user image information displayed on the image map screen 1012. The control unit 10 acquires the position of the mouse pointer 5 and refers to the image expression database to set information representing an image assigned to the area as new target image information. Here, in order to easily confirm the new set target image information, it is also preferable to display the target image information by providing an area 66 for displaying the target image information.
[0115]
If the above target image information setting method is used, for example, the competitor's web design is displayed as design image information superimposed on the image map screen 1012, and the company's web design target image is displayed as the competitor's web design. When it is desired to make the image different from the image, it is possible to easily set the appropriate target image information by designating an area that does not overlap with the area where the design image information of the web design of the competitor is displayed. On the other hand, when it is desired to have a web design having an image similar to that of a competitor, appropriate target image information can be set by designating an area in which the design image information of the competitor's web design is displayed. Similarly, by displaying the user image information superimposed on the image map screen 1012, it is possible to set new target image information while referring to the image received by the user.
[0116]
Further, by moving the mouse pointer 5 to the design image correction information presentation button 65 provided on the image map screen 1012 and clicking the mouse, the operator can present information necessary for correcting the design image information. . For example, a combination of colors of a background area, a main area, and an accent area suitable for an image assigned to each area of the image map screen 1012 is stored in a database in advance, and the color corresponding to the area where the target image information is displayed is stored. It is preferable to display the set superimposed on the image map screen 1012. By changing the design to the displayed color combination, you can get closer to the target image.
[0117]
As described above, the target image information and the design correction support information are displayed on the same image map screen 1012, so that the target image, the actual design image, and the image received by the user can be visually confirmed. Work can be done.
[0118]
That is, according to the present embodiment, it is possible to confirm on the same image map screen whether the image that is the target of design production, the image that the actual design has, and the image that the user receives from the actual design are the same or different. .
[0119]
As a result, the client and the design creator can visually grasp the suitability of the target image setting for the design production, and can easily correct the target image and the design image. In addition, in the design production work, it is easy to collate information between the client and the design creator, and the work can be performed smoothly.
[0120]
Furthermore, it becomes easy to find the direction of correction of the design based on the image targeted by the client and the image received by the user from the created design.
[0121]
In the above embodiment, visual designs such as web pages, presentation materials, and product designs are targeted. However, target image information, design image information, and user images are also applied to audio data such as commercial audio. A similar effect can be obtained by acquiring information and displaying it on the same image map screen.
[0122]
【The invention's effect】
According to the present invention, it is possible to clearly grasp the image that is the target of design production, the image that the actual design has, and the match and difference of the image that the user receives from the design. This makes it possible to easily modify the target image and the actual design.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the overall configuration of a design production support system according to an embodiment of the present invention.
FIG. 2 shows a block diagram of a configuration of a management server in the embodiment of the present invention.
FIG. 3 is a diagram showing a main flowchart of a design creation support method according to the embodiment of the present invention.
FIG. 4 is a diagram showing a main menu screen in the embodiment of the present invention.
FIG. 5 is a diagram showing a flowchart of a target image determination process in the embodiment of the present invention.
FIG. 6 is a diagram showing a target image input screen in the embodiment of the present invention.
FIG. 7 is a diagram showing an image expression database according to the embodiment of the present invention.
FIG. 8 is a diagram showing an image evaluation database according to the embodiment of the present invention.
FIG. 9 is a flowchart of a design image evaluation process in the embodiment of the present invention.
FIG. 10 is a diagram showing a design image evaluation screen according to the embodiment of the present invention.
FIG. 11 is a diagram showing a design database according to the embodiment of the present invention.
FIG. 12 is a diagram showing an example of a web page in the embodiment of the present invention.
FIG. 13 is a diagram showing a design evaluation database according to the embodiment of the present invention.
FIG. 14 is a diagram showing a flowchart of a user image acquisition process in the embodiment of the present invention.
FIG. 15 is a diagram showing an image data selection screen in the embodiment of the present invention.
FIG. 16 is a diagram showing a user image input screen in the embodiment of the present invention.
FIG. 17 is a diagram showing a user image information database according to the embodiment of the present invention.
FIG. 18 is a diagram showing a flowchart of an image presentation / modification process in the embodiment of the present invention.
FIG. 19 is a diagram showing a display selection screen in the embodiment of the present invention.
FIG. 20 is a diagram showing an image map screen according to the embodiment of the present invention.
FIG. 21 is a diagram showing an image display database according to the embodiment of the present invention.
FIG. 22 is a diagram showing an image map screen on which target image information is superimposed and displayed.
FIG. 23 is a diagram showing an image map screen on which design image information and image data are superimposed and displayed.
FIG. 24 is a diagram showing an image map screen on which user image information is superimposed and displayed.
FIG. 25 is a diagram illustrating an image map screen on which target image information, design image information, and image data are displayed in an overlapping manner.
FIG. 26 is a diagram showing a flowchart of design production.
[Explanation of symbols]
5 mouse pointer, 10 control unit, 12 storage unit, 14 input unit, 15 input box, 16 output unit, 18 network interface unit, 20 target image determination button, 22 design image evaluation button, 24 user image acquisition button, 26 image presentation・ Modify button, 28 check box, 29 decision button, 30 input box, 32 web design capture button, 34 image capture button, 36 background area, 37 main area, 38 accent area, 40 check box, 42 selection decision button, 43 Image data display area, 44 Image expression display area, 46 Check box, 47 Enter button, 48 Scroll button, 50 Check box, 52 Enter button, 54 input box, 60 Image information display area 62a X coordinate axis, 62b Y coordinate axis, 64 Target image correction button, 65 Design image correction information presentation button, 66 Target image display area, 68 Display of image data, 100 Management server, 102a, 102b, 102c Client computer, 104 network, 1000 main menu screen, 1002 target image input screen, 1004 design image evaluation screen, 1006 image data selection screen, 1008 user image input screen, 1010 display selection screen, 1012 image map screen.

Claims (2)

形容詞群からなる文字情報を含むデザインのイメージを表現するイメージ表現情報をイメージ情報データベースとして記憶するイメージ表現情報記憶手段、
イメージマップ画面を分割した各領域に割り当てられたイメージに関する情報と、イメージ表現情報と、を関連付けたイメージ評価データベースを記憶するイメージ評価情報記憶手段、
ユーザからのイメージ表現情報の選択を受けて、前記イメージ評価データベースにおいて前記選択されたイメージ表現情報に関連付けられているイメージに関する情報をデザイン制作の際に目標とする目標イメージ情報として決定する目標イメージ決定手段、
前記イメージに関する情報と、デザインが有する物理的特徴量と、を関連付けたデザイン評価データベースを記憶するデザイン評価情報記憶手段と、
制作されたデザインが有する物理的特徴量を抽出し、前記デザイン評価データベースにおいて前記抽出された物理的特徴量に関連付けられているイメージに関する情報をデザインイメージ情報として決定するデザインイメージ決定手段、
前記制作されたデザインからユーザが受けるイメージに合うイメージ表現情報をユーザから取得し、前記イメージ評価データベースにおいて前記取得されたイメージ表現情報に関連付けられているイメージに関する情報をユーザイメージ情報として決定するユーザイメージ決定手段
前記イメージマップ画面と重ね合わせて、前記目標イメージ決定手段で決定された前記目標イメージ情報、前記デザインイメージ決定手段で決定された前記デザインイメージ情報及び前記ユーザイメージ決定手段で決定された前記ユーザイメージ情報を前記イメージマップ画面の領域のうちそれらの各情報が割り当てられた領域に表示するイメージ表示手段
前記イメージマップ画面を分割した各領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩の組み合わせを修正用データベースとして記憶する修正用情報記憶手段と、
前記制作されたデザインの修正が指示された場合、前記目標イメージ情報が表示された前記イメージマップの領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩を前記修正用データベースから抽出して前記イメージマップの領域に重ね合わせて表示する色彩表示手段、
を含むことを特徴とするデザイン制作支援システム。
Image expression information storage means for storing image expression information representing an image of a design including character information composed of adjectives as an image information database;
Image evaluation information storage means for storing an image evaluation database that associates information about images assigned to each area obtained by dividing the image map screen and image expression information;
In response to selection of the image representation information from the user, it determines the information about the image associated with the selected image representation information as targets image information shall be the target in the design production in the image evaluation database target Image determination means,
Design evaluation information storage means for storing a design evaluation database associating information on the image and physical features of the design;
Extracting physical feature amount included in the production design, design image determining means for determining information about the image that is associated with the physical feature amount of the extracted in the design evaluation database as design image information,
The user image to determine acquires image representation that match the images that the user receives from the production design from the user, information about the image that is associated with the acquired image representation information in the image evaluation database as the user image information Decision means ,
The target image information determined by the target image determination means, the design image information determined by the design image determination means, and the user image information determined by the user image determination means, superimposed on the image map screen. image display means for displaying the broadcast, in a region where each of those information are allocated among the areas of the image map screen,
Correction information storage means for storing a combination of colors of a background area, a main area, and an accent area suitable for an image assigned to each area obtained by dividing the image map screen as a correction database;
When correction of the produced design is instructed, the background database, the main area, and the accent area corresponding to the image assigned to the image map area on which the target image information is displayed are displayed in the correction database. Color display means for extracting from the image map area and displaying it superimposed on the image map area;
Design production support system characterized by including
形容詞群からなる文字情報を含むデザインのイメージを表現するイメージ表現情報をイメージ情報データベースとして記憶するイメージ表現情報記憶手段、
イメージマップ画面を分割した各領域に割り当てられたイメージに関する情報と、イメージ表現情報と、を関連付けたイメージ評価データベースを記憶するイメージ評価情報記憶手段、
前記イメージに関する情報と、デザインが有する物理的特徴量と、を関連付けたデザイン評価データベースを記憶するデザイン評価情報記憶手段と、
前記イメージマップ画面を分割した各領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩の組み合わせを修正用データベースとして記憶する修正用情報記憶手段と、を備えるコンピュータに、
ユーザからのイメージ表現情報の選択を受けて、前記イメージ評価データベースにおいて前記選択されたイメージ表現情報に関連付けられているイメージに関する情報をデザイン制作の際に目標とする目標イメージ情報として決定する目標イメージ決定工程、
制作されたデザインが有する物理的特徴量を抽出し、前記デザイン評価データベースにおいて前記抽出された物理的特徴量に関連付けられているイメージに関する情報をデザインイメージ情報として決定するデザインイメージ決定工程、
前記制作されたデザインからユーザが受けるイメージに合うイメージ表現情報をユーザから取得し、前記イメージ評価データベースにおいて前記取得されたイメージ表現情報に関連付けられているイメージに関する情報をユーザイメージ情報として決定するユーザイメージ決定工程、
前記イメージマップ画面と重ね合わせて、前記目標イメージ情報、前記デザインイメージ情報及び前記ユーザイメージ情報を前記イメージマップ画面の領域のうちそれらの各情報が割り当てられた領域に表示するイメージ表示工程と、
前記制作されたデザインの修正が指示された場合、前記目標イメージ情報が表示された前記イメージマップの領域に割り当てられたイメージに相応しいデザインの背景領域、メイン領域及びアクセント領域の色彩を前記修正用データベースから抽出して前記イメージマップの領域に重ね合わせて表示する色彩表示工程、
を含む処理を実行させることを特徴とするデザイン制作支援プログラム。
Image expression information storage means for storing image expression information representing an image of a design including character information composed of adjectives as an image information database;
Image evaluation information storage means for storing an image evaluation database that associates information about images assigned to each area obtained by dividing the image map screen and image expression information;
Design evaluation information storage means for storing a design evaluation database associating information on the image and physical features of the design;
A computer comprising correction information storage means for storing, as a correction database, a combination of colors of a background area, a main area, and an accent area suitable for an image assigned to each area obtained by dividing the image map screen .
In response to selection of the image representation information from the user, it determines the information about the image associated with the selected image representation information as targets image information shall be the target in the design production in the image evaluation database target Image determination process,
Extracting physical feature amount included in the production design, the design image determination step of determining information about an image that is associated with the physical feature amount of the extracted in the design evaluation database as design image information,
The user image to determine acquires image representation that match the images that the user receives from the production design from the user, information about the image that is associated with the acquired image representation information in the image evaluation database as the user image information Decision process,
Superimposed with the image map screen, the target image information, the design image information and the user image information, an image display step of displaying the region where each of those information are allocated among the areas of the image map screen ,
When correction of the produced design is instructed, the background database, the main area, and the accent area corresponding to the image assigned to the image map area on which the target image information is displayed are displayed in the correction database. A color display step of extracting from the image map area and displaying it superimposed on the image map area,
A design creation support program characterized by causing a process to be executed.
JP2002264823A 2002-09-10 2002-09-10 Design production support system and design production support program Expired - Fee Related JP4165160B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002264823A JP4165160B2 (en) 2002-09-10 2002-09-10 Design production support system and design production support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002264823A JP4165160B2 (en) 2002-09-10 2002-09-10 Design production support system and design production support program

Publications (2)

Publication Number Publication Date
JP2004102734A JP2004102734A (en) 2004-04-02
JP4165160B2 true JP4165160B2 (en) 2008-10-15

Family

ID=32264122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002264823A Expired - Fee Related JP4165160B2 (en) 2002-09-10 2002-09-10 Design production support system and design production support program

Country Status (1)

Country Link
JP (1) JP4165160B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113757A (en) * 2004-10-13 2006-04-27 Matsushita Electric Ind Co Ltd Map management method, map management program and map management device
JP4867433B2 (en) * 2006-04-03 2012-02-01 富士ゼロックス株式会社 Design production support device and design production support program
JP4984606B2 (en) * 2006-04-03 2012-07-25 富士ゼロックス株式会社 Design production support device and design production support program
JP4867434B2 (en) * 2006-04-03 2012-02-01 富士ゼロックス株式会社 Design production support device and design production support program
JP4802825B2 (en) * 2006-04-04 2011-10-26 富士ゼロックス株式会社 Design production support device and design production support program
JP4802823B2 (en) * 2006-04-04 2011-10-26 富士ゼロックス株式会社 Design production support device and design production support program
JP4802826B2 (en) * 2006-04-04 2011-10-26 富士ゼロックス株式会社 Design production support device and design production support program
JP4797757B2 (en) 2006-04-06 2011-10-19 富士ゼロックス株式会社 Media evaluation method
JP2007280048A (en) * 2006-04-06 2007-10-25 Fuji Xerox Co Ltd Design evaluation method
JP2007280038A (en) * 2006-04-06 2007-10-25 Fuji Xerox Co Ltd Method for evaluating merchandise information provision
JP4984610B2 (en) * 2006-04-06 2012-07-25 富士ゼロックス株式会社 Design evaluation method
JP4797756B2 (en) * 2006-04-06 2011-10-19 富士ゼロックス株式会社 Purchasing process evaluation method
JP4978043B2 (en) * 2006-04-06 2012-07-18 富士ゼロックス株式会社 Image information evaluation method
JP4788482B2 (en) * 2006-06-02 2011-10-05 富士ゼロックス株式会社 Design production support device and design production support program
JP4760617B2 (en) * 2006-08-30 2011-08-31 富士ゼロックス株式会社 Design production support device and design production support program
JP4760618B2 (en) * 2006-08-30 2011-08-31 富士ゼロックス株式会社 Design production support device and design production support program
JP4710766B2 (en) * 2006-09-04 2011-06-29 富士ゼロックス株式会社 Design production support device and design production support program
JP2013196250A (en) * 2012-03-19 2013-09-30 Ricoh Co Ltd Content creation support device, method for the same, and program
WO2022208715A1 (en) * 2021-03-31 2022-10-06 日本電気株式会社 Product design generation assistance device, product design generation assistance system, product design generation assistance method, and recording medium having product design generation assistance program stored thereon

Also Published As

Publication number Publication date
JP2004102734A (en) 2004-04-02

Similar Documents

Publication Publication Date Title
JP4165160B2 (en) Design production support system and design production support program
Leuski et al. Lighthouse: Showing the way to relevant information
US9569541B2 (en) Evaluating preferences of content on a webpage
US7958451B2 (en) Graphical user interface for an information mediation system
CA2309050A1 (en) Publication file conversion and display
CA2337758A1 (en) System and method for processing and displaying product information on a computer
KR101350525B1 (en) Method and apparatus for using tab corresponding to query to provide additional information
JP4802825B2 (en) Design production support device and design production support program
JP4984606B2 (en) Design production support device and design production support program
JP4978043B2 (en) Image information evaluation method
US20070288305A1 (en) Method for evaluating provision of commodity information
JP4940734B2 (en) Design production support device and design production support program
JP4710766B2 (en) Design production support device and design production support program
JP4760617B2 (en) Design production support device and design production support program
US8140374B2 (en) Method for evaluating provision of commodity information
JP4802823B2 (en) Design production support device and design production support program
JP4867433B2 (en) Design production support device and design production support program
JP4867434B2 (en) Design production support device and design production support program
JP2007280048A (en) Design evaluation method
JP4760618B2 (en) Design production support device and design production support program
JP2000112856A (en) Web information display device, its display method, and recording medium recording program for executing the method
KR20080007770A (en) Method for processing content publication in brog and the system thereof
JP4984610B2 (en) Design evaluation method
JP4788482B2 (en) Design production support device and design production support program
JP4802826B2 (en) Design production support device and design production support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080721

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees