TWI722705B - Method for automatically labelling muscle feature points on face - Google Patents
Method for automatically labelling muscle feature points on face Download PDFInfo
- Publication number
- TWI722705B TWI722705B TW108144950A TW108144950A TWI722705B TW I722705 B TWI722705 B TW I722705B TW 108144950 A TW108144950 A TW 108144950A TW 108144950 A TW108144950 A TW 108144950A TW I722705 B TWI722705 B TW I722705B
- Authority
- TW
- Taiwan
- Prior art keywords
- feature points
- face
- image
- muscle
- muscle feature
- Prior art date
Links
- 210000003205 muscle Anatomy 0.000 title claims abstract description 176
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000002372 labelling Methods 0.000 title abstract 3
- 238000010191 image analysis Methods 0.000 claims abstract description 11
- 238000004458 analytical method Methods 0.000 claims description 69
- 230000001815 facial effect Effects 0.000 claims description 44
- 210000001097 facial muscle Anatomy 0.000 claims description 27
- 238000013473 artificial intelligence Methods 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 14
- 238000012423 maintenance Methods 0.000 description 9
- 230000003796 beauty Effects 0.000 description 2
- 239000002537 cosmetic Substances 0.000 description 2
- 210000001352 masseter muscle Anatomy 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000007665 sagging Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 210000004373 mandible Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000036314 physical performance Effects 0.000 description 1
- 230000012191 relaxation of muscle Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本發明涉及一種臉部的標記方法,尤其涉及一種臉部的肌肉特徵點的標記方法。 The invention relates to a method for marking a face, in particular to a method for marking facial muscle feature points.
由於人類的肌肉(特別是臉部的肌肉)會隨著年齡的增加而慢慢出現鬆弛、下垂的現象,因此部分的使用者會選擇使用保養品來對肌肉及皮膚進行保養、使用化妝品來掩飾鬆弛的肌肉,或是通過運動、醫美等手段來減緩上述鬆弛、下垂現象的發生。 Since human muscles (especially facial muscles) will gradually become loose and sagging with age, some users will choose to use skin care products to maintain muscles and skin, and use cosmetics to cover up Relaxation of muscles, or through exercise, medical beauty and other means to slow down the occurrence of the above-mentioned relaxation and sagging phenomenon.
一般來說,使用者會坐在鏡子前面進行保養與化妝,或是藉由智慧型手機、平板電腦或是特殊的化妝輔助裝置來協助所述保養、化妝的動作,以求速度的提昇。 Generally speaking, users will sit in front of a mirror to perform maintenance and makeup, or use a smartphone, a tablet computer, or a special makeup assisting device to assist the maintenance and makeup actions in order to increase the speed.
惟,上述裝置只能協助使用者進行保養、化妝,但無法主動分析使用者目前的肌肉狀態,無法令使用者得知其所做的保養、化妝動作是否真的有效。 However, the above-mentioned device can only assist the user in maintenance and makeup, but cannot actively analyze the user's current muscle state, and cannot let the user know whether the maintenance and makeup actions they perform are really effective.
有鑑於此,本技術領域中實需提供一種新穎的方法,可有效地對使用者的臉部影像進行分析,並且自動標記出可以代表使用者當前的肌肉狀態 的多個肌肉特徵點,藉此讓使用者輕易瞭解當前的肌肉狀態並判斷所進行的保養手段是否有效。 In view of this, there is a need in this technical field to provide a novel method that can effectively analyze the user’s facial image and automatically mark the user’s current muscle state. The multiple muscle feature points, which allows the user to easily understand the current muscle state and judge whether the maintenance method performed is effective.
本發明的主要目的,在於提供一種臉部肌肉特徵點自動標記方法,可自動於使用者的臉部影像上標記出用來代表臉部肌肉狀態的複數個肌肉特徵點。 The main purpose of the present invention is to provide a method for automatically marking facial muscle feature points, which can automatically mark a plurality of muscle feature points representing the state of facial muscles on a user's facial image.
為了達成上述目的,本發明的臉部肌肉特徵點自動標記方法主要應用於一臉部影像分析裝置,並且包括下列步驟:取得一待辨識影像,其中該待辨識影像至少包含使用者的臉部;對該待辨識影像執行一臉部識別程序以獲得該臉部上的多個強參考點;基於預先訓練完成的一訓練模型對該待辨識影像進行模糊比對並產生一辨識結果;依據該辨識結果於該待辨識影像上標記複數肌肉特徵點,其中該複數肌肉特徵點分別落在該臉部上的複數弱參考點;及,通過一顯示單元重疊顯示該待辨識影像及該複數肌肉特徵點。 In order to achieve the above objective, the method for automatically marking facial muscle feature points of the present invention is mainly applied to a facial image analysis device, and includes the following steps: obtaining a to-be-recognized image, wherein the to-be-recognized image includes at least the user’s face; Perform a face recognition procedure on the image to be recognized to obtain multiple strong reference points on the face; perform blur comparison on the image to be recognized based on a training model completed in advance and generate a recognition result; according to the recognition As a result, a plurality of muscle feature points are marked on the image to be recognized, wherein the plurality of muscle feature points respectively fall on the plural weak reference points on the face; and, the image to be recognized and the plurality of muscle feature points are overlapped and displayed by a display unit .
相較於相關技術,本發明可以藉由對使用者的臉部影像的辨識來自動標記出至少四個肌肉特徵點,而本發明標記的肌肉特徵點可以用來代表臉部的肌肉狀態。因此,使用者可以通過所標記的肌肉特徵點迅速瞭解自己當前的臉部肌肉狀態,並且確認所採取的保養手段是否有效。 Compared with the related technology, the present invention can automatically mark at least four muscle feature points by recognizing the user's facial image, and the muscle feature points marked by the present invention can be used to represent the muscle state of the face. Therefore, the user can quickly understand his current facial muscle state through the marked muscle feature points, and confirm whether the maintenance measures taken are effective.
1:臉部影像分析裝置 1: Facial image analysis device
10:處理器 10: processor
11:顯示單元 11: Display unit
12:影像擷取單元 12: Image capture unit
13:輸入單元 13: Input unit
14:無線傳輸單元 14: wireless transmission unit
15:儲存單元 15: storage unit
151:人工智慧訓練演算法 151: Artificial Intelligence Training Algorithm
152:訓練資料 152: Training Materials
153:訓練模型 153: training model
1531:第一個迴歸樹 1531: The first regression tree
1532:第二個迴歸樹 1532: The second regression tree
1533:第n個迴歸樹 1533: the nth regression tree
1534:判斷端點 1534: Judgment endpoint
1535:權重 1535: weight
2:待辨識影像 2: Image to be recognized
3、4:肌肉特徵點 3, 4: muscle feature points
31、41:第一肌肉特徵點 31, 41: the first muscle feature point
32、42:第二肌肉特徵點 32, 42: Second muscle feature point
33、43:第三肌肉特徵點 33, 43: third muscle feature point
34、44:第四肌肉特徵點 34, 44: Fourth muscle feature point
5:臉部定位框 5: Face positioning frame
61:第一淚溝切線 61: First tear groove tangent
62:第二淚溝切線 62: Second tear groove tangent
63:第一法令紋切線 63: The first law pattern tangent
64:第二法令紋切線 64: The second law pattern tangent
65:第一木偶紋切線 65: The first puppet pattern tangent
66:第二木偶紋切線 66: The second puppet pattern tangent
67:第一眼角垂直線 67: Vertical line at the first corner of the eye
68:第二眼角垂直線 68: Vertical line at the second corner of the eye
69:第一顎骨枝切線 69: First jawbone branch tangent
70:第二顎骨枝切線 70: Second jawbone branch tangent
80:預測特徵點 80: predict feature points
81:第一調整後預測點 81: The first adjusted forecast point
82:第二調整後預測點 82: Second adjusted forecast point
83:第n-1調整後預測點 83: adjusted prediction point n-1
84:最終預測點 84: Final prediction point
S10~S20:建立步驟 S10~S20: Establishment steps
S30~S36:辨識步驟 S30~S36: Identification steps
S320~S330:辨識步驟 S320~S330: Identification steps
圖1為本發明的臉部影像分析裝置的示意圖的第一具體實施例。 FIG. 1 is a first specific embodiment of a schematic diagram of a facial image analysis device of the present invention.
圖2本發明的臉部影像分析裝置的方塊圖的第一具體實施例。 Fig. 2 is a first embodiment of the block diagram of the facial image analysis device of the present invention.
圖3為本發明的肌肉特徵點示意圖的第一具體實施例。 Fig. 3 is a first specific embodiment of the schematic diagram of muscle feature points of the present invention.
圖4為本發明的訓練模型建立流程圖的第一具體實施例。 Fig. 4 is a first specific embodiment of the flow chart of establishing a training model of the present invention.
圖5為本發明的肌肉特徵點的標記位置示意圖的第一具體實施例。 Fig. 5 is a first specific embodiment of the schematic diagram of the marking position of the muscle feature points of the present invention.
圖6為本發明的訓練資料示意圖的第一具體實施例。 Fig. 6 is a first specific embodiment of the training data schematic diagram of the present invention.
圖7為本發明的辨識流程圖的第一具體實施例。 FIG. 7 is a first specific embodiment of the identification flowchart of the present invention.
圖8為本發明的辨識流程圖的第二具體實施例。 FIG. 8 is a second specific embodiment of the identification flowchart of the present invention.
圖9為本發明的訓練模型示意圖的第一具體實施例。 Fig. 9 is a first specific embodiment of a schematic diagram of a training model of the present invention.
圖10為本發明的特徵點調整示意圖的第一具體實施例。 Fig. 10 is a first specific embodiment of the feature point adjustment schematic diagram of the present invention.
茲就本發明之一較佳實施例,配合圖式,詳細說明如後。 With regard to a preferred embodiment of the present invention, the detailed description is given below in conjunction with the drawings.
請參閱圖1及圖2,其中圖1為本發明的臉部影像分析裝置的示意圖的第一具體實施例,圖2為本發明的臉部影像分析裝置的方塊圖的第一具體實施例。 Please refer to FIGS. 1 and 2. FIG. 1 is a first specific embodiment of a schematic diagram of a facial image analysis device of the present invention, and FIG. 2 is a first specific embodiment of a block diagram of the facial image analysis device of the present invention.
本發明揭露了一種臉部肌肉特徵點自動標記方法(下面簡稱為標記方法),所述標記方法主要應用於如圖1、圖2所示的臉部影像分析裝置1(下面簡稱為分析裝置1)。具體地,本發明主要是通過所述分析裝置1來取得使用者的臉部影像,並且基於預先訓練完成的人工智慧模型來對臉部影像進行辨識,再依據辨識結果於臉部影像上標示出可用來代表使用者當前的臉部肌肉狀態的多個肌肉特徵點。通過由分析裝置1自動標記的多個肌肉特徵點,使用者可以快速且有效地瞭解自己當前的臉部肌肉狀態,進而評估自己目前使用的化妝品、保養品及所採用的各項保養手段(如例運動或醫美)是否有效。
The present invention discloses a method for automatically marking facial muscle feature points (hereinafter referred to as the marking method), which is mainly applied to the facial
圖1、圖2所示的分析裝置1主要是用來協助使用者進行化妝。具體地,所述分析裝置1可在使用者進行化妝前提供化妝建議、於進行化妝時提供化妝輔助、並於化妝完成後對妝容進行分析與評價。值得一提的是,在其他電子設備(例如智慧型行動裝置、平板電腦等)具有與分析裝置1相近的硬體元件,並且安裝了對應的應用軟體而可執行本發明的標記方法的各個控制步驟的情況下,本發明的標記方法將不限於運用在圖1、圖2所示的分析裝置1,而可藉由各式的電子設備來實現。
The
如圖1及圖2所示,所述分析裝置1主要包括處理器10、顯示單元11、影像擷取單元12、輸入單元13、無線傳輸單元14及儲存單元15。所述處理器10通過匯流排電性連接顯示單元11、影像擷取單元12、輸入單元13、無線傳輸單元14及儲存單元15,以對該些元件進行整合與控制。
As shown in FIGS. 1 and 2, the
所述分析裝置1可通過影像擷取單元12即時擷取使用者的照片(主要為包含了使用者的臉部影像的照片),從照片中擷取出使用者的臉部影像並於顯示單元11上顯示。本發明的主要技術特徵在於,分析裝置1可對所擷取的臉部影像進行辨識,並且自動在臉部影像上標記出可以用來代表使用者當前的臉部肌肉狀態的多個肌肉特徵點,再藉由顯示單元11同時顯示所述臉部影像與多個肌肉特徵點。藉此,使用者可以藉由分析裝置1上顯示的資訊來快速地確認自己當前的肌肉狀態。
The
所述輸入單元13設置於分析裝置1的一側,並且可為實體輸入單元或觸控輸入單元。通過所述輸入單元13,使用者可與分析裝置1進行互動,以對分析裝置1進行操作並向分析裝置1發送指令。舉例來說,使用者可通過
輸入單元13來選擇分析裝置1的不同功能(例如化妝輔助功能、臉部肌肉分析功能等),或是切換分析裝置1所提供的化妝步驟或化妝建議(例如下一頁、上一頁)。
The
於一實施例中,所述顯示單元11可為能夠接受使用者操作的觸控式螢幕。於此實施例中,所述輸入單元13與顯示單元11整合為一體,而不單獨存在。
In one embodiment, the
所述無線傳輸單元14用以連接網路,分析裝置1可通過網路連接遠端的電子設備或伺服器。本發明中,分析裝置1主要可藉由一或多個演算法來進行人工智慧模型的訓練程序、臉部影像的辨識程序以及肌肉特徵點的標記程序,而該些演算法及訓練完成的人工智慧模型可以儲存於分析裝置1中,也可以儲存於遠端的電子設備、伺服器中,不加以限定。再者,使用者亦可操作使用者終端(圖未標示)通過網路連接分析裝置1,以從遠端直接對分析裝置1進行韌體的維護與更新。
The
於一實施例中,分析裝置1是通過所述影像擷取單元12即時擷取使用者的臉部影像,並對臉部影像進行辨識以分析使用者當前的臉部肌肉狀態。於另一實施例中,分析裝置1亦可藉由無線傳輸單元14從遠端的電子設備或伺服器中下載使用者預先拍攝的照片,並對所述照片中的臉部影像進行辨識,以評價使用者於拍攝所述照片時的臉部肌肉狀態。於又一實施例中,分析裝置1亦可從儲存單元15中讀取使用者預先拍攝的照片,並對所述照片中的臉部影像進行辨識,以評價使用者於拍攝所述照片時的臉部肌肉狀態。
In one embodiment, the
所述儲存單元15儲存分析裝置1用來執行本發明的標記方法所需的演算法及模型,具體地,至少儲存有被用來進行模糊比對的訓練模型153,以及用來訓練所述訓練模型153的人工智慧訓練演算法151以及大量的訓練資
料152,但不加以限定。如前文所述,所述人工智慧訓練演算法151、訓練資料152及訓練模型153亦可儲存於遠端的電子裝置或伺服器,分析裝置1可經由網路連接遠端的電子裝置或伺服器,並從遠端存取所述人工智慧訓練演算法151、訓練資料152及訓練模型153。
The
於另一實施例中,所述人工智慧訓練演算法151可內嵌於處理器10中,以做為處理器10的韌體的一部分,但不加以限定。
In another embodiment, the artificial
本發明中,分析裝置1的製造商可預先將大量的訓練資料152匯入儲存單元15中,這些訓練資料152主要為不特定人的臉部影像,並且經由人工方式在這些臉部影像上標示出專家(例如醫師、美容師等)所定義的多個肌肉特徵點。藉此,分析裝置1可通過人工智慧訓練演算法151對這些訓練資料152進行所述訓練模型153的訓練程序。本發明中,所述多個肌肉特徵點的位置係可用來代表臉部的肌肉狀態。
In the present invention, the manufacturer of the
本發明的主要技術特徵在於,當分析裝置1取得一張新的照片時(例如通過影像擷取單元12即時拍攝使用者的臉部影像,或是從儲存單元15中讀取一張預先拍攝的照片),可基於所述訓練模型153對照片進行模糊比對,以在照片中的臉部影像上自動標記出多個肌肉特徵點的位置。如此一來,使用者可基於分析裝置1自動標記的肌肉特徵點的位置來判斷自己當前的臉部的肌肉狀態。
The main technical feature of the present invention is that when the
請同時參閱圖3,為本發明的肌肉特徵點示意圖的第一具體實施例。如圖3所示,當分析裝置1通過影像擷取單元12、無線傳輸單元14或儲存單元15取得一張包含了使用者的臉部影像的待辨識影像2後,即可基於預先訓練完成的訓練模型153對待辨識影像2進行模糊比對,以找出待辨識影像2中
的臉部影像上的複數肌肉特徵點3的位置,並且將複數肌肉特徵3標記於待辨識影像2上後再通過顯示單元11加以顯示。
Please also refer to FIG. 3, which is a first specific embodiment of the schematic diagram of the muscle feature points of the present invention. As shown in FIG. 3, after the
於圖3的實施例中,分析裝置1可基於訓練模型153而於待辨識影像2中自動標記至少四個肌肉特徵點3,包括位於臉部左側上方(對應左邊笑肌位置)的第一肌肉特徵點31、位於臉部左側下方(對應左邊咬合肌位置)的第二肌肉特徵點32、位於臉部右側上方(對應右邊笑肌位置)的第三肌肉特徵點33及位於臉部右側下方(對應右邊咬合肌位置)的第四肌肉特徵點34。於圖3的實施例中是以四個肌肉特徵點3為例,但於其他實施例中,肌肉特徵點3的數量不以四個為限。
In the embodiment of FIG. 3, the
值得一提的是,在一定範圍內,若所述第一肌肉特徵點31與第三肌肉特徵點33的位置越靠近臉部內側(靠近鼻子)以及臉部上側(靠近眼睛),就表示使用者的肌肉狀態越好(例如越年輕、肌肉越緊實)。相似地,在一定範圍內,若所述第二肌肉特徵點32與第四肌肉特徵點34的位置越靠近臉部內側(靠近嘴巴)及臉部上側(靠近鼻頭),就表示使用者的肌肉狀態越好。
It is worth mentioning that within a certain range, if the positions of the first
如上所述,本發明的標記方法是基於預先訓練完成的訓練模型153對待辨識影像2進行辨識,並且於辨識完成後在待辨識影像2上自動標記至少四個肌肉特徵點3,藉此,可有效達到令使用者藉由至少四個肌肉特徵點3的位置來判斷自己當前的臉部肌肉狀態的技術效果。
As mentioned above, the marking method of the present invention is based on the
相較於臉部上的多個強參考點(例如眼睛、鼻子、嘴巴等器官,或是具有明顯特徵的部位),本發明所指的肌肉特徵點3主要是對應到臉部上的弱參考點。因此,若要藉由分析裝置1來實現本發明的標記方法以自動為使用者輸
入的待辨識影像2標記所述肌肉特徵點3,分析裝置1需要預先建立用以執行模糊比對的訓練模型153。
Compared with multiple strong reference points on the face (such as eyes, nose, mouth and other organs, or parts with obvious characteristics), the
續請參閱圖4,為本發明的訓練模型建立流程圖的第一具體實施例。圖4用以具體說明本發明的訓練模型153的建立程序。
Please continue to refer to FIG. 4, which is a first specific embodiment of the flow chart for establishing the training model of the present invention. Fig. 4 is used to specifically illustrate the procedure for establishing the
如圖4所示,首先,使用者取得大量的訓練資料152,這些訓練資料152分別為相同或不同人的臉部影像。接著,使用者根據這些臉部影像所實際呈現的臉部肌肉狀態,基於專家(如醫生或美容師等)定義的特徵點設定規則分別為這些訓練資料152標記至少四個肌肉特徵點(步驟S10)。如前文中所述,本發明藉由至少四個肌肉特徵點來代表臉部的肌肉狀態,換句話說,在訓練階段使用者也可以依據臉部影像的肌肉狀態來以人工方式在訓練資料152上標記肌肉特徵點,以做為所述訓練模型153的訓練基礎。
As shown in FIG. 4, first, the user obtains a large amount of
請同時參閱圖5,為本發明的肌肉特徵點的標記位置示意圖的第一具體實施例。本發明中,所述肌肉特徵點4主要包括位於臉部左側的第一肌肉特徵點41與第二肌肉特徵點42,以及位於臉部右側的第三肌肉特徵點43與第四肌肉特徵點44。並且,所述至少四個肌肉特徵點4分別位於臉部的四個弱參考點上。其中,所述弱參考點的數量對應至肌肉特徵點4的數量。具體地,若使用者在訓練資料152上標記的肌肉特徵點4的數量大於四個,則各個肌肉特徵點4皆需位於臉部的弱參考點上。
Please also refer to FIG. 5, which is a first specific embodiment of the schematic diagram of the marking position of the muscle feature points of the present invention. In the present invention, the muscle feature points 4 mainly include a first
更具體地,如圖5所示,使用者可以通過肉眼或是演算法對訓練資料152中的臉部影像進行分析與判斷,以藉由臉部的實際肌肉狀態取得臉部左側的第一淚溝切線61、第一法令紋切線63、第一木偶紋切線65、第一眼角垂直線67及第一顎骨枝(mandible ramus)切線67等區域構成輔助線,並且取得臉部
右側的第二淚溝切線62、第二法令紋切線64、第二木偶紋切線66、第二眼角垂直線68及第二顎骨枝切線70等區域構成輔助線。本發明中,使用者可通過上述區域構成輔助線來決定各個肌肉特徵點4的具體位置,並且直接在訓練資料152上標記至少四個肌肉特徵點4。
More specifically, as shown in FIG. 5, the user can analyze and judge the facial image in the
當使用者在標記所述肌肉特徵點4時,主要是令第一肌肉特徵點41落在由臉部左側的第一淚溝切線61、第一法令紋切線63、第一眼角垂直線67及第一顎骨枝切線69所構成的區域內;令第二肌肉特徵點42落在由臉部左側的第一法令紋切線61、第一木偶紋切線65、第一眼角垂直線67及第一顎骨枝切線69所構成的區域內;令第三肌肉特徵點43落在由臉部右側的第二淚溝切線62、第二法令紋切線64、第二眼角垂直線68及第二顎骨枝切線70所構成的區域內;並令第四肌肉特徵點44落在由臉部右側的第二法令紋切線64、第二木偶紋切線66、第二眼角垂直線68及第二顎骨枝切線70所構成的區域內。惟,上述僅為本發明的其中一個具體實施範例,但不以此為限。
When the user is marking the
此外,分析裝置1亦可藉由分別判斷上述肌肉特徵點4是否落在其對應之區域構成輔助線所構成的區域內,作為使用者在標記上述肌肉特徵點4時是否有誤之輔助預先判斷,以過濾掉錯誤標記之情形或提出警示以讓使用者再為確認。相同地,這樣的輔助方法,也可以在後述之訓練模型153建立後,選擇性地被用為檢視判斷訓練模型153自動標記之結果是否有誤之輔助方法,特別是在訓練資料152較為不足時可發揮一定之輔助功能。
In addition, the
回到圖4。使用者還藉由分析裝置1或其他電子裝置對所述訓練資料152進行初步的臉部識別程序,藉此從這些訓練資料152中定位出可用來做為訓練基礎的臉部特徵。於一實施例中,分析裝置1主要是通過處理器10執行
Dlib Face Landmark系統的方向梯度直方圖(Histogram of Oriented Gradient,HOG)演算法來對該些訓練資料152執行臉部識別程序,並且於訓練資料152上產生用來指出有效的臉部特徵的臉部定位框(步驟S12)。於一實施例中,至少部分的臉部特徵為臉部中的強參考點。
Return to Figure 4. The user also uses the
請同時參閱圖6,為本發明的訓練資料示意圖的第一具體實施例。如圖6所示,所述HOG演算法主要是將一張照片轉換為複數向量,並且依據這些向量的大小、方向及形狀的組合來判斷臉部影像在照片中的位置,並且產生可覆蓋整個臉部影像的一個臉部定位框5。本實施例中,所述四個肌肉特徵點4皆落在臉部定位框5內,並且這四個肌肉特徵點4的連線可以構成一個矩形框或梯形框。
Please refer to FIG. 6 at the same time, which is a first specific embodiment of the training data schematic diagram of the present invention. As shown in Figure 6, the HOG algorithm mainly converts a photo into a complex vector, and determines the position of the face image in the photo according to the combination of the size, direction, and shape of these vectors, and generates a picture that can cover the entire A
回到圖4。於步驟S12後,分析裝置1可依據這些訓練資料152來執行所述人工智慧訓練演算法151(步驟S14),以建立所述訓練模型153。更具體地說,人工智慧訓練演算法151是基於訓練資料152、訓練資料152上被標記的肌肉特徵點4、訓練資料152上的臉部定位框5以及臉部定位框5中的複數臉部特徵點,來執行訓練程序。
Return to Figure 4. After step S12, the
值得一提的是,使用者可以依據實際情況選擇性地先標記該些肌肉特徵點4,或是先產生臉部定位框5。換句話說,所述步驟S10與步驟S12並不具有執行上的必然順序關係。
It is worth mentioning that the user can selectively mark the muscle feature points 4 first or generate the
本發明中,所述人工智慧訓練演算法151在訓練過程中主要是對該些訓練資料152進行分析,並且至少記錄所述臉部定位框5內的多個特徵點間的對應關係、所述複數肌肉特徵點4彼此間的對應關係(例如所述矩形框或梯
形框的大小、形狀、角度等)、以及各個肌肉特徵點4與臉部定位框5內的一或多個特徵點(尤其是強參考點)間的對應關係(步驟S16)。
In the present invention, the artificial
值得一提的是,於步驟S16中,人工智慧訓練演算法151可在執行訓練程序的同時統計各個肌肉特徵點4在各個位置上出現的機率(例如該些肌肉特徵點4從來沒有出現在哪些位置上),以及各個肌肉特徵點4的基本定位規則(例如第一肌肉特徵點41必定高於第二肌肉特徵點42、第三肌肉特徵點43必定位於第一肌肉特徵點41的右側等),以做為分析裝置1在為新輸入的待辨識影像2執行模糊比對時的預測參考值(容後詳述)。
It is worth mentioning that in step S16, the artificial
步驟S16後,人工智慧訓練演算法151可依據分析所得的對應關係來產生複數肌肉特徵點定位規則(步驟S18),並且至少依據複數肌肉特徵點定位規則、判斷深度及迴歸次數來建立一個訓練模型153(步驟S20)。當訓練模型153被建立後,分析裝置1可以對新輸入的待辨識影像2進行模糊比對,以基於訓練模型153而在待辨識影像2中的臉部影像上自動標記出所述複數肌肉特徵點3。
After step S16, the artificial
本發明中,人工智慧訓練演算法151所產生的訓練模型153主要是一種迴歸器(Regressor),此迴歸器中包含了複數個內容相同的Cascade的迴歸樹(Regression tree)。各個迴歸樹分別具有複數個判斷端點,而至少一部分的判斷端點的內容會對應至上述複數肌肉特徵點定位規則(例如圖9所示,容後詳述)。
In the present invention, the
值得一提的是,在執行所述人工智慧訓練演算法151前,使用者可以依據分析裝置1的硬體效能、所需的辨識準確度及所能接受的執行時間等實際因素來設定所述迴歸次數及端點數量,本實施例中,複數迴歸樹的數量相同於所述迴歸次數,而複數判斷端點的數量相同於所述判斷深度。在不考慮所述硬
體效能、辨識準確度及執行時間的情況下,迴歸次數與判斷深度越大,辨識所得的結果會越準確。
It is worth mentioning that before executing the artificial
參閱圖7,為本發明的辨識流程圖的第一具體實施例。圖7揭露了本發明的標記方法的各個執行步驟,並且所述標記方法主要應用於如圖1、圖2所示的分析裝置1。
Refer to FIG. 7, which is a first specific embodiment of the identification flowchart of the present invention. FIG. 7 discloses each execution step of the marking method of the present invention, and the marking method is mainly applied to the
當使用者要通過分析裝置1來辨識臉部的肌肉狀態時,主要可將包含了使用者的臉部影像的待辨識影像2(如圖3所示)輸入分析裝置1,以令分析裝置1取得使用者的待辨識影像2(步驟S30)。於一實施例中,分析裝置1可通過其上的影像擷取單元12即時擷取待辨識影像2。於另一實施例中,分析裝置1可從儲存單元15中讀取使用者預先儲存的待辨識影像2。於又一實施例中,分析裝置1可經由無線傳輸單元14從外部接收待辨識影像2。
When the user wants to recognize the muscle state of the face through the
於取得待辨識影像2後,分析裝置1可通過處理器10來對待辨識影像2執行臉部識別程序,以產生如圖6所示的臉部定位框5(步驟S32)。所述臉部定位框5標示出了待辨識影像2中的臉部影像,並且臉部定位框5涵蓋了臉部影像中的多個強參考點(例如眼睛、鼻子、嘴巴等器官,或是明顯的特徵點)。
After obtaining the
於一實施例中,處理器10主要是通過Dlib Face Landmark系統的方向梯度直方圖(Histogram of Oriented Gradient,HOG)演算法對待辨識影像2執行所述臉部識別程序,並在待辨識影像2上產生所述臉部定位框5。本發明中,處理器10只依據訓練資料152的臉部定位框5內的多個特徵點進行訓練,因此在進行辨識程序時,處理器10也只會依據待辨識影像2的臉部定位框5內的多個特徵點來進行辨識。
In one embodiment, the
步驟S32後,處理器10基於所述訓練模型153對待辨識影像2進行模糊比對,並產生一個辨識結果(步驟S34)。藉此,處理器10可依據所述辨識結果在待辨識影像2上直接標記四個肌肉特徵點3的位置(步驟S36),其中,這四個肌肉特徵點3將會分別落在待辨識照影像上的所述臉部定位框5中,並且分別對應至臉部的至少四個弱參考點。
After step S32, the
步驟S36後,處理器10可控制顯示單元11顯示待辨識影像2及四個肌肉特徵點3(步驟S38),並且令四個肌肉特徵點3之標記分別重疊顯示於待辨識影像2中的臉部影像的對應位置上。
After step S36, the
於本發明的標記方法中,處理器10是基於訓練模型153來對待辨識影像2進行模糊比對,因此處理器10在待辨識影像2上自動標記的四個肌肉特徵點3的位置,將會對應至依據大量的訓練資料152所分析出來的定位規則。
In the marking method of the present invention, the
具體地,處理器10經由模糊比對而在待辨識影像2上自動標記的肌肉特徵點3的數量,對應至各筆訓練資料152中所被標記的肌肉特徵點4的數量。換句話說,處理器10在步驟S36中所標示的肌肉特徵點3的數量,以及在步驟S38中所顯示在待辨識影像2上的肌肉特徵點3的數量,是對應至儲存單元15中的各筆訓練資料152上被標記的肌肉特徵點4的數量(即,為複數),但不以上述之四個為限。
Specifically, the number of muscle feature points 3 automatically marked on the
於一實施例中,處理器10自動標記的四個肌肉特徵點3將會包括位於待辨識影像2中的臉部影像左側的第一肌肉特徵點31及第二肌肉特徵點32,以及位於臉部影像右側的第三肌肉特徵點33及第四肌肉特徵點34,並這四個肌肉特徵點3的連線構成一個矩形框或梯形框。
In one embodiment, the four muscle feature points 3 automatically marked by the
於另一實施例中,處理器10自動標記的第一肌肉特徵點31的位置會落在先前所述及之由臉部影像左側的第一淚溝切線61、第一法令紋切線63、第一眼角垂直線67及第一顎骨枝切線69等區域構成輔助線所構成的區域內;第二肌肉特徵點的位置會落在由臉部影像左側的第一法令紋切線63、第一木偶紋切線65、第一眼角垂直線67及第一顎骨枝切線69等區域構成輔助線所構成的區域內;第三肌肉特徵點會落在由臉部影像右側的第二淚溝切線62、第二法令紋切線64、第二眼角垂直線68及第二顎骨枝切線70等區域構成輔助線所構成的區域內;第四肌肉特徵點會落在由臉部影像右側的第二法令紋切線64、第二木偶紋切線66、第二眼角垂直線68及第二顎骨枝切線70等區域構成輔助線所構成的區域內。
In another embodiment, the position of the first
如上所述,藉由分析裝置1自動標記的四個肌肉特徵點3,使用者可以快速且有效地判斷自己當前的臉部肌肉狀態。例如,若所述第一肌肉特徵點31與第三肌肉特徵點33的位置靠近雙眼,即表示使用者的肌肉相當緊實。再例如,若所述第二肌肉特徵點32與第四肌肉特徵點34遠離嘴巴並且靠近下巴,即表示使用者的肌肉相當鬆弛而有保養之必要。
As described above, with the four muscle feature points 3 automatically marked by the
續請參閱圖8,為本發明的辨識流程圖的第二具體實施例。圖8用以更進一步說明圖7的步驟S34的具體內容。 Please continue to refer to FIG. 8, which is a second specific embodiment of the identification flowchart of the present invention. FIG. 8 is used to further explain the specific content of step S34 in FIG. 7.
如前文中所述,本發明中的訓練模型153主要為包含了複數個Cascade的迴歸樹的迴歸器,並且所述人工智慧訓練演算法151在建立訓練模型153時,會依據對大量的訓練資料152的分析而記錄各個肌肉特徵點的在各個位置出現的機率以及基本定位規則。當處理器10要基於訓練模型153對待辨識影像2進行模糊比對前,將會先依據所述基本定位規則以及機率於待辨識影像2上
隨機產生複數個預測特徵點(步驟S340)。本實施例中,所述複數個預測特徵點是隨機產生的(initial estimate),但會依據所述機率排除不可能出現的位置(例如眉毛上方、嘴巴裡面等),並且會符合所述基本定位規則(例如複數個預測特徵點皆落在臉部定位框5內、複數個預測特徵點的連線可構成一個矩形框或梯形框等)。
As mentioned in the foregoing, the
值得一提的是,所述複數個預測特徵點的數量,是對應至各筆訓練資料152中所被標記的肌肉特徵點4的數量。換句話說,處理器10在步驟S340中所隨機產生的預測特徵點的數量相同於用來訓練訓練模型153所使用的各筆訓練資料152上被標記的肌肉特徵點4的數量(即,為複數),但此數量並不以四個為限。
It is worth mentioning that the number of the plurality of predicted feature points corresponds to the number of the marked muscle feature points 4 in each piece of
接著,處理器10將待辨識影像2及複數個預測特徵點匯入訓練模型153的複數迴歸樹的其中之一(步驟S342),並且取得迴歸樹的複數筆分析結果(步驟S344)。步驟S344後,處理器10再依據所取得的複數筆分析結果來分別對複數個預測特徵點進行調整,並且產生複數個調整後特徵點(步驟S346)。
Next, the
本發明中,該些分析結果主要是分別記錄待辨識影像2及複數個預測特徵點的組合與複數訓練資料152的至少一部分相比的權重(Weight)。更具體地,所述權重可用來指出待辨識影像2中的一或多個強參考點與各個預測特徵點間的對應關係,與訓練資料152中的一或多個強參考點與各個肌肉特徵點4間的對應關係的相似度。換句話說,所述分析結果可用來指出待辨識影像2與目前的預測特徵點的組合,和各訓練資料152(或已歸納/分類的資料群組)與其肌肉特徵點4的組合的相似度。
In the present invention, the analysis results mainly record the weight of the combination of the
於一實施例中,所述相似度越高,權重就越大,但不加以限定。並且,於上述步驟S346中,處理器10主要是依據不同的權重(即,複數筆分析
結果)來分別調整各個預測特徵點在待辨識影像2上的座標值,藉此產生複數個調整後特徵點。並且,複數個調整後特徵點的數量相同於預測特徵點的數量(例如為四個)。
In one embodiment, the higher the similarity, the higher the weight, but it is not limited. In addition, in the above step S346, the
如前文所述,訓練模型153中包含了複數迴歸樹,且迴歸樹的數量對應至使用者預設的迴歸次數。在步驟S346後,處理器10會判斷訓練模型153中的複數迴歸樹是否已經全部執行完畢(步驟S348),即,判斷前述步驟S342、步驟S344及步驟S346的執行次數是否相等於所述迴歸次數。
As mentioned above, the
本發明中,處理器10會在複數迴歸樹尚未執行完畢前,以步驟S346所產生的複數個調整後特徵點取代前述的複數個預測特徵點,並且依據待辨識影像2及複數個調整後特徵點,於下一個迴歸樹中再次執行步驟S342、步驟S344及步驟S346,以持續對複數個特徵點進行調整。並且,當複數迴歸樹皆執行完畢時,處理器10會將最後一次執行步驟S346後所產生的複數個調整後特徵點做為最終確定的複數個肌肉特徵點3,並且輸出這複數個肌肉特徵點3以結束模糊比對程序(步驟S350)。本發明中,分析裝置1自動標記在待辨識影像2上的複數個肌肉特徵點3,即為處理器10在步驟S350後所輸出的最終確定的複數個肌肉特徵點3。
In the present invention, the
請同時參閱圖9及圖10,其中圖9為本發明的訓練模型示意圖的第一具體實施例,圖10為本發明的特徵點調整示意圖的第一具體實施例。為便於理解,下面將配合圖9及圖10,以四個預測特徵點來進行舉例說明(即,各筆訓練資料152上被標記的肌肉特徵點4的數量為四個)。
Please refer to FIG. 9 and FIG. 10 at the same time. FIG. 9 is the first specific embodiment of the schematic diagram of the training model of the present invention, and FIG. 10 is the first specific embodiment of the feature point adjustment schematic diagram of the present invention. For ease of understanding, four predicted feature points will be used as an example below in conjunction with FIG. 9 and FIG. 10 (that is, the number of marked muscle feature points 4 on each
如圖所示,在執行模糊比對前,處理器10會依據所述基本定位規則及機率在待辨識影像2上隨機產生四個預測特徵點80。需說明的是,這四個
預測特徵點80僅僅符合人工智慧訓練演算法151在訓練程序中所歸納的基本定位規則和所統計的機率,但無法代表待辨識影像2中的臉部影像的實際肌肉狀態。
As shown in the figure, before performing the fuzzy comparison, the
接著,處理器10將待辨識影像2與上述四個預測特徵點80匯入訓練模型153的複數迴歸樹中的第一個迴歸樹1531。所述第一個迴歸樹1531具有多個判斷端點1534,每一個判斷端點1534都代表一個規則,而這些規則是人工智慧訓練演算法151基於複數訓練資料152在訓練所述訓練模型153時所得到的。
Then, the
本發明中,第一個迴歸樹1531的至少部分判斷端點1534的內容對應至人工智慧訓練演算法151在前述圖4的步驟S18中產生的複數肌肉特徵點定位規則,換句話說,處理器10會於所述判斷端點1534判斷待辨識影像2上的四個預測特徵點80彼此間的對應關係(例如所述矩形框或梯形框的大小與形狀)是否與此判斷端點1534所指出的規則相似,或是判斷待辨識影像2上的各個預測特徵點80與待辨識影像2在臉部定位框內5內的一或多個強參考點間的對應關係是否與此判斷端點1534所指出的規則相似,即,判斷是(YES)或否(NO)。
In the present invention, at least part of the content of the
值得一提的是,在每一個判斷端點1534處判斷是或否時,處理器10主要是判斷與此判斷端點1534的內容相似(即,是)的機率以及不相似(即,否)的機率,並且不會出現100%相似(即,0%不相似)或100%不相似(即,0%相似)的情況。當迴歸樹1531中的每一個判斷端點1534都判斷完成後,處理器10可以得到多筆分析結果,每一筆分析結果分別對應至一筆權重1535。
It is worth mentioning that when judging yes or no at each judging
本發明中,所述權重1535是用來指出待辨識影像2中的臉部影像上的一或多個強參考點與各個預測特徵點80間的對應關係與一或多個訓練資料
152(或相似的多個訓練資料152的群組)中的一或多個強參考點與各個肌肉特徵點4間的對應關係的相似度,或是待辨識影像2中的臉部影像上的各個預測特徵點80彼此間的對應關係與一或多個訓練資料152(或所述群組)中的各個肌肉特徵點4彼此間的對應關係的相似度等。
In the present invention, the
舉例來說,若待辨識影像2中的臉部影像與第一類型的訓練資料152(例如都指出大鼻子的臉型)很相近,則所述權重1535會比較高;若待辨識影像2中的臉部影像與第二類型的訓練資料152(例如都指出小眼睛的臉型)不相近,則所述權重1535會比較低。
For example, if the face image in the
於第一個迴歸樹1531中的所有判斷端點1534都判斷完畢並且取得多個權重1535後,處理器10進一步依據這些權重來調整各個預測特徵點80在待辨識影像2上的座標值,並且產生第一調整後預測點81。舉例來說,若待辨識影像2中的臉部影像與第一類型的訓練資料152(例如都指出大鼻子的臉型)相近,則第一調整後預測點81的座標值將會朝向第一類型的訓練資料152上的肌肉特徵點4的位置移動,並且調整幅度將會對應到所得到的權重1535(權重1535越高,調整幅度越大)。
After all the
如圖10所述,相較於預測特徵點80,所述第一調整後預測點81將會更為貼近待辨識影像2中的臉部影像上的肌肉特徵點3的實際位置。其中,複數第一調整後預測點81的數量相同於前述預測特徵點80的數量。
As shown in FIG. 10, compared to the predicted
接著,如圖9所示,在取得四個第一調整後預測點81後,處理器10進一步將待辨識影像2及四個第一調整後預測點81匯入訓練模型153的第二個迴歸樹1532。本發明中,第二個迴歸樹1532與前述第一個迴歸樹1531具有相同數量與相關內容的複數判斷端點1534,但因為輸入的參數已經改變(從四個預
測特徵點80變成四個第一調整後預測點81),因此最後得到的分析結果會有所不同(即,所得的權重1535會不相同)。
Next, as shown in FIG. 9, after obtaining the four first adjusted prediction points 81, the
相似地,於第二個迴歸樹1532中的所有判斷端點1534都判斷完畢並且取得多個權重1535後,處理器10進一步依據所得的權重1535來調整各個第一調整後預測點81在待辨識影像2上的座標值,並且產生第二調整後預測點82。
Similarly, after all the
本發明中,處理器10會持續執行上述動作。當第n-1個迴歸樹(圖未標示)執行完畢後,處理器10會產生四個第n-1調整後預測點83。接著,處理器10將四個第n-1調整後預測點83匯入訓練模型153的最後一個迴歸樹(即,第n個回歸樹1533)。當第n個回歸樹1533執行完畢後,處理器10同樣會得到多筆分析結果(即,多個權重1535),此時處理器10會依據多個權重1535來調整所述四個第n-1調整後預測點83,並產生四個最終預測點84。本發明中,處理器10將會輸出這四個最終預測點84,以做為分析裝置1自動分析後產生的四個肌肉特徵點3,並且將這四個肌肉特徵點3自動標記在待辨識影像2上。
In the present invention, the
值得一提的是,所述迴歸樹的數量取決於分析裝置1的硬體效能、使用者所需的辨識精準度以及使用者能接受的處理時間。一般來說,迴歸樹的數量越多,則最終預測點84的位置會越貼近待辨識影像2中的臉部影像上實際的肌肉特徵點3所應該存在的位置。
It is worth mentioning that the number of the regression trees depends on the hardware performance of the
通過本發明的標記方法,分析裝置1可以基於人工智慧比對而自動在使用者的臉部影像上標記四個肌肉特徵點,藉此讓使用者清楚且快速地瞭解自己當前的臉部肌肉狀態,進而確認所採取的保養手段是否有效,對於使用者實相當便利,並且具有實用性。
Through the marking method of the present invention, the
以上所述僅為本發明之較佳具體實例,非因此即侷限本發明之專利範圍,故舉凡運用本發明內容所為之等效變化,均同理皆包含於本發明之範圍內,合予陳明。 The above are only preferred specific examples of the present invention, and are not limited to the scope of the patent of the present invention. Therefore, all equivalent changes made by using the content of the present invention are included in the scope of the present invention in the same way. Bright.
S30~S38:辨識步驟 S30~S38: Identification steps
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108144950A TWI722705B (en) | 2019-12-09 | 2019-12-09 | Method for automatically labelling muscle feature points on face |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108144950A TWI722705B (en) | 2019-12-09 | 2019-12-09 | Method for automatically labelling muscle feature points on face |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI722705B true TWI722705B (en) | 2021-03-21 |
TW202123074A TW202123074A (en) | 2021-06-16 |
Family
ID=76036085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108144950A TWI722705B (en) | 2019-12-09 | 2019-12-09 | Method for automatically labelling muscle feature points on face |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI722705B (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWM488060U (en) * | 2014-06-13 | 2014-10-11 | Univ China Sci & Tech | Computer input device for muscular dystrophy patient |
CN104156970A (en) * | 2014-08-21 | 2014-11-19 | 云南师范大学 | Human body jugomaxillary muscle activity simulation method based on nuclear magnetic resonance image processing |
CN109816601A (en) * | 2018-12-26 | 2019-05-28 | 维沃移动通信有限公司 | A kind of image processing method and terminal device |
-
2019
- 2019-12-09 TW TW108144950A patent/TWI722705B/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWM488060U (en) * | 2014-06-13 | 2014-10-11 | Univ China Sci & Tech | Computer input device for muscular dystrophy patient |
CN104156970A (en) * | 2014-08-21 | 2014-11-19 | 云南师范大学 | Human body jugomaxillary muscle activity simulation method based on nuclear magnetic resonance image processing |
CN109816601A (en) * | 2018-12-26 | 2019-05-28 | 维沃移动通信有限公司 | A kind of image processing method and terminal device |
Also Published As
Publication number | Publication date |
---|---|
TW202123074A (en) | 2021-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102014385B1 (en) | Method and apparatus for learning surgical image and recognizing surgical action based on learning | |
TWI751161B (en) | Terminal equipment, smart phone, authentication method and system based on face recognition | |
KR101870689B1 (en) | Method for providing information on scalp diagnosis based on image | |
KR102097190B1 (en) | Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same | |
CN105426827B (en) | Living body verification method, device and system | |
CN111382648A (en) | Method, device and equipment for detecting dynamic facial expression and storage medium | |
CN108875485A (en) | A kind of base map input method, apparatus and system | |
US20160092726A1 (en) | Using gestures to train hand detection in ego-centric video | |
CN110531853B (en) | Electronic book reader control method and system based on human eye fixation point detection | |
CN111937082A (en) | Guidance method and system for remote dental imaging | |
JP2019048026A (en) | Biological information analysis device and hand skin analysis method | |
CN112633221A (en) | Face direction detection method and related device | |
CN111639582A (en) | Living body detection method and apparatus | |
CN110321778A (en) | A kind of face image processing process, device and storage medium | |
TWI722705B (en) | Method for automatically labelling muscle feature points on face | |
CN110545386B (en) | Method and apparatus for photographing image | |
CN116580445B (en) | Large language model face feature analysis method, system and electronic equipment | |
CN110766631A (en) | Face image modification method and device, electronic equipment and computer readable medium | |
KR101734212B1 (en) | Facial expression training system | |
CN117316440A (en) | Intelligent facial paralysis degree evaluation method based on machine learning facial feature calculation | |
CN111767829B (en) | Living body detection method, device, system and storage medium | |
CN115937372A (en) | Facial expression simulation method, device, equipment and storage medium | |
TW202122040A (en) | Method for analyzing and estimating face muscle status | |
CN115661890A (en) | Model training method, face recognition device, face recognition equipment and medium | |
EP3836008A1 (en) | Method for automatically marking muscle feature points on face |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |