一種人體上肢骨骼手勢識別方法
【專利說明】
[0001]技術(shù)領(lǐng)域:
本發(fā)明涉及人機交互技術(shù)領(lǐng)域,具體涉及一種人體上肢骨骼手勢識別方法。
[0002]【背景技術(shù)】:
隨著計算機技術(shù)的發(fā)展,操作命令也越來越多,功能也越來越強。隨著模式識別,如語音識別、漢字識別等輸入設(shè)備的發(fā)展,操作員和計算機在類似于自然語言或受限制的自然語言這一級上進行交互成為可能。此外,通過圖形進行人機交互也吸引著人們?nèi)ミM行研究。這些人機交互可稱為智能化的人機交互。這方面的研究工作正在積極開展。
[0003]人機交互、人機互動(英文:Human - Computer Interact1n 或 Human - MachineInteract1n,簡稱HCI或HMI),是一門研究系統(tǒng)與用戶之間的交互關(guān)系的學(xué)問。系統(tǒng)可以是各種各樣的機器,也可以是計算機化的系統(tǒng)和軟件。人機交互界面通常是指用戶可見的部分。用戶通過人機交互界面與系統(tǒng)交流,并進行操作。小如收音機的播放按鍵,大至飛機上的儀表板、或是發(fā)電廠的控制室。人機交互界面的設(shè)計要包含用戶對系統(tǒng)的理解(即心智模型),那是為了系統(tǒng)的可用性或者用戶友好性。
[0004]隨著人機交互技術(shù)的發(fā)展,體感設(shè)備作為一種代替或補充普通鍵盤和鼠標(biāo)的輸入設(shè)備已經(jīng)在許多場合和領(lǐng)域逐漸得到了使用。體感互動技術(shù)使得人們通過各種動作和計算機等設(shè)備進行交互成為可能,操作者可以通過在體感傳感器上做出特定的手勢軌跡配合顯示器來實現(xiàn)與計算機等設(shè)備的交互功能。微軟Kinect是目前比較流行的體感攝像機之一。Kinect通過體感攝像頭分析取到的數(shù)據(jù)并分析,最終返回追蹤到的20個關(guān)節(jié)點的三維數(shù)據(jù)來生成一幅骨架系統(tǒng),此套系統(tǒng)只包含人體各個關(guān)節(jié)點的三維信息,并不能進行手勢識別。
[0005]
【發(fā)明內(nèi)容】
:
本發(fā)明的目的是提供一種人體上肢骨骼手勢識別方法,它通過對得到的人體骨骼三維信息進行分析,使之成為一系列體感手勢,使計算機能對人做出的各種手勢進行識別,使識別率不受距離、膚色、遮擋、光照、運動等因素的影響,能夠適應(yīng)復(fù)雜多變的應(yīng)用環(huán)境。
[0006]為了解決【背景技術(shù)】所存在的問題,本發(fā)明是采用以下技術(shù)方案:它的識別方法為:步驟一、采用單攝相機結(jié)構(gòu)下,利用人體的膚色模型結(jié)合基于高斯模型的背景減除法等獲取每幀圖像中人體的手掌、手臂、肩部以及頭部區(qū)域的位置;
步驟二、利用背景圖像和當(dāng)前圖像作差分,檢測出前景區(qū)域;
步驟三、利用雙背景更新方法對建立的背景圖像進行更新;
步驟四、采集人體上肢的關(guān)節(jié)點,建立人體關(guān)節(jié)點坐標(biāo)系,定義每個關(guān)節(jié)點的原始坐標(biāo)數(shù)據(jù);
步驟五、將每個關(guān)節(jié)點原始坐標(biāo)數(shù)據(jù)存入數(shù)據(jù)組;
步驟六、采集當(dāng)前的各個關(guān)節(jié)點坐標(biāo)數(shù)據(jù),并將各個關(guān)節(jié)點的坐標(biāo)數(shù)據(jù)存入數(shù)據(jù)組;步驟七、利用這些關(guān)節(jié)點坐標(biāo)數(shù)據(jù)建立人體手部3D模型;利用人體視頻圖像序列中手部區(qū)域的運動方向、手形、以后位置參數(shù)修正3D模型;
步驟八、將當(dāng)前各個關(guān)節(jié)點的坐標(biāo)數(shù)據(jù)與相應(yīng)關(guān)節(jié)點的原始坐標(biāo)數(shù)據(jù)進行對比,對手勢進行判斷和識別;
步驟九、最后利用HMM對各種手部動作進行識別并用實驗驗證識別結(jié)果。
[0007]本發(fā)明通過對得到的人體骨骼三維信息進行分析,使之成為一系列體感手勢,使計算機能對人做出的各種手勢進行識別,使識別率不受距離、膚色、遮擋、光照、運動等因素的影響,能夠適應(yīng)復(fù)雜多變的應(yīng)用環(huán)境。
[0008]【具體實施方式】:
本【具體實施方式】采用以下技術(shù)方案:它的識別方法為:步驟一、采用單攝相機結(jié)構(gòu)下,利用人體的膚色模型結(jié)合基于高斯模型的背景減除法等獲取每幀圖像中人體的手掌、手臂、肩部以及頭部區(qū)域的位置;
步驟二、利用背景圖像和當(dāng)前圖像作差分,檢測出前景區(qū)域;
步驟三、利用雙背景更新方法對建立的背景圖像進行更新;
步驟四、采集人體上肢的關(guān)節(jié)點,建立人體關(guān)節(jié)點坐標(biāo)系,定義每個關(guān)節(jié)點的原始坐標(biāo)數(shù)據(jù);
步驟五、將每個關(guān)節(jié)點原始坐標(biāo)數(shù)據(jù)存入數(shù)據(jù)組;
步驟六、采集當(dāng)前的各個關(guān)節(jié)點坐標(biāo)數(shù)據(jù),并將各個關(guān)節(jié)點的坐標(biāo)數(shù)據(jù)存入數(shù)據(jù)組;步驟七、利用這些關(guān)節(jié)點坐標(biāo)數(shù)據(jù)建立人體手部3D模型;利用人體視頻圖像序列中手部區(qū)域的運動方向、手形、以后位置參數(shù)修正3D模型;
步驟八、將當(dāng)前各個關(guān)節(jié)點的坐標(biāo)數(shù)據(jù)與相應(yīng)關(guān)節(jié)點的原始坐標(biāo)數(shù)據(jù)進行對比,對手勢進行判斷和識別;
步驟九、最后利用HMM對各種手部動作進行識別并用實驗驗證識別結(jié)果。
[0009]本【具體實施方式】通過對得到的人體骨骼三維信息進行分析,使之成為一系列體感手勢,使計算機能對人做出的各種手勢進行識別,使識別率不受距離、膚色、遮擋、光照、運動等因素的影響,能夠適應(yīng)復(fù)雜多變的應(yīng)用環(huán)境。
【主權(quán)項】
1.一種人體上肢骨骼手勢識別方法,其特征在于它的識別方法為:步驟一、采用單攝相機結(jié)構(gòu)下,利用人體的膚色模型結(jié)合基于高斯模型的背景減除法等獲取每幀圖像中人體的手掌、手臂、肩部以及頭部區(qū)域的位置; 步驟二、利用背景圖像和當(dāng)前圖像作差分,檢測出前景區(qū)域; 步驟三、利用雙背景更新方法對建立的背景圖像進行更新; 步驟四、采集人體上肢的關(guān)節(jié)點,建立人體關(guān)節(jié)點坐標(biāo)系,定義每個關(guān)節(jié)點的原始坐標(biāo)數(shù)據(jù); 步驟五、將每個關(guān)節(jié)點原始坐標(biāo)數(shù)據(jù)存入數(shù)據(jù)組; 步驟六、采集當(dāng)前的各個關(guān)節(jié)點坐標(biāo)數(shù)據(jù),并將各個關(guān)節(jié)點的坐標(biāo)數(shù)據(jù)存入數(shù)據(jù)組;步驟七、利用這些關(guān)節(jié)點坐標(biāo)數(shù)據(jù)建立人體手部3D模型;利用人體視頻圖像序列中手部區(qū)域的運動方向、手形、以后位置參數(shù)修正3D模型; 步驟八、將當(dāng)前各個關(guān)節(jié)點的坐標(biāo)數(shù)據(jù)與相應(yīng)關(guān)節(jié)點的原始坐標(biāo)數(shù)據(jù)進行對比,對手勢進行判斷和識別; 步驟九、最后利用HMM對各種手部動作進行識別并用實驗驗證識別結(jié)果。
【專利摘要】一種人體上肢骨骼手勢識別方法,它涉及人機交互技術(shù)領(lǐng)域,它的識別方法為:采用單攝相機結(jié)構(gòu)下,利用人體的膚色模型結(jié)合基于高斯模型的背景減除法等獲取每幀圖像中人體的手掌、手臂、肩部以及頭部區(qū)域的位置;利用背景圖像和當(dāng)前圖像作差分,檢測出前景區(qū)域;利用雙背景更新方法對建立的背景圖像進行更新;采集人體上肢的關(guān)節(jié)點,建立人體關(guān)節(jié)點坐標(biāo)系,定義每個關(guān)節(jié)點的原始坐標(biāo)數(shù)據(jù);將每個關(guān)節(jié)點原始坐標(biāo)數(shù)據(jù)存入數(shù)據(jù)組;采集當(dāng)前的各個關(guān)節(jié)點坐標(biāo)數(shù)據(jù),并將各個關(guān)節(jié)點的坐標(biāo)數(shù)據(jù)存入數(shù)據(jù)組。它通過對得到的人體骨骼三維信息進行分析,使之成為一系列體感手勢,使計算機能對人做出的各種手勢進行識別。
【IPC分類】G06F3/01
【公開號】CN105045390
【申請?zhí)枴緾N201510395076
【發(fā)明人】謝海亭
【申請人】安徽瑞宏信息科技有限公司
【公開日】2015年11月11日
【申請日】2015年7月8日