一種基于新型視覺追蹤技術的目標追蹤方法
【專利摘要】本發(fā)明提供了一種基于新型視覺追蹤技術的目標追蹤方法,該方法通過將三維空間區(qū)域分格,并標記顏色或數(shù)字,通過移動網(wǎng)格來得到所要選取的子格,再將選取的子格逐級放大來進行視覺輔助,重復進行網(wǎng)格劃分與選取,直到達到設定的空間精度標準,最終確定用戶所要選取的目標;該方法能夠使不同行業(yè)的用戶可以根據(jù)行業(yè)或者自身需要進行更直觀、更形象的追蹤目標,實現(xiàn)了目標追蹤的可視化,而且也使得目標追蹤的操作動作與狀態(tài)緊密結合,使得操作更加簡單方便、錯誤機率大大減小,從而進一步提高了目標追蹤的準確性。
【專利說明】一種基于新型視覺追蹤技術的目標追蹤方法
【技術領域】
[0001] 本發(fā)明涉及計算機視覺和計算機圖形學領域,特別是涉及一種在3D空間內進行 目標追蹤的基于新型視覺追蹤技術的目標追蹤方法。
【背景技術】
[0002] 目前,3D空間選取特定位置的目標時,常常通過輔助工具來輔助用戶進行視覺追 蹤以便選取合適的目標,但是,現(xiàn)有的輔助工具都存在一定缺陷,從而導致用戶無法進行快 捷、精確的選取所需目標,主要有以下幾種原因:
[0003] (1)空間圓球輔助追蹤:當用戶使用球坐標進行目標選取時,由于缺乏一個清晰 的標尺,所以操作者通常需要不斷的旋轉或放大三維空間物體才能找到所要選取的目標, 使得操作比較復雜,用戶的追蹤也比較困難;
[0004] (2)在屏幕上設置標尺,由于設置的標尺離所要選取的內容比較遠,便會導致用戶 視覺分離,從而使用戶選取時容易錯格,增加了選取的錯誤率。
[0005] 由于現(xiàn)有技術中的三維視覺追蹤工具比較少,用戶在3D空間目標選取過程中往 往會通過操作者手工控制,但是由于操作比較繁雜,使得人的視覺追蹤就比較困難,從而使 得目標的選取不夠直觀、形象,在屏幕上設置標尺后,標尺與內容相隔較遠,又會產(chǎn)生視覺 分離,選取的錯誤幾率相應也會增大,從而影響了 3D空間目標的精確定位。因此,如何在3D 空間中方便快捷且精確的選取空間特定位置的目標,已成為亟待解決的問題。
【發(fā)明內容】
[0006] 本發(fā)明針對上述技術問題,提出了一種基于新型視覺追蹤技術的目標追蹤方法, 通過將三維空間區(qū)域分格,并將網(wǎng)格逐級放大來進行視覺輔助,能使得不同行業(yè)的用戶可 以根據(jù)行業(yè)或者自身需要進行目標追蹤,這樣不僅使用戶在目標選取過程中更直觀、更形 象,而且使得操作動作及狀態(tài)緊密結合,從而使得目標選取更加準確、快捷和方便,大大提 高了用戶的工作效率。
[0007] 本發(fā)明的技術方案為:
[0008] 和現(xiàn)有技術相比,本發(fā)明提供了一種基于新型視覺追蹤技術的目標追蹤方法,所 述方法包括:
[0009] 步驟Al:初步選定3D空間內合適的子空間區(qū)域;選取的子空間區(qū)域可以是在3D 空間透視柱上初步選定的子空間區(qū)域;或是通過用戶根據(jù)所要選取的目標在三維空間內直 接選定的子空間區(qū)域;
[0010] 步驟A2 :將選定的子空間區(qū)域進行網(wǎng)格劃分,按照等分或是不等分方法劃分;
[0011] 步驟A3 :利用顏色或數(shù)字來標記劃分完的網(wǎng)格,顏色標記采取漸變的形式;
[0012] 步驟A4 :將X軸、Y軸、Z軸交匯的格子移動至用戶所要選取的目標所在的子格;用 戶根據(jù)選取的設備選取屏幕上的點擊鍵,設備為按鍵、鼠標或觸屏等,使子空間區(qū)域上利用 顏色或數(shù)字等做標記的X軸、Y軸、Z軸交匯的格子可以在整個3D空間內進行上下左右前后 的移動,通過移動得到用戶想要選取的目標所在的子格位置,除了通過按鍵,用戶還可以通 過移動鼠標或手觸方式進行上下左右前后移動來選取所要得到的子格;
[0013] 步驟A5 :判定選中的子格是否達到設定的空間精度標準;若是,則進入步驟A6,若 否,則將選中的子格空間區(qū)域進行顯示放大,放大到用戶覺得可以自行進行劃分后,并返回 步驟A2;
[0014] 步驟A6:選出合適的追蹤目標。
[0015] 所述步驟A2中的網(wǎng)格劃分采用等分劃分或不等分劃分,例如5X5X5或5X4X6。
[0016] 所述步驟A3中的顏色標記采取漸變的形式,網(wǎng)格與選定的子空間區(qū)域的兩個平 面相交的部分顏色標記較深,除相交之外的部分顏色標記較淺,其中X軸標記顏色的網(wǎng)格 與選定的子空間區(qū)域的兩個平面相交的部分為暗紅色,除相交之外的部分為淺紅色,Y軸標 記顏色的網(wǎng)格與選定的子空間區(qū)域的兩個平面相交的部分為暗綠色,除相交之外的部分為 淺綠色,Z軸標記顏色的網(wǎng)格與選定的子空間區(qū)域的兩個平面相交的部分為暗藍色,除相交 之外的部分為淺藍色,當X軸、Y軸、Z軸標記顏色的網(wǎng)格相交時,X軸、Y軸、Z軸標記顏色 的網(wǎng)格顏色利用色彩學疊加原理疊加后會呈現(xiàn)一種明顯識別的發(fā)亮顏色,這樣有助于用戶 在選擇的時候容易區(qū)分出X軸、Y軸、Z軸交匯的格子;
[0017] 所述步驟A4中的X軸、Y軸、Z軸交匯的格子采用按鍵、移動鼠標或手觸方式進行 上下左右前后的移動;用戶根據(jù)選取的設備選取屏幕上的點擊鍵,設備為鼠標或觸屏等,使 子空間區(qū)域上利用顏色或數(shù)字等做標記的X軸、Y軸、Z軸交匯的格子可以在整個3D空間內 進行上下左右前后的移動,通過移動得到用戶想要的目標所在的格子位置,除了通過按鍵, 用戶還可以通過移動鼠標或手觸方式進行上下左右前后移動來選取所要得到的子格。
[0018] 本發(fā)明提供了一種基于新型視覺追蹤技術的目標追蹤方法,所述方法包括:
[0019] 步驟Bl:在2D平面內,用戶選取一個位置點Stl,記錄點擊點平面坐標(Xtl,Ytl);
[0020] 步驟B2 :以選取的位置點Stl為中心圈定2D范圍的前端可視平面;
[0021] 步驟B3 :將2D范圍的前端可視平面按照透視關系沿Z軸方向進行擴散,形成3D透 視柱,并去除透視柱之外的點;
[0022] 步驟M:運用判定方法初步選定空間點,對初步選定的空間點在Z軸上進行初始 定位;
[0023] 步驟B5:將形成的3D透視柱按照X軸和Y軸進行旋轉,得到用戶直觀觀察的3D透 視柱;
[0024] 步驟B6 :用戶根據(jù)初步選定的空間點在3D透視柱上的位置來截取空間區(qū)域,從而 得到與透視柱中心軸垂直的兩個平面,其中,離用戶最近的平面記為Zfront,離用戶最遠的平 面記為Zbadt;
[0025] 步驟B7:用戶按照Z軸方向拉動所截取空間區(qū)域的Zfront和Zbadt平面來改變所截 取空間區(qū)域的長短,從而選取合適的空間區(qū)域,即Zfmt和Zbadt平面之間的空間區(qū)域;
[0026] 步驟B8 :將選定的子空間區(qū)域進行網(wǎng)格劃分;
[0027] 步驟B9 :利用顏色或數(shù)字來標記劃分完的網(wǎng)格;
[0028] 步驟BlO:將X軸、Y軸、Z軸交匯的格子移動至用戶所要選取的目標所在的子格;
[0029] 步驟Bll:判定選中的子格是否達到設定的空間精度標準;若是,則進入步驟B12, 若否,則將選中的子格空間區(qū)域進行顯示放大,并返回步驟B8;
[0030] 步驟B12:選出合適的追蹤目標。
[0031] 所述3D透視柱旋轉的角度范圍為5° -15°。
[0032] 所述擴散的形狀為圓形或方形。
[0033] 本發(fā)明提供了一種基于新型視覺追蹤技術的目標追蹤方法,所述方法包括:
[0034] 步驟Cl:在2D平面內,用戶選取一個位置點Stl,記錄點擊點平面坐標(Xtl,Ytl);
[0035] 步驟C2 :以選取的位置點Stl為中心圈定2D范圍的前端可視平面;
[0036] 步驟C3 :將2D范圍的前端可視平面按照透視關系沿Z軸方向進行擴散,形成3D透 視柱,并去除透視柱之外的點;
[0037] 步驟C4 :對3D透視柱上的候選點進行分群;
[0038] 步驟C5 :判定符合用戶選取意圖的最優(yōu)群;
[0039] 步驟C6 :選取最優(yōu)群的成員點平均深度值Zmeantl作為3D空間選取點的Z值;
[0040] 步驟C7 :初步確定用戶選取的3D空間點S',S'坐標記錄為(X。,Y。,Zmeantl)。
[0041] 步驟C8 :將形成的3D透視柱按照X軸和Y軸進行旋轉,得到用戶直觀觀察的3D透 視柱;
[0042] 步驟C9 :用戶根據(jù)初步選定的空間點S'在3D透視柱上的位置來截取空間區(qū)域, 從而得到與透視柱中心軸垂直的兩個平面,其中,離用戶最近的平面記為Zfront,離用戶最遠 的平面記為Zbadt;
[0043] 步驟ClO:用戶按照Z軸方向拉動所截取空間區(qū)域的Zfront和Zbadt平面來改變所截 取空間區(qū)域的長短,從而選取合適的空間區(qū)域,即Zfmt和Zbadt平面之間的空間區(qū)域;
[0044] 步驟Cll:將選定的子空間區(qū)域進行網(wǎng)格劃分;
[0045] 步驟C12 :利用顏色或數(shù)字來標記劃分完的網(wǎng)格;
[0046] 步驟C13 :將X軸、Y軸、Z軸交匯的格子移動至用戶所要選取的目標所在的子格;
[0047] 步驟C14 :判定選中的子格是否達到設定的空間精度標準;若是,則進入步驟C15, 若否,則將選中的子格空間區(qū)域進行顯示放大,并返回步驟Cll;
[0048] 步驟C15 :選出合適的追蹤目標。
[0049] 所述的分群方法采用相鄰間距閾值判定方法或K-means分群方法。
[0050] 所述的相鄰間距閾值判定方法包括以下步驟:
[0051] 步驟Dl:設定一深度間隔距離的閾值,根據(jù)具體情況確定閾值大??;
[0052] 步驟D2:根據(jù)設定的閾值對候選點按照其深度Z值采用升序或降序排序;
[0053] 步驟D3 :對相鄰點間距進行判定,若相鄰點Z間距大于閾值,則判定為不同群,若 相鄰點Z間距小于閾值,則判定為同一群。
[0054] 所述用戶選取意圖的判定條件至少為離觀察者前方較近處的點群、離透視柱中心 軸較近的點群和所屬點群密度較大的點群中的一種。
[0055] 若所述用戶選取意圖的判定條件為一種以上,則采用線性加權綜合判定或非線性 加權為代表的綜合判定方法。
[0056] 本發(fā)明可采取多種方法來初步選定子空間區(qū)域,例如:通過用戶的可視范圍來初 步確定子空間區(qū)域或是通過用戶初步選定的空間點來確定子空間區(qū)域;用戶初步選取空間 點的判定方法主要是通過用戶的認知意圖從3D空間中選點,用戶的認知意圖可以歸結為 兩點:(1)選取離觀察者距離較近的點;(2)選取靠近觀察者的某一可見點群,從點群中選 取出用戶所要選取的點。通過比較可以得知,采用初步選定的空間點所確定的子空間區(qū)域 比用戶的可視范圍所確定的子空間區(qū)域更加準確,進一步的通過分群方法初步選定空間點 所確定的子空間區(qū)域更加接近用戶所要追蹤的目標,從而使得用戶的追蹤目標更加準確。
[0057] 本發(fā)明的技術效果為:
[0058] 本發(fā)明針對用戶目標選取的意圖,提供了一種基于新型視覺追蹤技術的目標追蹤 方法,該方法通過將三維空間區(qū)域分格,并標記顏色或數(shù)字,通過移動網(wǎng)格來得到所要選取 的子格,再將選取的子格逐級放大來進行視覺輔助,重復進行網(wǎng)格劃分與選取,直到達到設 定的空間精度標準,最終確定用戶所要選取的目標,該方法能夠使不同行業(yè)的用戶可以根 據(jù)行業(yè)或者自身需要進行更直觀、更形象的追蹤目標,實現(xiàn)了目標追蹤的可視化,而且也使 得目標追蹤的操作動作與狀態(tài)緊密結合,使得操作更加簡單方便、錯誤機率大大減小,從而 進一步提商了目標追蹤的準確性。
【專利附圖】
【附圖說明】
[0059] 圖1為本發(fā)明的目標追蹤方法的流程圖。
[0060] 圖2為本發(fā)明子空間區(qū)域劃分網(wǎng)格示意圖。
[0061]圖3為本發(fā)明按照Z軸方向形成3D透視柱的示意圖。
[0062] 圖4為旋轉后的3D透視柱的示意圖。
[0063] 圖5為本發(fā)明初步選取空間點方法的流程圖。
[0064] 圖6為本發(fā)明按照Z軸方向分群的示意圖。
【具體實施方式】
[0065]下面結合【專利附圖】
【附圖說明】本發(fā)明的【具體實施方式】:
[0066]實施例1 :
[0067]由圖1-2所示,本發(fā)明提供了一種基于新型視覺追蹤技術的目標追蹤方法,所述 方法包括:
[0068]步驟Al :初步選定3D空間內合適的子空間區(qū)域,選取的子空間區(qū)域是通過用戶根 據(jù)所要選取的目標在三維空間內直接選定的子空間區(qū)域;
[0069]步驟A2:將選定的子空間區(qū)域進行網(wǎng)格劃分,按照等分或是不等分方法劃分,例 如 5X5X5 或 5X4X6 ;
[0070] 步驟A3 :利用顏色或數(shù)字來標記劃分完的網(wǎng)格,顏色標記采取漸變的形式,網(wǎng)格 與選定的子空間區(qū)域的兩個平面相交的部分顏色標記較深,除相交之外的部分顏色標記較 淺,其中X軸標記顏色的網(wǎng)格與選定的子空間區(qū)域的兩個平面相交的部分為暗紅色,除相 交之外的部分為淺紅色,Y軸標記顏色的網(wǎng)格與選定的子空間區(qū)域的兩個平面相交的部分 為暗綠色,除相交之外的部分為淺綠色,Z軸標記顏色的網(wǎng)格與選定的子空間區(qū)域的兩個平 面相交的部分為暗藍色,除相交之外的部分為淺藍色,當X軸、Y軸、Z軸標記顏色的網(wǎng)格相 交時,X軸、Y軸、Z軸標記顏色的網(wǎng)格顏色利用色彩學疊加原理疊加后會呈現(xiàn)一種明顯識別 的發(fā)亮顏色,這樣有助于用戶在選擇的時候容易區(qū)分出X軸、Y軸、Z軸交匯的格子;
[0071] 步驟A4 :將X軸、Y軸、Z軸交匯的格子移動至用戶所要選取的目標所在的子格;用 戶根據(jù)選取的設備選取屏幕上的點擊鍵,設備為按鍵、鼠標或觸屏等,使子空間區(qū)域上利用 顏色或數(shù)字等做標記的X軸、Y軸、Z軸交匯的格子可以在整個3D空間內進行上下左右前后 的移動,通過移動得到用戶想要的目標所在的子格位置,除了通過按鍵,用戶還可以通過移 動鼠標或手觸方式進行上下左右前后移動來選取所要得到的子格。
[0072] 步驟A5 :判定選中的子格是否達到設定的空間精度標準;若是,則進入步驟A6,若 否,則將選中的子格空間區(qū)域進行顯示放大,放大到用戶覺得可以自行進行劃分后,并返回 步驟A2 ;
[0073] 步驟A6 :選出合適的追蹤目標。
[0074] 實施例2 :
[0075] 由圖1-4所示,本發(fā)明提供了一種基于新型視覺追蹤技術的目標追蹤方法,所述 方法包括:
[0076] 步驟Bl:在2D平面內,用戶選取一個位置點Stl,記錄點擊點平面坐標(Xtl,Ytl),其 中,Xtl是指在水平X軸上的用戶所處位置的數(shù)值,Ytl是指在垂直方向上的用戶所處位置的 數(shù)值;
[0077] 步驟B2 :以選取的位置點Stl為中心圈定2D范圍的前端可視平面;
[0078] 步驟B3 :將2D范圍的前端可視平面按照透視關系沿Z軸方向進行擴散,形成3D透 視柱,并去除透視柱之外的點,所述擴散的形狀為圓形或方形,用戶可以遵循簡單、方便的 原則自行選擇擴撒形狀,為了便于觀察透視柱,將透視柱可視化,在3D透視柱圈定用戶觀 察到的3D透視柱范圍,Z軸上的可見范圍之中距離用戶最近的Z值記為Znemest,距離用戶最 遠的Z值記為Ztost ;
[0079] 步驟M:運用判定方法初步選定空間點,對初步選定的空間點在Z軸上進行初始 定位;
[0080] 步驟B5 :將形成的3D透視柱按照X軸和Y軸進行旋轉,得到用戶直觀觀察的3D透 視柱;所述3D透視柱旋轉的角度范圍為5° -15°,將透視柱旋轉可以得到用戶非常直觀的 觀察的透視柱,便于用戶根據(jù)需要在透視柱上選取所需要的空間區(qū)域;
[0081] 步驟B6 :用戶根據(jù)選定的空間點在3D透視柱上的位置來截取空間區(qū)域,從而得到 與透視柱中心軸垂直的兩個平面,其中,離用戶最近的平面記為Zfrant,離用戶最遠的平面記 為Zback;
[0082] 步驟B7 :用戶按照Z軸方向拉動所截取空間區(qū)域的Zfront和Zbadt平面來改變所截 取空間區(qū)域的長短,從而選取合適的空間區(qū)域,即Zfmt和Zbadt平面之間的空間區(qū)域;
[0083] 步驟B8 :將選定的子空間區(qū)域進行網(wǎng)格劃分;
[0084] 步驟B9 :利用顏色或數(shù)字來標記劃分完的網(wǎng)格;
[0085] 步驟BlO:將X軸、Y軸、Z軸交匯的格子移動至用戶所要選取的目標所在的子格;
[0086] 步驟Bll:判定選中的子格是否達到設定的空間精度標準;若是,則進入步驟B12, 若否,則將選中的子格空間區(qū)域進行顯示放大,并返回步驟B8;
[0087] 步驟B12 :選出合適的追蹤目標。
[0088] 實施例3 :
[0089] 由圖1-6所示,本發(fā)明提供了一種基于新型視覺追蹤技術的目標追蹤方法,所述 方法包括:
[0090] 步驟Cl:在2D平面內,用戶選取一個位置點Stl,記錄點擊點平面坐標(Xtl,Ytl);
[0091] 步驟C2 :以選取的位置點Stl為中心圈定2D范圍的前端可視平面;
[0092] 步驟C3:將2D范圍的前端可視平面按照透視關系沿Z軸方向進行擴散,形成3D透 視柱,并去除透視柱之外的點;
[0093] 步驟C4:對3D透視柱上的候選點進行分群;
[0094] 劃分群的方法可采用相鄰間距閾值判定法或K-means分群方法;
[0095] 所述的相鄰間距閾值判定方法包括以下步驟:
[0096] 設定一深度間隔距離的閾值,根據(jù)具體情況確定閾值大小;
[0097] 根據(jù)設定的閾值對候選點按照其深度Z值采用升序或降序排序;
[0098] 對相鄰點間距進行判定,若相鄰點Z間距大于閾值,則判定為不同群,若相鄰點Z 間距小于閾值,則判定為同一群;
[0099]所述K-means分群方法是將大量高維的資料點聚類分群的一種通行方法,其分割 成的每一個子群可選出一個中心點或代表點;本發(fā)明應用K-means方法,針對透視柱內所 有候選點的一維向量Z值或三維向量XYZ值進行分群;其中X、Y、Z值分別為在三維空間中 三個軸向上的偏移量,其中,水平方向-X軸,垂直方向-Y軸,深度方向-Z軸;
[0100] 步驟C5:判定符合用戶選取意圖的最優(yōu)群;
[0101] 所述用戶選取意圖的判定條件至少為離觀察者前方較近處的點群、離透視柱中心 軸較近的點群或所屬點群密度較大的點群中的一種;其中,離觀察者前方較近處的點群,即 深度Z值最貼近觀察者的群,根據(jù)
【權利要求】
1. 一種基于新型視覺追蹤技術的目標追蹤方法,其特征在于,所述方法包括: 步驟Al :初步選定3D空間內合適的子空間區(qū)域; 步驟A2 :將選定的子空間區(qū)域進行網(wǎng)格劃分; 步驟A3 :利用顏色或數(shù)字來標記劃分完的網(wǎng)格; 步驟A4 :將X軸、Y軸、Z軸交匯的格子移動至用戶所要選取的目標所在的子格; 步驟A5 :判定選中的子格是否達到設定的空間精度標準;若是,則進入步驟A6,若否, 則將選中的子格空間區(qū)域進行顯示放大,并返回步驟A2 ; 步驟A6 :選出合適的追蹤目標。
2. 如權利要求1所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:所述步 驟A2中的網(wǎng)格劃分采用等分劃分或不等分劃分。
3. 如權利要求1所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:所述步 驟A3中的顏色標記采取漸變的形式。
4. 如權利要求1所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:所述步 驟A4中的X軸、Y軸、Z軸交匯的格子采用按鍵、移動鼠標或手觸方式進行上下左右前后的 移動。
5. -種基于新型視覺追蹤技術的目標追蹤方法,其特征在于,所述方法包括: 步驟Bl :在2D平面內,用戶選取一個位置點Stl,記錄點擊點平面坐標(Xtl, Ytl); 步驟B2 :以選取的位置點Stl為中心圈定2D范圍的前端可視平面; 步驟B3 :將2D范圍的前端可視平面按照透視關系沿Z軸方向進行擴散,形成3D透視 柱,并去除透視柱之外的點; 步驟M :運用判定方法初步選定空間點,對初步選定的空間點在Z軸上進行初始定 位; 步驟B5 :將形成的3D透視柱按照X軸和Y軸進行旋轉,得到用戶直觀觀察的3D透視 柱; 步驟B6 :用戶根據(jù)步驟M初步選定的空間點在3D透視柱上的位置來截取空間區(qū)域, 從而得到與透視柱中心軸垂直的兩個平面,其中,離用戶最近的平面記為Zfront,離用戶最遠 的平面記為Z badt ; 步驟B7 :用戶按照Z軸方向拉動所截取空間區(qū)域的Zfmt和Zbadt平面來改變所截取空 間區(qū)域的長短,從而選取合適的空間區(qū)域,即Zfmt和Zbadt平面之間的空間區(qū)域; 步驟B8 :將選定的子空間區(qū)域進行網(wǎng)格劃分; 步驟B9 :利用顏色或數(shù)字來標記劃分完的網(wǎng)格; 步驟BlO :將X軸、Y軸、Z軸交匯的格子移動至用戶所要選取的目標所在的子格; 步驟Bll :判定選中的子格是否達到設定的空間精度標準;若是,則進入步驟B12,若 否,則將選中的子格空間區(qū)域進行顯示放大,并返回步驟B8 ; 步驟B12 :選出合適的追蹤目標。
6. 如權利要求5所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:所述3D 透視柱旋轉的角度范圍為5° -15°。
7. 如權利要求5所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:所述擴 散的形狀為圓形或方形。
8. -種基于新型視覺追蹤技術的目標追蹤方法,其特征在于,所述方法包括: 步驟Cl :在2D平面內,用戶選取一個位置點Stl,記錄點擊點平面坐標(Xtl, Ytl); 步驟C2 :以選取的位置點Stl為中心圈定2D范圍的前端可視平面; 步驟C3 :將2D范圍的前端可視平面按照透視關系沿Z軸方向進行擴散,形成3D透視 柱,并去除透視柱之外的點; 步驟C4 :對3D透視柱上的候選點進行分群; 步驟C5 :判定符合用戶選取意圖的最優(yōu)群; 步驟C6 :選取最優(yōu)群的成員點平均深度值Znreantl作為3D空間選取點的Z值; 步驟C7 :初步確定用戶選取的3D空間點S',Si坐標記錄為(Xtl, Ytl, Z_nQ)。 步驟C8 :將形成的3D透視柱按照X軸和Y軸進行旋轉,得到用戶直觀觀察的3D透視 柱; 步驟C9 :用戶根據(jù)初步選定的空間點S'在3D透視柱上的位置來截取空間區(qū)域,從而 得到與透視柱中心軸垂直的兩個平面,其中,離用戶最近的平面記為Zfront,離用戶最遠的平 面記為Z badt ; 步驟ClO :用戶按照Z軸方向拉動所截取空間區(qū)域的Zfront和Zbadt平面來改變所截取空 間區(qū)域的長短,從而選取合適的空間區(qū)域,即Zfmt和Zbadt平面之間的空間區(qū)域; 步驟Cll :將選定的子空間區(qū)域進行網(wǎng)格劃分; 步驟C12 :利用顏色或數(shù)字來標記劃分完的網(wǎng)格; 步驟C13 :將X軸、Y軸、Z軸交匯的格子移動至用戶所要選取的目標所在的子格; 步驟C14:判定選中的子格是否達到設定的空間精度標準;若是,則進入步驟C15,若 否,則將選中的子格空間區(qū)域進行顯示放大,并返回步驟Cll ; 步驟C15 :選出合適的追蹤目標。
9. 如權利要求8所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:所述的 分群方法采用相鄰間距閾值判定方法或K-means分群方法。
10. 如權利要求9所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:所述的 相鄰間距閾值判定方法包括以下步驟: 步驟Dl :設定一深度間隔距離的閾值,根據(jù)具體情況確定閾值大??; 步驟D2 :根據(jù)設定的閾值對候選點按照其深度Z值采用升序或降序排序; 步驟D3 :對相鄰點間距進行判定,若相鄰點Z間距大于閾值,則判定為不同群,若相鄰 點Z間距小于閾值,則判定為同一群。
11. 如權利要求8所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:所述用 戶選取意圖的判定條件至少為離觀察者前方較近處的點群、離透視柱中心軸較近的點群和 所屬點群密度較大的點群中的一種。
12. 如權利要求11所述的基于新型視覺追蹤技術的目標追蹤方法,其特征在于:若所 述用戶選取意圖的判定條件為一種以上,則采用線性加權綜合判定或非線性加權為代表的 綜合判定方法。
【文檔編號】G06T17/00GK104318587SQ201410583687
【公開日】2015年1月28日 申請日期:2014年10月27日 優(yōu)先權日:2014年10月27日
【發(fā)明者】祁海江 申請人:祁海江