亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

基于約束極速學習機的腦電信號分類方法

文檔序號:6629674閱讀:206來源:國知局
基于約束極速學習機的腦電信號分類方法
【專利摘要】本發(fā)明涉及一種基于約束極速學習機的腦電信號分類方法,包括采用固定的滑動時間窗將原始運動想象腦電信號平均分為S段子信號;對每一段子信號通過主成分分析方法進行降維;對降維后的特征向量通過線性判別分析方法再次降維,對于K種類別的腦電數(shù)據(jù),得到K-1維的特征向量;對每一段子信號進行處理,得到S個K-1維的特征向量,組合后得到S*(K-1)維的特征;將S*(K-1)維特征送入約束極速學習機(CELM)進行分類。本發(fā)明應用CELM通過改變輸入層節(jié)點與隱層節(jié)點之間的權(quán)重的選取方式,限制權(quán)重參數(shù)的隨機性,從而既能提高運動想象腦電信號的分類準確率,又能保持ELM訓練速度快的優(yōu)勢。
【專利說明】基于約束極速學習機的腦電信號分類方法

【技術(shù)領(lǐng)域】
[0001] 本發(fā)明屬于模式識別領(lǐng)域,涉及一種基于約束極速學習機的腦電信號分類方法。

【背景技術(shù)】
[0002] 腦機接口(Brain Computer Interface, BCI)可以讓用戶使用大腦內(nèi)的活動而不 是外部的肌肉與神經(jīng)控制電腦或外部的設備。近幾十年來,隨著信號處理和機器學習等技 術(shù)研究的發(fā)展,BCI研究逐漸成為熱點。BCI技術(shù)不僅為腦疾病患者提供一種新的診斷方 式,更重要的是實現(xiàn)一種人與外界通訊的新途徑。運動想象腦電信號在BCI領(lǐng)域很常見,通 過采集分析人們在想象身體某個部位運動或進行某種思維活動時的腦電信號,識別人們大 腦的狀態(tài),進而控制外界裝置。
[0003] 在BCI研究中,對反應大腦不同思維狀態(tài)的腦電信號進行識別是研究過程中的一 個重要環(huán)節(jié)。尋求有效的特征提取方法和分類方法是提高識別準確率的關(guān)鍵。常用的腦電 特征有頻帶能量,功率譜密度,自回歸參數(shù),自適應自回歸參數(shù)等等。常用的腦電信號分類 方法有支持向量機法,最近鄰法,貝葉斯法,人工神經(jīng)網(wǎng)絡法等等。
[0004] 在BCI系統(tǒng)中,腦電信號尤其是實時腦電信號要求較短的處理時間。一些分類算 法只考慮到了較高的準確率忽略了處理耗時。因此,為適用于腦電信號的分類,應尋找一種 算法達到高分類準確率與低處理耗時的平衡非常重要。
[0005] Huang提出的基于單隱層前饋神經(jīng)網(wǎng)絡(Single-hidden Layer Feed forward Neural Network,SLFN)的極速學習機(Extreme Learning Machine,ELM)方法,其訓練速 度與BP神經(jīng)網(wǎng)絡以及支持向量機(SVM)相比有明顯提升。但ELM完全隨機地選擇輸入層 節(jié)點與隱層節(jié)點之間的權(quán)重,這種隨機性會降低了應用ELM對腦電信號進行分類的正確 率。Zhu提出了一種改進ELM的方法稱為約束極速學習機(Constrained Extreme Learning Machine,CELM),約束了 ELM的隨機性。在CELM中,輸入層節(jié)點與隱層節(jié)點之間的權(quán)重隨機 地從相鄰兩類樣本的差分向量中選擇,而不是從完全任意的向量中選擇,權(quán)重選擇的隨機 性受到了限制,而且仍然保持了 ELM比一般分類方法訓練速度快的特性。因此,如果將CELM 應用于腦電信號分類,既可以保持ELM的分類方法訓練速度快的優(yōu)點,又能提高分類的準 確率。


【發(fā)明內(nèi)容】

[0006] 針對現(xiàn)有技術(shù)中存在的上述問題,本發(fā)明采用改進的ELM即CELM對運動想象任務 的腦電信號進行分類,提高其分類的準確率。
[0007] CELM的輸入層節(jié)點與隱層節(jié)點之間的權(quán)重隨機地從相鄰兩類樣本的差分向量 (差分向量的示意圖如附圖2所示)中選擇,而不是像ELM那樣從完全任意的向量中選擇。 ELM中,完全任意的向量選取出的參數(shù)會產(chǎn)生更多的隱層節(jié)點以滿足算法的泛化能力要求。 更多的隱層節(jié)點會消耗更多的處理時間,占用更多的計算資源,容易導致過擬合。為避免上 面的問題,本發(fā)明中采用CELM的方法對運動想象腦電信號進行分類。
[0008] 本發(fā)明所述方法包括以下步驟:
[0009] 步驟1,對腦電信號進行特征提取,得到腦電信號的特征。
[0010] 步驟1.1,采用固定的滑動時間窗將原始運動想象腦電信號分為S段子信號。S的 取值取決于滑動時間窗的長度與原始腦電信號的長度。
[0011] 步驟1. 2,對步驟I. 1所得到的每一段子信號通過主成分分析(Principal Component Analysis, PCA)方法進行降維,得到降維后的特征向量。
[0012] 步驟1. 3,將步驟1. 2中得到的特征向量通過線性判別分析(Liner Discriminate Analysis,LDA)方法再次降維,對于K種類別的腦電數(shù)據(jù),得到K-I維的特征向量。
[0013] 步驟1. 4,對每一段子信號均按照步驟1. 2和步驟1. 3進行處理,得到S個K-I維 的特征向量,將這S個K-I維的特征向量進行組合,得到最終為S*(K-I)維的特征。
[0014] 步驟2,將步驟1. 4所得到的S* (K-I)維特征送入CELM進行分類,得到最終分類結(jié) 果。
[0015] 與現(xiàn)有技術(shù)相比,本發(fā)明的方法具有以下優(yōu)點:
[0016] 傳統(tǒng)的ELM方法的輸入層節(jié)點與隱層節(jié)點之間的權(quán)重是從完全隨機任意的向量 中選取的,會產(chǎn)生更多的隱層節(jié)點,降低分類識別率。本發(fā)明應用CELM通過改變輸入層節(jié) 點與隱層節(jié)點之間的權(quán)重的選取方式,限制權(quán)重參數(shù)的隨機性,從而既能提高運動想象腦 電信號的分類準確率,又能保持ELM訓練速度快的優(yōu)勢。實驗表明,應用本發(fā)明所述方法分 類結(jié)果的正確率是92. 78%,優(yōu)于現(xiàn)有其它方法。同樣特征的情況下,采用SVM和ELM的平 均正確率分別為92. 15%和89. 04%。

【專利附圖】

【附圖說明】
[0017] 圖1本發(fā)明所涉及方法的主流程圖;
[0018] 圖2為CELM中差分向量的不意圖:(a)為隨機樣本產(chǎn)生差分向量,(b)為完全隨機 向量,(c)為差分向量;
[0019] 圖3為CELM方法流程圖。

【具體實施方式】
[0020] 下面結(jié)合附圖和實施實例對本發(fā)明做進一步的詳細描述。
[0021] 假設有一組訓練數(shù)據(jù)集TrainData和一組測試數(shù)據(jù)集TestData,TrainData的樣 本量為N,維度為D JestData的樣本量為M,維度同樣為D。其中TrainData與TestData中 樣本屬于K個類別。
[0022] 圖1是本發(fā)明所涉及方法的主流程圖,具體包括以下步驟:
[0023] 步驟一,采用固定時間窗把TrainData和TestData均分成S段腦電子信號。 TrainData i代表訓練數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di (i = 1,2,…,S)。 TestDatai代表測試數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di (i = 1,2,…,S)。因為 采用固定時間窗,窗口大小是固定的,所以D1 = D2 =…=Dp
[0024] 步驟二,對步驟一所得到的每一段子信號TrainDatai和TestData i通過主成分分 析方法進行降維。將特征值從大到小進行排序后,再根據(jù)累計貢獻率,只保留前m個最大特 征值對應的特征向量組合Mpca= [O1, O 2, ...,作為投影空間向量。將TrainDatai和 TestDatai同時投影到MrcA上,可得到PCA降維后的訓練數(shù)據(jù)Train i和測試數(shù)據(jù)Testi :
[0025] Traini = TrainDatai ?Mpca
[0026] Testi = TestDatai ?Mpca
[0027] 步驟三,對步驟二中得到的特征向量通過LDA方法進行二次降維,具體方法如下:
[0028] (1)根據(jù)LDA準則,利用Traini中不同類別樣本的類間離散度矩陣以及同一類別 樣本的類內(nèi)離散度矩陣計算出LDA的投影空間向量w'
[0029] (2)把Traini與Testi投影到上,得到第i段腦電子信號的特征:
[0030] TrainFeaturei = Traini ? w*
[0031] TestFeaturei = Testi ? w*
[0032] 步驟四,計算出所有的TrainFeaturei與TestFeature i,并進行組合,得到最終的 特征 TrainFeature 與 TestFeature :
[0033] TrainFeature = (TrainFeature1, TrainFeature2,…,TrainFeatureJ
[0034] TestFeature = (TestFeature1, TestFeature2,…,TestFeatureJ
[0035] 步驟五,用步驟四所得到的特征TrainFeature訓練CELM分類器模型,將 TestFeature送入訓練好的模型進行分類。流程圖如圖3所示,具體方法如下:
[0036] (1)給定隱層節(jié)點個數(shù)L和激勵函數(shù)g(x)。隨機產(chǎn)生輸入權(quán)值%和偏置值Iv Xi 代表輸入的第i個訓練樣本,Yi代表Xi對應的標簽。因為送入分類器的是已經(jīng)提取好的特 征,故在本發(fā)明中,X i實際上代表TestFeature^
[0037] (2)從TrainFeature的兩個不同類C1和C2中分別隨機取兩個樣本夂和4 2 '計算 差分向量夂一'。
[0038] (3)如果夂_\足夠小,則從差分向量中刪除夂-',繼續(xù)執(zhí)行步驟(2);如果 \ _夂與差分向量里面已有的向量平行,則從差分向量中刪除弋-戈,繼續(xù)執(zhí)行步驟(2)。
[0039] (4)計算標準化差分向量

【權(quán)利要求】
1. 基于約束極速學習機的腦電信號分類方法,包括: 步驟1,對腦電信號進行特征提取,得到腦電信號的特征; 處理對象為一組訓練數(shù)據(jù)集TrainData和一組測試數(shù)據(jù)集TestData,TrainData的樣 本量為N,維度為D JestData的樣本量為M,維度同樣為D ;其中TrainData與TestData中 樣本屬于K個類別; 步驟1. 1,采用固定時間窗把TrainData和TestData均分成S段腦電子信號; TrainDatai代表訓練數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di, i = 1,2,…,S ; TestDatai代表測試數(shù)據(jù)集中第i段子信號,每段子信號的維度為Di, i = 1,2,…,S,D1 = D2 =--?= Di = W ; 步驟1. 2,對步驟I. 1所得到的每一段子信號TrainDatai和TestDatai通過主成分分 析方法進行降維;將特征值從大到小進行排序后,再根據(jù)累計貢獻率,只保留前m個最大特 征值對應的特征向量組合MrcA = [O1, 〇2, ...,Om]作為投影空間向量;將TrainDatai和 TestDatai同時投影到MrcA上,可得到PCA降維后的訓練數(shù)據(jù)Traini和測試數(shù)據(jù)Test i ; 步驟1. 3,對步驟1. 2中得到的特征向量通過線性判別分析LDA方法進行二次降維: 根據(jù)LDA準則,利用Traini中不同類別樣本的類間離散度矩陣以及同一類別樣本的類 內(nèi)離散度矩陣計算出LDA的投影空間向量; 把Traini與Testi投影到上,得到第i段腦電子信號的特征: TrainFeaturei = Traini ? w* TestFeaturei = Testi ? w* 步驟I. 4,對每一段子信號均按照步驟I. 2和步驟I. 3進行處理,計算出所有 的TrainFeaturei與TestFeaturei,進行組合后得到最終的特征TrainFeature與 TestFeature : TrainFeature = (TrainFeature1, TrainFeature2, TrainFeaturexI TestFeature = (TestFeature1, TestFeature2,…,TestFeatureJ 其特征在于還包括: 步驟2,用所述步驟1. 4得到的特征TrainFeature訓練約束極速學習機分類器模型,將 TestFeature送入訓練好的模型進行分類。
2. 根據(jù)權(quán)利要求1所述的應用約束極速學習機對腦電信號進行分類的方法,其特征在 于,所述步驟2進行分類的方法還包括以下步驟: 步驟2. 1,給定隱層節(jié)點個數(shù)L和激勵函數(shù)g(x);隨機產(chǎn)生輸入權(quán)值ai和偏置值h ;Xi代表輸入的第i個訓練樣本,即TestFeaturei, Yi代表Xi對應的標簽; 步驟2. 2,從TrainFeature的兩個不同類C1和C2中分別隨機取兩個樣本,和,計算 差分向量; 步驟2. 3,如果夂足夠小,則從差分向量中刪除\ 繼續(xù)執(zhí)行步驟2. 2 ;如果 \ -?與差分向量里面已有的向量平行,則從差分向量中刪除夂,繼續(xù)執(zhí)行步驟2. 2 ; 步驟2. 4,計算標準化差分向量w和對應的偏置b :
步驟2. 5,用向量w和偏置b構(gòu)造權(quán)重矩陣Wn>a和偏置向量Id1M ; 步驟2. 6,如果差分向量的個數(shù)小于L個,重復執(zhí)行步驟2. 2?2. 5 ; 步驟2. 7,計算隱含層的輸出矩陣:
式中,G (a" b" X) = g (X ? afbi); 步驟2. 8,通過最小二乘法計算隱層節(jié)點的輸出權(quán)重矩陣P : ^ LXM = H+Y
步驟2. 9,通過訓練分類器模型,將TestFeature送入分類器進行分類,得到一組預測 標簽;預測標簽與真實標簽進行比較求出分類正確率; 步驟2. 10,重復步驟2. 1?2. 9Z次,Z不小于50,計算出Z次的平均分類正確率作為 最終的分類正確率。
【文檔編號】G06K9/62GK104361345SQ201410529244
【公開日】2015年2月18日 申請日期:2014年10月10日 優(yōu)先權(quán)日:2014年10月10日
【發(fā)明者】段立娟, 續(xù)艷慧, 苗軍, 馬偉, 楊震, 葛卉 申請人:北京工業(yè)大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1