亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道方法及其系統(tǒng)與流程

文檔序號:11243073閱讀:611來源:國知局
一種基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道方法及其系統(tǒng)與流程
本發(fā)明屬于車聯(lián)網(wǎng)安全
技術(shù)領(lǐng)域
,尤其是一種基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道方法及其系統(tǒng)。
背景技術(shù)
:交通事故是危害人類安全和社會發(fā)展的重要問題。據(jù)統(tǒng)計,多達90%的交通事故是由超速、醉駕、疲勞、操作不當?shù)热藶橐蛩卦斐?。因此,無人駕駛汽車受到越來越多學者和研究人員的關(guān)注。智能網(wǎng)聯(lián)汽車根據(jù)智能化程度分為五個等級:駕駛輔助、部分自動駕駛、有條件自動駕駛、高度自動駕駛和完全自動駕駛?,F(xiàn)階段無人駕駛處于發(fā)展的起步階段,實現(xiàn)了人與系統(tǒng)共同駕駛,距離完全自動駕駛還有很長的路,人類因素仍然會長期存在。況且,駕車樂趣是任何先進的技術(shù)無法取代的,傳統(tǒng)人類駕駛汽車不會完全消失,在未來很長時間內(nèi),將會處于無人駕駛與人類駕駛并存的混合行駛環(huán)境。如果無人駕駛汽車缺少與人類駕駛汽車的有效協(xié)同機制,反而更容易發(fā)生事故。換道通常伴隨超車,是影響車輛安全的主要行為之一。換道不僅受到交通法規(guī)的約束,還與駕駛員的駕駛風格緊密相關(guān)。不同駕駛員受自身心理、性格甚至情緒等因素影響會有不同的駕駛風格,具體表現(xiàn)為駕駛過程中的禮讓、競爭甚至對抗,應(yīng)對不同車輛應(yīng)該選取不同的駕駛策略。駕駛心理是極其復雜的,影響競爭傾向的因素包括刺激、威脅、動機、信息交互等心理因素。因此,在混合行駛環(huán)境避免事故需要無人駕駛具有類人行為能力。目前換道方法存在諸多問題:(1)傳統(tǒng)方法模型主要依靠無人駕駛自身獲取信息進行決策,缺少與人類駕駛之間的協(xié)作,不具備類人行為能力,不能適應(yīng)混合行駛的新型交通環(huán)境;(2)傳統(tǒng)換道方法追求車輛安全、行駛效率等“理性”因素,實際情況是車輛的行為同樣受示威、較勁等“非理性”因素影響,而這些“非理性”因素更容易導致交通事故;(3)大部分研究人員在分析駕駛員風格時,僅僅通過調(diào)查取樣分類,定性分析不能保證精度,缺少量化分析能力;(4)部分分析算法只是把監(jiān)測數(shù)據(jù)與先前樣本簡單比對,缺少自學習能力,風格分析需要積累一定數(shù)量的經(jīng)驗知識才具備預判能力,自學習功能對預測有重要意義。技術(shù)實現(xiàn)要素:本發(fā)明的目的是提供一種充分考慮理性和非理性因素,處理速度快、更加貼近真實場景的基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道方法及其系統(tǒng)。本發(fā)明解決現(xiàn)有技術(shù)問題所采用的技術(shù)方案:一種基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道方法,包括以下步驟:s1:換道數(shù)據(jù)采集及換道需求判斷:a1、換道數(shù)據(jù)采集:通過安裝在車輛上的數(shù)據(jù)采集模塊采集車輛在行駛過程中的路況信息,所述路況信息包括車輛在當前車道的速度及加速度、相鄰車道中與當前車輛對應(yīng)的前導車輛的速度及加速度、相鄰車道中與當前車輛對應(yīng)的滯后車輛的速度及加速度和周邊限制要素的運動速度,以及當前車輛與所述前導車輛、滯后車輛以及周邊限制要素之間的相對距離;所述前導車輛是位于當前車輛前方的車輛;所述滯后車輛是位于當前車輛后方的車輛;a2、換道需求判斷:根據(jù)換道需求判斷條件,判斷當前車輛是否有換道需求:若當前車輛同時不滿足換道需求判斷條件,則當前車輛不需要換道,即放棄換道;若當前車輛滿足需求判斷條件中的至少一條,則當前車輛需要換道;所述換道需求判斷條件為:其中,δxi為當前車輛i與前導車輛或周邊交通要素之間的相對距離,vie為當前車輛i的預設(shè)期望速度,vic為當前車輛i的速度,vi+1為與當前車輛i對應(yīng)的前導車輛的速度,tsafe為預設(shè)安全時距,tmin為預設(shè)最小反應(yīng)時間,vbar為周邊限制要素的運動速度,i≥1;s2、博弈收益計算:建立與換道行為相對應(yīng)的博弈換道模型:將步驟a2中需要換道的車輛的可能行為策略作為行描述,將該車輛對應(yīng)的滯后車輛的可能行為策略作為列描述,建立與換道行為相對應(yīng)的博弈換道模型;并以博弈收益值數(shù)值對作為博弈換道模型的元素,每個博弈收益值數(shù)值對作為在對應(yīng)行描述和列描述條件下的數(shù)值表示;提取博弈換道模型的元素構(gòu)建成為博弈收益矩陣,博弈收益矩陣中的元素為(pij,qij),其中,pij、qij分別為在行描述i和列描述j的條件下,需要換道的車輛及與該車輛對應(yīng)的滯后車輛的博弈收益值,且通過以下公式獲得:pij(或qij)=α*a+β*b其中,α、β為權(quán)重系數(shù),且滿足α+β=1,α、β的初始值均為0.5;對于需要計算博弈收益的車輛vx,a、b分別由以下公式計算:其中,vx為車輛vx的速度,ax為車輛vx的加速度,δt為采集間隔時間,δxa為車輛vx與前導車輛的相對距離,δxb為車輛vx與滯后車輛的相對距離,vxaccsafe為車輛vx加速時的安全速度,vxdecsafe為車輛vx減速時的安全速度;所述車輛vx加速時的安全速度vxaccsafe的獲取方法為:當車輛vx加速時,設(shè)車輛va為此時車輛vx的期望前導車輛,車輛va與車輛vx的距離為δx,通過數(shù)據(jù)采集模塊得到期望前導車輛va的速度、加速度分別為va、aa,車輛vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則使車輛vx加速后經(jīng)過t=δt+tmin與va碰撞的速度vmax滿足以下條件:求出vmax后,得到車輛vx加速的安全速度vxaccsafe為:車輛vx減速時的安全速度vxdecsafe的獲取方法為:當車輛vx減速時,設(shè)車輛vc為此時車輛vx的期望前導車輛,通過步驟s1得到車輛vc與車輛vx的距離為δxc,期望前導車輛vc的速度、加速度分別為vc、ac,車輛vx的速度、加速度分別為vx、ax;采集間隔為δt,最小反應(yīng)時間tmin,則使vx減速后經(jīng)過t=δt+tmin與vc碰撞的速度vmax1滿足以下條件:同時,車輛vx需要避免與其滯后車輛vb發(fā)生碰撞,通過步驟s1采集到的車輛vx與車輛vb的相對距離為δxb,vb的速度、加速度分別為vb、ab,車輛vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則使車輛vx減速后經(jīng)過t=δt+tmin與vb碰撞的速度vmax2滿足:得到減速后的最大速度vmax、安全減速度asafe分別為:vmax=max{vmax1,vmax2}車輛vx減速的安全速度vxdecsafe為:s3、駕駛風格得分計算:通過人工神經(jīng)網(wǎng)絡(luò)使用反向傳播算法,將步驟s1得到的速度、加速度和相對距離作為輸入值計算速度得分、加速度得分、安全時距得分,并將上述得分作為輸入值輸入神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中得到駕駛風格得分:b1、計算速度得分:使用krauss模型的安全速度公式分別計算需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛的安全速度速度得分ev為:其中,visafe(t+δt)為待評分車輛i在t+δt時刻的安全速度,δt為觀察時間,vi+1(t)為與待評分車輛i對應(yīng)的前導車輛i+1在t時刻的速度,δxi(t)為待評分車輛i與前導車輛i+1在t時刻的相對位移,δvi(t)為待評分車輛i與前導車輛i+1在t時刻的相對速度差,t為預設(shè)反應(yīng)時間,a為最大加速度,vmax為預設(shè)最高速度,vmin為預設(shè)最低速度;b2、計算加速度得分:利用以下公式分別計算需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛加速度積分ia:加速度得分ea為:其中,ia為加速度積分,a為待評分車輛的加速度值,δt為自車輛決定換道到觀察分析的時間差,|a|x為人類對加速度的主觀感受函數(shù),abrk為車輛最大制動加速度;b3、計算安全時距得分:利用以下公式計算安全時距tsafe:安全時距得分es為:其中,tsafe為安全時距;δxsafe(vi)為使車輛vi完全停止的最小距離,l為車身長度,xbrk為制動距離,vi為當前車輛i的速度,tmin為預設(shè)最小反應(yīng)時間;b4、計算駕駛風格得分:將得到的速度得分、加速度得分和安全時距得分作為輸入值輸入到神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中得到駕駛風格得分,其中,采用非線性s型的log-sigmoid函數(shù):其中,為神經(jīng)元激發(fā)函數(shù):其中,n為列描述的個數(shù),xi為車輛i的速度得分、加速度得分、安全時距得分,wji、bj分別為激活函數(shù)的權(quán)重和偏置,權(quán)重和偏置為由人工神經(jīng)網(wǎng)絡(luò)自學習調(diào)整得到,的值域為(0,1);整個神經(jīng)網(wǎng)絡(luò)的誤差函數(shù)如下所示:其中,d為真實值;通過梯度下降法調(diào)整人工神經(jīng)網(wǎng)絡(luò)的權(quán)值:其中,η為學習速度;s4、權(quán)重調(diào)整:確定權(quán)重系數(shù)α、β:由α+β=1,權(quán)重即需換道車輛的前導車輛與滯后車輛駕駛風格得分在總分中的占比:其中,oa為前導車輛的駕駛風格得分,ob為滯后車輛的駕駛風格得分;s5、換道決策:根據(jù)步驟s4得到的調(diào)整后的權(quán)重重新計算步驟s2的博弈收益值,設(shè)p為當前車輛vc換道的概率,q1為滯后車輛vl加速的概率,q2為滯后車輛vl減速的概率,則vc、vl的混合概率期望收益ec、el如下所示:ec(p,q1,q2)=p[p'13-p'23+q1(p'11+p'23-p'13-p'21)+q2(p'12+p'23-p'13-p'22)]+[p'23+q1(p'21-p'23)+q2(p'22-p'23)]el(p,q1,q2)=q'23+p(q'13-q'23)+q1[q'21-q'23+p(q'11+q'23-q'13-q'21)]+q2[q'22-q'23+p(q'12+q'23-q'13-q'22)]其中,p'ij,q'ij分別為使用步驟s4調(diào)整后的權(quán)重獲得的車輛vc、vl的博弈收益值;通過對求解概率參數(shù)(p,q1,q2)的至少一個最優(yōu)解(p*,q1*,q2*),使ec、el達到最大,即滿足:車輛根據(jù)(p*,q1*,q2*)的值決定是否執(zhí)行換道或放棄換道。所述周邊限制要素包括障礙物、重型車輛、應(yīng)急車輛。一種基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道系統(tǒng),包括以下模塊:換道數(shù)據(jù)采集及換道需求判斷模塊:包括以下模塊:換道數(shù)據(jù)采集模塊:在車輛上安裝數(shù)據(jù)采集模塊用于采集并輸出車輛在行駛過程中的路況信息,所述路況信息包括車輛在當前車道的速度及加速度、相鄰車道中與當前車輛對應(yīng)的前導車輛的速度及加速度、相鄰車道中與當前車輛對應(yīng)的滯后車輛的速度及加速度和周邊限制要素的運動速度,以及當前車輛與所述前導車輛、滯后車輛以及周邊限制要素之間的相對距離;所述前導車輛是位于當前車輛前方的車輛;所述滯后車輛是位于當前車輛后方的車輛;換道需求判斷模塊:用于根據(jù)換道需求判斷條件,判斷當前車輛是否有換道需求:若當前車輛同時不滿足換道需求判斷條件,則當前車輛不需要換道,即放棄換道;若當前車輛滿足需求判斷條件中的至少一條,則當前車輛需要換道;所述換道需求判斷條件為:其中,δxi為當前車輛i與前導車輛或周邊交通要素之間的相對距離,vie為當前車輛i的預設(shè)期望速度,vic為當前車輛i的速度,vi+1為與當前車輛i對應(yīng)的前導車輛的速度,tsafe為預設(shè)安全時距,tmin為預設(shè)最小反應(yīng)時間,vbar為周邊限制要素的運動速度,i≥1;博弈收益計算模塊:用于建立與換道行為相對應(yīng)的博弈換道模型:將換道需求判斷模塊中需要換道的車輛的可能的行為策略作為行描述,將該車輛對應(yīng)的滯后車輛可能的行為策略作為列描述,建立與換道行為相對應(yīng)的博弈換道模型;并以博弈收益值數(shù)值對作為博弈換道模型的元素,每個博弈收益值數(shù)值對作為在對應(yīng)行描述和列描述條件下的數(shù)值表示;提取博弈換道模型的元素構(gòu)建成為博弈收益矩陣,博弈收益矩陣中的元素為(pij,qij),其中,pij、qij分別為在行描述i和列描述j的條件下,需要換道的車輛,及與該車輛對應(yīng)的滯后車輛的博弈收益值,且通過以下公式獲得:pij(或qij)=α*a+β*b其中,α、β為權(quán)重系數(shù),且滿足α+β=1,α、β的初始值均為0.5;對于需要計算博弈收益的車輛vx,a、b分別由以下公式計算:其中,vx為車輛vx的速度,ax為車輛vx的加速度,δt為采集間隔時間,δxa為車輛vx與前導車輛的相對距離,δxb為車輛vx與滯后車輛的相對距離,vxaccsafe為車輛vx加速時的安全速度,vxdecsafe為車輛vx減速時的安全速度;所述車輛vx加速時的安全速度vxaccsafe的獲取方法為:當車輛vx加速時,設(shè)車輛va為此時車輛vx的期望前導車輛,車輛va與車輛vx的距離為δx,通過數(shù)據(jù)采集模塊得到期望前導車輛va的速度、加速度分別為va、aa,車輛vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則使車輛vx加速后經(jīng)過t=δt+tmin與va碰撞的速度vmax滿足以下條件:求出vmax后,得到車輛vx加速的安全速度vxaccsafe為:車輛vx減速時的安全速度vxdecsafe的獲取方法為:當車輛vx減速時,設(shè)車輛vc為此時車輛vx的期望前導車輛,通過換道數(shù)據(jù)采集及換道需求判斷模塊得到車輛vc與車輛vx的距離為δxc,期望前導車輛vc的速度、加速度分別為vc、ac,車輛vx的速度、加速度分別為vx、ax;采集間隔為δt,最小反應(yīng)時間tmin,則使vx減速后經(jīng)過t=δt+tmin與vc碰撞的速度vmax1滿足以下條件:同時,車輛vx需要避免與其滯后車輛vb發(fā)生碰撞,通過換道數(shù)據(jù)采集及換道需求判斷模塊采集到的車輛vx與車輛vb的相對距離為δxb,vb的速度、加速度分別為vb、ab,車輛vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則使車輛vx減速后經(jīng)過t=δt+tmin與vb碰撞的速度vmax2滿足:得到減速后的最大速度vmax、安全減速度asafe分別為:vmax=max{vmax1,vmax2}車輛vx減速的安全速度vxdecsafe為:駕駛風格得分計算模塊:用于通過人工神經(jīng)網(wǎng)絡(luò)使用反向傳播算法,將換道數(shù)據(jù)采集及換道需求判斷模塊得到的速度、加速度和相對距離作為輸入值計算速度得分、加速度得分、安全時距得分,并將上述得分作為輸入值輸入神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中輸出駕駛風格得分:包括以下模塊:速度得分計算模塊:用于使用krauss模型的安全速度公式分別輸出需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛的安全速度速度得分ev為:其中,visafe(t+δt)為待評分車輛i在t+δt時刻的安全速度,δt為觀察時間,vi+1(t)為與待評分車輛i對應(yīng)的前導車輛i+1在t時刻的速度,δxi(t)為待評分車輛i與前導車輛i+1在t時刻的相對位移,δvi(t)為待評分車輛i與前導車輛i+1在t時刻的相對速度差,t為預設(shè)反應(yīng)時間,a為最大加速度,vmax為預設(shè)最高速度,vmin為預設(shè)最低速度。加速度得分計算模塊:用于利用以下公式分別輸出需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛加速度積分ia:加速度得分ea為:其中,ia為加速度積分,a為待評分車輛的加速度值,δt為自車輛決定換道到觀察分析的時間差,|a|x為人類對加速度的主觀感受函數(shù),abrk為車輛最大制動加速度;安全時距得分計算模塊:用于利用以下公式計算安全時距tsafe:安全時距得分es為:其中,tsafe為安全時距;δxsafe(vi)為使車輛vi完全停止的最小距離,l為車身長度,xbrk為制動距離,vi為當前車輛i的速度,tmin為預設(shè)最小反應(yīng)時間;駕駛風格得分計算模塊:將得到的速度得分、加速度得分和安全時距得分作為輸入值輸入到神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中得到駕駛風格得分,其中,采用非線性s型的log-sigmoid函數(shù):其中,為神經(jīng)元激發(fā)函數(shù):其中,n為列描述的個數(shù),xi為車輛i的速度得分、加速度得分、安全時距得分,wji、bj分別為激活函數(shù)的權(quán)重和偏置,權(quán)重和偏置為由人工神經(jīng)網(wǎng)絡(luò)自學習調(diào)整得到,的值域為(0,1);用于計算整個神經(jīng)網(wǎng)絡(luò)的誤差函數(shù):其中,d為真實值;用于通過梯度下降法調(diào)整人工神經(jīng)網(wǎng)絡(luò)的權(quán)值:其中,η為學習速度;權(quán)重調(diào)整模塊:包括以下部分:用于確定權(quán)重系數(shù)α、β:由α+β=1,權(quán)重即需換道車輛的前導車輛與滯后車輛駕駛風格得分在總分中的占比:其中,oa為前導車輛的駕駛風格得分,ob為滯后車輛的駕駛風格得分;換道決策模塊:用于根據(jù)權(quán)重調(diào)整模塊得到的調(diào)整后的權(quán)重重新計算博弈收益計算模塊的博弈收益值,設(shè)p為當前車輛vc換道的概率,q1為滯后車輛vl加速的概率,q2為滯后車輛vl減速的概率,則車輛vc、vl的混合概率期望收益ec、el如下所示:ec(p,q1,q2)=p[p'13-p'23+q1(p'11+p'23-p'13-p'21)+q2(p'12+p'23-p'13-p'22)]+[p'23+q1(p'21-p'23)+q2(p'22-p'23)]el(p,q1,q2)=q'23+p(q'13-q'23)+q1[q'21-q'23+p(q'11+q'23-q'13-q'21)]+q2[q'22-q'23+p(q'12+q'23-q'13-q'22)]其中,p'ij,q'ij分別為使用權(quán)重調(diào)整模塊調(diào)整后的權(quán)重獲得的vc、vl的博弈收益值;通過對求解概率參數(shù)(p,q1,q2)的至少一個最優(yōu)解(p*,q1*,q2*),使ec、el達到最大,即滿足:車輛根據(jù)(p*,q1*,q2*)的值輸出是否執(zhí)行換道或放棄換道。所述周邊限制要素包括障礙物、重型車輛、應(yīng)急車輛。(1)本發(fā)明的換道方法基于非合作博弈理論在交通環(huán)境建立博弈換道模型,與傳統(tǒng)只考慮車輛安全和通行效率的方法相比,同時考慮了換道場景中的理性和非理性因素,更加貼近真實場景。(2)本發(fā)明的換道方法在計算博弈收益值時,加入了前導車輛、滯后車輛的駕駛風格參數(shù)參與計算,與傳統(tǒng)的方法相比更加重視駕駛環(huán)節(jié)中的人類因素,既考慮到車輛的共性,同時兼顧不同駕駛風格的個性,無人駕駛汽車具備一定類人行為能力,對混合行駛場景有更強的適應(yīng)力。(3)本發(fā)明的換道方法對駕駛風格進行量化分析,用于調(diào)整不同車輛的影響權(quán)重,與傳統(tǒng)的人類主觀分析樣本方法相比,結(jié)果更加精確。(4)本發(fā)明的換道方法使用了收益再調(diào)整方案,按照換道需求、換道可能性、換道決策三部分建模,符合人類思考過程,為進一步提高無人駕駛汽車的類人行為能力奠定了基礎(chǔ)。(5)本發(fā)明的換道方法使用人工神經(jīng)網(wǎng)絡(luò)處理車輛獲取的信息,相比傳統(tǒng)無人駕駛汽車直接處理信息,算法實現(xiàn)了基本的數(shù)據(jù)加工,通過神經(jīng)網(wǎng)絡(luò)的自學習能力,計算精度會隨樣本數(shù)量的增多更加精確,符合人類在認知過程中積累經(jīng)驗促進認知的學習過程。附圖說明圖1是本發(fā)明換道場景示意圖。圖2是本發(fā)明的方法原理圖。圖3是本發(fā)明的方法流程圖。圖4是本發(fā)明的模塊連接示意圖。具體實施方式以下結(jié)合附圖及具體實施例對本發(fā)明進行說明:如圖2-3所示,一種基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道方法,包括以下步驟:s1:換道數(shù)據(jù)采集及換道需求判斷:a1、換道數(shù)據(jù)采集:通過安裝在車輛上的數(shù)據(jù)采集模塊(如圖像采集模塊、測速傳感器等)采集車輛在行駛過程中的路況信息,其中,如圖1所示,路況信息包括當前車輛(如圖1中的v1)在當前車道的速度及加速度、相鄰車道中與當前車輛對應(yīng)的前導車輛v2的速度及加速度、相鄰車道中與當前車輛對應(yīng)的滯后車輛v3的速度及加速度和周邊要素的運動速度,以及當前車輛v1與前導車輛v2、滯后車輛v3以及周邊要素(如障礙物、重型車輛、應(yīng)急車輛等,如圖1中的b點)之間的相對距離;前導車輛v2是位于當前車輛前方的車輛;滯后車輛v3是位于當前車輛后方的車輛。a2、換道需求判斷:根據(jù)換道需求判斷條件,判斷當前車輛是否有換道需求:若當前車輛同時不滿足換道需求判斷條件,則當前車輛不需要換道,即放棄換道;若當前車輛滿足需求判斷條件中的至少一條,則當前車輛需要換道;所述換道需求判斷條件為:其中,δxi為當前車輛i與前導車輛或周邊交通要素之間的相對距離,vie為當前車輛i的預設(shè)期望速度,vic為當前車輛i的速度,vi+1為與當前車輛i對應(yīng)的前導車輛的速度,tsafe為預設(shè)安全時距,tmin為預設(shè)最小反應(yīng)時間,vbar為周邊限制要素的運動速度,i≥1;s2、博弈收益計算:建立與換道行為相對應(yīng)的博弈換道模型:將步驟a2中需要換道的車輛的可能的行為策略作為行描述,將該車輛對應(yīng)的滯后車輛可能的行為策略作為列描述,建立與換道行為相對應(yīng)的博弈換道模型;并以博弈收益值數(shù)值對作為博弈換道模型的元素,每個博弈收益值數(shù)值對作為在對應(yīng)行描述和列描述條件下的數(shù)值表示;提取博弈換道模型的元素構(gòu)建成為博弈收益矩陣,博弈收益矩陣中的元素為(pij,qij),其中,pij、qij分別為在行描述i和列描述j的條件下,需要換道的車輛及與該車輛對應(yīng)的滯后車輛的博弈收益值,且通過以下公式獲得:pij(或qij)=α*a+β*b其中,α、β為權(quán)重系數(shù),且滿足α+β=1,α、β的初始值均為0.5;對于需要計算博弈收益的車輛vx,a、b分別由以下公式計算:其中,vx為車輛vx的速度,ax為車輛vx的加速度,δt為采集間隔時間,δxa為車輛vx與前導車輛的相對距離,δxb為車輛vx與滯后車輛的相對距離,vxaccsafe為車輛vx加速時的安全速度,vxdecsafe為車輛vx減速時的安全速度;所述車輛vx加速時的安全速度vxaccsafe的獲取方法為:當車輛vx加速時,設(shè)車輛va為此時車輛vx的期望前導車輛,車輛va與車輛vx的距離為δx,通過數(shù)據(jù)采集模塊得到期望前導車輛va的速度、加速度分別為va、aa,車輛vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則使車輛vx加速后經(jīng)過t=δt+tmin與va碰撞的速度vmax滿足以下條件:求出vmax后,得到車輛vx加速的安全速度vxaccsafe為:車輛vx減速時的安全速度vxdecsafe的獲取方法為:當車輛vx減速時,設(shè)車輛vc為此時車輛vx的期望前導車輛,通過步驟s1得到車輛vc與車輛vx的距離為δxc,期望前導車輛vc的速度、加速度分別為vc、ac,車輛vx的速度、加速度分別為vx、ax;采集間隔為δt,最小反應(yīng)時間tmin,則使vx減速后經(jīng)過t=δt+tmin與vc碰撞的速度vmax1滿足以下條件:同時,車輛vx需要避免與其滯后車輛vb發(fā)生碰撞,通過步驟s1采集到的車輛vx與車輛vb的相對距離為δxb,vb的速度、加速度分別為vb、ab,車輛vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則使車輛vx減速后經(jīng)過t=δt+tmin與vb碰撞的速度vmax2滿足:得到減速后的最大速度vmax、安全減速度asafe分別為:vmax=max{vmax1,vmax2}車輛vx減速的安全速度vxdecsafe為:s3、駕駛風格得分計算:通過人工神經(jīng)網(wǎng)絡(luò)使用反向傳播算法,將步驟s1得到的速度、加速度和相對距離作為輸入值計算速度得分、加速度得分、安全時距得分,并將上述得分作為輸入值輸入神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中得到駕駛風格得分:b1、計算速度得分:使用krauss模型的安全速度公式分別計算需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛的安全速度速度得分ev為:其中,visafe(t+δt)為待評分車輛i在t+δt時刻的安全速度,δt為觀察時間,vi+1(t)為與待評分車輛i對應(yīng)的前導車輛i+1在t時刻的速度,δxi(t)為待評分車輛i與前導車輛i+1在t時刻的相對位移,δvi(t)為待評分車輛i與前導車輛i+1在t時刻的相對速度差,t為預設(shè)反應(yīng)時間,a為最大加速度,vmax為預設(shè)最高速度,vmin為預設(shè)最低速度。b2、計算加速度得分:利用以下公式分別計算需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛加速度積分ia:加速度得分ea為:其中,ia為加速度積分,a為待評分車輛的加速度值,δt為自車輛決定換道到觀察分析的時間差,|a|x為人類對加速度的主觀感受函數(shù),abrk為車輛最大制動加速度;b3、計算安全時距得分:利用以下公式計算安全時距tsafe:安全時距得分es為:其中,tsafe為安全時距;δxsafe(vi)為使車輛vi完全停止的最小距離,l為車身長度,xbrk為制動距離,vi為當前車輛i的速度,tmin為預設(shè)最小反應(yīng)時間;b4、計算駕駛風格得分:將得到的速度得分、加速度得分和安全時距得分作為輸入值輸入到神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中得到駕駛風格得分,其中,采用非線性s型的log-sigmoid函數(shù):其中,為神經(jīng)元激發(fā)函數(shù):其中,n為列描述的個數(shù),xi為車輛i的速度得分、加速度得分、安全時距得分,wji、bj分別為激活函數(shù)的權(quán)重和偏置,權(quán)重和偏置為由人工神經(jīng)網(wǎng)絡(luò)自學習調(diào)整得到,的值域為(0,1);整個神經(jīng)網(wǎng)絡(luò)的誤差函數(shù)如下所示:其中,d為真實值;通過梯度下降法調(diào)整人工神經(jīng)網(wǎng)絡(luò)的權(quán)值:其中,η為學習速度;s4、權(quán)重調(diào)整:確定權(quán)重系數(shù)α、β:由α+β=1,權(quán)重即需換道車輛的前導車輛與滯后車輛駕駛風格得分在總分中的占比:其中,oa為前導車輛的駕駛風格得分,ob為滯后車輛的駕駛風格得分;s5、換道決策:根據(jù)步驟s4得到的調(diào)整后的權(quán)重重新計算步驟s2的博弈收益值,設(shè)p為當前車輛vc換道的概率,q1為滯后車輛vl加速的概率,q2為滯后車輛vl減速的概率,則車輛vc、vl的混合概率期望收益ec、el如下所示:ec(p,q1,q2)=p[p'13-p'23+q1(p'11+p'23-p'13-p'21)+q2(p'12+p'23-p'13-p'22)]+[p'23+q1(p'21-p'23)+q2(p'22-p'23)]el(p,q1,q2)=q'23+p(q'13-q'23)+q1[q'21-q'23+p(q'11+q'23-q'13-q'21)]+q2[q'22-q'23+p(q'12+q'23-q'13-q'22)]其中,p'ij,q'ij分別為使用步驟s4調(diào)整后的權(quán)重獲得的vc、vl的博弈收益值;通過對求解概率參數(shù)(p,q1,q2)的至少一個最優(yōu)解(p*,q1*,q2*),使ec、el達到最大,即滿足:車輛根據(jù)(p*,q1*,q2*)的值決定是否執(zhí)行換道或放棄換道。以下通過具體實施例實現(xiàn)上述換道方法:實施例1:以圖1場景為例,具體步驟如下:s1:換道數(shù)據(jù)采集及換道需求判斷:a1、換道數(shù)據(jù)采集:圖1中車輛v1-v3在行駛過程中由換道數(shù)據(jù)采集模塊收集路況信息,采集到車輛v1速度為10m/s,期望速度為13.9m/s,加速度為1.4m/s2,距離b點23m,距離前導車輛v216m,距離v34米,前導車輛v2速度為14.4m/s,加速度為0.6m/s2,滯后車輛v3速度為12.5m/s,加速度為0.9m/s2。;a2、換道需求判斷:根據(jù)以下公式判斷車輛是否具有換道需求:其中,δxi表示當前車輛v1與前導車輛v2或周邊要素的相對距離,vie表示當前車輛v1的期望速度,vic表示當前車輛v1的實際速度,vi+1表示前導車輛v2的速度,tmin表示最小反應(yīng)時間,取人類大腦作出反應(yīng)時間約1.5s(下同),tsafe表示安全時距,此處取tmin的兩倍3s(下同),vbar為周邊限制要素的運動速度,圖1中b點為周邊限制要素,其運動速度為0。此時,根據(jù)上述公式判斷,v1滿足公式(1-1),即當前車輛v1具有換道需求。s2、博弈收益計算:建立與換道行為相對應(yīng)的博弈換道模型:圖1中,參與換道的車輛為并道行為中關(guān)系最為密切的需要換道的當前車輛v1與選定目標車道的滯后車輛v3,將步驟a2中需要換道的當前車輛v1的可能的行為策略作為行描述,將滯后車輛v3可能的行為策略作為列描述,建立與換道行為相對應(yīng)的博弈換道模型,因該圖1中只有兩車道滯后車輛v3無法選擇換道避讓,因此滯后車輛v3只有兩個行為策略,即v3加速和v3減速,得到的博弈換道模型如表1所示:表1博弈收益模型行為策略v3加速v3減速v1換道(p11,q11)(p12,q12)v1不換道(p21,q21)(p22,q22)提取出的博弈收益矩陣為:博弈收益矩陣中的元素為(pij,qij),其中,pij、qij分別為在行描述i和列描述j的條件下需要換道的當前車輛v1及滯后車輛v3的收益值,根據(jù)表1的博弈收益模型,p11,q11表示在v1換道,v3加速的情況下,需要換道的當前車輛v1及滯后車輛v3的收益值,收益值的計算方法如下:pij(或qij)=α*a+β*b(2-1)其中,α、β為權(quán)重系數(shù),且滿足α+β=1,α、β的初始值均為0.5。對于需要計算博弈收益的車輛vx,a、b分別由以下公式計算:其中,vx為vx的采集速度,ax為vx的采集加速度,δt為采集間隔時間,δxa為vx與前導車輛的相對距離,δxb為vx與滯后車輛的相對距離,vxaccsafe為vx選擇加速的安全速度,vxdecsafe為vx選擇減速的安全速度。vxaccsafe的計算方法:如果車輛vx加速,希望車輛va作為它的前導車輛,它們的距離為δx,va的速度、加速度分別為va、aa,vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則vx加速后經(jīng)過(t=δt+tmin)正好與va碰撞的速度vmax滿足:求出vmax后,可得車輛vx的安全加速度asafe為:車輛vx加速的安全速度vxaccsafe為:vxdecsafe的計算方法:如果車輛vx減速,希望換道車輛vc作為它的前導車輛,它們的距離為δxc,vc的速度、加速度分別為vc、ac,vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則vx減速后經(jīng)過(t=δt+tmin)正好與vc碰撞的速度vmax1滿足:如果車輛vx減速,還需要避免與其滯后車輛vb發(fā)生碰撞,它們的距離為δxb,vb的速度、加速度分別為vb、ab,vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則vx減速后經(jīng)過(t=δt+tmin)正好與vb碰撞的速度vmax2滿足:對于vx,上述兩個條件均要滿足,因此減速后的最大速度vmax、安全減速度asafe分別為:vmax=max{vmax1,vmax2}(2-8)車輛vx減速的安全速度vxdecsafe為:將步驟a1采集到當前車輛v1與前導車輛v2之間的相對距離、當前車輛v1與滯后車輛v3之間的相對距離、由當前車輛v1的速度、前導車輛v2的速度、滯后車輛v3的速度,可得出當前車輛v1與前導車輛v2的相對速度、當前車輛v1與滯后車輛v3的相對速度。如果v3加速,即希望v2作為它的前導車輛,v3最快在下次數(shù)據(jù)采集時(1s后)完成加速,且v3加速后需要至少預留最小反應(yīng)時間(1.5s)作為安全時間避免與v2碰撞,經(jīng)計算,v3加速后的最大安全速度為21.02m/s,加速度為7.62m/s。如果v3減速,即希望v1作為它的前導車輛,v3最快在下次數(shù)據(jù)采集時(1s后)完成減速,且v3減速后需要至少預留最小反應(yīng)時間(1.5s)作為安全時間避免與v1碰撞,經(jīng)計算,v3減速后的最大安全速度為13.18m/s,加速度為-0.22m/s。利用公式(1-3)中可提取出博弈收益矩陣:s3、駕駛風格得分計算:針對換道行為特點,駕駛風格得分計算:通過人工神經(jīng)網(wǎng)絡(luò)使用反向傳播算法,將步驟s1得到的速度、加速度和相對距離作為輸入值計算速度得分、加速度得分、安全時距得分,并將上述得分作為輸入值輸入神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中得到駕駛風格得分:b1、計算速度得分:使用krauss模型的安全速度公式分別計算需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛的安全速度速度得分ev為:其中,visafe(t+δt)為待評分車輛i在t+δt時刻的安全速度,δt為觀察時間,vi+1(t)為與待評分車輛i對應(yīng)的前導車輛i+1在t時刻的速度,δxi(t)為待評分車輛i與前導車輛i+1在t時刻的相對位移,δvi(t)為待評分車輛i與前導車輛i+1在t時刻的相對速度差,t為預設(shè)反應(yīng)時間,a為最大加速度,vmax為預設(shè)最高速度,vmin為預設(shè)最低速度。根據(jù)國家法規(guī)(gb12676),汽車的滿載制動加速度要大于等于5m/s2(下同),vmax為法律規(guī)定的最高速度,取19.4m/s(70km/h),vmin為法律規(guī)定的最低速度。將步驟s1中采集到的車輛v1速度為10m/s,前導車輛v2速度為14.4m/s,滯后車輛v3速度為12.5m/s,輸入到公式(3-1)(3-2)中得到v1、v2和v3的速度得分分別為:0.515、0.742和0.967。b2、計算加速度得分:利用以下公式分別計算需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛加速度積分ia:加速度得分ea為:其中,ia為加速度積分,a為待評分車輛的加速度值,δt為自車輛決定換道到觀察分析的時間差,|a|x為人類對加速度的主觀感受函數(shù),abrk為車輛最大制動加速度;本實施例采用δt=1s后采集到v1、v2和v3的加速度分別為-1.5m/s2,0.7m/s2,1.1m/s2。得到v1、v2和v3的加速度得分分別為:0.01、0.01和0.04。b3、計算安全時距得分:根據(jù)車輛跟隨模型(cfm)對于安全距離的定義可知,安全距離是車身長度、制動距離、車速與安全時距的乘積之和。因此利用以下公式計算安全時距tsafe:安全時距得分es為:其中,tsafe為安全時距;δxsafe(vi)為使車輛vi完全停止的最小距離,l為車身長度,xbrk為制動距離,vi為當前車輛i的速度,tmin為預設(shè)最小反應(yīng)時間;得到v1、v2和v3的安全時距得分分別為:0.083、0.574和0.354b4、計算駕駛風格得分:基于反向傳播算法設(shè)計人工神經(jīng)網(wǎng)絡(luò)模塊計算輸出值用于調(diào)整權(quán)重參數(shù)α、β。輸出值即駕駛風格得分,分數(shù)越低表明駕駛風格越保守,反之,分數(shù)越高表明駕駛風格越激進。將得到的速度得分、加速度得分和安全時距得分作為輸入值輸入到神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中得到駕駛風格得分,其中,采用非線性s型的log-sigmoid函數(shù):其中,為神經(jīng)元激發(fā)函數(shù):其中,n為列描述的個數(shù),xi為車輛i的速度得分、加速度得分、安全時距得分,wji、bj分別為激活函數(shù)的權(quán)重和偏置,權(quán)重和偏置為由人工神經(jīng)網(wǎng)絡(luò)自學習調(diào)整得到,的值域為(0,1)。整個神經(jīng)網(wǎng)絡(luò)的誤差函數(shù)如下所示:其中,d為真實值;通過梯度下降法調(diào)整人工神經(jīng)網(wǎng)絡(luò)的權(quán)值:其中,η為學習速度;s4、權(quán)重調(diào)整:確定權(quán)重系數(shù)α、β:由α+β=1,權(quán)重即需換道車輛的前導車輛與滯后車輛駕駛風格得分在總分中的占比:其中,oa為前導車輛的駕駛風格得分,ob為滯后車輛的駕駛風格得分;若v1換道,v1調(diào)整后的α為0.416,β為0.584,v3調(diào)整后的α為1,β為0,因為v3跟馳車輛距離非常遠,可忽略影響;若v1不換道,v1調(diào)整后的α為1,β為0,v3調(diào)整后的α為1,β為0,因為v1、v3跟馳車輛距離非常遠,可忽略影響。s5、換道決策:根據(jù)步驟s4得到的調(diào)整后的權(quán)重重新計算步驟s2的博弈收益值,得到的新的博弈收益矩陣如下:設(shè)p為當前車輛vc換道的概率,q1為滯后車輛vl加速的概率,q2為滯后車輛vl減速的概率,則vc、vl的混合概率期望收益ec、el如下所示:ec(p,q1,q2)=p[p'13-p'23+q1(p'11+p'23-p'13-p'21)+q2(p'12+p'23-p'13-p'22)]+[p'23+q1(p'21-p'23)+q2(p'22-p'23)](4-3)el(p,q1,q2)=q'23+p(q'13-q'23)+q1[q'21-q'23+p(q'11+q'23-q'13-q'21)]+q2[q'22-q'23+p(q'12+q'23-q'13-q'22)](4-4)其中,p'ij,q'ij分別為使用步驟s4調(diào)整后的權(quán)重獲得的vc、vl的博弈收益值;通過對求解概率參數(shù)(p,q1,q2)的至少一個最優(yōu)解(p*,q1*,q2*),至此,將換道決策轉(zhuǎn)換為尋找博弈均衡點的過程,即求解納什均衡(p*,q1*,q2*),使ec、el達到最大,即滿足:車輛根據(jù)(p*,q1*,q2*)的值決定是否執(zhí)行換道或放棄換道。本實施例得到的最優(yōu)混合概率解(p*,q1*,q2*)為(1,0,1),即v1應(yīng)該選擇換道避免與b點相撞,v3應(yīng)該減速讓行避免與v1碰撞。根據(jù)(p*,q1*,q2*)的值如表2所示:其中,p*為v1最優(yōu)換道概率,q1*為v3最優(yōu)加速概率,q2*為v3最優(yōu)減速概率,計算值分別為(1,0,1),所以納什均衡是v1換道,v3減速,即表2表2換道策略決策表納什均衡v1換道v1不換道v3加速v3減速11001本發(fā)明根據(jù)上述換道方法提供了一種基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道系統(tǒng),具體如下:如圖4所示,一種基于人工神經(jīng)網(wǎng)絡(luò)的車輛協(xié)同換道系統(tǒng),包括以下模塊:換道數(shù)據(jù)采集及換道需求判斷模塊:包括以下模塊:換道數(shù)據(jù)采集模塊:在車輛上安裝數(shù)據(jù)采集模塊用于采集并輸出車輛在行駛過程中的路況信息,所述路況信息包括車輛在當前車道的速度及加速度、相鄰車道中與當前車輛對應(yīng)的前導車輛的速度及加速度、相鄰車道中與當前車輛對應(yīng)的滯后車輛的速度及加速度和周邊限制要素的運動速度,以及當前車輛與所述前導車輛、滯后車輛以及周邊限制要素之間的相對距離;所述前導車輛是位于當前車輛前方的車輛;所述滯后車輛是位于當前車輛后方的車輛;換道需求判斷模塊:用于根據(jù)換道需求判斷條件,判斷當前車輛是否有換道需求:若當前車輛同時不滿足換道需求判斷條件,則當前車輛不需要換道,即放棄換道;若當前車輛滿足需求判斷條件中的至少一條,則當前車輛需要換道;所述換道需求判斷條件為:其中,δxi為當前車輛i與前導車輛或周邊交通要素之間的相對距離,vie為當前車輛i的預設(shè)期望速度,vic為當前車輛i的速度,vi+1為與當前車輛i對應(yīng)的前導車輛的速度,tsafe為預設(shè)安全時距,tmin為預設(shè)最小反應(yīng)時間,vbar為周邊限制要素的運動速度,i≥1;博弈收益計算模塊:用于建立與換道行為相對應(yīng)的博弈換道模型:將換道需求判斷模塊中需要換道的車輛的可能的行為策略作為行描述,將該車輛對應(yīng)的滯后車輛可能的行為策略作為列描述,建立與換道行為相對應(yīng)的博弈換道模型;并以博弈收益值數(shù)值對作為博弈換道模型的元素,每個博弈收益值數(shù)值對作為在對應(yīng)行描述和列描述條件下的數(shù)值表示;提取博弈換道模型的元素構(gòu)建成為博弈收益矩陣,博弈收益矩陣中的元素為(pij,qij),其中,pij、qij分別為在行描述i和列描述j的條件下,需要換道的車輛,及與該車輛對應(yīng)的滯后車輛的博弈收益值,且通過以下公式獲得:pij(或qij)=α*a+β*b其中,α、β為權(quán)重系數(shù),且滿足α+β=1,α、β的初始值均為0.5;對于需要計算博弈收益的車輛vx,a、b分別由以下公式計算:其中,vx為車輛vx的速度,ax為車輛vx的加速度,δt為采集間隔時間,δxa為車輛vx與前導車輛的相對距離,δxb為車輛vx與滯后車輛的相對距離,vxaccsafe為車輛vx加速時的安全速度,vxdecsafe為車輛vx減速時的安全速度;所述車輛vx加速時的安全速度vxaccsafe的獲取方法為:當車輛vx加速時,設(shè)車輛va為此時車輛vx的期望前導車輛,車輛va與車輛vx的距離為δx,通過數(shù)據(jù)采集模塊得到期望前導車輛va的速度、加速度分別為va、aa,車輛vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則使車輛vx加速后經(jīng)過t=δt+tmin與va碰撞的速度vmax滿足以下條件:求出vmax后,得到車輛vx加速的安全速度vxaccsafe為:車輛vx減速時的安全速度vxdecsafe的獲取方法為:當車輛vx減速時,設(shè)車輛vc為此時車輛vx的期望前導車輛,通過換道數(shù)據(jù)采集及換道需求判斷模塊得到車輛vc與車輛vx的距離為δxc,期望前導車輛vc的速度、加速度分別為vc、ac,車輛vx的速度、加速度分別為vx、ax;采集間隔為δt,最小反應(yīng)時間tmin,則使vx減速后經(jīng)過t=δt+tmin與vc碰撞的速度vmax1滿足以下條件:同時,車輛vx需要避免與其滯后車輛vb發(fā)生碰撞,通過換道數(shù)據(jù)采集及換道需求判斷模塊采集到的車輛vx與車輛vb的相對距離為δxb,vb的速度、加速度分別為vb、ab,車輛vx的速度、加速度分別為vx、ax,采集間隔為δt,最小反應(yīng)時間tmin,則使車輛vx減速后經(jīng)過t=δt+tmin與vb碰撞的速度vmax2滿足:得到減速后的最大速度vmax、安全減速度asafe分別為:vmax=max{vmax1,vmax2}車輛vx減速的安全速度vxdecsafe為:駕駛風格得分計算模塊:用于通過人工神經(jīng)網(wǎng)絡(luò)使用反向傳播算法,將換道數(shù)據(jù)采集及換道需求判斷模塊得到的速度、加速度和相對距離作為輸入值計算速度得分、加速度得分、安全時距得分,并將上述得分作為輸入值輸入神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中輸出駕駛風格得分:包括以下模塊:速度得分計算模塊:用于使用krauss模型的安全速度公式分別輸出需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛的安全速度速度得分ev為:其中,visafe(t+δt)為待評分車輛i在t+δt時刻的安全速度,δt為觀察時間,vi+1(t)為與待評分車輛i對應(yīng)的前導車輛i+1在t時刻的速度,δxi(t)為待評分車輛i與前導車輛i+1在t時刻的相對位移,δvi(t)為待評分車輛i與前導車輛i+1在t時刻的相對速度差,t為預設(shè)反應(yīng)時間,a為最大加速度,vmax為預設(shè)最高速度,vmin為預設(shè)最低速度。加速度得分計算模塊:用于利用以下公式分別輸出需要換道車輛及與需要換道車輛相對應(yīng)的前導車輛和滯后車輛加速度積分ia:加速度得分ea為:其中,ia為加速度積分,a為待評分車輛的加速度值,δt為自車輛決定換道到觀察分析的時間差,|a|x為人類對加速度的主觀感受函數(shù),abrk為車輛最大制動加速度;安全時距得分計算模塊:用于利用以下公式計算安全時距tsafe:安全時距得分es為:其中,tsafe為安全時距;δxsafe(vi)為使車輛vi完全停止的最小距離,l為車身長度,xbrk為制動距離,vi為當前車輛i的速度,tmin為預設(shè)最小反應(yīng)時間;駕駛風格得分計算模塊:將得到的速度得分、加速度得分和安全時距得分作為輸入值輸入到神經(jīng)網(wǎng)絡(luò)的輸出函數(shù)中得到駕駛風格得分,其中,采用非線性s型的log-sigmoid函數(shù):其中,為神經(jīng)元激發(fā)函數(shù):其中,n為列描述的個數(shù),xi為車輛i的速度得分、加速度得分、安全時距得分,wji、bj分別為激活函數(shù)的權(quán)重和偏置,權(quán)重和偏置為由人工神經(jīng)網(wǎng)絡(luò)自學習調(diào)整得到,的值域為(0,1);用于計算整個神經(jīng)網(wǎng)絡(luò)的誤差函數(shù):其中,d為真實值;用于通過梯度下降法調(diào)整人工神經(jīng)網(wǎng)絡(luò)的權(quán)值:其中,η為學習速度;權(quán)重調(diào)整模塊:包括以下部分:用于確定權(quán)重系數(shù)α、β:由α+β=1,權(quán)重即需換道車輛的前導車輛與滯后車輛駕駛風格得分在總分中的占比:其中,oa為前導車輛的駕駛風格得分,ob為滯后車輛的駕駛風格得分;換道決策模塊:用于根據(jù)權(quán)重調(diào)整模塊得到的調(diào)整后的權(quán)重重新計算博弈收益計算模塊的博弈收益值,設(shè)p為當前車輛vc換道的概率,q1為滯后車輛vl加速的概率,q2為滯后車輛vl減速的概率,則車輛vc、vl的混合概率期望收益ec、el如下所示:ec(p,q1,q2)=p[p'13-p'23+q1(p'11+p'23-p'13-p'21)+q2(p'12+p'23-p'13-p'22)]+[p'23+q1(p'21-p'23)+q2(p'22-p'23)]el(p,q1,q2)=q'23+p(q'13-q'23)+q1[q'21-q'23+p(q'11+q'23-q'13-q'21)]+q2[q'22-q'23+p(q'12+q'23-q'13-q'22)]其中,p'ij,q'ij分別為使用權(quán)重調(diào)整模塊調(diào)整后的權(quán)重獲得的vc、vl的博弈收益值;通過對求解概率參數(shù)(p,q1,q2)的至少一個最優(yōu)解(p*,q1*,q2*),使ec、el達到最大,即滿足:車輛根據(jù)(p*,q1*,q2*)的值輸出是否執(zhí)行換道或放棄換道以上內(nèi)容是結(jié)合具體的優(yōu)選技術(shù)方案對本發(fā)明所作的進一步詳細說明,不能認定本發(fā)明的具體實施只局限于這些說明。對于本發(fā)明所屬
技術(shù)領(lǐng)域
的普通技術(shù)人員來說,在不脫離本發(fā)明構(gòu)思的前提下,還可以做出若干簡單推演或替換,都應(yīng)當視為屬于本發(fā)明的保護范圍。當前第1頁12
當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1