亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種北太平洋魷魚中心漁場預測方法與流程

文檔序號:11832587閱讀:368來源:國知局
一種北太平洋魷魚中心漁場預測方法與流程

本發(fā)明涉及中心漁場預報方法,尤其是北太平洋魷魚中心漁場預報方法。



背景技術(shù):

中心漁場預報是漁況速報的一種,準確的中心漁場預報可以為捕撈生產(chǎn)提高漁獲產(chǎn)量并降低燃油成本,漁況速報是對未來24h或幾天內(nèi)的中心漁場位置、魚群動向及旺發(fā)的可能性進行預測,由漁訊指揮單位每天定時將預報內(nèi)容通過電訊系統(tǒng)迅速而準確地傳播給生產(chǎn)船只,達到指揮現(xiàn)場生產(chǎn)的目的。

目前已有多種方法預報大洋性經(jīng)濟柔魚類的中心漁場,這些方法的基礎(chǔ)是魚類行動和生物學狀況與環(huán)境條件之間的關(guān)系及其規(guī)律,本質(zhì)都是根據(jù)生產(chǎn)統(tǒng)計數(shù)據(jù)樣本獲取“經(jīng)驗知識”用于預報,但以往對樣本的時空尺度和環(huán)境因子的選擇均沒有深入研究,基本是根據(jù)經(jīng)驗設(shè)定(如大漁區(qū)小漁區(qū)等),沒有考慮不同時空尺度和環(huán)境因子對中心漁場預報模型的影響;在模型的選擇上,也很少考慮海洋環(huán)境因子的實時性問題。



技術(shù)實現(xiàn)要素:

本發(fā)明研究了大洋性經(jīng)濟柔魚類的樣本時空尺度和環(huán)境因子的選擇對其中心漁場預測模型的影響,提出一種北太平洋魷魚中心漁場預測方法。

本發(fā)明的技術(shù)方案包括時空尺度設(shè)置、環(huán)境因子設(shè)置、建立中心漁場預測模型,其特征是時空尺度設(shè)置采用三個級別的空間尺度,經(jīng)緯度分別為0.25°×0.25°、0.5°×0.5°、1.0°×1.0°,周和月兩個級別的時間尺度;環(huán)境因子設(shè)置采用SST為主要環(huán)境因子,再輔以SSH、Chl-a兩種環(huán)境因子,在建立中心漁場預測模型時將環(huán)境因子分為四種情況:Ⅰ SST;Ⅱ SST,SSH;Ⅲ SST,Chl-a;Ⅳ SST,SSH,Chl-a;根據(jù)時空尺度和環(huán)境因子設(shè)置情況,建立24種情況的樣本方案集;中心漁場預測模型采用經(jīng)典的誤差反向傳播BP神經(jīng)網(wǎng)絡模型,BP神經(jīng)網(wǎng)絡模型為三層結(jié)構(gòu),即輸入層、隱含層和輸出層,輸入層輸入漁場的時空因子和環(huán)境因子,輸出層輸出CPUE或是由CPUE轉(zhuǎn)化而成的漁場等級指標;BP神經(jīng)網(wǎng)絡模型正向傳播時,樣本從輸入層進入,經(jīng)隱含層激活函數(shù)處理,傳向輸出層,如輸出層的實際輸出與期望的輸出不符合誤差要求,則轉(zhuǎn)入誤差的反向傳播階段,反向傳播是將誤差通過隱含層向輸入層逐層反向傳播,將誤差分攤給各層所有節(jié)點,從而獲得各層節(jié)點的誤差信號,此誤差信號作為修正的依據(jù),這種信號的正向傳播與誤差的反向傳播周而復始地進行,權(quán)值不斷調(diào)整,此過程一直進行到網(wǎng)絡輸出的誤差減少到可接受的程度或進行到預先設(shè)定的學習次數(shù)為止,通過學習訓練獲得到最佳模型,供預報使用。

本發(fā)明考慮不同時空尺度和環(huán)境因子的選擇對中心漁場預測模型的影響,采用經(jīng)典的誤差反向傳播神經(jīng)網(wǎng)絡(Error Backpropagation Network,BP),BP神經(jīng)網(wǎng)絡屬于多層前向神經(jīng)網(wǎng)絡,使用誤差反向傳播的監(jiān)督算法,BP神經(jīng)網(wǎng)絡能夠?qū)W習和存儲大量的模式映射模式,用于主要(高產(chǎn))作業(yè)時間,最佳的作業(yè)海域范圍,柔魚棲息適宜的SST范圍,SSH范圍,Chl-a范圍預報,為捕撈生產(chǎn)提高漁獲產(chǎn)量并降低燃油成本提供技術(shù)支撐。該模型預報精度達到85%,比傳統(tǒng)棲息地指數(shù)預報方法提高15%。

附圖說明

圖1是BP神經(jīng)網(wǎng)絡模型結(jié)構(gòu)圖。

圖2是6月西北太平洋柔魚作業(yè)分布圖。

圖3是7月西北太平洋柔魚作業(yè)分布圖。

圖4是8月西北太平洋柔魚作業(yè)分布圖。

圖5是9月西北太平洋柔魚作業(yè)分布圖。

圖6是10月西北太平洋柔魚作業(yè)分布圖。

圖7是11月西北太平洋柔魚作業(yè)分布圖。

圖8是24種方案下2011年西北太平洋柔魚漁場預報精度圖。

圖9是24種方案下2011年西北太平洋柔魚漁場預報精度圖。

圖10是24種方案下2003~2011年西北太平洋柔魚漁場預報模型ARV圖。

圖11是24種方案下2003~2011年西北太平洋柔魚漁場預報模型ARV圖。

圖12是月時間尺度下,靈敏度分析輸入變量與預測漁場等級的關(guān)系圖。

圖13是月時間尺度下,靈敏度分析輸入變量與預測漁場等級的關(guān)系圖。

圖14是月時間尺度下,靈敏度分析輸入變量與預測漁場等級的關(guān)系圖。

圖15是月時間尺度下,靈敏度分析輸入變量與預測漁場等級的關(guān)系圖。

圖16是月時間尺度下,靈敏度分析輸入變量與預測漁場等級的關(guān)系圖。

圖17是月時間尺度下,靈敏度分析輸入變量與預測漁場等級的關(guān)系圖。

具體實施方式

為了能夠比較大洋性經(jīng)濟柔魚類的中心漁場預報模型的最適時空尺度,設(shè)置三個級別的空間尺度,經(jīng)緯度分別為0.25°×0.25°、0.5°×0.5°、1.0°×1.0°,兩個級別的時間尺度為周和月。

大洋性經(jīng)濟柔魚類的漁場的資源豐度不但受時空因子的影響,而且受棲息地的環(huán)境因子影響。本方法選定表溫(SST)為主要環(huán)境因子,再輔以海面高度(SSH)、葉綠素a(Chl-a)兩種環(huán)境因子,所以在建立中心漁場預報模型時將環(huán)境因子分為四種情況(表1)。

表1環(huán)境因子設(shè)置

因此,根據(jù)樣本的時空尺度和環(huán)境因子設(shè)置情況,建立大洋性經(jīng)濟柔魚類中心漁場預報模型的樣本方案集有如下24種情況。

表2BP預報模型樣本集方案

中心漁場預報模型采用經(jīng)典的誤差反向傳播神經(jīng)網(wǎng)絡(Error Backpropagation Network,BP),BP神經(jīng)網(wǎng)絡屬于多層前向神經(jīng)網(wǎng)絡,使用誤差反向傳播的監(jiān)督算法,BP神經(jīng)網(wǎng)絡能夠?qū)W習和存儲大量的模式映射模式。

BP神經(jīng)網(wǎng)絡模型采用三層結(jié)構(gòu),即輸入層、隱含層和輸出層(圖1)。輸入層為漁場的時空因子和海洋環(huán)境因子,輸出層是CPUE或是由CPUE轉(zhuǎn)化而成的漁場等級指標,不同漁場等級的劃分方法參考漁業(yè)專家的領(lǐng)域知識。隱含層節(jié)點個數(shù)由經(jīng)驗公式確定。

Pnum=2Nnum+1

式中:Pnum為隱含層節(jié)點個數(shù),Nnum為輸入層節(jié)點個數(shù)。

BP算法主要包括學習過程信號的正向傳播與誤差的反向傳播兩個過程組成。正向傳播時,樣本從輸入層進入,經(jīng)隱含層激活函數(shù)處理,傳向輸出層,如輸出層的實際輸出與期望的輸出不符合誤差要求,則轉(zhuǎn)入誤差的反向傳播階段。反向傳播是將誤差通過隱含層向輸入層逐層反向傳播,將誤差分攤給各層所有節(jié)點,從而獲得各層節(jié)點的誤差信號,此誤差信號作為修正的依據(jù)。這種信號的正向傳播與誤差的反向傳播是周而復始地進行,權(quán)值不斷調(diào)整,也就是網(wǎng)絡學習的過程。此過程一直進行到網(wǎng)絡輸出的誤差減少到可接受的程度或進行到預先設(shè)定的學習次數(shù)為止。

訓練方法采用最速下降法。假設(shè)輸入神經(jīng)元個數(shù)為M,隱含層神經(jīng)元個數(shù)為I,輸出層神經(jīng)元個數(shù)為J。輸入層第m個神經(jīng)元記為xm,隱含層第i個神經(jīng)元記為ki,輸出層第j個神經(jīng)元記為yj。從xm到ki的鏈接權(quán)值為wmi,從ki到y(tǒng)j的連接權(quán)值為wij。隱含層傳遞函數(shù)為Sigmoid函數(shù),輸出層傳遞函數(shù)為線性函數(shù)。u和v分別表示每一層的輸入和輸出,如表示I層(隱含層)第一個神經(jīng)元的輸入。網(wǎng)絡的實際輸出可表示為:

<mrow> <mi>Y</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mn>1</mn> </msubsup> <mo>,</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mn>2</mn> </msubsup> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>J</mi> </msubsup> <mo>&rsqb;</mo> </mrow>

網(wǎng)絡的期望輸出為:

d(n)=[d1,d2,...,dJ]

n為迭代次數(shù)。第n次迭代的誤差信號定義為:

ej(n)=dj(n)-Yj(n)

將誤差能量定義為:

<mrow> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>e</mi> <mi>j</mi> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

訓練過程即是將誤差能量減小的過程。

在權(quán)值調(diào)整階段,沿著網(wǎng)絡逐層反向進行調(diào)整。首先調(diào)整隱含層與輸出層之間的權(quán)值wij,根據(jù)最速下降法,應計算誤差對wij的梯度再沿著該方向的反方向進行調(diào)整:

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mi>&eta;</mi> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

wij(n+1)=Δwij(n)+wij(n)

梯度可由求偏導得到,根據(jù)微分的鏈式規(guī)則,有

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

由于e(n)是ej(n)的二次函數(shù),其微分為一次函數(shù):

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mn>1</mn> </mrow>

輸出層傳遞函數(shù)的導數(shù):

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

因此,梯度值為

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

權(quán)值的修正量為

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&eta;e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

引入局部梯度的定義:

<mrow> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow>

所以權(quán)值的修正量為:

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&eta;&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

在輸出層,傳遞函數(shù)為線性函數(shù),因此其導數(shù)為1,即

<mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> </mrow>

所以可得

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&eta;e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

誤差信號向前傳播,對輸入層與隱含層之間的權(quán)值wmi進行調(diào)整,與上一步類似應有

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>m</mi> <mi>i</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&eta;&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msubsup> <mi>v</mi> <mi>M</mi> <mi>m</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

為輸入神經(jīng)元的輸出,即

為局部梯度,定義為

<mrow> <msubsup> <mi>&delta;</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>=</mo> <mo>-</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow>

f(g)為sigmoid函數(shù),同時又上一步計算可見,

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow>

故有

<mrow> <msubsup> <mi>&delta;</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>=</mo> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow>

到此,三層BP網(wǎng)絡的學習權(quán)值調(diào)整過程結(jié)束,可歸結(jié)為:

權(quán)值調(diào)整量Δw=學習率η·局部梯度δ·上一層輸出信號v。至于學習率η、誤差范圍等的設(shè)定,在不過擬合的狀態(tài)下進行逐步調(diào)優(yōu)。

BP神經(jīng)網(wǎng)絡的建立過程在matlab(2010b)軟件中完成,使用神經(jīng)網(wǎng)絡工具箱的擬合工具,將樣本集分為訓練樣本、驗證樣本和測試樣本三部分。網(wǎng)絡設(shè)計的參數(shù)為:學習速率0.1,動量參數(shù)0.5,輸入層與隱含層、隱含層與輸出層神經(jīng)元之間的傳遞函數(shù)分別是S型正切函數(shù)tansig、線性函數(shù)purelin;網(wǎng)絡訓練的終止參數(shù)為:最大訓練次數(shù)為1000,最大誤差給定為0.001。模型通過多次訓練獲得到最佳模型,取權(quán)重供預報使用。

BP預報模型從預報精度、穩(wěn)定性和可解釋性三方面評價:

(1)預報精度評價,當模型的輸出為CPUE等級時,根據(jù)模型預報出的正確等級百分比,比較各種模型的精度;當模型的輸出為CPUE數(shù)值時,計算模型的均方誤差(MSE),比較各個模型的精度。

<mrow> <mi>M</mi> <mi>S</mi> <mi>E</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>k</mi> </msub> <mo>-</mo> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow>

其中,yk為CPUE的實際值,為CPUE的預報值。

(2)穩(wěn)定性評價,評價不同樣本建立的BP模型精度的穩(wěn)定性,計算平均相對變動值(Average Relative Variance,ARV)[65],其定義為

<mrow> <mi>A</mi> <mi>R</mi> <mi>V</mi> <mo>=</mo> <mfrac> <mrow> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>&lsqb;</mo> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&rsqb;</mo> </mrow> <mn>2</mn> </msup> </mrow> <mrow> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>&lsqb;</mo> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>x</mi> <mo>&OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&rsqb;</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow>

其中,N為比較數(shù)據(jù)的個數(shù),x(i)為漁場等級實際值,為漁場等級實際平均值,為漁場等級預測值。平均相對變動值A(chǔ)RV越小,表明預測效果越好,ARV=0表示達到了理想預測效果,當ARV=1時,表明模型僅達到了平均值的預測效果。

(3)可解釋性評價,用變量相關(guān)性(Independent variable relevance)和靈敏度分析(Sensitivity Analyses)評價在不同時空尺度和環(huán)境因子樣本上建立的預報模型的可解釋性。

變量相關(guān)用來比較各輸入變量對CPUE的貢獻率,計算方法是輸入變量與隱含層連接的權(quán)重平方和與所有輸入層變量到隱含層連接權(quán)重平方和之比。

靈敏度分析是探究輸入變量變化與輸出變量之間的關(guān)系,其過程是:首先計算各個輸入變量的最大值、最小值、中值、平均值、眾數(shù)特殊值;然后選擇其中一個輸入變量,使其從最小值到最大值逐漸變化,其他輸入變量都確定為四個特殊值中的一個,輪流改變變化的輸入變量,觀察輸出變量的變化情況。

例如本方法將2003~2011年西北太平洋柔魚魷釣生產(chǎn)數(shù)據(jù)處理成時間分辨率為“月”,空間分辨率為0.5°×0.5°的樣本,計算小漁區(qū)內(nèi)的Nominal CPUE,并根據(jù)漁業(yè)專家知識(表3)將Nominal CPUE劃分為不同的漁場等級。

表3基于CPUE的西北太平洋柔魚漁場等級

利用地理信息系統(tǒng)繪制基于漁場等級的作業(yè)分布圖(圖2~圖7)。6月、7月漁場分布廣泛,經(jīng)度跨度大,從150°E到180°E均有分布,8月、9月、10月、11月主要集中在西部漁場(165°E以西),經(jīng)度跨度相對較小,從6月到11月漁場有逐步向西移的趨勢。

用FDP軟件,按樣本時空尺度和環(huán)境因子設(shè)置方法將原始樣本預處理成24種樣本集,2003~2010年數(shù)據(jù)作為訓練和驗證樣本,2011年數(shù)據(jù)作為測試樣本,利用matlab神經(jīng)網(wǎng)絡工具,按建模方法,建立不同時空尺度和環(huán)境因子的西北太平洋柔魚中心漁場預報模型,并計算模型精度以及2003~2011年整個樣本的ARV值(圖8-圖11)。

樣本方案9中,時間尺度為周,空間尺度為1.0°×1.0°、環(huán)境因子為SST所建立的漁場預報模型的預報精度在85%左右,ARV值在0.2左右,具有較高的精度和最小的ARV值;樣本方案18中,時間尺度為月,空間尺度為0.5°×0.5°、環(huán)境因子為SST和SSH所建立的漁場預報模型的預報精度也達80%以上,ARV值在0.3左右,具有最高的精度和最小的ARV值。兩者比較方案9則更優(yōu)(圖8-圖11)。

為了探討多種環(huán)境因子對漁場的選擇作用,因此選擇方案20樣本建立的模型進行變量相關(guān)性分析和靈敏度分析。表4為以時間、經(jīng)度、緯度、SST、SSH、Chl-a為輸入變量,各變量的貢獻率;圖12~圖17為靈敏度分析的模型預報(以等級表示)變化情況。

表4預報模型變量相關(guān)性分析

變量相關(guān)性分析顯示:SST對西北太平洋柔魚漁場預報模型的貢獻率最大,為26.04%,其次為時間變量“月”,貢獻率最小的為環(huán)境因子SSH,僅為5.54%。

靈敏度分析顯示:西北太平洋柔魚漁場時空變化復雜,其主要(高產(chǎn))作業(yè)時間為8、9、10三個月,漁場等級較高,資源相對豐富;最佳的作業(yè)海域范圍是150°-165°E、37°-42°N;柔魚棲息適宜的SST范圍是11-18℃,SSH范圍是-10-60cm,Chl-a范圍是0.1-1.7mg/m3。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1