王建偉等
摘 要:引入ID3算法的大學(xué)生體育訓(xùn)練決策支持系統(tǒng)可以根據(jù)學(xué)生的特征對(duì)其分類(lèi)。而傳統(tǒng)的決策樹(shù)ID3算法存在多值傾向的問(wèn)題,選擇分裂屬性不符合客觀事實(shí)。本文運(yùn)用了一種基于灰色關(guān)聯(lián)度的修正因子屬性選擇方法予以改進(jìn),克服了傳統(tǒng)ID3算法的不足,改進(jìn)的ID3算法可使分類(lèi)更加精確,更好的為大學(xué)生體育訓(xùn)練提供決策支持。
關(guān)鍵詞:ID3算法 決策支持系統(tǒng) 數(shù)據(jù)挖掘 灰色關(guān)聯(lián)度
中圖分類(lèi)號(hào):G434 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1674-098X(2014)02(a)-0019-01
大學(xué)生體育訓(xùn)練決策支持系統(tǒng)是隨著人工智能理論與數(shù)據(jù)挖掘技術(shù)的發(fā)展而不斷發(fā)展的,通過(guò)對(duì)大學(xué)生身體素質(zhì)和訓(xùn)練等數(shù)據(jù)來(lái)進(jìn)行有效的挖掘,產(chǎn)生用于輔助決策的規(guī)則,進(jìn)而為大學(xué)生體育訓(xùn)練制定相應(yīng)的訓(xùn)練方案[1]。系統(tǒng)中應(yīng)用了數(shù)據(jù)挖掘的決策樹(shù)ID3算法對(duì)不同特征的學(xué)生進(jìn)行分類(lèi),但傳統(tǒng)的ID3算法存在多值傾向的問(wèn)題,選擇分裂屬性不符合客觀事實(shí),同時(shí),在構(gòu)造樹(shù)的過(guò)程中,需要多次自上而下對(duì)數(shù)據(jù)集的排序和掃描,因而導(dǎo)致算法的處理效率較低[2],如何改進(jìn)算法從而使分類(lèi)更加精確是我們亟需解決的問(wèn)題。
1 ID3算法的改進(jìn)
灰色關(guān)聯(lián)分析是指對(duì)一個(gè)系統(tǒng)發(fā)展變化態(tài)勢(shì)的定量描述和比較的方法,分析考慮了各因素之間的相關(guān)性,比系統(tǒng)分析中常用的因素兩兩對(duì)比法要更合理,更科學(xué)[3]。同時(shí)考慮到正弦函數(shù)的曲線變化比較緩和,對(duì)信息增益因子修正不會(huì)出現(xiàn)過(guò)度的問(wèn)題。因此,本文引入灰色關(guān)聯(lián)度的正弦值作為ID3算法的修正因子進(jìn)行改進(jìn)。改進(jìn)的ID3算法的具體流程是:
(1)計(jì)算各特征屬性與類(lèi)別屬性之間的灰色關(guān)聯(lián)度,并將它們排序;
(2)對(duì)取值較多的屬性通過(guò)灰色關(guān)聯(lián)度來(lái)判斷是否最優(yōu),從而確定是否降低它的信息增益;
(3)對(duì)取值較多但灰色關(guān)聯(lián)度低的屬性,在計(jì)算其信息增益時(shí)通過(guò)灰色關(guān)聯(lián)度的正弦值作為修正因子,而其它屬性計(jì)算信息增益時(shí)修正因子設(shè)為0。
改進(jìn)的ID3算法的描述如下:
算法:GBID(Sample_set,Attribute_set)
輸入:由多個(gè)屬性描述的訓(xùn)練樣本集Sample_set;候選屬性集Attribute_set。
輸出:一棵決策樹(shù)。
Begin
如果 Sample_set為空
則返回null;創(chuàng)建結(jié)點(diǎn)L;
如果結(jié)點(diǎn)L中的所有樣本均屬于同一類(lèi)C
則返回L作為葉結(jié)點(diǎn),并以類(lèi)C為標(biāo)記;
如果Attribute_set為空
則返回L作為葉結(jié)點(diǎn),并以Sample_set中最普通的類(lèi)標(biāo)記;
計(jì)算出Attribute_set中每個(gè)屬性的信息增益,并選擇出信息增益最大的屬性A和取值個(gè)數(shù)最多的屬性B
如果 A=B,該條件成立說(shuō)明選擇信息增益最大和取值個(gè)數(shù)最多的屬性作為測(cè)試屬性易產(chǎn)生多值偏向問(wèn)題,需要用修正因子降低該屬性的信息增益
則根據(jù)公式
屬性A具有多值傾向是其它來(lái)計(jì)算該屬性的修正因子;
再根據(jù)公式重新計(jì)算該屬性的信息增益;
否則該屬性的修正系數(shù)為0,信息增益最大的屬性不是取值個(gè)數(shù)最多屬性,選擇該屬性作為分裂屬性不會(huì)產(chǎn)生多值偏向問(wèn)題,不需要用修正系數(shù)降低該屬信息增益
從Attribute_set中選擇出信息增益最大的屬性Splitting_Attribute作為分裂屬性;
標(biāo)記結(jié)點(diǎn)L為Splitting _Attribute;
For Each Splitting_Attribute中的已知;
m為Splitting_Attribute的取值個(gè)數(shù)∥根據(jù)Splitting_Attribute的取值劃分Sample_set
根據(jù)Splitting_Attribute=,從結(jié)點(diǎn)L產(chǎn)生相應(yīng)分支表示測(cè)試條件;
設(shè)為Splitting_Attribute=所獲得的樣本集;
如果為空
則加上一個(gè)葉結(jié)點(diǎn),并標(biāo)記為Sample_set中最普通的類(lèi);
否則加上GBID(Attribute_set,Splitting _Attribute)返回的結(jié)點(diǎn);
End。
2 改進(jìn)后的ID3算法的應(yīng)用
我們選取十個(gè)學(xué)生的籃球訓(xùn)練樣本集作說(shuō)明,每個(gè)學(xué)生有四個(gè)屬性,分別為力量、身高、靈活性、速度。每條學(xué)生記錄為(學(xué)號(hào) 力量 身高 靈活性 速度 評(píng)價(jià)),十條學(xué)生記錄為(20100001強(qiáng)高好慢Y),(20100002強(qiáng)高好塊Y),(20100003強(qiáng)矮好慢Y),(20100004強(qiáng)中一般慢N),(20100005弱中差慢N),(20100006弱中差塊N),(20100007弱矮差快N),(20100008強(qiáng)高一般慢Y),(20100009弱高差慢N),(20100010弱中一般慢N)。力量為強(qiáng)、弱,量化為{0,1};身高為高、中、矮分別量化為{0,1,2};靈活性為好、一般、差分別量化為{0,1,2};速度為快、慢量化為{0,1}。根據(jù)訓(xùn)練集樣本數(shù)據(jù),依次根據(jù)公式計(jì)算各特征屬性與分類(lèi)屬性的灰色關(guān)聯(lián)度,結(jié)果為r(力量)=0.52,r(身高)=0.72,r(靈活性)=0.78,r(速度)=0.56,然后計(jì)算上述屬性信息增益,可得Gain(力量)=0.4816,Gain(身高)=0.0275,Gain(靈活性)=0.0588,Gain(速度)=0.0368,因?yàn)榱α康男畔⒃鲆孀畲?、取值個(gè)數(shù)最多但灰色關(guān)聯(lián)度最低,所以需要用修正因子降低其信息增益,設(shè)定修正因子CF(力量)為sin(0.52)=0.4968,而其它屬性的信息增益設(shè)定為0,則改進(jìn)的ID3算法算得的Gain(力量)=-0.2196。因而會(huì)選擇信息增益最大的靈活性作為分裂屬性。
從上面實(shí)例可知,ID3算法確定決策樹(shù)的根節(jié)點(diǎn)時(shí),選擇信息增益最大的力量作為分裂屬性,顯然這與客觀事實(shí)不符。而改進(jìn)的ID3算法在確定根節(jié)點(diǎn)時(shí),選擇靈活性作為分裂屬性,符合客觀事實(shí),避免了多值但非最優(yōu)屬性的力量成為分裂屬性。
3 結(jié)語(yǔ)
改進(jìn)的ID3算法避免了傳統(tǒng)算法的多值傾向問(wèn)題,使分類(lèi)更加精確。首先,通過(guò)訓(xùn)練集總結(jié)出學(xué)生分類(lèi)模型,通過(guò)上述模型我們可以對(duì)新加入的學(xué)生進(jìn)行預(yù)測(cè),然后再將不同的學(xué)生根據(jù)模型添加到不同的類(lèi)型中。把不同學(xué)生的特征存入了相應(yīng)的用戶(hù)庫(kù)之后,教師可以通過(guò)它及時(shí)地了解學(xué)生的信息,并以此為依據(jù)為不同的學(xué)生提供不同的教學(xué)策略的決策支持。
參考文獻(xiàn)
[1] 王鑫,王建偉,鐘玉峰,等.個(gè)性化遠(yuǎn)程教學(xué)平臺(tái)中數(shù)據(jù)挖掘技術(shù)的應(yīng)用[J].黑龍江工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2010(24):72-74.
[2] 孫衛(wèi)強(qiáng).決策樹(shù)方法在遠(yuǎn)程教育輔助教學(xué)中的應(yīng)用研究[D].中山大學(xué),2010:22-25.
[3] 葉明全,胡學(xué)鋼.一種基于灰色關(guān)聯(lián)度的決策樹(shù)改進(jìn)算法[J].2007,43(32):171-173.
摘 要:引入ID3算法的大學(xué)生體育訓(xùn)練決策支持系統(tǒng)可以根據(jù)學(xué)生的特征對(duì)其分類(lèi)。而傳統(tǒng)的決策樹(shù)ID3算法存在多值傾向的問(wèn)題,選擇分裂屬性不符合客觀事實(shí)。本文運(yùn)用了一種基于灰色關(guān)聯(lián)度的修正因子屬性選擇方法予以改進(jìn),克服了傳統(tǒng)ID3算法的不足,改進(jìn)的ID3算法可使分類(lèi)更加精確,更好的為大學(xué)生體育訓(xùn)練提供決策支持。
關(guān)鍵詞:ID3算法 決策支持系統(tǒng) 數(shù)據(jù)挖掘 灰色關(guān)聯(lián)度
中圖分類(lèi)號(hào):G434 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1674-098X(2014)02(a)-0019-01
大學(xué)生體育訓(xùn)練決策支持系統(tǒng)是隨著人工智能理論與數(shù)據(jù)挖掘技術(shù)的發(fā)展而不斷發(fā)展的,通過(guò)對(duì)大學(xué)生身體素質(zhì)和訓(xùn)練等數(shù)據(jù)來(lái)進(jìn)行有效的挖掘,產(chǎn)生用于輔助決策的規(guī)則,進(jìn)而為大學(xué)生體育訓(xùn)練制定相應(yīng)的訓(xùn)練方案[1]。系統(tǒng)中應(yīng)用了數(shù)據(jù)挖掘的決策樹(shù)ID3算法對(duì)不同特征的學(xué)生進(jìn)行分類(lèi),但傳統(tǒng)的ID3算法存在多值傾向的問(wèn)題,選擇分裂屬性不符合客觀事實(shí),同時(shí),在構(gòu)造樹(shù)的過(guò)程中,需要多次自上而下對(duì)數(shù)據(jù)集的排序和掃描,因而導(dǎo)致算法的處理效率較低[2],如何改進(jìn)算法從而使分類(lèi)更加精確是我們亟需解決的問(wèn)題。
1 ID3算法的改進(jìn)
灰色關(guān)聯(lián)分析是指對(duì)一個(gè)系統(tǒng)發(fā)展變化態(tài)勢(shì)的定量描述和比較的方法,分析考慮了各因素之間的相關(guān)性,比系統(tǒng)分析中常用的因素兩兩對(duì)比法要更合理,更科學(xué)[3]。同時(shí)考慮到正弦函數(shù)的曲線變化比較緩和,對(duì)信息增益因子修正不會(huì)出現(xiàn)過(guò)度的問(wèn)題。因此,本文引入灰色關(guān)聯(lián)度的正弦值作為ID3算法的修正因子進(jìn)行改進(jìn)。改進(jìn)的ID3算法的具體流程是:
(1)計(jì)算各特征屬性與類(lèi)別屬性之間的灰色關(guān)聯(lián)度,并將它們排序;
(2)對(duì)取值較多的屬性通過(guò)灰色關(guān)聯(lián)度來(lái)判斷是否最優(yōu),從而確定是否降低它的信息增益;
(3)對(duì)取值較多但灰色關(guān)聯(lián)度低的屬性,在計(jì)算其信息增益時(shí)通過(guò)灰色關(guān)聯(lián)度的正弦值作為修正因子,而其它屬性計(jì)算信息增益時(shí)修正因子設(shè)為0。
改進(jìn)的ID3算法的描述如下:
算法:GBID(Sample_set,Attribute_set)
輸入:由多個(gè)屬性描述的訓(xùn)練樣本集Sample_set;候選屬性集Attribute_set。
輸出:一棵決策樹(shù)。
Begin
如果 Sample_set為空
則返回null;創(chuàng)建結(jié)點(diǎn)L;
如果結(jié)點(diǎn)L中的所有樣本均屬于同一類(lèi)C
則返回L作為葉結(jié)點(diǎn),并以類(lèi)C為標(biāo)記;
如果Attribute_set為空
則返回L作為葉結(jié)點(diǎn),并以Sample_set中最普通的類(lèi)標(biāo)記;
計(jì)算出Attribute_set中每個(gè)屬性的信息增益,并選擇出信息增益最大的屬性A和取值個(gè)數(shù)最多的屬性B
如果 A=B,該條件成立說(shuō)明選擇信息增益最大和取值個(gè)數(shù)最多的屬性作為測(cè)試屬性易產(chǎn)生多值偏向問(wèn)題,需要用修正因子降低該屬性的信息增益
則根據(jù)公式
屬性A具有多值傾向是其它來(lái)計(jì)算該屬性的修正因子;
再根據(jù)公式重新計(jì)算該屬性的信息增益;
否則該屬性的修正系數(shù)為0,信息增益最大的屬性不是取值個(gè)數(shù)最多屬性,選擇該屬性作為分裂屬性不會(huì)產(chǎn)生多值偏向問(wèn)題,不需要用修正系數(shù)降低該屬信息增益
從Attribute_set中選擇出信息增益最大的屬性Splitting_Attribute作為分裂屬性;
標(biāo)記結(jié)點(diǎn)L為Splitting _Attribute;
For Each Splitting_Attribute中的已知;
m為Splitting_Attribute的取值個(gè)數(shù)∥根據(jù)Splitting_Attribute的取值劃分Sample_set
根據(jù)Splitting_Attribute=,從結(jié)點(diǎn)L產(chǎn)生相應(yīng)分支表示測(cè)試條件;
設(shè)為Splitting_Attribute=所獲得的樣本集;
如果為空
則加上一個(gè)葉結(jié)點(diǎn),并標(biāo)記為Sample_set中最普通的類(lèi);
否則加上GBID(Attribute_set,Splitting _Attribute)返回的結(jié)點(diǎn);
End。
2 改進(jìn)后的ID3算法的應(yīng)用
我們選取十個(gè)學(xué)生的籃球訓(xùn)練樣本集作說(shuō)明,每個(gè)學(xué)生有四個(gè)屬性,分別為力量、身高、靈活性、速度。每條學(xué)生記錄為(學(xué)號(hào) 力量 身高 靈活性 速度 評(píng)價(jià)),十條學(xué)生記錄為(20100001強(qiáng)高好慢Y),(20100002強(qiáng)高好塊Y),(20100003強(qiáng)矮好慢Y),(20100004強(qiáng)中一般慢N),(20100005弱中差慢N),(20100006弱中差塊N),(20100007弱矮差快N),(20100008強(qiáng)高一般慢Y),(20100009弱高差慢N),(20100010弱中一般慢N)。力量為強(qiáng)、弱,量化為{0,1};身高為高、中、矮分別量化為{0,1,2};靈活性為好、一般、差分別量化為{0,1,2};速度為快、慢量化為{0,1}。根據(jù)訓(xùn)練集樣本數(shù)據(jù),依次根據(jù)公式計(jì)算各特征屬性與分類(lèi)屬性的灰色關(guān)聯(lián)度,結(jié)果為r(力量)=0.52,r(身高)=0.72,r(靈活性)=0.78,r(速度)=0.56,然后計(jì)算上述屬性信息增益,可得Gain(力量)=0.4816,Gain(身高)=0.0275,Gain(靈活性)=0.0588,Gain(速度)=0.0368,因?yàn)榱α康男畔⒃鲆孀畲蟆⑷≈祩€(gè)數(shù)最多但灰色關(guān)聯(lián)度最低,所以需要用修正因子降低其信息增益,設(shè)定修正因子CF(力量)為sin(0.52)=0.4968,而其它屬性的信息增益設(shè)定為0,則改進(jìn)的ID3算法算得的Gain(力量)=-0.2196。因而會(huì)選擇信息增益最大的靈活性作為分裂屬性。
從上面實(shí)例可知,ID3算法確定決策樹(shù)的根節(jié)點(diǎn)時(shí),選擇信息增益最大的力量作為分裂屬性,顯然這與客觀事實(shí)不符。而改進(jìn)的ID3算法在確定根節(jié)點(diǎn)時(shí),選擇靈活性作為分裂屬性,符合客觀事實(shí),避免了多值但非最優(yōu)屬性的力量成為分裂屬性。
3 結(jié)語(yǔ)
改進(jìn)的ID3算法避免了傳統(tǒng)算法的多值傾向問(wèn)題,使分類(lèi)更加精確。首先,通過(guò)訓(xùn)練集總結(jié)出學(xué)生分類(lèi)模型,通過(guò)上述模型我們可以對(duì)新加入的學(xué)生進(jìn)行預(yù)測(cè),然后再將不同的學(xué)生根據(jù)模型添加到不同的類(lèi)型中。把不同學(xué)生的特征存入了相應(yīng)的用戶(hù)庫(kù)之后,教師可以通過(guò)它及時(shí)地了解學(xué)生的信息,并以此為依據(jù)為不同的學(xué)生提供不同的教學(xué)策略的決策支持。
參考文獻(xiàn)
[1] 王鑫,王建偉,鐘玉峰,等.個(gè)性化遠(yuǎn)程教學(xué)平臺(tái)中數(shù)據(jù)挖掘技術(shù)的應(yīng)用[J].黑龍江工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2010(24):72-74.
[2] 孫衛(wèi)強(qiáng).決策樹(shù)方法在遠(yuǎn)程教育輔助教學(xué)中的應(yīng)用研究[D].中山大學(xué),2010:22-25.
[3] 葉明全,胡學(xué)鋼.一種基于灰色關(guān)聯(lián)度的決策樹(shù)改進(jìn)算法[J].2007,43(32):171-173.
摘 要:引入ID3算法的大學(xué)生體育訓(xùn)練決策支持系統(tǒng)可以根據(jù)學(xué)生的特征對(duì)其分類(lèi)。而傳統(tǒng)的決策樹(shù)ID3算法存在多值傾向的問(wèn)題,選擇分裂屬性不符合客觀事實(shí)。本文運(yùn)用了一種基于灰色關(guān)聯(lián)度的修正因子屬性選擇方法予以改進(jìn),克服了傳統(tǒng)ID3算法的不足,改進(jìn)的ID3算法可使分類(lèi)更加精確,更好的為大學(xué)生體育訓(xùn)練提供決策支持。
關(guān)鍵詞:ID3算法 決策支持系統(tǒng) 數(shù)據(jù)挖掘 灰色關(guān)聯(lián)度
中圖分類(lèi)號(hào):G434 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1674-098X(2014)02(a)-0019-01
大學(xué)生體育訓(xùn)練決策支持系統(tǒng)是隨著人工智能理論與數(shù)據(jù)挖掘技術(shù)的發(fā)展而不斷發(fā)展的,通過(guò)對(duì)大學(xué)生身體素質(zhì)和訓(xùn)練等數(shù)據(jù)來(lái)進(jìn)行有效的挖掘,產(chǎn)生用于輔助決策的規(guī)則,進(jìn)而為大學(xué)生體育訓(xùn)練制定相應(yīng)的訓(xùn)練方案[1]。系統(tǒng)中應(yīng)用了數(shù)據(jù)挖掘的決策樹(shù)ID3算法對(duì)不同特征的學(xué)生進(jìn)行分類(lèi),但傳統(tǒng)的ID3算法存在多值傾向的問(wèn)題,選擇分裂屬性不符合客觀事實(shí),同時(shí),在構(gòu)造樹(shù)的過(guò)程中,需要多次自上而下對(duì)數(shù)據(jù)集的排序和掃描,因而導(dǎo)致算法的處理效率較低[2],如何改進(jìn)算法從而使分類(lèi)更加精確是我們亟需解決的問(wèn)題。
1 ID3算法的改進(jìn)
灰色關(guān)聯(lián)分析是指對(duì)一個(gè)系統(tǒng)發(fā)展變化態(tài)勢(shì)的定量描述和比較的方法,分析考慮了各因素之間的相關(guān)性,比系統(tǒng)分析中常用的因素兩兩對(duì)比法要更合理,更科學(xué)[3]。同時(shí)考慮到正弦函數(shù)的曲線變化比較緩和,對(duì)信息增益因子修正不會(huì)出現(xiàn)過(guò)度的問(wèn)題。因此,本文引入灰色關(guān)聯(lián)度的正弦值作為ID3算法的修正因子進(jìn)行改進(jìn)。改進(jìn)的ID3算法的具體流程是:
(1)計(jì)算各特征屬性與類(lèi)別屬性之間的灰色關(guān)聯(lián)度,并將它們排序;
(2)對(duì)取值較多的屬性通過(guò)灰色關(guān)聯(lián)度來(lái)判斷是否最優(yōu),從而確定是否降低它的信息增益;
(3)對(duì)取值較多但灰色關(guān)聯(lián)度低的屬性,在計(jì)算其信息增益時(shí)通過(guò)灰色關(guān)聯(lián)度的正弦值作為修正因子,而其它屬性計(jì)算信息增益時(shí)修正因子設(shè)為0。
改進(jìn)的ID3算法的描述如下:
算法:GBID(Sample_set,Attribute_set)
輸入:由多個(gè)屬性描述的訓(xùn)練樣本集Sample_set;候選屬性集Attribute_set。
輸出:一棵決策樹(shù)。
Begin
如果 Sample_set為空
則返回null;創(chuàng)建結(jié)點(diǎn)L;
如果結(jié)點(diǎn)L中的所有樣本均屬于同一類(lèi)C
則返回L作為葉結(jié)點(diǎn),并以類(lèi)C為標(biāo)記;
如果Attribute_set為空
則返回L作為葉結(jié)點(diǎn),并以Sample_set中最普通的類(lèi)標(biāo)記;
計(jì)算出Attribute_set中每個(gè)屬性的信息增益,并選擇出信息增益最大的屬性A和取值個(gè)數(shù)最多的屬性B
如果 A=B,該條件成立說(shuō)明選擇信息增益最大和取值個(gè)數(shù)最多的屬性作為測(cè)試屬性易產(chǎn)生多值偏向問(wèn)題,需要用修正因子降低該屬性的信息增益
則根據(jù)公式
屬性A具有多值傾向是其它來(lái)計(jì)算該屬性的修正因子;
再根據(jù)公式重新計(jì)算該屬性的信息增益;
否則該屬性的修正系數(shù)為0,信息增益最大的屬性不是取值個(gè)數(shù)最多屬性,選擇該屬性作為分裂屬性不會(huì)產(chǎn)生多值偏向問(wèn)題,不需要用修正系數(shù)降低該屬信息增益
從Attribute_set中選擇出信息增益最大的屬性Splitting_Attribute作為分裂屬性;
標(biāo)記結(jié)點(diǎn)L為Splitting _Attribute;
For Each Splitting_Attribute中的已知;
m為Splitting_Attribute的取值個(gè)數(shù)∥根據(jù)Splitting_Attribute的取值劃分Sample_set
根據(jù)Splitting_Attribute=,從結(jié)點(diǎn)L產(chǎn)生相應(yīng)分支表示測(cè)試條件;
設(shè)為Splitting_Attribute=所獲得的樣本集;
如果為空
則加上一個(gè)葉結(jié)點(diǎn),并標(biāo)記為Sample_set中最普通的類(lèi);
否則加上GBID(Attribute_set,Splitting _Attribute)返回的結(jié)點(diǎn);
End。
2 改進(jìn)后的ID3算法的應(yīng)用
我們選取十個(gè)學(xué)生的籃球訓(xùn)練樣本集作說(shuō)明,每個(gè)學(xué)生有四個(gè)屬性,分別為力量、身高、靈活性、速度。每條學(xué)生記錄為(學(xué)號(hào) 力量 身高 靈活性 速度 評(píng)價(jià)),十條學(xué)生記錄為(20100001強(qiáng)高好慢Y),(20100002強(qiáng)高好塊Y),(20100003強(qiáng)矮好慢Y),(20100004強(qiáng)中一般慢N),(20100005弱中差慢N),(20100006弱中差塊N),(20100007弱矮差快N),(20100008強(qiáng)高一般慢Y),(20100009弱高差慢N),(20100010弱中一般慢N)。力量為強(qiáng)、弱,量化為{0,1};身高為高、中、矮分別量化為{0,1,2};靈活性為好、一般、差分別量化為{0,1,2};速度為快、慢量化為{0,1}。根據(jù)訓(xùn)練集樣本數(shù)據(jù),依次根據(jù)公式計(jì)算各特征屬性與分類(lèi)屬性的灰色關(guān)聯(lián)度,結(jié)果為r(力量)=0.52,r(身高)=0.72,r(靈活性)=0.78,r(速度)=0.56,然后計(jì)算上述屬性信息增益,可得Gain(力量)=0.4816,Gain(身高)=0.0275,Gain(靈活性)=0.0588,Gain(速度)=0.0368,因?yàn)榱α康男畔⒃鲆孀畲?、取值個(gè)數(shù)最多但灰色關(guān)聯(lián)度最低,所以需要用修正因子降低其信息增益,設(shè)定修正因子CF(力量)為sin(0.52)=0.4968,而其它屬性的信息增益設(shè)定為0,則改進(jìn)的ID3算法算得的Gain(力量)=-0.2196。因而會(huì)選擇信息增益最大的靈活性作為分裂屬性。
從上面實(shí)例可知,ID3算法確定決策樹(shù)的根節(jié)點(diǎn)時(shí),選擇信息增益最大的力量作為分裂屬性,顯然這與客觀事實(shí)不符。而改進(jìn)的ID3算法在確定根節(jié)點(diǎn)時(shí),選擇靈活性作為分裂屬性,符合客觀事實(shí),避免了多值但非最優(yōu)屬性的力量成為分裂屬性。
3 結(jié)語(yǔ)
改進(jìn)的ID3算法避免了傳統(tǒng)算法的多值傾向問(wèn)題,使分類(lèi)更加精確。首先,通過(guò)訓(xùn)練集總結(jié)出學(xué)生分類(lèi)模型,通過(guò)上述模型我們可以對(duì)新加入的學(xué)生進(jìn)行預(yù)測(cè),然后再將不同的學(xué)生根據(jù)模型添加到不同的類(lèi)型中。把不同學(xué)生的特征存入了相應(yīng)的用戶(hù)庫(kù)之后,教師可以通過(guò)它及時(shí)地了解學(xué)生的信息,并以此為依據(jù)為不同的學(xué)生提供不同的教學(xué)策略的決策支持。
參考文獻(xiàn)
[1] 王鑫,王建偉,鐘玉峰,等.個(gè)性化遠(yuǎn)程教學(xué)平臺(tái)中數(shù)據(jù)挖掘技術(shù)的應(yīng)用[J].黑龍江工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2010(24):72-74.
[2] 孫衛(wèi)強(qiáng).決策樹(shù)方法在遠(yuǎn)程教育輔助教學(xué)中的應(yīng)用研究[D].中山大學(xué),2010:22-25.
[3] 葉明全,胡學(xué)鋼.一種基于灰色關(guān)聯(lián)度的決策樹(shù)改進(jìn)算法[J].2007,43(32):171-173.