• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      格值信息系統(tǒng)的知識分辨度與信息熵*

      2017-08-16 11:10:19張曉燕史德容
      計算機(jī)與生活 2017年8期
      關(guān)鍵詞:粗糙集信息熵細(xì)化

      張曉燕,史德容,魏 玲

      1.西北大學(xué) 數(shù)學(xué)學(xué)院,西安 710127

      2.重慶理工大學(xué) 數(shù)學(xué)與統(tǒng)計學(xué)院,重慶 400054

      格值信息系統(tǒng)的知識分辨度與信息熵*

      張曉燕1,2,史德容2,魏 玲1+

      1.西北大學(xué) 數(shù)學(xué)學(xué)院,西安 710127

      2.重慶理工大學(xué) 數(shù)學(xué)與統(tǒng)計學(xué)院,重慶 400054

      格值信息系統(tǒng);知識分辨度;信息熵;知識顆粒

      1 格值信息系統(tǒng)

      1.1 預(yù)備知識

      粗糙集理論[1-2]是近年發(fā)展起來的一種處理不精確性、不確定性和模糊知識的軟計算工具,已經(jīng)在人工智能、故障檢測、數(shù)據(jù)挖掘、醫(yī)療診斷、股票數(shù)據(jù)分析、模式識別、智能信息處理等領(lǐng)域得到了普遍的應(yīng)用。經(jīng)典粗糙集是以完備信息系統(tǒng)[3]為研究對象,以等價關(guān)系(滿足自反性、對稱性、傳遞性)為基礎(chǔ),通過等價關(guān)系將論域分成互不相交的等價類,劃分越細(xì),知識越豐富,信息越充分。

      粗糙集模型[4]中的知識表達(dá)是通過信息系統(tǒng)[5]被認(rèn)知的。相當(dāng)于一個關(guān)系表,信息系統(tǒng)是一個反映對象與屬性之間關(guān)系的數(shù)據(jù)表。實際上,信息系統(tǒng)就是一個三元數(shù)組(U,A,F),其中U是有限非空的對象集;A是有限非空的屬性集;F是一個從對象到屬性的映射。

      在經(jīng)典的信息系統(tǒng)中,屬性值域是單一的實數(shù)域。隨著粗糙集理論的發(fā)展,又提出了集值信息系統(tǒng),即屬性值都是集合。接著對屬性值域為模糊集的信息系統(tǒng)進(jìn)行了研究。這些信息系統(tǒng)的屬性值域都是單一的,而在某些現(xiàn)實問題中,可能出現(xiàn)某些屬性值是實數(shù)值,有些是集合值或區(qū)間值等[6]。因此,就順勢提出了背景最為廣泛的格值信息系統(tǒng)[5,7-8]。在此信息系統(tǒng)中若有多個優(yōu)勢關(guān)系[9-10](知識)生成的多個優(yōu)勢類(知識顆粒),可用優(yōu)勢關(guān)系的粗細(xì)來敘說。而一個細(xì)優(yōu)勢關(guān)系生成的知識顆粒比一個粗優(yōu)勢關(guān)系生成的知識顆粒小,此時知識分辨能力強(qiáng)?;诖耍疚陌阎R分辨度與信息熵[11-16]引進(jìn)到格值信息系統(tǒng)中,通過研究發(fā)現(xiàn),知識的分辨度越大表明知識的分辨能力越強(qiáng),知識的分辨度越小表明知識的分辨能力越弱,而信息熵有著與之一致的結(jié)論。

      1.2 格值信息系統(tǒng)相關(guān)定義

      格值信息系統(tǒng)是一種知識表達(dá)系統(tǒng),它區(qū)別于經(jīng)典的知識表達(dá)系統(tǒng),格值信息系統(tǒng)的屬性取值域均是格值的。下面介紹格值信息系統(tǒng)的相關(guān)概念。

      定義1[5]稱一個四元數(shù)組L≥=(U,A,V,F)為格值信息系統(tǒng),若U={x1,x2,…,xn}為對象集,A={a1,a2,…,am}為屬性集,V=Va,Va是條件屬性a的值域,是具有最大元1和最小元0的有限格,≥表示Va上的偏序關(guān)系;F={f:U→V}為對象屬性值映射,也稱信息函數(shù),有f(xi,a)∈Va,?a∈A。

      注:本文以偏序關(guān)系為基礎(chǔ)得到一種新的關(guān)系——優(yōu)勢關(guān)系。

      設(shè)L≥=(U,A,V,F)是一個格值信息系統(tǒng),對于任意屬性子集B?A,給出二元關(guān)系:

      為xi關(guān)于條件屬性集A的偏序類。

      2 格值信息系統(tǒng)的知識分辨度

      序信息系統(tǒng)[10]中知識的粒度可以反映知識的分辨能力,知識的粒度越大表明知識的分辨能力越弱,知識的粒度越小表明知識的分辨能力越強(qiáng)。同樣的,本文通過知識的粒度來研究格值信息系統(tǒng)中知識的分辨能力,首先介紹知識粒度的相關(guān)概念,然后再引入知識分辨度的定義。

      定義2[16]設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為L≥上的優(yōu)勢關(guān)系,記:

      稱 GK(R≥)為知識R≥的粒度。

      定義3設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為L≥上的優(yōu)勢關(guān)系,記:

      稱Dis(R≥)為知識R≥的分辨度。

      定理1(粗糙不變性)設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥、S≥為L≥上的優(yōu)勢關(guān)系。若|U/R≥|=|U/S≥|,且存在一一對應(yīng)h:U/R≥→U/S≥,使得則 Dis(R≥)=Dis(S≥)。

      證明由知識粒度的粗糙不變性可知GK(R≥)=GK(S≥),再由定義3直接獲證。

      推論1設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥、S≥為 L≥上的優(yōu)勢關(guān)系。若R≥=S≥,則 Dis(R≥)=Dis(S≥)。

      定理2(單調(diào)性)設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥、S≥為 L≥上的優(yōu)勢關(guān)系。若R≥≤S≥,則Dis(R≥)≥Dis(S≥)。

      證明由于R≥≤S≥,故對任意的x∈U,有,于是有:

      即 Dis(R≥)≥Dis(S≥)。

      推論2設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥、S≥為 L≥上的優(yōu)勢關(guān)系。若R≥<S≥,則Dis(R≥)>Dis(S≥)。

      推論3設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥、S≥為 L≥上的優(yōu)勢關(guān)系。若R≥≤S≥,且 Dis(R≥)=Dis(S≥),則R≥=S≥。

      定理2、推論2和推論3說明,分辨度隨著知識顆粒的變大、分類的變粗而單調(diào)減小,或者隨知識顆粒的變小、分類的變細(xì)而單調(diào)增加。

      證明由于,故有:

      定理4(最小值)設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為 L≥上的優(yōu)勢關(guān)系。若R≥=δ≥,則知識R≥的分辨度達(dá)到最小值0。

      證明由于,故有:

      即 Dis(δ≥)=0。

      定理5設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為L≥上的優(yōu)勢關(guān)系,則知識R≥的分辨度滿足:

      證明由定理3、定理4直接可得。

      定理6(細(xì)化性)設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為 L≥上的優(yōu)勢關(guān)系。若R′≥是將U/R≥中的某個知識顆粒細(xì)化成兩個知識顆粒后形成的新的優(yōu)勢關(guān)系,且U/R′≥中其他知識顆粒與U/R≥中相同,則有Dis(R′≥)≥Dis(R≥)。

      證明設(shè)U/R≥中的某個知識顆粒分解成兩個知識顆粒(不妨設(shè)i<j),其中,且,于是:

      即 Dis(R′≥)≥Dis(R≥)。

      推論4設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為L≥上的優(yōu)勢關(guān)系,且R′≥是將U/R≥中的某個知識顆粒分解形成的新的優(yōu)勢關(guān)系,若R′≥≤R≥,則Dis(R′≥)≥Dis(R≥)。

      定理7(粗化性)設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為 L≥上的優(yōu)勢關(guān)系,若R″≥是將U/R≥中的某兩個知識顆粒粗化成一個知識粒度后形成的新的優(yōu)勢關(guān)系,且U/R″≥中其他知識顆粒與U/R≥中的相同,則有 Dis(R≥)≥Dis(R″≥)。

      證明設(shè)U/R≥中的某兩個知識顆粒合成一個知識顆粒(不妨設(shè)i,j<k),其中,于是:

      即 Dis(R≥)≥Dis(R″≥)。

      推論5設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為L≥上的優(yōu)勢關(guān)系,且R″≥是將U/R≥中的知識顆粒合并形成的新的優(yōu)勢關(guān)系,若R≥≤R″≥,則 Dis(R≥)≥Dis(R″≥)。

      由上面結(jié)論可知知識顆粒的細(xì)化和粗化對知識分辨度的大小有很大的影響。隨著知識顆粒的細(xì)化,知識分辨度變大,當(dāng)每個知識顆粒中只有一個元素時,知識分辨度達(dá)到最大值,此時的知識是最精確的,而隨著知識顆粒的粗化,知識分辨度將逐漸變小,當(dāng)只有一個知識顆粒即論域本身時,知識分辨度達(dá)到最小值,此時的知識是最粗糙的。因此在實際問題中要盡可能細(xì)化知識顆粒來獲得精確的認(rèn)識,通過粗化知識顆粒使問題簡單化。

      3 格值信息系統(tǒng)的知識信息熵

      本文在粗糙集理論中利用集合的補(bǔ)定義了一種新的熵,用這種方法給出了格值信息系統(tǒng)的信息熵,并對其性質(zhì)進(jìn)行了討論。

      定義4設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為L≥上的優(yōu)勢關(guān)系,記:

      稱E(R≥)為知識R≥的信息熵。

      定理8設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為L≥上的優(yōu)勢關(guān)系,則R≥的信息熵E(R≥)與知識粒度GK(R≥)之間的關(guān)系為:

      證明R≥為L≥上的優(yōu)勢關(guān)系,且粒度分類為,由定義4可得:

      即E(R≥)+GK(R≥)=1。

      推論6設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥為L≥上的優(yōu)勢關(guān)系,則R≥的信息熵E(R≥)與知識分辨度Dis(R≥)之間的關(guān)系為:

      推論7設(shè)L≥=(U,A,V,F)為格值信息系統(tǒng),R≥、S≥為L≥上的優(yōu)勢關(guān)系,則R≥的信息熵滿足:

      (1)(粗糙不變性)若|U/R≥|=|U/S≥|,且存在一一對應(yīng)h:U/R≥→U/S≥,使得,則E(R≥)=E(S≥)。

      (2)(單調(diào)性)若R≥≤S≥,則E(R≥)≥E(S≥)。

      (3)(有界性和最值性)信息熵E(R≥)滿足:

      (4)(細(xì)化性)若R′≥是將U/R≥中的某個知識顆粒細(xì)化成兩個知識顆粒后形成的新的優(yōu)勢關(guān)系,且U/R′≥中其他知識顆粒與 U/R≥中相同,則有E(R′≥)≥E(R≥)。

      (5)(粗化性)若R″≥是將U/R≥中的某兩個知識顆粒粗化成一個知識粒度后形成的新的優(yōu)勢關(guān)系,且U/R″≥中其他知識顆粒與U/R≥中的相同,則有E(R≥)≥E(R″≥)。

      4 實例分析

      Table1 Alattice-valued information system表1 給定格值信息系統(tǒng)

      表中U={xi|i=1,2,…,6}是對象集,A={a1,a2,a3}是屬性集,并且該格值信息系統(tǒng)是基于優(yōu)勢關(guān)系R≥的,其中:

      對比分辨度和信息熵的計算結(jié)果可知:

      由這個實例證實了分辨度與知識粒度,信息熵與知識粒度,分辨度與信息熵的關(guān)系,而且知識的分辨度與信息熵是相同的,因此它們都可以用來反映格值信息系統(tǒng)中知識的顆粒和分類程度,分辨度與信息熵則從側(cè)面反映了格值信息系統(tǒng)中知識顆粒對知識的影響。

      5 結(jié)束語

      生產(chǎn)生活中許多信息系統(tǒng)是基于優(yōu)勢關(guān)系建立起來的。梁吉業(yè)等人成功地建立了經(jīng)典粗糙集下信息系統(tǒng)的熵理論。本文把知識分辨度、知識信息熵引入到格值信息系統(tǒng)中,研究了它們各自的性質(zhì),并討論了它們之間的關(guān)系,證明了二者隨著知識顆粒的細(xì)化而單調(diào)增加,粗化而單調(diào)減小的結(jié)論,而且知識的分辨度與信息熵是相同的。進(jìn)一步用具體的實例驗證了知識分辨度和信息熵的性質(zhì)和關(guān)系,保證了其準(zhǔn)確性。

      [1]Pawlak Z.Rough sets:theoretical aspects of reasoning about data[M].Boston:KluwerAcademic Publishers,1991.

      [2]Pawlak Z,Grzymala-Busse J,SlowinskiR,et al.Rough sets[J].Communication of theACM,1995,38(11):88-95.

      [3]Liang Jiye,Xu Zongben.Uncertainty measures of roughness of knowledge and rough sets in incomplete information systems[C]//Proceedings of the 3rd World Congress on Intelligent Control and Automation,Hefei,China,Jun 28-Jul 2,2000.Piscataway,USA:IEEE,2000,4:2526-2529.

      [4]Zhang Xiaohong,Pei Daowu,Dai Jianhua.Fuzzy mathematics and the rough set theory[M].Beijing:Tsinghua University Press,2013.

      [5]Zhang Wenxiu,Liang Yi,Wu Weizhi.Information system and knowledge discovery[M].Beijing:Science Press,2003.

      [6]Yu Jianhang,Xu Weihua.Incremental knowledge discovering in interval-valued decision information system with the dynamic data[J].International Journal of Machine Learning and Cybernetics,2015,515:1-16.

      [7]Huang Jiazeng,Cai Xiangyun.Aknowledge reduction method based on rough sets and lattice-valued information systems[J].Journal of Computer Knowledge and Technology,2008,2(18):135-137.

      [8]Zhang Xiaoyan,Wei Ling,Xu Weihua.Attributes reduction and rules acquisition in an lattice-valued information system with fuzzy decision[J].International Journal of Machine Learning and Cybernetics,2017,8(1):135-147.

      [9]Grecos MB,SlowinskiR.Rough approximation of preference relation by dominance relations[J].European Journal of Operational Research,1999,117(1):63-68.

      [10]Xu Weihua.Ordered information systems and rough sets theory[M].Beijing:Science Press,2013.

      [11]Liang Jiye,Chin K S,Dang Chuangyin,et al.Anew method for measuring uncertainty and fuzziness in rough set theory[J].International Journal of General Systems,2002,31(4):331-342.

      [12]Wang Guoying,Yu Hong,Yang Dachun.Decision table reduction based on conditional information entropy[J].Chinese Computers,2002,25(7):759-766.

      [13]Liang Jiye,Shi Zhongzhi.The information entropy,rough entropy and knowledge granulation in rough set theory[J].International Journal of Uncertainty Fuzziness and Knowledge-Based Systems,2004,12(1):37-46.

      [14]Liang Jiye,Shi Zhongzhi,Li Deyu,et al.Information entropy,rough entropy and knowledge granulation in incomplete information systems[J].International Journal of General Systems,2006,35(6):641-654.

      [15]Zhang Xiaoyan,Xu Weihua.Entropy of knowledge and rough set in ordered information systems[J].Computer Engineering andApplications,2007,43(27):62-65.

      [16]Xu Weihua,Zhang Xiaoyan,Zhang Wenxiu.Knowledge granulation,knowledge entropy and knowledge uncertainty measure in ordered information systems[J].Applied Soft Computing,2009,9(4):1244-1251.

      附中文參考文獻(xiàn):

      [4]張小紅,裴道武,代建華.模糊數(shù)學(xué)與Rough集理論[M].北京:清華大學(xué)出版社,2013.

      [5]張文修,梁怡,吳偉志.信息系統(tǒng)與知識發(fā)現(xiàn)[M].北京:科學(xué)出版社,2003.

      [7]黃加增,蔡翔云.一種基于粗集的格值信息系統(tǒng)的知識約簡方法[J].電腦知識與技術(shù),2008,2(18):135-137.

      [10]徐偉華.序信息系統(tǒng)與粗糙集[M].北京:科學(xué)出版社,2013.

      [12]王國胤,于洪,楊大春.基于條件信息熵的決策表約簡[J].計算機(jī)學(xué)報,2002,25(7):759-766.

      [15]張曉燕,徐偉華.序信息系統(tǒng)的知識粗糙熵與粗集粗糙熵[J].計算機(jī)工程與應(yīng)用,2007,43(27):62-65.

      SHI Derong was born in 1991.She is an M.S.candidate at Chongqing University of Technology.Her research interest is the mathematical foundation of artificial intelligence.史德容(1991—),女,重慶人,重慶理工大學(xué)碩士研究生,主要研究領(lǐng)域為人工智能的數(shù)學(xué)基礎(chǔ)。

      WEI Ling was born in 1972.She is a professor and Ph.D.supervisor at Northwest University.Her research interests include concept lattice and rough set,etc.魏玲(1972—),女,陜西西安人,博士,西北大學(xué)教授、博士生導(dǎo)師,主要研究領(lǐng)域為概念格,粗糙集等。

      歡迎訂閱2018年《計算機(jī)科學(xué)與探索》、《計算機(jī)工程與應(yīng)用》

      《計算機(jī)科學(xué)與探索》為月刊,大16開,單價48元,全年12期總訂價576元,郵發(fā)代號:82-560。

      郵局匯款地址:

      北京619信箱26分箱《計算機(jī)科學(xué)與探索》編輯部(收) 郵編:100083

      《計算機(jī)工程與應(yīng)用》為半月刊,大16開,每月1日、15日出版,單價45元,全年24期總訂價1080元,郵發(fā)代號:82-605。

      郵局匯款地址:

      北京619信箱26分箱《計算機(jī)工程與應(yīng)用》編輯部(收) 郵編:100083

      歡迎到各地郵局或編輯部訂閱。個人從編輯部直接訂閱可享受8折優(yōu)惠!

      發(fā)行部

      電話:(010)89055541

      Knowledge Resolution and Information Entropy in Lattice-Valued Information Systems*

      ZHANG Xiaoyan1,2,SHI Derong2,WEI Ling1+
      1.School of Mathematics,Northwest University,Xi'an 710127,China
      2.School of Mathematics and Statistics,Chongqing University of Technology,Chongqing 400054,China
      +Corresponding author:E-mail:wl@nwu.edu.cn

      ZHANG Xiaoyan,SHI Derong,WEI Ling.Knowledge resolution and information entropy in lattice-valued information systems.Journal of Frontiers of Computer Science and Technology,2017,11(8):1340-1346.

      In dealing with practical issues,it is generally possible to obtain accurate understanding through the refinement of knowledge particles.On the contrary,the problem can be simplified by coarse knowledge particles.This paper introduces the concepts of knowledge resolution and information entropy to study the resolution ability of knowledge in lattice-valued information systems.By some properties,it can be proved that both of them gradually become lager with the refinement of knowledge particles,smaller with the coarsening of knowledge particles.An instance result shows that the knowledge resolution and information entropy are greater,the ability of knowledge resolution is stronger.Furthermore,the relationship between knowledge resolution and information entropy,which can be used to reflect the particles of knowledge and the degree of classification in lattice-valued information systems,states that they are the same.In addition,the influence of knowledge particles on knowledge is reflected from the side.These conclusions provide theoretical basis for the knowledge discovery of lattice-valued information systems.

      lattice-valued information system;knowledge resolution;information entropy;knowledge particles

      2016-05,Accepted 2016-08.

      A

      :TP18

      *The National Natural Science Foundation of China under Grant Nos.61472463,61402064(國家自然科學(xué)基金);the Graduate Innovation Foundation of Chongqing University of Technology under Grant No.YCX2015227(重慶理工大學(xué)研究生創(chuàng)新基金).

      CNKI網(wǎng)絡(luò)優(yōu)先出版:2016-08-01,http://www.cnki.net/kcms/detail/11.5602.TP.20160801.1406.006.html

      ISSN 1673-9418 CODEN JKYTA8

      Journal of Frontiers of Computer Science and Technology 1673-9418/2017/11(08)-1340-07

      10.3778/j.issn.1673-9418.1605044

      E-mail:fcst@vip.163.com

      http://www.ceaj.org

      Tel:+86-10-89056056

      摘 要:在處理實際問題時,一般會盡可能通過細(xì)化知識顆粒獲得精確的認(rèn)識,相反地,經(jīng)過粗化知識顆粒來使問題得以簡單化。在格值信息系統(tǒng)中引入知識分辨度和信息熵的概念來研究知識的分辨能力。通過研究它們的有關(guān)性質(zhì),證明了二者隨著知識顆粒的細(xì)化逐漸變大,粗化而逐漸變小的結(jié)論。通過對實例的研究得到知識的分辨度和信息熵越大表明知識的分辨能力越強(qiáng),知識的分辨度和信息熵越小表明知識的分辨能力越弱。進(jìn)一步通過它們之間的關(guān)系發(fā)現(xiàn)知識的分辨度與信息熵是相同的,因此它們都可以用來反映格值信息系統(tǒng)中知識的顆粒和分類程度,都從側(cè)面反映了格值信息系統(tǒng)中知識顆粒對知識的影響。這些結(jié)論為格值信息系統(tǒng)的知識發(fā)現(xiàn)奠定了一定的理論基礎(chǔ)。

      猜你喜歡
      粗糙集信息熵細(xì)化
      基于信息熵可信度的測試點選擇方法研究
      基于Pawlak粗糙集模型的集合運算關(guān)系
      中小企業(yè)重在責(zé)任細(xì)化
      “細(xì)化”市場,賺取百萬財富
      華人時刊(2018年23期)2018-03-21 06:26:16
      基于信息熵的實驗教學(xué)量化研究
      電子測試(2017年12期)2017-12-18 06:35:48
      “住宅全裝修”政策亟需細(xì)化完善
      一種基于信息熵的雷達(dá)動態(tài)自適應(yīng)選擇跟蹤方法
      多?;植诩再|(zhì)的幾個充分條件
      雙論域粗糙集在故障診斷中的應(yīng)用
      基于信息熵的IITFN多屬性決策方法
      玛多县| 焦作市| 仁化县| 宣城市| 灵丘县| 沙坪坝区| 即墨市| 南昌县| 突泉县| 赣州市| 遵义县| 客服| 嘉义市| 碌曲县| 河津市| 体育| 遵义县| 随州市| 铜陵市| 嵩明县| 绍兴县| 宾阳县| 凤山县| 达拉特旗| 大荔县| 班玛县| 连江县| 大理市| 天柱县| 宜都市| 东安县| 新营市| 永寿县| 曲沃县| 宣城市| 金乡县| 县级市| 台北市| 石景山区| 大姚县| 延川县|