陳新泉
(重慶三峽學(xué)院智能信息處理與控制重點(diǎn)實(shí)驗(yàn)室,重慶 404100)
一種可優(yōu)化相異性度量的Affinity Propagation算法
陳新泉
(重慶三峽學(xué)院智能信息處理與控制重點(diǎn)實(shí)驗(yàn)室,重慶 404100)
為獲得更貼近于混合屬性數(shù)據(jù)點(diǎn)集空間的相異性度量,從而探測(cè)出數(shù)據(jù)點(diǎn)集的更有意義的聚類分布,提出了一種可優(yōu)化相異性度量的Affinity Propagation聚類算法(算法1)。接著對(duì)該聚類算法進(jìn)行了必要的討論,并給出其時(shí)間復(fù)雜度及收斂性分析。通過(guò)幾個(gè)UCI標(biāo)準(zhǔn)數(shù)據(jù)集驗(yàn)證了該聚類算法有時(shí)能取得更好的聚類質(zhì)量,從而說(shuō)明該加權(quán)聚類算法具有一定的有效性。最后給出一個(gè)研究展望,為下一步的研究指明了方向。
相異性度量;Affinity Propagation;有序?qū)傩?;無(wú)序?qū)傩?;混合屬?/p>
在許多科學(xué)與工程領(lǐng)域,相似性度量或相異性度量是一種基本計(jì)算度量。研究特征選擇或特征權(quán)重優(yōu)化對(duì)于相似性或相異性的計(jì)算具有重要的價(jià)值,因?yàn)橹挥兴阉鞯竭m合于某個(gè)應(yīng)用領(lǐng)域的恰當(dāng)?shù)奶卣髯蛹蛱卣鳈?quán)重向量,后續(xù)的分析與研究工作才更切合實(shí)際,才會(huì)得到更有價(jià)值的結(jié)果。
Frey和Dueck[1]提出的Affinity Propagation(AP)聚類方法報(bào)導(dǎo)說(shuō)是非常穩(wěn)定,實(shí)驗(yàn)效果和速度都非常好。但它在聚類過(guò)程只是采用一種事先設(shè)定的相似性度量而未考慮這種設(shè)定的相似性度量是否非常切合具體的數(shù)據(jù)集,所以可將特征權(quán)重優(yōu)化過(guò)程融入到文獻(xiàn)[1]的聚類框架中,以期進(jìn)一步改進(jìn)聚類質(zhì)量并提高聚類算法的穩(wěn)定性。
將特征權(quán)重優(yōu)化嵌入到數(shù)據(jù)點(diǎn)集的聚類與分類過(guò)程中的主要研究工作有:Frigui等[2]提出了一種屬性加權(quán)的方法來(lái)體現(xiàn)特征向量的各個(gè)分量在不同類中起不同的分類
作用,這是研究特征權(quán)重優(yōu)化較早的一篇論文。同一年,Elaine Y.Chan等[3]通過(guò)使用加權(quán)的相異性度量,提出了一種可應(yīng)用于混合屬性數(shù)據(jù)集的加權(quán)聚類算法。武宇文等[4]在屬性加權(quán)算法基礎(chǔ)上設(shè)計(jì)了特征分組加權(quán)算法,給出了一種基于特征加權(quán)聚類的表情識(shí)別算法。Joshua Zhexue Huang等[5]將k-means聚類算法與特征權(quán)重優(yōu)化結(jié)合起來(lái)進(jìn)行研究,得到的WKMeans算法還被實(shí)現(xiàn)為AlphaMiner[6]的一個(gè)重要算法構(gòu)件。Wang X.Z.等[7]在FCM聚類算法中進(jìn)行特征加權(quán)研究,得到改進(jìn)的FCM聚類算法。王麗娟等[8]提出CF-WFCM算法,該算法分屬性權(quán)重學(xué)習(xí)算法和聚類算法兩部分,通過(guò)將屬性權(quán)重學(xué)習(xí)算法應(yīng)用于Fuzzy C Mean聚類算法,得到優(yōu)于FCM算法的聚類結(jié)果。文獻(xiàn)[9]提出了一種特征權(quán)重的自適應(yīng)優(yōu)化方法,該方法有些新意,但其仿真實(shí)驗(yàn)只采用UCI的兩個(gè)數(shù)值型數(shù)據(jù)集,這是其不足之處。文獻(xiàn)[10]在借鑒文獻(xiàn)[5]中提出的方法基礎(chǔ)上給出了一個(gè)可應(yīng)用于混合屬性數(shù)據(jù)集的統(tǒng)一更新迭代公式,得到加權(quán)FCM 擴(kuò)展算法。文獻(xiàn)[11]提出了一種基于核映射的自適應(yīng)優(yōu)化配置屬性權(quán)重組的方法來(lái)獲得樣本空間中的一組合適的屬性權(quán)重值。文獻(xiàn)[12]將相異性度量的自適應(yīng)優(yōu)化方法融入到K-中心點(diǎn)聚類算法中,來(lái)開(kāi)展加權(quán)聚類方面的研究工作,在一定程度上解決了混合屬性數(shù)據(jù)點(diǎn)集的加權(quán)聚類分析難題。
本文第二節(jié)給出了可優(yōu)化相異性度量的Affinity Propagation聚類算法的描述及討論,第三節(jié)給出了幾個(gè)數(shù)據(jù)點(diǎn)集的聚類結(jié)果比較和相異性度量的評(píng)估結(jié)果并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了總結(jié)性分析,第四節(jié)給出總結(jié)性的結(jié)論并指出本文尚未完滿解決的問(wèn)題及可行的研究方向。
為對(duì)混合屬性數(shù)據(jù)點(diǎn)集S作加權(quán)聚類分析,一般可定義一個(gè)最小化目標(biāo)函數(shù)
式(1)中,S中任意兩點(diǎn)的一個(gè)相異性度量(采用距離平方)可定義為
采用Affinity Propagation聚類算法探測(cè)各個(gè)聚類的分布狀況時(shí),需要有一個(gè)合適的相異性度量。我們可采用[12]中給出的優(yōu)化特征權(quán)重向量及距離權(quán)重系數(shù)的方法來(lái)構(gòu)造當(dāng)前聚類分布下的相異性度量。
Affinity Propagation聚類算法[1]的主要特點(diǎn)是在數(shù)據(jù)點(diǎn)之間互換消息,直到高質(zhì)量的“exemplars”及相應(yīng)的聚類出現(xiàn)時(shí),此時(shí)找到的“exemplars”就作為最終的聚類中心點(diǎn)集。該方法的主要思想是“All data points are simultaneously considered as exemplars, but exchange deterministic messages until a good set of exemplars gradually emerges”2.Affinity Propagation方法分為Sending responsibilities,Sending availabilities和Making decisions這三個(gè)主要步驟。
Marc Mézard在[13]中通過(guò)“message passing”機(jī)制可以在多種應(yīng)用問(wèn)題中發(fā)現(xiàn)復(fù)雜數(shù)據(jù)集的“representative examples”,即找到各個(gè)聚類的中心點(diǎn),該方法具有極大的實(shí)用價(jià)值。將Affinity Propagation方法與相異性度量的自適應(yīng)優(yōu)化方法結(jié)合起來(lái),可構(gòu)造出算法1。
算法1:可優(yōu)化相異性度量的Affinity Propagation算法
步驟:
step 2.2 依據(jù)在step 2.1中更新后的相異性度量,采用Affinity Propagation方法對(duì)數(shù)據(jù)點(diǎn)集進(jìn)行聚類分析,得到更新后的聚類子集數(shù)目K,更新后的聚類結(jié)果及更新后的聚類中心點(diǎn)集。
Step 3 根據(jù)Step 2中的do-while循環(huán)結(jié)束后獲得的最終的聚類結(jié)果,最終的聚類中心點(diǎn)集和最終的相異性度量即為所求。
說(shuō)明:
(1) 這是一種將特征權(quán)重優(yōu)化嵌入到Affinity Propagation方法中的加權(quán)聚類算法,該算法彌補(bǔ)了Affinity Propagation方法只使用一個(gè)預(yù)先設(shè)定的固定相異性度量,而不理會(huì)該相異性度量是否切合當(dāng)前的數(shù)據(jù)集這個(gè)不足之處。本算法采用了一種可優(yōu)化的混合屬性的相異性度量,所以可應(yīng)用于混合屬性數(shù)據(jù)點(diǎn)集的加權(quán)聚類分析。
(2) 本聚類算法的收斂性分析:
因?yàn)锳ffinity Propagation方法是收斂的,在Step 2的do-while循環(huán)中,經(jīng)歷step 2.1的特征權(quán)重優(yōu)化步驟后,可得到一個(gè)新的相異性度量,在這個(gè)新的相異性度量下,采用Affinity Propagation方法對(duì)數(shù)據(jù)點(diǎn)集進(jìn)行聚類分析,使式(1)所表示的目標(biāo)函數(shù)逐步下降,從而使聚類中心點(diǎn)集逐步穩(wěn)定下來(lái)。step 2.1和step 2.2交替優(yōu)化,最終目的是使相異性度量和聚類中心點(diǎn)集逐步穩(wěn)定下來(lái)。其詳細(xì)的收斂性分析與文獻(xiàn)[12]中的附錄類似。
(3) 循環(huán)結(jié)束條件
在Step 2的每次do-while循環(huán)中,step 2.1都是在數(shù)據(jù)點(diǎn)集當(dāng)前的聚類分布下,從初始的相異性度量開(kāi)始采用一種優(yōu)化方法來(lái)搜索到一個(gè)優(yōu)化的相異性度量。step 2.2使用優(yōu)化后的相異性度量,采用Affinity Propagation方法來(lái)對(duì)數(shù)據(jù)點(diǎn)集進(jìn)行聚類分析。聚類結(jié)果仍未穩(wěn)定是指step 2.2中獲得的聚類結(jié)果與前一個(gè)回合(可能是Step 1的,更可能是前一個(gè)迭代回合)的聚類結(jié)果不一致。
(4) 算法1的時(shí)間復(fù)雜度分析:
在這個(gè)算法中,Step 1的時(shí)間復(fù)雜度為O(nmK)。step 2.1的時(shí)間復(fù)雜度見(jiàn)文獻(xiàn)[12]中的算法2和算法3。step 2.2的時(shí)間復(fù)雜度為O(n2)[1]。Step 4的時(shí)間復(fù)雜度為O(nmK)。
(5) 算法1中Step 1和step 2.2的具體實(shí)現(xiàn)[1]
在Affinity Propagation方法[1]中,的相似性度量計(jì)算公式為
候選聚類中心點(diǎn)j 到數(shù)據(jù)點(diǎn)i的“availability” 初始化為a(i,j)=0,數(shù)據(jù)點(diǎn)i 到候選聚類中心點(diǎn)j 的“responibility”r(i,j)的更新計(jì)算公式[1]為
當(dāng)i=j時(shí),“self-responibility”r(j,j)也同樣采用式(4)的更新公式[1]。
聚類中心點(diǎn)j 到數(shù)據(jù)點(diǎn)i的“availability”a(i,j)的更新計(jì)算公式[1]為
當(dāng)i=j時(shí),“self- availability”a(i,j)的更新計(jì)算公式[1]為
r(j,j),r(j,j),a(i,j)和a(j,j)經(jīng)過(guò)若干次迭代逐步穩(wěn)定后,設(shè)定
則對(duì)第i個(gè)數(shù)據(jù)點(diǎn),有下面的判決規(guī)則[1]
第i個(gè)數(shù)據(jù)點(diǎn)選為一個(gè)聚類中心點(diǎn);
數(shù)據(jù)點(diǎn)j*作為第i個(gè)數(shù)據(jù)點(diǎn)的聚類中心點(diǎn);
}
根據(jù)[1]及其補(bǔ)充材料中提供的matlab源代碼,Affinity Propagation方法的具體實(shí)現(xiàn)步驟可描述如下:
輸入:采用式(3)計(jì)算得到的相似度矩陣S(n×n)。
算法步驟:
Step1 初始化消息矩陣,即置存儲(chǔ)“availability”信息的矩陣A和存儲(chǔ)“responibility”信息的矩陣R為0矩陣。
Step2 消除相似度矩陣S的退化現(xiàn)象。例如,文獻(xiàn)[1]給出的一種方法為
Step3 設(shè)置衰減因子lam。 /* [1]中設(shè)置為lam=0.5。在本文的幾個(gè)實(shí)驗(yàn)中,設(shè)置為lam=0.8時(shí),聚類效果較好。*/
Step4 AP算法中的信息互換主體,即:
Step4.1 根據(jù)式(4)計(jì)算responibility”r(i,j),從而更新矩陣R;
Step4.2 使用公式R=(1-lam)*R+lam*Rold來(lái)對(duì)矩陣R進(jìn)行衰減處理;//Rold為上一回迭代時(shí)的矩陣R
Step4.3根據(jù)式(5)和式(6)計(jì)算“availability”a(i,j),從而更新矩陣A;
Step4.4使用公式A=(1-lam)*A+lam*Aold來(lái)對(duì)矩陣A進(jìn)行衰減處理;//Aold為上一回迭代時(shí)的矩陣A
}
Step5 根據(jù)式(7)及上面列出的數(shù)據(jù)點(diǎn)的聚類歸屬判決規(guī)則[1],對(duì)每個(gè)數(shù)據(jù)點(diǎn)分配其聚類歸屬。輸出:數(shù)據(jù)點(diǎn)的聚類歸屬數(shù)組IndicesOfExemplars[n]。
(1) 實(shí)驗(yàn)環(huán)境:
相關(guān)實(shí)驗(yàn)均在Intel(R) Pentium(R) Dual CPU T3200 2.0GHz上進(jìn)行,配備2G內(nèi)存,采用WindowsXP下的Java程序設(shè)計(jì)來(lái)進(jìn)行仿真實(shí)驗(yàn)驗(yàn)證。
(2) 實(shí)驗(yàn)數(shù)據(jù)集:Iris, Wine, Wdbc, Credit Approval[14]。
(3) 實(shí)驗(yàn)方法:
算法1作為聚類算法框架,文獻(xiàn)[12]的算法2和算法3嵌入到算法1中來(lái)實(shí)現(xiàn)算法1的step 2.1。采用幾個(gè)UCI標(biāo)準(zhǔn)數(shù)據(jù)集來(lái)比較驗(yàn)證可優(yōu)化相異性度量的Affinity Propagation聚類算法與其它幾個(gè)聚類算法[5]之間的聚類質(zhì)量,觀察特征加權(quán)后能否改善聚類質(zhì)量。
參照文獻(xiàn)[1]提供的Matlab源代碼,本文實(shí)現(xiàn)Affinity Propagation(AP)聚類算法的大致步驟如下:
Dampen availabilities;
} /* 實(shí)驗(yàn)中發(fā)現(xiàn),通過(guò)一個(gè)二維數(shù)值的聚類實(shí)驗(yàn)發(fā)現(xiàn),聚類10次一下,不能取得好的聚類結(jié)果,當(dāng)?shù)?00次時(shí)就能取得比較穩(wěn)定的聚類結(jié)果 */
Pseudomarginals;
Indices of exemplars; /* 在本文的實(shí)驗(yàn)中,該步獲得的聚類數(shù)目與Assignments步中不一致
Assignments; /* 根據(jù)[1]中論文的信息,采納這一步的聚類數(shù)目作為最終的聚類數(shù)目。
首先對(duì)幾個(gè)數(shù)據(jù)集在有序?qū)嵵挡糠诌M(jìn)行歸一化,算法2的距離權(quán)重系數(shù)初始化為γ=0.5。為了簡(jiǎn)化,在后面的實(shí)驗(yàn)中,γ不參與相異性度量的優(yōu)化過(guò)程。算法1在迭代若干次后最終能夠收斂(本實(shí)驗(yàn)設(shè)定迭代停止條件為相鄰二次循環(huán)的聚類數(shù)目一致),從而獲得一個(gè)聚類中心點(diǎn)集和一組特征權(quán)重向量。
根據(jù)[1]中的信息和實(shí)驗(yàn)經(jīng)驗(yàn),Compute Responsibilities和Compute availabilities構(gòu)成的迭代中的迭代次數(shù)取100次。幾種聚類算法的實(shí)驗(yàn)比較結(jié)果如表1所示。
表1 幾種算法的聚類質(zhì)量比較(取20次的聚類結(jié)果平均)
表1的說(shuō)明:
CN: ClusterNumbet, 聚類數(shù)目
CQ: 聚類質(zhì)量
SS: Sampling Scale, 取樣比例
AP: Affinity Propagation聚類算法
AP+O: 可優(yōu)化相異性度量的Affinity Propagation聚類算法
O1: 文獻(xiàn)[12]的第一種特征權(quán)重優(yōu)化方法(其中的算法2)
O2: 文獻(xiàn)[12]的第二種特征權(quán)重優(yōu)化方法(其中的算法3)
SWN: 基于取樣的加權(quán)最近鄰聚類算法(驗(yàn)證算法)
SUWN: 基于取樣的不加權(quán)最近鄰聚類算法(驗(yàn)證算法)
注:對(duì)數(shù)據(jù)集的初始預(yù)處理及目標(biāo)函數(shù)系數(shù)λ的優(yōu)化的說(shuō)明與文獻(xiàn)[12]相同。
在Affinity Propagation聚類算法[1]中(將文獻(xiàn)[1]提供的matlab程序翻譯成Java程序),根據(jù)
計(jì)算得到的聚類數(shù)目總有一點(diǎn)差別,其具體原因尚需進(jìn)一步研究。表1中AP算法所得的聚類數(shù)目是根據(jù)[1]正文部分列出的方法計(jì)算出來(lái)的。
從表1可以看出,采用可優(yōu)化相異性度量的AP算法,Iris數(shù)據(jù)集取得了明顯的改進(jìn)效果;Credit數(shù)據(jù)集在使用 [12]中的第二種特征權(quán)重優(yōu)化方法時(shí)能取得改進(jìn)的聚類精度,而采用第一種特征權(quán)重優(yōu)化方法時(shí)反而有所下降;其它2個(gè)數(shù)據(jù)集均未取得改進(jìn)的聚類精度。
將基于取樣的加權(quán)與不加權(quán)的最近鄰聚類算法作為相異性度量的驗(yàn)證算法,這幾個(gè)數(shù)據(jù)集也表現(xiàn)出不一致的結(jié)果。
在WindowsXP下采用Java來(lái)實(shí)現(xiàn)Affinity Propagation算法比較費(fèi)時(shí),遠(yuǎn)遠(yuǎn)沒(méi)有達(dá)到[1]中所描述的性能及聚類效果。本文是建立在Affinity Propagation算法和相異性度量的自適應(yīng)優(yōu)化過(guò)程之上,所以需要花費(fèi)更多的時(shí)間才能終止其迭代過(guò)程,實(shí)驗(yàn)過(guò)程及結(jié)果也與此吻合。
本文的仿真實(shí)驗(yàn)在有些數(shù)據(jù)集上能取得一定的改進(jìn)效果,而處理有的數(shù)據(jù)集時(shí),效果并不太好,這很可能是由于Affinity Propagation聚類算法本身就不是一種萬(wàn)能的、優(yōu)秀的聚類算法。
Frey和Dueck的方法[1]報(bào)導(dǎo)說(shuō)其算法非常穩(wěn)定,實(shí)驗(yàn)效果也非常好,但本文在實(shí)現(xiàn)該算法時(shí),無(wú)論是在聚類速度還是在聚類精度方面都未取得預(yù)期的效果,這就導(dǎo)致了本文提出的可優(yōu)化相異性度量的Affinity Propagation聚類算法在處理某些數(shù)據(jù)集時(shí),并未取得明顯的改進(jìn)。因此,如何將特征權(quán)重優(yōu)化過(guò)程更好地融入到文獻(xiàn)[1]的聚類框架中及進(jìn)行參數(shù)的自適應(yīng)優(yōu)化,以期進(jìn)一步改進(jìn)聚類質(zhì)量并提高聚類算法的穩(wěn)定性,是下一步要做的研究工作。
[1]J.F.Brendan,D.Delbert,“Clustering by Passing Messages Between Data Points,” Science,315(16):972-976.2007.
[2]H.Frigui,O.Nasraoui,“Unsupervised learning of prototypes and attribute weights,” Pattern Recognition,37(3):567-581,2004.
[3]E.Y.Chan,et al,“An optimization algorithm for clustering using weighted dissimilarity measures,” Pattern Recognition,37(5):943-952,2004.
[4]武宇文,劉宏,查紅彬.“基于特征分組加權(quán)聚類的表情識(shí)別,” 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),17(11):2394-2401,2005.Wu Yuwen,19,red ball.quot;face recognition based on weighted clustering feature grouping,quot; journal of computer aided design and graphics,17(11):2394-2401200-5.
[5]Z.X.Huang,K.N.Michael,H.Rong,et al.“Automated Variable Weighting in k-Means Type Clustering,” IEEE Trans on pattern analysis and machine intelligence,27(5):657-668,2005.
[6]AlphaMiner開(kāi)源數(shù)據(jù)挖掘平臺(tái)[EB].http://bi.hitsz.edu.cn/.AlphaMiner open source data mining platform [EB].http://bi.hitsz.edu.cn/.
[7]X.Z.Wang,Y.D.Wang and L.J.Wang,“Improving Fuzzy C-Means clustering based on feature-weight learning,” Pattern Recognition Letters,25(10):1123-1132,2004.
[8]王麗娟,關(guān)守義,王曉龍.“基于屬性權(quán)重的Fuzzy C Mean 算法,” 計(jì)算機(jī)學(xué)報(bào),29(10):1797-1803,2006.Wang lijuan, guan shouyi, wang xiaolong.quot;Fuzzy C Mean algorithm based on attribute weights,quot; computer journal,29(10):1797-1803, 2006.
[9]X.Q.Chen,et al.“An adaptive optimization method of configuring feature weight group,” In the 5th ICMLC,pp.1281-1286,2006.
[10]陳新泉.“特征加權(quán)的模糊C 聚類算法,” 計(jì)算機(jī)工程與設(shè)計(jì),28(22):5329-5333,2007.
Chen xinquan.quot;fuzzy C clustering algorithm of feature weighting,quot; computer engineering and design,28(22):5329-5333, 2007.
[11]陳新泉.“一種基于核映射的自適用優(yōu)化配置屬性權(quán)重組的方法,” 數(shù)值計(jì)算與計(jì)算機(jī)應(yīng)用,29(2):105-118,2008.Chen xinquan.quot;a method of adaptive optimal allocation of property rights based on nuclear mapping,quot; numerical computation and computer application,29(2):105-118,2008.
[12]陳新泉.“基于特征權(quán)重優(yōu)化的K-中心點(diǎn)聚類算法,” 中國(guó)科技論文在線,http://www.paper.edu.cn,No: 200905-127,2009.Chen xinquan.quot;k-center clustering algorithm based on feature weight optimization,quot; China science and technology paper online, http://www.paper.edu.cn, No: 200905-127,2009.
[13]Marc Mézard,“Where Are the Exemplars?” Science,315(16):949-950,2007.
[14]http://www.cs.uci.edu/~mlearn/MLRepository.html,2009.
An Affinity Propagation Algorithm Embedded in Optimizable Dissimilarity Measure
CHEN Xin-quan
(Key Laboratory of Intelligent Information Processing and Control, Chongqing Three Gorges University, Chongqing 404100)
It gives an Affinity Propagation Clustering algorithm embedded in Optimizable Dissimilarity Measure (APCODM),described by algorithm 1, in order to fi nd a more meaningful clustering distribution by searching a better dissimilarity measure in hybrid attributes data space.After some necessary discuss, it gives its time complexity and astringency analysis.The APCODM can some time get a better clustering quality validated by experiments of several data sets.At last, it indicates several valuable research expectations.
Ddissimilarity measure; Affinity propagation; Ordered attributes; Sorted attributes; Hybrid attributes
本文引用格式:陳新泉.一種可優(yōu)化相異性度量的Affinity Propagation算法.電子元器件與信息技術(shù)[J],2017,1(1):38-44,49.
重慶市基礎(chǔ)與前沿研究計(jì)劃項(xiàng)目(cstc2016jcyjA0521、cstc2016jcyjA2033);重慶三峽學(xué)院科學(xué)研究項(xiàng)目計(jì)劃資助(16PY08);重慶市高校市級(jí)重點(diǎn)實(shí)驗(yàn)室資助項(xiàng)目(C16);重慶市教委科學(xué)技術(shù)研究項(xiàng)目資助(KJ1401010)。
陳新泉(通訊作者),博士,教授,研究方向?yàn)閿?shù)據(jù)挖掘等。
:CHEN Xin-quan.An Affinity Propagation Algorithm Embedded in Optimizable Dissimilarity Measure.Journal of electronic components and information technology[J],2017,1(1):38-44,49.
Where is the exemplar? An interpretation of affinity propagation by Marc Mezard, Laboratoire de Physique Théorique et Modeles Statistique,Paris.Caravaggio’s “Vocazione di San Matteo”