• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度學(xué)習(xí)BCCM模型的網(wǎng)上用戶畫(huà)像識(shí)別分析

      2022-06-16 08:12:18王瑛
      關(guān)鍵詞:畫(huà)像卷積聚類(lèi)

      王瑛

      基于深度學(xué)習(xí)BCCM模型的網(wǎng)上用戶畫(huà)像識(shí)別分析

      王瑛

      (閩江學(xué)院,福州 350108)

      提出基于深度學(xué)習(xí)BCCM模型的網(wǎng)上用戶畫(huà)像識(shí)別方法,改善以往網(wǎng)上用戶畫(huà)像識(shí)別方法僅提取行為特征導(dǎo)致識(shí)別精度低的缺陷。采用爬蟲(chóng)軟件挖掘網(wǎng)上用戶的訪問(wèn)量、評(píng)論量、轉(zhuǎn)發(fā)量、影響力、關(guān)注量以及網(wǎng)齡六種行為特征,采集網(wǎng)上用戶發(fā)帖以及評(píng)論文本信息建立用戶向量,規(guī)約處理所建立用戶向量。以類(lèi)別的總距離平方和最小為聚類(lèi)目標(biāo),采用K-means聚類(lèi)算法聚類(lèi)處理用戶向量。設(shè)置聚類(lèi)結(jié)果為網(wǎng)上用戶內(nèi)容特征,將所獲取的內(nèi)容特征與所挖掘行為特征輸入深度卷積神經(jīng)網(wǎng)絡(luò)中,通過(guò)卷積操作以及池化操作實(shí)現(xiàn)網(wǎng)上用戶畫(huà)像的有效識(shí)別。實(shí)驗(yàn)結(jié)果表明,采用該方法識(shí)別網(wǎng)上用戶畫(huà)像的精度高于99%,1值高于0.92,說(shuō)明所提出方法的識(shí)別精度高。

      深度學(xué)習(xí);BCCM模型;網(wǎng)上;用戶;畫(huà)像;識(shí)別分析

      目前,網(wǎng)絡(luò)用戶數(shù)量有所增加,網(wǎng)絡(luò)用戶行為數(shù)據(jù)直線上升[1]。網(wǎng)絡(luò)中網(wǎng)頁(yè)以及社交平臺(tái)中包含大量用戶,網(wǎng)絡(luò)數(shù)據(jù)呈動(dòng)態(tài)性、多樣性以及非結(jié)構(gòu)化形式存在。海量網(wǎng)上用戶行為數(shù)據(jù)的科學(xué)合理應(yīng)用是目前網(wǎng)絡(luò)相關(guān)研究學(xué)者的主要研究話題,網(wǎng)上用戶畫(huà)像精準(zhǔn)識(shí)別有助于提升人類(lèi)對(duì)于海量用戶信息的大數(shù)據(jù)挖掘與分析效率[2]。用戶畫(huà)像指依據(jù)用戶行為模式、統(tǒng)計(jì)學(xué)信息等信息建立的用戶模型,用戶畫(huà)像利用所建立的用戶模型對(duì)用戶實(shí)施標(biāo)簽化[3]。早期的用戶畫(huà)像常應(yīng)用于電子商務(wù)中,通過(guò)用戶畫(huà)像體現(xiàn)的消費(fèi)金額與消費(fèi)習(xí)慣,便于商家實(shí)現(xiàn)精準(zhǔn)營(yíng)銷(xiāo)。大數(shù)據(jù)技術(shù)發(fā)展迅速,網(wǎng)絡(luò)中信息量劇增,用戶畫(huà)像已發(fā)展至不同領(lǐng)域中,依據(jù)用戶網(wǎng)絡(luò)中的聽(tīng)歌類(lèi)型、身體狀況、關(guān)注消息類(lèi)型可為用戶制定偏好畫(huà)像、健康畫(huà)像、關(guān)系畫(huà)像等眾多畫(huà)像[4],便于各APP針對(duì)不同用戶制定可滿足用戶需求的相關(guān)策略。

      深度學(xué)習(xí)是伴隨機(jī)器學(xué)習(xí)而來(lái)的高效學(xué)習(xí)方法,深度卷積神經(jīng)網(wǎng)絡(luò)和深度置信網(wǎng)絡(luò)是目前應(yīng)用較廣的深度學(xué)習(xí)方法,將深度卷積神經(jīng)網(wǎng)絡(luò)方法應(yīng)用于網(wǎng)上用戶畫(huà)像識(shí)別分析中,可有效提升網(wǎng)上用戶畫(huà)像識(shí)別效率[5],具有較高的應(yīng)用有效性。

      目前針對(duì)用戶畫(huà)像研究較多,張壯,李恒超等分別利用多模態(tài)融合技術(shù)以及二級(jí)融合算法構(gòu)建用戶畫(huà)像[6,7],由于僅提取用戶行為特征,識(shí)別用戶畫(huà)像精度較低。

      目前用戶畫(huà)像多針對(duì)用戶行為特征,并未重視用戶內(nèi)容特征,將行為-內(nèi)容融合模型(behaviour and content combined model,BCCM)與深度學(xué)習(xí)方法相結(jié)合,研究基于深度學(xué)習(xí)BCCM模型的網(wǎng)上用戶畫(huà)像識(shí)別分析。充分考慮網(wǎng)上用戶行為以及內(nèi)容,實(shí)現(xiàn)網(wǎng)上用戶畫(huà)像精準(zhǔn)識(shí)別,結(jié)合網(wǎng)上用戶影響力、發(fā)帖量、訪問(wèn)量等眾多行為特征,利用聚類(lèi)算法獲取網(wǎng)上用戶的內(nèi)容特征,將行為特征與內(nèi)容特征結(jié)合,精準(zhǔn)識(shí)別網(wǎng)上用戶畫(huà)像,為大數(shù)據(jù)環(huán)境以及信息化環(huán)境中海量用戶畫(huà)像精準(zhǔn)分析提供理論基礎(chǔ)。

      1 深度學(xué)習(xí)BCCM模型的網(wǎng)上用戶畫(huà)像識(shí)別

      1.1 K-means聚類(lèi)算法

      聚類(lèi)算法距離以及相似性判斷準(zhǔn)則通過(guò)歐式距離劃分,聚類(lèi)中心至數(shù)據(jù)集內(nèi)各點(diǎn)的距離平方和公式如下:

      所劃分不同類(lèi)別的總距離平方和最小即聚類(lèi)目標(biāo),建立聚類(lèi)目標(biāo)函數(shù)如下:

      求解聚類(lèi)目標(biāo)函數(shù),得到網(wǎng)上用戶內(nèi)容特征:

      1.2 深度卷積神經(jīng)網(wǎng)絡(luò)方法

      深度卷積神經(jīng)網(wǎng)絡(luò)是通過(guò)卷積以及池化操作神經(jīng)網(wǎng)絡(luò),處理數(shù)據(jù)樣本后獲取特征圖,通過(guò)訓(xùn)練特征圖降低原數(shù)據(jù)樣本訓(xùn)練規(guī)模,提升深度學(xué)習(xí)訓(xùn)練效率[9]。將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于網(wǎng)上用戶畫(huà)像識(shí)別中,提升網(wǎng)上用戶畫(huà)像識(shí)別有效性。

      深度卷積神經(jīng)網(wǎng)絡(luò)識(shí)別流程如圖1所示。

      圖1 深度卷積神經(jīng)網(wǎng)絡(luò)識(shí)別流程

      通過(guò)式(6)的均值池化完成深度卷積神經(jīng)網(wǎng)絡(luò)的池化操作。

      設(shè)置約束條件如下:

      滿足式(8)約束條件計(jì)算后獲取卷積神經(jīng)網(wǎng)絡(luò)全連接層[10-12],利用所獲取全連接層建立分類(lèi)器實(shí)現(xiàn)網(wǎng)上用戶畫(huà)像識(shí)別。

      卷積神經(jīng)網(wǎng)絡(luò)權(quán)重更新公式如下:

      卷積神經(jīng)網(wǎng)絡(luò)偏置更新公式如下:

      更新后權(quán)重表達(dá)式為

      更新后偏置表達(dá)式為

      1.3 BCCM模型的網(wǎng)上用戶畫(huà)像識(shí)別

      深度挖掘網(wǎng)絡(luò)中海量用戶信息,選取訪問(wèn)量、評(píng)論量、轉(zhuǎn)發(fā)量、影響力、關(guān)注量以及網(wǎng)齡作為網(wǎng)上用戶行為特征。訪問(wèn)量指用戶使用網(wǎng)絡(luò)的訪問(wèn)數(shù)量;評(píng)論量指用戶發(fā)帖被評(píng)論數(shù)量以及評(píng)論他人數(shù)量;轉(zhuǎn)發(fā)量指用戶轉(zhuǎn)發(fā)他人信息以及被轉(zhuǎn)發(fā)信息數(shù)量[14];影響力指用戶在網(wǎng)絡(luò)中的微博等軟件中對(duì)他人的影響能力;關(guān)注量指用戶關(guān)注其它用戶以及被他人關(guān)注的具體數(shù)量;網(wǎng)齡指用戶活躍在網(wǎng)絡(luò)中的時(shí)間。所選取網(wǎng)上用戶行為特征具有較高的可獲取性以及可用性,可利用爬蟲(chóng)軟件有效獲取,應(yīng)用以上特征建立BCCM模型可有效提升網(wǎng)上用戶畫(huà)像識(shí)別精度。

      基于深度學(xué)習(xí)BCCM模型的網(wǎng)上用戶畫(huà)像識(shí)別總體結(jié)構(gòu)圖如圖2所示。

      圖2 網(wǎng)上用戶畫(huà)像識(shí)別總體結(jié)構(gòu)圖

      基于深度學(xué)習(xí)BCCM模型的網(wǎng)上用戶畫(huà)像識(shí)別流程如下:

      (1)采用爬蟲(chóng)軟件挖掘網(wǎng)上用戶于網(wǎng)絡(luò)中的訪問(wèn)量、影響力、網(wǎng)齡等行為特征數(shù)據(jù);

      (2)充分挖掘網(wǎng)上用戶網(wǎng)絡(luò)中的發(fā)帖、評(píng)論內(nèi)容的文本信息以及評(píng)論相關(guān)信息[15],獲取用戶向量;

      (3)對(duì)網(wǎng)上用戶向量實(shí)施維度規(guī)約處理,利用K-means聚類(lèi)算法對(duì)從網(wǎng)絡(luò)中所提取的用戶向量實(shí)施聚類(lèi)分析;

      (4)將所獲取聚類(lèi)分析結(jié)果設(shè)置為網(wǎng)上用戶的內(nèi)容特征,與所提取的網(wǎng)上用戶行為特征數(shù)據(jù)共同輸入深度卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)器中,獲取最終網(wǎng)上用戶畫(huà)像識(shí)別結(jié)果。

      2 實(shí)例分析

      選取某網(wǎng)絡(luò)論壇中8976名用戶作為驗(yàn)證本文方法識(shí)別網(wǎng)上用戶畫(huà)像有效性的研究對(duì)象,充分挖掘用戶的訪問(wèn)量、評(píng)論量、轉(zhuǎn)發(fā)量等行為特征,將用戶發(fā)帖以及回復(fù)內(nèi)容中的文本信息作為內(nèi)容特征。共采集用戶網(wǎng)絡(luò)評(píng)論共1254862條,所采集內(nèi)容時(shí)間區(qū)間為2015年1月1日~2019年12月31日。采用人工標(biāo)注方法標(biāo)注8976名用戶中的10類(lèi)用戶,標(biāo)注用戶數(shù)量為2000名,將人工標(biāo)注結(jié)果與不同方法實(shí)際識(shí)別結(jié)果對(duì)比,驗(yàn)證本文方法的網(wǎng)上用戶畫(huà)像識(shí)別結(jié)果。

      采用本文方法采集8976名用戶行為特征數(shù)量如圖3所示。通過(guò)圖3可以看出,本文方法可有效采集網(wǎng)上用戶的行為特征數(shù)據(jù),為精準(zhǔn)識(shí)別網(wǎng)上用戶畫(huà)像提供良好的數(shù)據(jù)基礎(chǔ)。

      圖3 行為特征采集結(jié)果

      采用三種方法分別識(shí)別已人工標(biāo)注的2000個(gè)網(wǎng)上用戶畫(huà)像,畫(huà)像識(shí)別結(jié)果如表1所示。

      表1 不同方法識(shí)別結(jié)果

      分析表1實(shí)驗(yàn)結(jié)果,采用本文方法識(shí)別網(wǎng)上用戶畫(huà)像,識(shí)別不同類(lèi)型網(wǎng)上用戶畫(huà)像數(shù)量與實(shí)際用戶數(shù)量相差較??;采用另兩種方法識(shí)別網(wǎng)上用戶畫(huà)像的識(shí)別結(jié)果與網(wǎng)上用戶畫(huà)像實(shí)際數(shù)量相差較大,采用本文方法識(shí)別網(wǎng)上用戶畫(huà)像的準(zhǔn)確性明顯高于另兩種方法,有效驗(yàn)證本文方法具有較高的網(wǎng)上用戶畫(huà)像識(shí)別結(jié)果。

      本文方法采用K-means聚類(lèi)算法實(shí)現(xiàn)海量用戶文本信息聚類(lèi),選取F-measure值作為聚類(lèi)方法有效性的評(píng)價(jià)指標(biāo),采用不同方法所獲取聚類(lèi)結(jié)果的F-measure值越大,表示聚類(lèi)結(jié)果有效性越高。不同閾值時(shí)本文方法聚類(lèi)結(jié)果的F-measure值對(duì)比結(jié)果如圖4所示。

      圖4實(shí)驗(yàn)結(jié)果可以看出,隨著閾值大小的提升,本文的方法采用K-means聚類(lèi)算法對(duì)樣本實(shí)施聚類(lèi)的F-measure值有所提升。設(shè)置閾值為5時(shí),聚類(lèi)結(jié)果的F-measure值趨于穩(wěn)定,繼續(xù)提升閾值時(shí),F(xiàn)-measure值提升幅度較小。為降低本文方法識(shí)別網(wǎng)上用戶畫(huà)像復(fù)雜度,設(shè)置K-means聚類(lèi)算法閾值為5。

      圖4 F-measure值對(duì)比結(jié)果

      選取文獻(xiàn)[6]方法以及文獻(xiàn)[7]方法作為對(duì)比方法,進(jìn)一步驗(yàn)證本文方法的網(wǎng)上用戶畫(huà)像識(shí)別有效性。統(tǒng)計(jì)采用本文方法識(shí)別網(wǎng)上用戶畫(huà)像的精度、召回率以及1值。1值是衡量分類(lèi)模型精確性的重要指標(biāo),1值是以每個(gè)類(lèi)別為基礎(chǔ)進(jìn)行定義的,包括兩大概念:準(zhǔn)確率(precision)和召回率(recall)。準(zhǔn)確率是指預(yù)測(cè)結(jié)果屬于某一類(lèi)的個(gè)體,實(shí)際屬于該類(lèi)的比例,召回率是指被正確預(yù)測(cè)為某個(gè)類(lèi)別的個(gè)體數(shù)量與數(shù)據(jù)集中該類(lèi)別個(gè)體總量的比例。計(jì)算出準(zhǔn)確率和召回率后,就能得到1值,它是兩者的調(diào)和平均數(shù)。1值的計(jì)算公式為

      不同方法識(shí)別性能對(duì)比結(jié)果如表2所示。

      表2 識(shí)別性能對(duì)比

      表2實(shí)驗(yàn)結(jié)果可以看出,采用本文方法識(shí)別不同類(lèi)別網(wǎng)上用戶畫(huà)像的識(shí)別精度以及識(shí)別召回率均高于99%,識(shí)別不同類(lèi)別用戶畫(huà)像的1值均高于0.92。而文獻(xiàn)[6]與文獻(xiàn)[7]方法的識(shí)別精度最高為98.64%,并且兩種文獻(xiàn)對(duì)比方法的最高召回率分別為98.61%與98.64%,最高1值均未達(dá)到0.9以上。因此,充分說(shuō)明本文方法識(shí)別網(wǎng)上用戶畫(huà)像的識(shí)別精度、識(shí)別召回率以及1值均明顯高于另兩種方法,驗(yàn)證本文方法具有較高的網(wǎng)上用戶畫(huà)像識(shí)別有效性。本文方法可獲取最優(yōu)的網(wǎng)上用戶畫(huà)像識(shí)別結(jié)果,將該方法應(yīng)用于圖書(shū)推薦系統(tǒng)、旅游推薦系統(tǒng)等應(yīng)用中,可精準(zhǔn)依據(jù)所獲取網(wǎng)上用戶畫(huà)像識(shí)別結(jié)果為用戶推薦用戶感興趣信息,具有較高的應(yīng)用性。

      3 結(jié)論

      綜合深度學(xué)習(xí)方法以及內(nèi)容-行為融合模型實(shí)現(xiàn)網(wǎng)上用戶畫(huà)像識(shí)別,利用實(shí)驗(yàn)驗(yàn)證該方法具有較高的網(wǎng)上用戶畫(huà)像識(shí)別有效性。采用該方法識(shí)別網(wǎng)上用戶畫(huà)像的召回率以及1值均優(yōu)于對(duì)比方法,有效驗(yàn)證該方法具有更優(yōu)的識(shí)別性能。將該方法應(yīng)用于智能終端推薦系統(tǒng)中,可有效依據(jù)網(wǎng)上用戶畫(huà)像識(shí)別結(jié)果精準(zhǔn)劃分用戶,為用戶推薦滿足用戶興趣度的內(nèi)容。

      [1] 林燕霞,謝湘生. 基于社會(huì)認(rèn)同理論的微博群體用戶畫(huà)像[J]. 情報(bào)理論與實(shí)踐,2018, 041(003): 142-148.

      [2] 梁榮賢. 基于用戶畫(huà)像的圖書(shū)館精準(zhǔn)信息服務(wù)研究[J]. 圖書(shū)館工作與研究,2019, 1(04): 67-71.

      [3] 陳丹,柳益君,羅燁,等. 基于用戶畫(huà)像的圖書(shū)館個(gè)性化智慧服務(wù)模型框架構(gòu)建[J]. 圖書(shū)館工作與研究,2019, 280(06): 74-80.

      [4] 王益成,王萍,張禹. 基于向量空間模型的科技情報(bào)用戶畫(huà)像及場(chǎng)景化服務(wù)推送研究[J]. 現(xiàn)代情報(bào),2020, 040(002): 3-10, 25.

      [5] 單曉紅,張曉月,劉曉燕. 基于在線評(píng)論的用戶畫(huà)像研究——以攜程酒店為例[J]. 情報(bào)理論與實(shí)踐,2018, 041(004): 99-104,149.

      [6] 張壯,馮小年,錢(qián)鐵云. 基于多模態(tài)融合技術(shù)的用戶畫(huà)像方法[J]. 北京大學(xué)學(xué)報(bào)(自然科學(xué)版),2020, 297(01): 108-114.

      [7] 李恒超,林鴻飛,楊亮,等. 一種用于構(gòu)建用戶畫(huà)像的二級(jí)融合算法框架[J]. 計(jì)算機(jī)科學(xué),2018, 45(01): 157-161.

      [8] 趙洪. 生成式自動(dòng)文摘的深度學(xué)習(xí)方法綜述[J]. 情報(bào)學(xué)報(bào),2020, 39(03): 104-118.

      [9] 劉海鷗,孫晶晶,蘇妍嫄,等. 基于用戶畫(huà)像的旅游情境化推薦服務(wù)研究[J]. 情報(bào)理論與實(shí)踐,2018, 041(010): 87-92.

      [10] 汪一百,陳實(shí),葉劍鋒. 利用深度學(xué)習(xí)的文本相似度計(jì)算方法[J]. 湘潭大學(xué)自科學(xué)報(bào),2018, 145(02): 108-111.

      [11] 崔春生,王雪,李文龍. 情境環(huán)境下基于用戶畫(huà)像的旅游產(chǎn)品推薦算法研究[J]. 數(shù)學(xué)的實(shí)踐與認(rèn)識(shí),2019, 049(020): 122-131.

      [12] SCHNEIDER C, WEINMANN M , VOM BROCKE J . Digital Nudging: Guiding Online User Choices through Interface Design[J]. Communications of the ACM, 2018, 61(7): 67-73.

      [13] 楊沛安,劉寶旭,杜翔宇. 面向攻擊識(shí)別的威脅情報(bào)畫(huà)像分析[J]. 計(jì)算機(jī)工程,2020, 046(001): 136-143.

      [14] 張長(zhǎng)浩,余志勇,周振,等. 基于國(guó)網(wǎng)商旅大數(shù)據(jù)融合背景的用戶畫(huà)像構(gòu)建[J]. 電信科學(xué),2019, 35(12): 148-154.

      [15] 安璐,胡俊陽(yáng),李綱. 突發(fā)事件情境下社交媒體高影響力用戶畫(huà)像研究[J]. 情報(bào)資料工作,2020, 237(06): 8-18.

      Online user portrait recognition analysis based on deep learning BCCM model

      WANG Ying

      (Minjiang College, Fuzhou 350108, China)

      Research on the recognition of online user portraits based on the deep learning BCCM model, to improve the previous recognition of online user portraits only extracting behavioral features, resulting in low recognition accuracy. Use crawler software to mine the six behavioral characteristics of online users' visits, comments, reposts, influence, attention, and Internet age, collect online user postings and comment text information to establish user vectors, and process the established user vectors by protocol processing, using K -Means clustering algorithm takes the minimum sum of squared distances of the different categories as the clustering target. After the clustering analysis protocol is processed, the user vector is set, the clustering result is set as the online user content feature, and the obtained content feature is compared with the excavated behavior feature In the input deep convolutional neural network, effective recognition of online user portraits is achieved through convolution and pooling operations. Experimental results show that the accuracy of using this method to identify online user portraits is higher than 99%, the F1 value is higher than 0.92, and the recognition accuracy is high. It can be used in applications such as network intelligent recommendation systems.

      deep study;BCCM model;online;user;portrait;identification analysis

      2022-12-17

      王瑛(1977-),女,,黑龍江齊齊哈爾人,本科,高級(jí)實(shí)驗(yàn)師,主要從事計(jì)算機(jī)應(yīng)用研究,m7418956232@163.com。

      TP311

      A

      1007-984X(2022)05-0011-06

      猜你喜歡
      畫(huà)像卷積聚類(lèi)
      威猛的畫(huà)像
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      “00后”畫(huà)像
      畫(huà)像
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      基于DBSACN聚類(lèi)算法的XML文檔聚類(lèi)
      基于改進(jìn)的遺傳算法的模糊聚類(lèi)算法
      一種層次初始的聚類(lèi)個(gè)數(shù)自適應(yīng)的聚類(lèi)方法研究
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
      尼木县| 安福县| 增城市| 北京市| 高州市| 崇义县| 淮北市| 乌拉特中旗| 大田县| 青浦区| 自贡市| 荥经县| 南陵县| 醴陵市| 昌平区| 忻州市| 嘉祥县| 迁西县| 团风县| 班戈县| 罗江县| 瑞安市| 葫芦岛市| 德阳市| 科技| 定州市| 商河县| 永安市| 绵竹市| 台北县| 濉溪县| 正定县| 五家渠市| 蒙山县| 南投市| 井研县| 海兴县| 南部县| 禄丰县| 繁峙县| 宜良县|