• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于觸摸行為和運(yùn)動(dòng)傳感器特征的智能手機(jī)握持姿勢(shì)識(shí)別與用戶(hù)認(rèn)證系統(tǒng)

      2016-12-22 08:13:58陳雅茜歐長(zhǎng)坤
      關(guān)鍵詞:分類(lèi)誤差傳感器

      陳雅茜,歐長(zhǎng)坤

      (西南民族大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,四川 成都 610041)

      基于觸摸行為和運(yùn)動(dòng)傳感器特征的智能手機(jī)握持姿勢(shì)識(shí)別與用戶(hù)認(rèn)證系統(tǒng)

      陳雅茜,歐長(zhǎng)坤

      (西南民族大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,四川 成都 610041)

      主要研究智能手機(jī)上的用戶(hù)握持手姿與用戶(hù)認(rèn)證系統(tǒng)的關(guān)鍵技術(shù),將觸摸補(bǔ)償特征(TO特征)和運(yùn)動(dòng)傳感器特征相結(jié)合,通過(guò)對(duì)采集到的真實(shí)用戶(hù)數(shù)據(jù)集進(jìn)行分析,從多種特征中找出了最佳特征組合.實(shí)驗(yàn)結(jié)果證明,TO特征和傳感器特征的引入能顯著改善手姿識(shí)別和用戶(hù)認(rèn)證的精度,為自適應(yīng)用戶(hù)界面的設(shè)計(jì)及手機(jī)安全認(rèn)證機(jī)制等方向的研究提供了有益啟示.

      觸摸行為;運(yùn)動(dòng)傳感器;手姿識(shí)別;用戶(hù)認(rèn)證

      智能手機(jī)屏幕尺寸的不斷增大為單手持握方式下的用戶(hù)單手交互帶來(lái)了困難.自適應(yīng)用戶(hù)界面(User Interface,UI)應(yīng)根據(jù)用戶(hù)使用習(xí)慣及設(shè)備尺寸等信息對(duì)UI進(jìn)行自動(dòng)調(diào)整[1-3]從而方便用戶(hù)使用.除了手姿外,用戶(hù)的點(diǎn)擊位置、設(shè)備狀態(tài)等用戶(hù)行為特征也有助于系統(tǒng)判斷當(dāng)前用戶(hù)是否合法,從而增強(qiáng)移動(dòng)設(shè)備的安全性.

      人類(lèi)在觸摸屏上的觸摸行為已經(jīng)被研究了多年. N.Henze等人[4]首次提出了對(duì)點(diǎn)擊對(duì)象的觸摸誤差這種觸摸補(bǔ)償特征(Touch Offset Feature,TO特征)用于改善點(diǎn)擊目標(biāo)的精度.TO特征以點(diǎn)擊對(duì)象為研究目標(biāo),與屏幕尺寸無(wú)關(guān).可設(shè)對(duì)象內(nèi)部任意一點(diǎn)為參考原點(diǎn),一般設(shè)置為點(diǎn)擊對(duì)象的矩形覆蓋的左上角點(diǎn).D.Weir等人[5]將TO特征用于用戶(hù)和手姿識(shí)別,D Buschek等[6]將這種特性擴(kuò)展到整個(gè)屏幕上使用向量場(chǎng)描述了整個(gè)屏幕上單獨(dú)的觸摸行為(傳統(tǒng)鍵盤(pán)上的擊鍵特征已經(jīng)被廣泛研究[7]),提供了一套通用框架[8].并與文獻(xiàn)[9]共同指出TO特征可以作為觸摸屏上的用戶(hù)識(shí)別認(rèn)證的生物特征模板[10].但其參數(shù)只能通過(guò)人工調(diào)整才能將認(rèn)證分類(lèi)誤差降低到20% ~30%,作為安全認(rèn)證其結(jié)果并不理想.

      另一方面,一些工作單獨(dú)將運(yùn)動(dòng)傳感器作為改善交互的手段.M.Goel等[11]研究了用戶(hù)在一次觸摸行為下陀螺儀自身的變化特點(diǎn),指出可使用陀螺儀狀態(tài)信息對(duì)用戶(hù)單雙手的握持姿勢(shì)進(jìn)行分類(lèi).但該研究?jī)H對(duì)單次結(jié)果進(jìn)行人工標(biāo)注,沒(méi)有嚴(yán)格的評(píng)估.文獻(xiàn)[12]中Hinckley K.等只考察了對(duì)觸摸時(shí)的設(shè)備陀螺儀的動(dòng)作信息,文獻(xiàn)[13-14]則換用了加速度傳感器.

      本文將TO特征和運(yùn)動(dòng)傳感器特征相結(jié)合,通過(guò)對(duì)實(shí)際用戶(hù)數(shù)據(jù)的分析找到最佳特征組合,以期有效提高智能手機(jī)的手姿識(shí)別和用戶(hù)認(rèn)證的精度.

      1 實(shí)驗(yàn)設(shè)計(jì)

      本文首先通過(guò)一個(gè)智能手機(jī)上的PIN碼輸入界面收集多位用戶(hù)的多種行為特征(包括TO特征)以及多種運(yùn)動(dòng)傳感器特征.

      實(shí)驗(yàn)步驟:本文的測(cè)試環(huán)境為標(biāo)準(zhǔn)的室內(nèi)環(huán)境,每位參與者采用坐姿、按手機(jī)屏幕上的提示完成6組PIN碼輸入任務(wù)(總時(shí)長(zhǎng)約30分鐘,軟件對(duì)CoreMotion框架[15]所提供的數(shù)據(jù)進(jìn)行采集,見(jiàn)圖1),完成全部操作后填寫(xiě)一份智能手機(jī)使用問(wèn)卷.

      用戶(hù)任務(wù):用戶(hù)使用4種不同的手姿(左手拇指、食指;右手拇指、食指)、在iPhone6 Plus和iPhone5(屏幕尺寸分別為5.5和4.0寸)上分別輸入PIN碼.每位參與者須輸入6組長(zhǎng)度為6的預(yù)設(shè)PIN碼,每組重復(fù)次10次.為消除用戶(hù)跨設(shè)備、跨手姿間的學(xué)習(xí)效應(yīng),使用拉丁方陣隨機(jī)調(diào)整設(shè)備順序和手姿的順序.

      圖1 PIN碼輸入界面Fig.1 PIN Code Entry Interface

      2 實(shí)驗(yàn)數(shù)據(jù)收集與評(píng)估

      2.1 實(shí)驗(yàn)數(shù)據(jù)集內(nèi)容

      本文記錄了用戶(hù)每次輸入的瞬時(shí)觸摸數(shù)據(jù)集,包括觸摸位置(XY特征)、TO特征以及每個(gè)運(yùn)動(dòng)傳感器特征的三個(gè)分量(詳見(jiàn)表1):設(shè)備角度(ATTI特征)、加速計(jì)(ACCE特征)和陀螺儀(GYRO特征).此外,對(duì)用戶(hù)每次點(diǎn)擊輸入時(shí)候的觸摸而言,還對(duì)每次點(diǎn)擊詳細(xì)記錄了指尖點(diǎn)擊屏幕的開(kāi)始、無(wú)意識(shí)的輕微滑動(dòng)和指尖離開(kāi)屏幕這三種狀態(tài)的對(duì)應(yīng)值.

      2.2 評(píng)估模型

      本文使用四種不同模型進(jìn)行手姿分類(lèi)和用戶(hù)認(rèn)證.

      2.2.1 手姿分類(lèi)模型

      手姿識(shí)別模型:對(duì)用戶(hù)u使用設(shè)備d進(jìn)行典型的交叉驗(yàn)證,即使用一部分?jǐn)?shù)據(jù)訓(xùn)練模型m,其他部分?jǐn)?shù)據(jù)用于測(cè)試模型.

      跨設(shè)備模型:對(duì)用戶(hù)u使用設(shè)備iPhone6Plus上的數(shù)據(jù)訓(xùn)練模型m6,再使用設(shè)備iPhone5上的數(shù)據(jù)測(cè)試模型m6;使用設(shè)備iPhone5上的數(shù)據(jù)訓(xùn)練模型m5,再使用設(shè)備iPhone6Plus上的數(shù)據(jù)測(cè)試模型m5.

      跨用戶(hù)模型:使用用戶(hù)u的數(shù)據(jù)訓(xùn)練出模型m,再使用其他用戶(hù)的數(shù)據(jù)依次攻擊(測(cè)試)模型m.

      設(shè)置跨設(shè)備、跨用戶(hù)模型是為了考察手姿識(shí)別模型的特點(diǎn),以及不同用戶(hù)、不同設(shè)備之間是否存在差異.

      2.2.2 用戶(hù)認(rèn)證模型

      用戶(hù)認(rèn)證模型不能只簡(jiǎn)單實(shí)現(xiàn)用戶(hù)分類(lèi),而需將用戶(hù)和其他用戶(hù)區(qū)分.因此需對(duì)全體數(shù)據(jù)集進(jìn)行重新標(biāo)注:

      用戶(hù)認(rèn)證模型:對(duì)于每個(gè)用戶(hù)u的所有手姿數(shù)據(jù)全部標(biāo)注為1,除用戶(hù)u之外的用戶(hù)數(shù)據(jù)全部標(biāo)注為0,再實(shí)施交叉驗(yàn)證.

      2.2.3 模型條件

      本文全面分析了如表1所示的17類(lèi)特征組合,作為對(duì)比研究,對(duì)XY特征和TO特征兩組特征進(jìn)行了對(duì)比,并且設(shè)置第0組作為參考基準(zhǔn).

      表1 特征組合索引(fcID)表Table 1 Feature Combination Index(fcID)Table

      對(duì)分類(lèi)而言,本文對(duì)每個(gè)用戶(hù)的數(shù)據(jù)集按表2所示的條件進(jìn)行分割,共研究了索引值1至4等四種不同的分類(lèi)情況.另外考慮到用戶(hù)認(rèn)證問(wèn)題要對(duì)數(shù)據(jù)進(jìn)行重新標(biāo)注,針對(duì)用戶(hù)認(rèn)證模型另使用了索引值為5 至8的認(rèn)證情況,用于分析在已知手姿情況下用戶(hù)認(rèn)證成功率.

      表2 數(shù)據(jù)分割索引(dsID)表Table 2 Data Split Index(fcID)Table

      2.2.4 參數(shù)和數(shù)據(jù)預(yù)處理

      分類(lèi)算法采用線(xiàn)性支持向量機(jī)[16],使用Scikit-Learn[17]進(jìn)行實(shí)驗(yàn),主要參數(shù)為:kernel=`l(xiāng)inear',max_ iteration=500000,test_size=0.3,random_state=42.訓(xùn)練前對(duì)所有數(shù)據(jù)進(jìn)行歸一化預(yù)處理,傳感器數(shù)據(jù)以及TO特征均使用最大值進(jìn)行歸一,XY特征按設(shè)備屏幕的邏輯像素值進(jìn)行歸一.

      2.3 參與者數(shù)據(jù)規(guī)模

      本文實(shí)驗(yàn)數(shù)據(jù)來(lái)自16位參與者(10位男性,6位女性),年齡范圍為19-34歲.全部參與者均有智能手機(jī)使用經(jīng)驗(yàn),其中6位沒(méi)有使用過(guò)PIN碼.每位參與者執(zhí)行6個(gè)不同的PIN碼,每個(gè)PIN碼重復(fù)10次、每個(gè)PIN碼長(zhǎng)度為6、更換4個(gè)不同的手姿、在2臺(tái)設(shè)備上進(jìn)行操作.即數(shù)據(jù)集中每個(gè)參與者分別產(chǎn)生2880次操作,每位用戶(hù)平均產(chǎn)生上萬(wàn)條記錄.

      2.4 分類(lèi)結(jié)果

      每位參與者在每個(gè)評(píng)估模型下都有272個(gè)不同的分類(lèi)誤差結(jié)果.限于篇幅所限,本文僅分析XY特征與TO特征相關(guān)分類(lèi)錯(cuò)誤率的均值,如圖2所示:引入運(yùn)動(dòng)傳感器特征的結(jié)果整體優(yōu)于參考基準(zhǔn)第0組. 當(dāng)dsID為3時(shí),在當(dāng)前手姿未知時(shí)(無(wú)論是使用拇指還是食指),引入運(yùn)動(dòng)傳感器特征后,依然能夠?qū)ψ笥沂值奈粘譅顟B(tài)進(jìn)行有效判斷,而只使用XY或TO特征的分類(lèi)效果極差.

      2.5 結(jié)果分析

      2.5.1 最佳特征組合

      下取置信水平α=0.05,實(shí)施t檢驗(yàn)分析:

      (a)TO特征對(duì)XY特征的優(yōu)化

      手姿識(shí)別模型中,85.2%的基于TO特征的分類(lèi)誤差結(jié)果和69.1%的基于XY特征的分類(lèi)錯(cuò)誤差結(jié)果低于40.0%.其中94.1%的使用TO特征的分類(lèi)誤差結(jié)果要優(yōu)于使用XY特征的結(jié)果.容易驗(yàn)證使用運(yùn)動(dòng)傳感器時(shí),TO特征能顯著分類(lèi)誤差.

      于是考察在同時(shí)使用運(yùn)動(dòng)傳感器時(shí),換用TO特征時(shí)相比使用XY特征的分類(lèi)正確率提升度,作零假設(shè)H0:TO特征對(duì)XY特征準(zhǔn)確度的提升程度沒(méi)有顯著超過(guò)預(yù)設(shè)閾值T(在0至1中按0.005的間隔窮舉而得到),得到在手姿識(shí)別模型中,當(dāng)T=12%,p=0.007<α,當(dāng)T=7.5%,p=0.021<α均拒絕零假設(shè);在用戶(hù)認(rèn)證模型中,當(dāng) T=23.0%,p=0.006 <α,當(dāng)T=27.0%,p=0.030<α均拒絕零假設(shè).綜上即有結(jié)論:在使用運(yùn)動(dòng)傳感器特征時(shí),將XY特征替換為T(mén)O特征能使得手姿識(shí)別模型和用戶(hù)認(rèn)證模型的分類(lèi)誤差分別顯著降低7.5%~12.0%及23.0% ~27.0%.

      圖2 四種模型分類(lèi)誤差結(jié)果注:圖中縱軸表示不同特征組合(fcID),橫軸表示使用不同的數(shù)據(jù)分割索引(dsID),顏色代表對(duì)應(yīng)分類(lèi)結(jié)果的錯(cuò)誤率,紅色越深表明分類(lèi)錯(cuò)誤率越大,藍(lán)色越深則相反.Fig.2 All Classification Error Rate ResultsNote:The vertical axis expresses the fcID and the horizontal axis express the index of using different dsID.The red and blue color shows the results of classification,Red color more deeper indicates that the classification error rate more larger and vice versa.

      (b)運(yùn)動(dòng)傳感器特征對(duì)基準(zhǔn)的優(yōu)化

      作零假設(shè)H0:是否使用運(yùn)動(dòng)傳感器對(duì)分類(lèi)誤差結(jié)果沒(méi)有顯著影響.在手姿識(shí)別模型和用戶(hù)認(rèn)證模型中,16種使用運(yùn)動(dòng)傳感器組合的分類(lèi)誤差結(jié)果均值的顯著性水平均為p=0.000<α,均拒絕零假設(shè).即得到結(jié)論:使用運(yùn)動(dòng)傳感器特征顯著降低了分類(lèi)誤差.

      (c)最佳特征組合的選取

      在手姿識(shí)別模型中,手姿分類(lèi)最佳特征組合有:

      上述五種特征組合的分類(lèi)誤差的均值為5.52%,考慮零假設(shè)H0:最佳特征組合的分類(lèi)誤差與其他特征組合的分類(lèi)誤差沒(méi)有明顯差異.非最佳特征組合(不含基準(zhǔn))的均值為23.20%,p=0.000<α,拒絕零假設(shè),即得到結(jié)論:最佳特征組合的分類(lèi)結(jié)果顯著好于其他特征組合.

      在用戶(hù)認(rèn)證模型中,設(shè)置閾值為19.5%,使在所有特征組合中只有一組特征組合滿(mǎn)足四種不同數(shù)據(jù)分割索引的認(rèn)證.從而確定最佳特征組合為:

      其認(rèn)證結(jié)果顯著優(yōu)于其他特征組合(p=0.000 <α).

      2.5.2 模型的獨(dú)立性

      在跨設(shè)備模型和跨用戶(hù)模型中的分類(lèi)誤差均顯著大于36%(p=0.007<α,p=0.002<α).即手姿識(shí)別模型在不同設(shè)備、不同用戶(hù)之間差異性(36%)顯著,表明其具有用戶(hù)特定(user-specific)、設(shè)備特定(device-specific)的特點(diǎn).

      2.5.3 特殊情況

      1)表3顯示已知手勢(shì)下的用戶(hù)認(rèn)證模型結(jié)果,其認(rèn)證誤差會(huì)近似收斂到一個(gè)常數(shù),即已知手勢(shì)下引入運(yùn)動(dòng)傳感器特征能顯著降低分類(lèi)誤差,但效果不如其他特征明顯(<0.5%);

      2)用戶(hù)認(rèn)證模型中全部參與者的錯(cuò)誤率方差為0.0351,顯著大于手姿分類(lèi)(0.0026),即用戶(hù)認(rèn)證模型的錯(cuò)誤率結(jié)果的穩(wěn)定性低于手姿模型.

      表3 已知輸入手勢(shì)時(shí)用戶(hù)認(rèn)證模型的誤差結(jié)果Table 3 Authentication Model error rate results when posture is given.

      圖3 參與者5和參與者10的ROC曲線(xiàn)對(duì)比注:其中dsID為1,藍(lán)色曲線(xiàn)的fcID為16,紅色曲線(xiàn)的fcID為0Fig.3 ROC curve of participant 5 and 10Note:all confiscations'dsID are 1,blue curves'fcID are 16,red curves'fcID are 0.

      3)對(duì)于參與者5和10的單例結(jié)果,圖3比顯示了用戶(hù)操作特性曲線(xiàn)(ROC)來(lái)衡量認(rèn)證模型在這兩個(gè)參與者中表現(xiàn)的分類(lèi)性能,圖中紅色曲線(xiàn)為文獻(xiàn)[4-6,8,10]的結(jié)果,藍(lán)色曲線(xiàn)為本文結(jié)果,分類(lèi)性能提升明顯.iPhone5結(jié)果更優(yōu)的原因在于參與者5和10使用的是大屏手機(jī),對(duì)小屏幕設(shè)備沒(méi)有單手持握困難,即設(shè)備單手握持難易度會(huì)影響用戶(hù)認(rèn)證模型的結(jié)果.設(shè)備相同時(shí),參與者5比10結(jié)果更優(yōu)的原因在于其更能熟練使用PIN碼,PIN碼使用經(jīng)驗(yàn)會(huì)影響用戶(hù)認(rèn)證模型的結(jié)果.

      3 結(jié)論

      1)引入運(yùn)動(dòng)傳感器特征能夠顯著改善手姿識(shí)別和用戶(hù)認(rèn)證的精度,即便使用了不同特定手姿依然能對(duì)左右手的握持狀態(tài)進(jìn)行有效的判斷,不使用時(shí)則不能.

      2)使用TO特征結(jié)合運(yùn)動(dòng)傳感器特征能顯著降低手姿識(shí)別和用戶(hù)認(rèn)證的分類(lèi)誤差.對(duì)于手姿識(shí)別問(wèn)題,能顯著降低7.5%至12.0%的分類(lèi)誤差;對(duì)于用戶(hù)認(rèn)證問(wèn)題,則能顯著降低23.0%至27.0%的分類(lèi)誤差.

      3)在眾多作為T(mén)O特征的擴(kuò)展特征的運(yùn)動(dòng)傳感器特征中,手姿識(shí)別的最佳擴(kuò)展特征為設(shè)備角度;用戶(hù)認(rèn)證的最佳擴(kuò)展特征為陀螺儀z軸特征.

      4)當(dāng)已知輸入手姿時(shí),用戶(hù)認(rèn)證將不再與運(yùn)動(dòng)傳感器特征強(qiáng)相關(guān),其降低分類(lèi)誤差的效果不明顯.

      5)用戶(hù)認(rèn)證還效果與用戶(hù)的PIN碼使用經(jīng)驗(yàn)以及設(shè)備的單手握持難易度相關(guān).

      4 結(jié)束語(yǔ)

      本文將觸摸補(bǔ)償特征(TO特征)和運(yùn)動(dòng)傳感器特征相結(jié)合,通過(guò)分析實(shí)驗(yàn)數(shù)據(jù)從多種特征中找出了最佳特征組合.實(shí)驗(yàn)結(jié)果證明該特征組合能顯著改善手姿識(shí)別和用戶(hù)認(rèn)證的精度,從而能為自適應(yīng)用戶(hù)界面的設(shè)計(jì)及手機(jī)安全認(rèn)證機(jī)制等方向的研究提供有益啟示.未來(lái)的改進(jìn)工作主要如下:

      1)在本文的離線(xiàn)分析中每個(gè)用戶(hù)在單一場(chǎng)景中只參與一次實(shí)驗(yàn).但實(shí)際應(yīng)用中用戶(hù)使用PIN碼并不分場(chǎng)景和時(shí)段,因此有必要對(duì)用戶(hù)進(jìn)行長(zhǎng)期追蹤.

      2)實(shí)驗(yàn)結(jié)果已顯示用戶(hù)對(duì) PIN碼的使用經(jīng)驗(yàn)以及設(shè)備持握難易度等因素會(huì)影響用戶(hù)認(rèn)證模型的結(jié)果.以后可以考慮引入相關(guān)權(quán)重來(lái)進(jìn)一步改善結(jié)果.

      3)本文只使用了用戶(hù)點(diǎn)擊屏幕時(shí)各傳感器的瞬時(shí)數(shù)據(jù).圖4為分別使用左、右手輸入PIN碼過(guò)程中陀螺儀的變化曲線(xiàn),易觀(guān)察到左右手輸入存在差異.可將輸入時(shí)段內(nèi)的傳感器數(shù)據(jù)作為一種新的認(rèn)證用戶(hù)特征.

      圖4 用戶(hù)分別使用左右手進(jìn)行PIN碼輸入過(guò)程中陀螺儀的變化曲線(xiàn)Fig.4 Gyroscope curve cooperation when using different hand to input PIN Code.

      致謝:本文作者感謝慕尼黑大學(xué)的導(dǎo)師Andreas Butz、Heinrich Hussmann、博士生助教 Daniel Buschek以及全部參與者.

      (文中所涉及的軟件、數(shù)據(jù)集、實(shí)驗(yàn)代碼等資源可以 在 https://github.com/changkun/AugmentedTouch中下載.)

      [1]董士海.人機(jī)交互的進(jìn)展及面臨的挑戰(zhàn)[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2004,16(1):1-13.

      [2]李曉.自適應(yīng)人機(jī)交互界面研究[D].成都:西南師范大學(xué),2004.

      [3]樊銀亭,滕東興,楊海燕,等.基于經(jīng)驗(yàn)感知的自適應(yīng)用戶(hù)界面模型[J].計(jì)算機(jī)學(xué)報(bào),2011,34(11):2211-2223.

      [4]HENZE N,RUKZIO E,BOLL S.100,000,000 taps:analysis and improvement of touch performance in the large.[J].Mobile HCI,2011: 133-142.

      [5]WEIR D,BUSCHEK D,ROGERS S.Sparse selection of training data for touch correction systems[C]//New York:Proceedings of the 15th international conference on Human-computer interaction with mobile devices and services,2013:404-407.

      [6]BUSCHEK D,ROGERS S,MURRAY-SMITH R.User-Specific Touch Models in a Cross-Device Context[C]//New York:Proceedings of the 15th international conference on Human-computer interaction with mobile devices and services,2013:382-391.

      [7]李晨.基于擊鍵特征的身份認(rèn)證與識(shí)別研究[D].南京:南京理工大學(xué),2014.

      [8]BUSCHEK D,DE LUCA A,ALT F.Improving Accuracy,Applicability and Usability of Keystroke Biometrics on Mobile Touchscreen Devices [C].New York:CHI'15 Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems,2015:1393-1402.

      [9]PHILIPP MOCK,JOERG EDELMANN,ANDREAS SCHILLING,AND WOLFGANG ROSENSTEIN.User identification using raw sensor data from typing on interactive displays[C]//New York:Intelligent User Interfaces,2014:67-42.

      [10]BUSCHEK D,ALT F.TouchML:A Machine Learning Toolkit for Model ling Spatial Touch Targeting Be-haviour[C]//IUI’15:Proceedings of the 20th International Conference on Intelligent User Interfaces,2015.

      [11]GOEL M,WOBBROCK J O,PATEL S N.GripSense:Using built-in sensors to detect hand posture and pressure on commodity mobile phones[C]//Proceedings of the 25th annual ACM symposium on User interface software and technology,2012:545-554.

      [12]HINCKLEY K,SONG H.Sensor Synaesthesia:Touch in Motion,and Motion in Touch[J].Human Factors.2011:801-810.

      [13]苗敏敏,周治平,王杰鋒.基于加速度傳感器的手機(jī)用戶(hù)認(rèn)證方法[J].計(jì)算機(jī)工程與科學(xué),2015,37(3):508-513.

      [14]MCGRATH W,LI Y.Detecting tapping motion on the side of mobile devices by probabilistically combining hand postures[C]//New York:the 27th annual ACM symposium,2014:215-219.

      [15]APPLE INC.iOS Developer Library:Core Motion Framework Reference,2015.

      [16]CHRISTOPHER M BISHOP.Pattern recognition and machine learning[M].Springer,2006.

      [17]PEDREGOSA F,VAROQUAUX G,GRAMFORT A,et al.Scikitlearn:Machine learning in Python[J].The Journal of Machine Learning Research,2011,12:2825-2830.

      (責(zé)任編輯:張陽(yáng),付強(qiáng),李建忠,羅敏;英文編輯:周序林)

      Combining touch biometrics and motion sensors for hand posture recognition and user authentication

      CHEN Ya-xi,OU Chang-kun

      (School of Computer Science and Technology,Southwest University for Nationalities,Chengdu 610041,P.R.C.)

      This paper explored the key technology of posture recognition and user authentication for smart phones.The touch offset features(TO features)are combined with motion sensor features.Through an in-depth analysis of collected user data,the paper found the most effective feature combination.The experiment results also confirmed that the introduction of TO and motion sensor features remarkably improved the correctness of hand posture classification and user authentication.The outcomes of this paper may bring implications for research on self-adaptive user interface and security authentication.

      touch behavior;motion sensor;posture recognition;user authentication

      TP309;TP311.52

      A

      2095-4271(2016)04-0429-07

      10.11920/xnmdzk.2016.04.011

      2016-05-18

      陳雅茜(1981-),女,副教授,博士,研究方向:人機(jī)交互、信息可視化,E-mail:yaxichen@swun.cn;歐長(zhǎng)坤(1993-),男,碩士研究生,研究方向:人機(jī)交互,E-mail:hi@changkun.us

      西南民族大學(xué)中央高?;究蒲袠I(yè)務(wù)費(fèi)專(zhuān)項(xiàng)資金(青年教師)(13NZYQN19)

      猜你喜歡
      分類(lèi)誤差傳感器
      康奈爾大學(xué)制造出可拉伸傳感器
      分類(lèi)算一算
      角接觸球軸承接觸角誤差控制
      哈爾濱軸承(2020年2期)2020-11-06 09:22:26
      Beidou, le système de navigation par satellite compatible et interopérable
      簡(jiǎn)述傳感器在物聯(lián)網(wǎng)中的應(yīng)用
      電子制作(2019年22期)2020-01-14 03:16:52
      “傳感器新聞”會(huì)帶來(lái)什么
      分類(lèi)討論求坐標(biāo)
      跟蹤導(dǎo)練(三)2
      壓力容器制造誤差探究
      數(shù)據(jù)分析中的分類(lèi)討論
      闽清县| 融水| 军事| 大新县| 灵丘县| 阿尔山市| 麻阳| 穆棱市| 屏山县| 贵南县| 樟树市| 双流县| 育儿| 阜城县| 温州市| 汝城县| 巴中市| 洛川县| 昌平区| 农安县| 望奎县| 余江县| 长寿区| 清丰县| 红安县| 保德县| 晋州市| 衡水市| 津南区| 阿图什市| 三江| 鲜城| 六盘水市| 达尔| 察哈| 雅安市| 昌宁县| 惠安县| 桑植县| 扶沟县| 江安县|