• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于視覺的位姿計算技術(shù)在圖書館中的應用探索

      2022-04-02 05:08:49牛悅?李輝
      新世紀圖書館 2022年3期
      關(guān)鍵詞:計算機視覺圖書館

      牛悅?李輝

      摘 要 計算機視覺技術(shù)在產(chǎn)業(yè)升級中發(fā)揮了重要的作用,是建設(shè)下一代智慧圖書館的關(guān)鍵技術(shù),而位姿計算技術(shù)是計算機視覺技術(shù)重要的研究應用方向。論文首次探索了基于視覺的位姿計算技術(shù)在圖書館中的應用,探討了該技術(shù)對圖書館服務的重要意義,并且基于開源框架成功實現(xiàn)了基于視覺的位姿計算技術(shù),將位姿計算系統(tǒng)實際部署在西北工業(yè)大學圖書館中。代表性場景的位姿計算結(jié)果表明,論文基于視覺的位姿計算技術(shù)方法,其位移精度在10厘米以內(nèi),角度精度在2度以內(nèi),定位平均耗時約為50毫秒,位姿精度和時間性能滿足圖書館場景下定位的需求。論文是將計算機視覺技術(shù)用于構(gòu)建智慧圖書館的一次有益嘗試,也為其他相關(guān)技術(shù)在圖書館的落地實踐提供了較好的借鑒作用。

      關(guān)鍵詞 六自由度;視覺定位;位姿計算;圖書館;計算機視覺

      分類號 G250.7

      DOI 10.16810/j.cnki.1672-514X.2022.03.008

      Application of Vision-based Location and Pose Computation Method in Library

      Niu Yue, Li Hui

      Abstract Computer vision plays an important role and value in industrial upgrading, and are key technologies for constructing next-generation intelligent library. Vision-based 6dof location method is an important research and application direction of this filed. This work is the first time to explore applying vision-based location and pose calculation method in library scenario, and discuss the important value of the related applications. We implemented the vison-based location and pose calculation method based on some open source frameworks, and successfully deploy the location system in NWPU library. Representative scenarios show that transition and rotation accuracy of our vision-based location and pose calculation method are within 10 cm and 2 degree respectively, execution time of one calculation is about 50 ms, which can satisfy library requirements. This work is a valuable attempt of applying computer vision technology in intelligent library field, and has good reference function of practicing related technologies.

      Keywords 6dof. Vision-based location. Location and pose calculation. Library. Computer vision.

      0 引言

      智慧圖書館已經(jīng)成為當前圖書館應用研究的熱點[1],其中將計算機視覺技術(shù)引入圖書館,促進智慧圖書館的發(fā)展,具有重要的研究和應用價值。

      基于攝像頭采集的圖像數(shù)據(jù),計算機視覺技術(shù)能顯著提高智慧圖書館的自動化和智能化,由此,基于計算機視覺的智慧圖書館的相關(guān)領(lǐng)域得到了廣泛應用。(1)人機交互領(lǐng)域?;谟嬎銠C視覺技術(shù)在視頻處理技術(shù),使讀者和圖書館的交互從傳統(tǒng)的鼠標和鍵盤擴展到了語音、圖像、手勢等多個維度。上海圖書館的“圖小靈”應用相關(guān)的技術(shù)24小時給師生提供更為精細的咨詢服務。(2)基于人臉的門禁和身份識別系統(tǒng)。人臉檢測識別技術(shù)被大規(guī)模應用于圖書館門禁系統(tǒng)、借還書系統(tǒng)、簽到系統(tǒng)等后,系統(tǒng)的安全性和效率都得到了極大的提升。(3)基于計算機視覺的圖書識別輔助系統(tǒng)。應用計算機視覺技術(shù)對圖書館中的書籍進行管理能極大地促進智慧圖書館的建設(shè)。例如:使用文字識別對新圖書自動錄庫,應用視覺技術(shù)對圖書資源進行修補,都能夠極大地提高相關(guān)工作的效率,降低人工干預的程度,達成智慧圖書館自動化、智能化建設(shè)的目標。

      除了上述的應用,計算機視覺領(lǐng)域的一個重要分支——位姿計算技術(shù),即采用計算機圖像處理的方法實時地獲取攝像頭設(shè)備的位置和姿態(tài),在圖書館的應用中并未被充分發(fā)掘和探討。相對基于電磁波(例如GPS,Wifi和藍牙等)的三自由度(僅有三維坐標)定位技術(shù),視覺位姿計算技術(shù)有抗干擾、定位精度高、可以獲取六個自由度(三維坐標+三個旋轉(zhuǎn)角度)的優(yōu)點。由于可以準確地獲取限定設(shè)備位置和姿態(tài)的六維信息,基于視覺的位姿計算技術(shù)可以給圖書館帶來除了位置服務外更多的智能應用,例如增強現(xiàn)實、機器人無人機導航等。為此本文將重點探討基于視覺的位姿計算技術(shù)在構(gòu)建智慧圖書館中的重要價值,并以位姿計算技術(shù)在西北工業(yè)大學圖書館的應用作為實例進行研究分析。

      1 基于視覺的位姿計算技術(shù)在圖書館中的應用

      基于視覺的位姿計算技術(shù)的定義為:通過分析攝像頭獲取的圖像,計算得到攝像頭的三維位置(x、y、z)和相對于x、y、z三個坐標軸的旋轉(zhuǎn)信息,這六個變量可以唯一確定攝像頭的位置和姿態(tài),所以也叫六自由度定位。由于基于電磁波信號的定位原理是通過信號強度計算距離,然后使用三角定位,所以主流的定位方法,例如藍牙、wifi、GPS等都只能獲取到三個自由度(x、y、z)的信息,而沒有另外三個自由度的姿態(tài)信息。沒有姿態(tài)的信息,就無法得到無人機、用戶手機等設(shè)備的朝向信息,從而導致很多的應用無法使用。此外,基于信號強度的電磁波定位方法在室內(nèi)極易受遮擋物和多源反射的干擾,所以在室內(nèi)大多數(shù)情況下無法正常使用。而基于視覺的位姿計算技術(shù)剛好可以克服上述基于電磁波定位的兩個重要缺點,所以在很多領(lǐng)域具有重要的應用價值。

      目前,基于視覺的位姿計算技術(shù)已經(jīng)成功地在機器人導航[2]、無人機室內(nèi)導航[3]和增強現(xiàn)實[4]領(lǐng)域得到了應用,例如蘋果公司的ARKit、谷歌公司的ARCore等。而基于視覺的位姿計算技術(shù)在圖書館中也有很多具有重要價值的應用。主要包括以下幾個方面。

      (1)室內(nèi)導航。通過基于視覺的位姿計算給讀者提供圖書館路徑規(guī)劃。讀者輸入圖書館內(nèi)想去的目的地,然后只要掏出手機拍攝當前場景的畫面,就可以在手機圖書館地圖上得到一條最優(yōu)的路徑,極大方便了讀者在圖書館尋找目的地和相關(guān)設(shè)施。

      (2)為讀者推送信息服務。當讀者到達圖書館的某個區(qū)域后,圖書館通過視覺算法獲取其準確的位姿信息,可以給用戶推送其可能感興趣的信息和服務。例如閱覽室里最熱門的書籍,可快速給讀者規(guī)劃最優(yōu)到達路徑;或者最便利位置的自助借還機,可推送到達路徑;也可以推送閱覽室位置以及該室的重點服務內(nèi)容等,讓讀者享受個性化的智能位置服務,提高圖書館信息服務的利用率。

      (3)機器人自主配送。通過機器人自身攜帶的攝像頭設(shè)備來獲取其自身在三維世界中準確的位置和姿態(tài)信息,結(jié)合三維地圖完成自主導航、配送等服務。例如,機器人自主配送代替現(xiàn)在繁重的基于人工的圖書和資料配送服務,將工作人員解放出來;自主導航的清潔機器人還可以代替工作人員完成圖書館的清潔、消毒等工作,讓人力應用在更加有意義的地方。另外,在2020年突發(fā)新冠肺炎疫情的背景下,機器人自主配送非常切合“非接觸式服務”的需求,讀者無需進入閱覽室相關(guān)區(qū)域,只需將要還的書籍交由機器人,或者將要借圖書的指令信息發(fā)給機器人,機器人便可代替讀者完成全套自助借還書服務;還包括取查新報告、檢索報告等,讀者甚至不用進圖書館就可以獲取到所需的資源,徹底切斷接觸可能導致細菌感染的風險。

      (4)增強現(xiàn)實。通過對攝像頭采集的場景圖像進行處理,可計算用戶設(shè)備實時的位姿信息,然后在真實的三維場景中渲染虛擬的物體對象,一起顯示在用戶的設(shè)備上,從而獲得增強現(xiàn)實的能力。利用基于視覺定位的增強現(xiàn)實工具,可在圖書館真實場景中放置虛擬的信息公告欄,節(jié)約圖書館的成本,并響應“無紙化”圖書館的號召。還可以在圖書館大廳中放置栩栩如生的動態(tài)虛擬模型,讓讀者看到展示對象的所有動態(tài)細節(jié),大大節(jié)省了空間。這種基于增強現(xiàn)實的教育展示方式易于模型的移動、更新和管理,極大節(jié)省了教育成本,提高了圖書館普及知識的效率。

      (5)圖書的虛擬介紹。當讀者走進閱覽室借閱圖書的時候,每靠近一列書架,都可通過手機終端看到書架旁展示的虛擬書籍信息介紹,讀者可以自行選擇感興趣的一類圖書,也可以具體應用到某一本特定圖書。這些信息的獲取都非??旖?、準確,讀者也同時擁有了很美妙的沉浸式用戶借閱體驗,從某種程度上來說必然會增加讀者的進館次數(shù)。

      (6)活動展示應用。圖書館經(jīng)常會舉辦各種種類豐富的活動,一些需要事物展示的活動,譬如外文原版書籍展示、圖書館老物件展示、建黨和相關(guān)愛國主義文獻展示等教育活動都可以取消實體展示,也不需要使用大屏幕,讀者只需用自己的手機終端即可實時觀看,不僅節(jié)省了大屏幕的購置成本和組織實物及展示的人力成本。

      (7)讀者尋求實時響應幫助。當讀者在圖書館內(nèi)發(fā)生意外時,可以通過基于視覺的位姿計算準確上報自己的位置并進行報警,使得圖書館工作人員可以在第一時間前往并處理,從而給讀者提供更好的安全保障服務。

      2 基于視覺的位姿計算技術(shù)在圖書館平臺的建模流程

      基于視覺的位姿計算技術(shù)主要包括建圖和定位兩大部分。其中,建圖部分包括建立三維點云和場景索引兩個步驟,建圖生成的結(jié)果被存儲在數(shù)據(jù)庫中;定位部分包括場景檢索、特征點匹配和位姿計算三個步驟,最后,定位的結(jié)果會動態(tài)地更新建圖生成的數(shù)據(jù)庫,保證數(shù)據(jù)庫中的數(shù)據(jù)處在最新的狀態(tài)?;谝曈X的位姿計算技術(shù)整個流程如圖1所示:

      2.1 建圖部分

      這個部分對場景的圖像進行處理,使用特征點描述子提取、圖像索引等視覺技術(shù),建立定位步驟需要使用的特征點和索引數(shù)據(jù)庫。建圖分為以下兩個具體的步驟。

      步驟一:建立三維點云。給定覆蓋場景的圖像集合,我們將使用多視幾何[5]的方法來構(gòu)建場景的三維點云。首先,選取兩幅圖像進行特征點和描述子的提取;然后計算兩幅圖像之間特征點的匹配關(guān)系;最后,根據(jù)匹配結(jié)果利用三角定位的原理計算出這些匹配的特征點的三維位置,形成三維點云。重復以上過程直到所有的圖像都被處理,即可得到場景的三維點云。三維點云中包括點的三維坐標和點的描述子信息,這些信息在后面的位姿計算中將會被用到。

      步驟二:建立場景索引。三維點云涵蓋了整個場景的信息,為了方便地定位到某個具體的場景,我們需要對場景進行索引。即對某些領(lǐng)域的三維點云和描述子進行索引,將其轉(zhuǎn)化成一個索引向量,例如:在圖書館的點云中,可以分別建立大廳、閱覽室、自習室等不同局部場景的索引,便于后續(xù)的快速定位查找。經(jīng)過上述兩個步驟的處理,我們就得到了一個描述場景的三維點云和索引數(shù)據(jù)庫。

      2.2 定位部分

      這個部分將利用建圖部分得到的索引數(shù)據(jù)快速定位到相關(guān)的局部場景,然后使用特征點匹配得到從三維點到二維點的對應關(guān)系,最后使用三維、二維的對應關(guān)系計算得到位姿信息。定位部分分為以下三個具體的步驟。

      步驟一:場景檢索。給定一幅攝像頭拍攝的查詢圖像,我們首先計算該圖像的索引,然后使用該索引在數(shù)據(jù)庫中進行查詢,從而定位到最相關(guān)的局部場景索引。

      步驟二:特征點匹配。我們搜集步驟一得到的局部場景的所有相關(guān)三維點和描述子信息,然后提取查詢圖像的特征點和描述子信息,最后再對上面兩組描述子進行特征點匹配,得到匹配的特征點集合。

      步驟三:位姿計算。通過上面的步驟,我們得到了一個3D-2D點的集合,即n個三維空間點坐標及其二維投影位置,它們符合下面的成像關(guān)系。

      其中,(u、v)為成像平面的像素坐標,(X、Y、Z)為三維點的物理空間坐標,(fx、fy、cx、cy)為相機的焦距和中心坐標,稱為內(nèi)部參數(shù);剩余部分表示相機的旋轉(zhuǎn)和平移,稱為外部參數(shù),是我們要求解的部分。由于我們有很多的3D-2D點,所以可以建立多個上述的方程,然后采用優(yōu)化的方法就可以計算出外部參數(shù),即相機的位姿。

      在每一次定位的過程中,要根據(jù)一定的策略,增加新出現(xiàn)的三維點,剔除一些多次定位沒有被匹配上的特征點,來對三維點云進行更新,保證其反映場景最新的特征。

      3 基于圖書館服務平臺的嵌入視覺位姿結(jié)構(gòu)

      圖書館服務平臺如圖2所示,分為數(shù)據(jù)收集層、數(shù)據(jù)處理層、應用服務層、用戶交互層四個層次。視覺位姿計算程序部署在數(shù)據(jù)處理層,該層從數(shù)據(jù)收集層獲取圖書館內(nèi)各種帶攝像頭的設(shè)備捕獲的圖像視頻數(shù)據(jù)作為輸入,然后使用相關(guān)的位姿計算方法對這些數(shù)據(jù)進行處理,實時獲得對應設(shè)備的位置和姿態(tài)。這些位姿信息作為輸出,傳遞給應用服務層中的相關(guān)應用程序,結(jié)合圖書館的其他信息給智慧圖書館提供室內(nèi)導航、信息推送、機器人自主配送、增強現(xiàn)實、安全等服務。這些應用服務可以通過用戶交互層被圖書館中的人員和機器訪問。

      4 基于視覺的位姿計算技術(shù)的具體實現(xiàn)

      我們采用以下的具體方法來實現(xiàn)六自由度基于視覺的位姿計算方法。圖像特征點和描述子采用SIFT[6]方法。SIFT特征是最主流的圖像局部特征提取方法,具有尺度不變形和旋轉(zhuǎn)不變形的優(yōu)點,且對于光線、噪聲、微視角改變的容忍度也相當高,所以該特征高度顯著且容易提取,非常利于后續(xù)的圖像匹配步驟。SIFT特征點提取、描述子計算采用OpenCV的編程接口進行實現(xiàn),其相關(guān)代碼如下所示,變量keypoint和descriptor為使用OpenCV的SIFT編程接口從圖像image中提出的特征點和描述子。

      sift = cv2.xfeatures2d.SIFT_create( contrast

      Threshold = 0.04, edgeThreshold=10)

      keypoint, descriptor=sift.detectAndCompute

      (image,None)

      三維點云的產(chǎn)生采用了colmap[7-8]開源框架,該開源框架是基于structure-from-motion多視幾何方法對場景進行重建的。利用該框架的編程接口,輸入場景的圖像集合,可以得到場景的三維點云圖。在重建的點云圖中場景的很多重要物體可被很好地還原出來。在還原的過程中,需要建立圖像所引。

      圖像索引的建立采用VLAD[9]算法。該算法通過聚類方法得到若干聚類中心,隨后將所有特征與聚類中心的差值做累加,得到一個k行d列的矩陣,其中k是聚類中心個數(shù),d是特征維數(shù);最后將該矩陣擴展為一個(k*d)維的向量,歸一化得到最終的索引向量。我們采用VLADLib(https://github.com/jorjasso/VLAD)開源庫來實現(xiàn)VLAD索引向量的計算、存儲和檢索操作。圖像描述子匹配采用OpenCV暴力匹配方法。為了提高匹配的準確性、避免相似點之間的誤匹配,還可采用ratio test方法,即每次找到兩個最匹配的點,并且要求這兩組匹配之間的距離必須大于某個閾值。描述子匹配相關(guān)的代碼如下所示。

      bf = cv2.BFMatcher()

      matches = bf.knnMatch(des, des_q,k=2)

      #ratio test

      thre_ratio = 0.75

      good_matches = []

      for m,n in matches:

      if m.distance < thre_ratio*n.distance:

      good_matches.append([m])

      matches為應用OpenCV的BFMatcher方法得到的匹配集合,我們應用0.75的閾值,排除相近的匹配點后得到最終的匹配集合good_matches。

      從3D-2D映射集合中計算相機位姿采用Opencv的solvePNP方法[10]。由于3D-2D集合中可能會存在錯誤的匹配點,所以在計算位姿時,我們采用隨機一致性采樣Ransac方法[11],其基本思想為:反復選擇數(shù)據(jù)中的一組被假設(shè)為正確匹配的隨機子集,直到最小的投影誤差。Ransac方法最多可以處理50%的錯誤匹配點情況,其位姿計算的實現(xiàn)代碼如下所示。

      fx,fy,cx,cy = camera.params

      camera_matrix = np.array([[fx,0,cx],[0,fy,

      cy],[0,0,1]])

      result = cv2.solvePnPRansac(np.

      array(xyz),np.array(xy),camera_matrix,0)

      rvec = result[1]

      tvec = result[2]

      inlier_ratio =len(result[3])/len(xyz)

      其中,camera_matrix為相機的內(nèi)部參數(shù)矩陣,xyz為三維點集合,xy為對應的二維點集合。cv2.solvePnPRansac為OpenCV采用Ransac的solvePNP方法。得到的結(jié)果中:rvec為旋轉(zhuǎn)矩陣,tvec為三維位移坐標,inlier_ratio為正確的匹配點比例。

      5 基于視覺的位姿計算技術(shù)在西北工業(yè)大學圖書館的實現(xiàn)

      我們將上述六自由度的位姿計算系統(tǒng)部署在西北工業(yè)大學圖書館的服務器上,服務器配置為GTX1080ti的GPU、Ubuntu16.04的Linux系統(tǒng)。用戶通過手機或者終端攝像頭拍攝圖像上傳到服務器,服務器根據(jù)輸入圖像和基于場景的三維點云圖,利用上述位姿估計方法計算得到六自由度的位姿,再返回給終端進行顯示和后續(xù)處理。

      5.1 西北工業(yè)大學友誼校園大廳場景位姿計算實驗

      圖3為在西北工業(yè)大學友誼校區(qū)圖書館大廳場景下,基于視覺的位姿計算系統(tǒng)處理170幅圖像后得到的位姿示意圖。在圖3中,每一個四面體的位置都表示當前相機拍攝此圖像時的三維位移位置x、y、z,四面體的朝向則表示相機拍攝此圖像時的三個姿態(tài)信息,從圖3中可以看出,基于視覺的位姿計算系統(tǒng)還原了一條連續(xù)移動拍攝的位姿軌跡。

      為了評估基于視覺的位姿計算技術(shù)的精度和時間性能,我們使用帶激光雷達的ipad pro在圖書館大廳場景中的各個角度和位置收集了1000幅分辨率為1080p的圖像。以激光雷達得到的圖像位姿信息(毫米級的精度)作為真值,以單目攝像頭收集的1000幅圖像送入基于視覺的位姿計算系統(tǒng)進行處理后得到的位姿作為估計值,估計值和真值之間比較后的平均誤差如表1所示。

      其中,x、y、z為相機在坐標系中的三維位置,a、b、c為相機繞x、y、z三個坐標軸的旋轉(zhuǎn)角度??梢钥闯?,在圖書館大廳這個代表性場景下,相機位移的平均誤差在10厘米以內(nèi),旋轉(zhuǎn)角度的平均誤差在2度內(nèi),基本上滿足了六自由度定位定姿精度上的需求。

      我們進一步評估了服務器對這1000幅1080p分辨率圖像進行基于視覺的位姿計算的時間性能,其各個部分和綜合的平均耗時如表2所示。

      從表2中可以看出,整個過程中最耗時的操作為特征提取,即使在使用GPU的情況下,也需要30毫秒的時間。在圖書館大廳這個代表性場景下,基于視覺的位姿計算總平均耗時為50.5毫秒,約為20fps,基本上滿足了實時性的需求。

      5.2 在西北工業(yè)大學圖書館科普活動中的應用

      上文已經(jīng)陳述了基于視覺的位姿計算技術(shù)在西北工業(yè)大學圖書館技術(shù)部署的實驗,并且論證了整個方案的技術(shù)可行性,本節(jié)將探討基于視覺的位姿計算技術(shù)在西北工業(yè)大學圖書館開展科普活動的具體應用實例。

      5.2.1 探月科普活動

      為了慶祝嫦娥五號登月成功,西北工業(yè)大學圖書館使用基于視覺的位姿計算技術(shù)中的增強現(xiàn)實技術(shù),將和探月相關(guān)的虛擬信息實時渲染在西北工業(yè)大學長安校區(qū)圖書館大廳中,開展探月科普活動。工作人員提前將相關(guān)的虛擬物體布置在圖書館大廳中,和大廳的場景信息進行綁定。當讀者來到圖書館大廳打開手機、平板等設(shè)備的攝像頭采集場景圖像時,通過基于視覺的位姿計算技術(shù)即可獲取讀者設(shè)備的位置和姿態(tài),并根據(jù)位姿信息實時將提前布設(shè)好的虛擬物體信息渲染在讀者設(shè)備的屏幕上。在場景中分別展示了西北工業(yè)大學長安校區(qū)圖書館大廳中的嫦娥火箭發(fā)射前、發(fā)射中的場景以及太陽系等虛擬物體。這些虛擬物體栩栩如生,具備動態(tài)的細節(jié)效果,讀者還可以通過設(shè)備和其進行交互。這種使用基于視覺的位姿計算和增強現(xiàn)實技術(shù)的科普活動給讀者帶來全新的沉浸式的體驗,受到了廣泛的好評。此外,利用基于視覺的位姿計算和增強現(xiàn)實技術(shù)進行科普展示活動時不需要實物模型,只需要使用手機等設(shè)備對虛擬物體進行簡單的布設(shè)、移動和更新,極大地提高了布設(shè)的效率并節(jié)省了成本。圖4為探月科普活動相關(guān)的部分場景圖片。

      5.2.2 綠色地球科普活動

      探月科普活動起到了很好的宣傳作用,于是西北工業(yè)大學圖書館后續(xù)又使用相同的基于視覺的位姿計算和增強現(xiàn)實技術(shù)開展了“綠色地球”科普活動,將樹木布設(shè)在長安校區(qū)圖書館大廳,呼吁同學們一起保護綠色地球,相關(guān)的場景展示圖片如圖5所示。

      通過使用基于視覺的位姿計算和增強現(xiàn)實技術(shù),我們將幾乎無法通過實物模型來布設(shè)的樹木方便地布設(shè)到了圖書館大廳中,同時給學生真實而具有未來感的體驗,提高了圖書館普及知識的效率。

      參考文獻

      初景利,段美珍.智慧圖書館與智慧服務[J].圖書館建設(shè),2018(4):85-90,95.

      盧燚鑫.移動機器人視覺定位和路徑規(guī)劃若干問題研究[D].成都:西南交通大學,2019:56-63.

      呂科,施澤南,李一鵬.微型無人機視覺定位與環(huán)境建模研究[J].電子科技大學學報,2017,46(3):543-548.

      陳靖,王涌天,郭俊偉,等.基于特征識別的增強現(xiàn)實跟蹤定位算法[J].中國科學:信息科學,2010, 40(11):1437-1449.

      HARTLEY R,ZISSERMAN A.Multiple view geometry in computer vision[M].Cambridge university press,2003:36-51.

      CHEUNG W,GHASSAN H.N-SIFT:n-dimensionalscale invariant feature transform[C].IEEE Transactionson Image Processing,2009,18(9):2012-2021.

      SCH?NBERGER J L,JAN-MICHAEL F.Structure-from-motion revisited[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:4104-4113.

      SCH?NBERGER J L, ENLIANG Z, JAN-MICHAEL F, et al. Pixelwise view selection for unstructured multi-view stereo[C]. European Conference on Computer Vision,2016: 501-518.

      JéGOU H, MATTHIJS D,CORDELIA S,et al.Aggregating local descriptors into a compact image representation[C].IEEE computer society conference on computer vision and pattern recognition,2010: 3304-3311.

      VINCENT L, FRANCESC? M,PASCAL F,et al.Anaccurate o(n) solution to the pnp problem[J].Internationaljournal of computer vision,2009,81(2):155-166.

      DERPANIS K G.Overview of the RANSAC algorithm[M].Image Rochester NY,2010,4(1):2-3.

      猜你喜歡
      計算機視覺圖書館
      圖書館
      文苑(2019年20期)2019-11-16 08:52:12
      時間重疊的圖書館
      文苑(2018年17期)2018-11-09 01:29:40
      圖書館
      小太陽畫報(2018年1期)2018-05-14 17:19:25
      基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
      雙目攝像頭在識別物體大小方面的應用
      機器視覺技術(shù)發(fā)展及其工業(yè)應用
      危險氣體罐車液位計算機視覺監(jiān)控識別報警系統(tǒng)設(shè)計
      計算機視覺在交通領(lǐng)域的應用
      基于計算機視覺的細小顆粒團重量測量的研究
      飛躍圖書館
      宜兰县| 大渡口区| 宽甸| 轮台县| 如东县| 清涧县| 西青区| 区。| 化隆| 环江| 英吉沙县| 和静县| 广宁县| 浮梁县| 祁门县| 江都市| 尼木县| 庄浪县| 工布江达县| 澄城县| 云阳县| 京山县| 青阳县| 晋城| 尼勒克县| 菏泽市| 望奎县| 新竹市| 资溪县| 江阴市| 文安县| 咸阳市| 仙桃市| 宁明县| 贺兰县| 萍乡市| 剑河县| 铁岭市| 滦平县| 尼勒克县| 崇礼县|