基于全卷積神經(jīng)網(wǎng)絡的顯著性區(qū)域檢測研究.pdf_第1頁
已閱讀1頁,還剩68頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、數(shù)字圖像作為表達思想和傳遞情感的重要信息載體,其對應的圖像處理技術已廣泛應用于醫(yī)學工程、通信、軍事公安、航空航天等領域。然而,如何利用有限資源高效處理圖像數(shù)據(jù)是關鍵?;谝曈X的顯著性目標區(qū)域檢測能模擬人眼視覺系統(tǒng),預測視覺優(yōu)先關注區(qū)域,為后續(xù)任務提供有效預處理結果,提升任務處理效率。利用深度神經(jīng)網(wǎng)絡進行圖像顯著性區(qū)域檢測能避開任務前期顯式的特征提取及表述,在訓練網(wǎng)絡的過程中隱式學習顯著性區(qū)域特征,訓練完成的網(wǎng)絡具有泛化能力。
  

2、本文首先介紹了顯著性區(qū)域檢測的研究背景及發(fā)展現(xiàn)狀,闡述了視覺注意機制的基本概念、視覺注意的兩種模型,分析了顯著性區(qū)域檢測的基本理論。
  然后,提出了一種基于全卷積神經(jīng)網(wǎng)絡和圖優(yōu)化的顯著性區(qū)域檢測算法。該算法利用學習獲得的全卷積神經(jīng)網(wǎng)絡(FCNN)初步預測待處理圖像的顯著性區(qū)域,再在初步預測結果基礎上,利用圖的方法,加強相似區(qū)域間的聯(lián)系,優(yōu)化顯著性檢測結果。本方法在SOD和DUT數(shù)據(jù)庫上的客觀評價指數(shù)AUC值及F-Measure值

3、均較優(yōu),能更準確地提取顯著性區(qū)域。
  其次,提出了一種基于全卷積神經(jīng)網(wǎng)絡和多核學習的顯著性區(qū)域檢測算法。該算法利用全卷積神經(jīng)網(wǎng)絡的自主學習能力,挖掘數(shù)據(jù)庫中所有圖像顯著性區(qū)域的共通特性,再在初步檢測結果的基礎上,通過多核學習,挖掘圖像內(nèi)部特征之間的權衡性。本方法在SOD和DUT數(shù)據(jù)庫上的客觀評價指數(shù)AUC值及F-Measure值均較優(yōu),表明系統(tǒng)最終的顯著性輸出能準確捕獲到被處理圖像的顯著區(qū)域,在減少了主觀干預的同時能取得良好泛化

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論