Merken

Geometrically constrained sub-pixel disparity estimation from stereo images of the retinal fundus

Zitierlink des Filmsegments
Embed Code

Für dieses Video liegen keine automatischen Analyseergebnisse vor.

Analyseergebnisse werden nur für Videos aus Technik, Architektur, Chemie, Informatik, Mathematik und Physik erstellt, bei denen dies rechtlich zulässig ist.

Metadaten

Formale Metadaten

Titel Geometrically constrained sub-pixel disparity estimation from stereo images of the retinal fundus
Alternativer Titel Light field modulation using a double-lenticular liquid crystal panel
Serientitel Stereoscopic Displays and Applications XXVII (SD&A 2016)
Teil 23
Anzahl der Teile 31
Autor Kharboutly, Mohamad
Vazquez, Carlos
Coulombe, Stéphane
Guise, De Jacques
Lizenz CC-Namensnennung - keine Bearbeitung 2.0 UK: England & Wales:
Sie dürfen das Werk in unveränderter Form zu jedem legalen Zweck nutzen, vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.
DOI 10.5446/32243
Herausgeber IS&T Electronic Imaging (EI) Symposium
Erscheinungsjahr 2016
Sprache Englisch

Inhaltliche Metadaten

Fachgebiet Informatik
Abstract The aim of this study is to help ophthalmologists and opticians during the diagnostic process of the retinal fundus. We propose a computer-vision-based solution that allows, from stereo images, the extraction of clinical parameters and/or the generation of multi-viewpoint images of the retinal fundus. This goal can be achieved by estimating the disparity map of the stereo images. For more precise clinical parameter extraction, a sub-pixel approach could be used. Additionally, the a priori knowledge of the fundus geometric shape provides useful information for the disparity map estimation process. In this paper we propose a sub-pixel disparity estimation algorithms that takes into consideration the geometric shape of the retinal fundus. Different stereo images, with known and unknown ground truth, are used to compare the proposed algorithms to state-of-the-art algorithms and to demonstrate the efficiency of our proposed method. © 2016, Society for Imaging Science and Technology (IS&T).

Ähnliche Filme

Loading...