Візуальна одометрія

У робототехніці і комп'ютерному баченні, візуальна одометрія — процес визначення позиції і орієнтації робота шляхом аналізу послідовних зображень отриманих за допомогою камери. Він використовується в багатьох застосуваннях робототехніки, наприклад ця техніка була використана для побудови марсоходу NASA.[1]

ОглядРедагувати

У навігації, одометрія це процес використання даних про оточення і давачів руху для визначення змін позиції робота, для цього використовуються такі пристрої як давачі кута повороту для вимірювання обертів коліс. Хоча такий метод корисний для багатьох колісних або гусеничних транспортних засобів, традиційні методи одометрії не можна застосувати для портативних роботів[en] із нестандартними методами пересування, наприклад роботів, що рухаються завдяки ногам. Крім того, метод одометрії має проблеми з точністю, оскільки колеса можуть проковзувати і тим самим вносити похибку в оцінку пройденої відстані. Помилка збільшується коли транспортний засіб рухається по нерівним поверхням. Помилки мають тенденцію накопичуватись з плином часу.

Візуальна одометрія є процесом визначення подібної інформації для оцінки відстані переміщення на основі послідовних зображень отриманих з камери. Візуальна одометрія дозволяє підвищити точність навігаційних приладів у роботах або транспортних засобах, які використовують будь-який спосіб пересування відносно поверхні.

АлгоритмРедагувати

Більшість з існуючих підходів у візуальній одометрії мають в основі наступні кроки.

  1. Маємо ряд вхідних зображень: відзнятих з використанням однієї камери,[2][3] стерео камери,[3][4] або всенаправленої камери.[5][6]
  2. Корекція зображень: застосовуються техніки обробки зображень для усунення спотворень об'єктива і т. д.
  3. Виявлення ознак: визначити оператори пошуку і знайти відповідності ознак по кадрам і побудувати поле оптичного потоку.
    1. Використовується кореляція для встановлення відповідності двох зображень, і не довгострокових відстежень ознак.
    2. Виділення ознак і кореляція.
    3. Побудова поля оптичного потоку (Метод Лукаса — Канаде).
  4. Перевірка векторів оптичного потоку на наявність потенційних помилок і видалення відхилень.[7]
  5. Визначення руху камери із оптичного потоку.[8][9][10][11]
    1. Варіант 1: Фільтр Калмана для оцінки розподілу.
    2. Варіант 2: віднайти геометричні і 3D властивості об'єктів, які мінімізують функцію втрат, що заснована на оцінці помилки повторної проекції між двома сусідніми зображеннями. Це можна здійснити за допомогою математичної мінімізації або випадкового відбору.
  6. Періодична репопуляція точок шляху для підтримки відповідності шляху вздовж зображення.

Альтернативою до методу виділення ознак є «прямий» метод який мінімізує помилку напряму в просторі зображення без попереднього пошуку ознак і їх порівняння. [4][12][13]

Інший метод, визначає площинні переміщення і повороти між зображеннями використовуючи метод фазової кореляції замість виділення ознак.[14][15]

Див. такожРедагувати

ПриміткиРедагувати

  1. Maimone, M.; Cheng, Y.; Matthies, L. (2007). Two years of Visual Odometry on the Mars Exploration Rovers. Journal of Field Robotics 24 (3): 169–186. doi:10.1002/rob.20184. Процитовано 2008-07-10. 
  2. Chhaniyara, Savan; KASPAR ALTHOEFER ;LAKMAL D. SENEVIRATNE (2008). Visual Odometry Technique Using Circular Marker Identification For Motion Parameter Estimation. Advances in Mobile Robotics: Proceedings of the Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines, Coimbra, Portugal The Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines 11. World Scientific, 2008. 
  3. а б Nister, D; Naroditsky, O.; Bergen, J (Jan 2004). Visual Odometry Computer Vision and Pattern Recognition, 2004. CVPR 2004. 1. с. I–652 – I––659 Vol.1. doi:10.1109/CVPR.2004.1315094. 
  4. а б Comport, A.I.; Malis, E.; Rives, P. (2010). Real-time Quadrifocal Visual Odometry. У Guest Editors, F. Chaumette, P. Corke and P. Newman. International Journal of Robotics Research, Special issue on Robot Vision 29 (2-3): 245–266. doi:10.1177/0278364909356601. 
  5. Scaramuzza, D.; Siegwart, R. (October 2008). Appearance-Guided Monocular Omnidirectional Visual Odometry for Outdoor Ground Vehicles. IEEE Transactions on Robotics: 1–12. Процитовано 2008-10-20. 
  6. Corke, P.; Strelow, D.; Singh, S. Omnidirectional visual odometry for a planetary rover. Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on 4. 
  7. Campbell, J.; Sukthankar, R.; Nourbakhsh, I.; Pittsburgh, I.R. Techniques for evaluating optical flow for visual odometry in extreme terrain. Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on 4. 
  8. Sunderhauf, N.; Konolige, K.; Lacroix, S.; Protzel, P. (2005). Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle. Levi, Schanz, Lafrenz, and Avrutin, editors, Tagungsband Autonome Mobile Systeme: 157–163. Архів оригіналу за 2009-02-11. Процитовано 2008-07-10. 
  9. Konolige, K.; Agrawal, M.; Bolles, R.C.; Cowan, C.; Fischler, M.; Gerkey, B.P. (2006). Outdoor mapping and navigation using stereo vision. Proc. of the Intl. Symp. on Experimental Robotics (ISER). Процитовано 2008-07-10. 
  10. Olson, C.F.; Matthies, L.;Schoppers, M.; Maimone, M.W. (2002). Rover navigation using stereo ego-motion. Robotics and Autonomous Systems 43: 215–229. doi:10.1016/s0921-8890(03)00004-6. Процитовано 2010-06-06. 
  11. Cheng, Y.; Maimone, M.W.; Matthies, L. (2006). Visual Odometry on the Mars Exploration Rovers. IEEE Robotics and Automation Magazine 13 (2): 54–62. doi:10.1109/MRA.2006.1638016. Процитовано 2008-07-10. 
  12. Engel, Jakob; Schöps, Thomas; Cremers, Daniel (2014). LSD-SLAM: Large-Scale Direct Monocular SLAM (PDF). European Converence on Computer Vision (ECCV) 2014. 
  13. Engel, Jakob; Sturm, Jürgen; Cremers, Daniel (2013). Semi-Dense Visual Odometry for a Monocular Camera (PDF). IEEE International Conference on Computer Vision (ICCV). 
  14. Zaman, M. (2007). High Precision Relative Localization Using a Single Camera. Robotics and Automation, 2007.(ICRA 2007). Proceedings. 2007 IEEE International Conference on. 
  15. Zaman, M. (2007). High resolution relative localisation using two cameras. Journal of Robotics and Autonomous Systems (JRAS) (Elsevier): 685–692.