Візуальна одометрія

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
Вектор оптичного потоку рухомого об'єкта у відеопослідовності.

У робототехніці і комп'ютерному баченні, візуальна одометрія — процес визначення позиції і орієнтації робота шляхом аналізу послідовних зображень отриманих за допомогою камери. Він використовується в багатьох застосуваннях робототехніки, наприклад ця техніка була використана для побудови марсоходу NASA.[1]

Огляд[ред. | ред. код]

У навігації, одометрія це процес використання даних про оточення і давачів руху для визначення змін позиції робота, для цього використовуються такі пристрої як давачі кута повороту для вимірювання обертів коліс. Хоча такий метод корисний для багатьох колісних або гусеничних транспортних засобів, традиційні методи одометрії не можна застосувати для портативних роботів[en] із нестандартними методами пересування, наприклад роботів, що рухаються завдяки ногам. Крім того, метод одометрії має проблеми з точністю, оскільки колеса можуть проковзувати і тим самим вносити похибку в оцінку пройденої відстані. Помилка збільшується коли транспортний засіб рухається по нерівним поверхням. Помилки мають тенденцію накопичуватись з плином часу.

Візуальна одометрія є процесом визначення подібної інформації для оцінки відстані переміщення на основі послідовних зображень отриманих з камери. Візуальна одометрія дозволяє підвищити точність навігаційних приладів у роботах або транспортних засобах, які використовують будь-який спосіб пересування відносно поверхні.

Алгоритм[ред. | ред. код]

Більшість з існуючих підходів у візуальній одометрії мають в основі наступні кроки.

  1. Маємо ряд вхідних зображень: відзнятих з використанням однієї камери,[2][3] стерео камери,[3][4] або всенаправленої камери.[5][6]
  2. Корекція зображень: застосовуються техніки обробки зображень для усунення спотворень об'єктива і т. д.
  3. Виявлення ознак: визначити оператори пошуку і знайти відповідності ознак по кадрам і побудувати поле оптичного потоку.
    1. Використовується кореляція для встановлення відповідності двох зображень, і не довгострокових відстежень ознак.
    2. Виділення ознак і кореляція.
    3. Побудова поля оптичного потоку (Метод Лукаса — Канаде).
  4. Перевірка векторів оптичного потоку на наявність потенційних помилок і видалення відхилень.[7]
  5. Визначення руху камери із оптичного потоку.[8][9][10][11]
    1. Варіант 1: Фільтр Калмана для оцінки розподілу.
    2. Варіант 2: віднайти геометричні і 3D властивості об'єктів, які мінімізують функцію втрат, що заснована на оцінці помилки повторної проєкції між двома сусідніми зображеннями. Це можна здійснити за допомогою математичної мінімізації або випадкового відбору.
  6. Періодична репопуляція точок шляху для підтримки відповідності шляху вздовж зображення.

Альтернативою до методу виділення ознак є «прямий» метод який мінімізує помилку напряму в просторі зображення без попереднього пошуку ознак і їх порівняння. [4][12] [13]

Інший метод, визначає площинні переміщення і повороти між зображеннями використовуючи метод фазової кореляції замість виділення ознак.[14][15]

Див. також[ред. | ред. код]

Примітки[ред. | ред. код]

  1. Maimone, M.; Cheng, Y.; Matthies, L. (2007). Two years of Visual Odometry on the Mars Exploration Rovers (PDF). Journal of Field Robotics. 24 (3): 169—186. doi:10.1002/rob.20184. Архів оригіналу (PDF) за 30 березня 2014. Процитовано 10 липня 2008.
  2. Chhaniyara, Savan; KASPAR ALTHOEFER ;LAKMAL D. SENEVIRATNE (2008). Visual Odometry Technique Using Circular Marker Identification For Motion Parameter Estimation. Advances in Mobile Robotics: Proceedings of the Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines, Coimbra, Portugal. The Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines. Т. 11. World Scientific, 2008. Архів оригіналу за 24 лютого 2012. Процитовано 3 березня 2015.
  3. а б Nister, D; Naroditsky, O.; Bergen, J (Jan 2004). Visual Odometry. Computer Vision and Pattern Recognition, 2004. CVPR 2004. Т. 1. с. I–652 - I--659 Vol.1. doi:10.1109/CVPR.2004.1315094.
  4. а б Comport, A.I.; Malis, E.; Rives, P. (2010). Guest Editors, F. Chaumette, P. Corke and P. Newman (ред.). Real-time Quadrifocal Visual Odometry. International Journal of Robotics Research, Special issue on Robot Vision. 29 (2-3): 245—266. doi:10.1177/0278364909356601.
  5. Scaramuzza, D.; Siegwart, R. (October 2008). Appearance-Guided Monocular Omnidirectional Visual Odometry for Outdoor Ground Vehicles. IEEE Transactions on Robotics: 1—12. Процитовано 20 жовтня 2008.
  6. Corke, P.; Strelow, D.; Singh, S. Omnidirectional visual odometry for a planetary rover. Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. Т. 4.
  7. Campbell, J.; Sukthankar, R.; Nourbakhsh, I.; Pittsburgh, I.R. Techniques for evaluating optical flow for visual odometry in extreme terrain. Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. Т. 4.
  8. Sunderhauf, N.; Konolige, K.; Lacroix, S.; Protzel, P. (2005). Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle (PDF). Levi, Schanz, Lafrenz, and Avrutin, editors, Tagungsband Autonome Mobile Systeme: 157—163. Архів оригіналу (PDF) за 11 лютого 2009. Процитовано 10 липня 2008.
  9. Konolige, K.; Agrawal, M.; Bolles, R.C.; Cowan, C.; Fischler, M.; Gerkey, B.P. (2006). Outdoor mapping and navigation using stereo vision (PDF). Proc. of the Intl. Symp. on Experimental Robotics (ISER). Процитовано 10 липня 2008.[недоступне посилання]
  10. Olson, C.F.; Matthies, L.;Schoppers, M.; Maimone, M.W. (2002). Rover navigation using stereo ego-motion (PDF). Robotics and Autonomous Systems. 43: 215—229. doi:10.1016/s0921-8890(03)00004-6. Архів оригіналу (PDF) за 3 березня 2016. Процитовано 6 червня 2010.
  11. Cheng, Y.; Maimone, M.W.; Matthies, L. (2006). Visual Odometry on the Mars Exploration Rovers (PDF). IEEE Robotics and Automation Magazine. 13 (2): 54—62. doi:10.1109/MRA.2006.1638016. Процитовано 10 липня 2008.
  12. Engel, Jakob; Schöps, Thomas; Cremers, Daniel (2014). European Converence on Computer Vision (ECCV) 2014 (PDF). Архів оригіналу (PDF) за 22 жовтня 2014. Процитовано 3 березня 2015. {{cite journal}}: Проігноровано |contribution= (довідка)
  13. Engel, Jakob; Sturm, Jürgen; Cremers, Daniel (2013). IEEE International Conference on Computer Vision (ICCV) (PDF). Архів оригіналу (PDF) за 20 травня 2014. Процитовано 3 березня 2015. {{cite journal}}: Проігноровано |contribution= (довідка)
  14. Zaman, M. (2007). High Precision Relative Localization Using a Single Camera. Robotics and Automation, 2007.(ICRA 2007). Proceedings. 2007 IEEE International Conference on.
  15. Zaman, M. (2007). High resolution relative localisation using two cameras. Journal of Robotics and Autonomous Systems (JRAS). Elsevier: 685—692.