Камеры глубины — тихая революция (когда роботы будут видеть) Часть 1


\r\n
\r\n
\r\nНедавно я описывал, благодаря чему роботы завтра начнут НАМНОГО лучше соображать (пост про аппаратное ускорение нейросетей). Сегодня разберем, почему роботы скоро будут НАМНОГО лучше видеть. В ряде ситуаций намного лучше человека.
\r\n
\r\nРечь пойдет про камеры глубины, которые снимают видео, в каждом пикселе которого хранится не цвет, а расстояние до объекта в этой точке. Такие камеры существуют уже больше 20 лет, однако в последние годы скорость их развития выросла многократно и уже можно говорить про революцию. Причем многовекторную. Бурное развитие идет по следующим направлениям:
\r\n
    \r\n
  • Structured Light камеры, или камеры структурного света, когда есть проектор (часто инфракрасный) и камера, снимающая структурный свет проектора;
    \r\n
  • \r\n
  • Time of Flight камеры, или камеры, основанные на измерении задержки отраженного света;
    \r\n
  • \r\n
  • Depth from Stereo камеры — классическое и, пожалуй, наиболее известное направление построения глубины из стерео;
    \r\n
  • \r\n
  • Light Field Camera — они же камеры светового поля или пленоптические камеры, про которые был отдельный подробный пост;
    \r\n
  • \r\n
  • И, наконец, камеры, основанные на Lidar-технологиях, особенно свежие Solid State Lidars, которые работают без отказа примерно в 100 раз дольше обычных лидаров и выдают привычную прямоугольную картинку.
    \r\n
  • \r\n

\r\nКому интересно, как это будет выглядеть, а также сравнение разных подходов и их текущее и завтрашнее применение — добро пожаловать под кат!
Читать дальше →

Источник: RSS-лента https://habr.com/ru/post/457524/?utm_campaign=457524&utm_source=habrahabr&utm_medium=rss



0 комментариев

Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.