Видео: учёные MIT показывают мир невидимых движений

Тридцатисекундное видео показывает, как новорождённый младенец тихо дремлет в своей кроватке, и его грудь чуть заметно колышется, ...

Тридцатисекундное видео показывает, как новорождённый младенец тихо дремлет в своей кроватке, и его грудь чуть заметно колышется, вторя первым человеческим вздохам. Но когда ролик обрабатывают с использованием специального алгоритма, усиливающего амплитуду движения и перемены цвета, лицо ребёнка начинает мигать малиновым оттенком при каждом сердцебиении. Способ усиления именуется Эйлеровым видеоусилением и является детищем учёных из Лаборатории информатики и искусственного интеллекта Массачусетского технологического института.

Изначально команда работала над методом бесконтактного мониторинга новорождённых. Однако исследователи быстро поняли, что полученный алгоритм может быть применён к другим видеоданным для выявления изменений, незаметных невооружённому глазу. Руководитель группы профессор Уилльям Т. Фриман (William T. Freeman) предполагает его использование в поисково-спасательных операциях, чтобы спасатели могли на расстоянии измерять жизненные показатели жертв катастроф, кроме того применение такой системе можно найти в самых разных областях, включая такие важные, как машиностроение и добыча полезных ископаемых: инженер на производстве может снять на видео любую установку и усилить видимую амплитуду движения её деталей или крепежей, чтобы выявить возможность срыва.

Система наводится на отдельные пиксели и кадр за кадром отслеживает малейшие изменения их цвета, усиливая их в сто раз — к примеру, обращает незаметное смещение в сторону розового в ярко-малиновый. В одном из предоставленных учёными роликов показан башенный кран: слева вы видите материал, не подвергавшийся обработке, который больше похож на фотографию, а справа — усиленное раскачивание строительной установки, способное, будучи реальным, угрожать жизням людей. Необходимо подчеркнуть, что на самом деле такого движения не происходит — это лишь зрительный эффект.

Впервые программа привлекла внимание широкой общественности прошлым летом, когда учёные представили её на ежегодной конференции по компьютерной графике Siggraph в Лос-Анджелесе. С тех пор алгоритм был улучшен в целях повышения качества обработки со значительным прогрессом в чёткости и точности. Студент докторантуры MIT и соавтор проекта Майкл Рубинштейн (Michael Rubinstein) сказал, что после первой презентации его команда получила огромное количество электронных писем с вопросами о применении созданного ей программного обеспечения в массе областей человеческой деятельности, от здравоохранения до распознавания лжи правоохранительными органами. Некоторые люди, по словам Рубинштейна, интересовались, каким образом алгоритм можно использовать в сочетании с Google Glass для получения данных об эмоциях игроков за карточным столом: «Люди хотели получить возможность анализировать оппонента во время игры в покер или блэкджек, узнавая, блефует ли он, по изменению частоты сердечных сокращений».

Самым важным без сомнений является то, что исследователи разместили код своей разработки в интернете, сделав его доступным для любого обитателя Сети. Разумеется, для запуска ПО необходимы определённые технические знания, поскольку его интерфейс не подвергался оптимизации для простых потребителей. Однако на прошлой неделе тайваньский производитель лэптопов Quanta Research Cambridge, финансирующий проект вместе с Национальным научным фондом США и Royal Dutch Shell, открыл для посетителей своего сайта возможность загружать клипы и прогонять их через программу MIT, получая искомый результат на выходе. Также команда работает над версией программного обеспечения для смартфонов. «Как только мы усиливаем эти маленькие движения, перед вашими глазами открывается целый новый мир. Я хочу, чтобы люди смотрели вокруг и видели, что происходит в этом мире крошечных движений», — говорит профессор Фриман. И благодаря карманным и нательным компьютерам его желание вскоре может исполниться.

Если Эйлерово видеоусиление можно будет использовать в потоковом режиме на потребительских гаджетах, то дополненная реальность такого рода действительно будет помогать (не говоря о развлечении) массе людей в самых разнообразных ситуациях. Масса областей применения открывает перед технологией серьёзные практические перспективы, которые будут расти в геометрической прогрессии с развитием AR-очков, вроде недавно запатентованной инкарнации Glass. В контексте также интересно было бы посмотреть, как функция усиления работает в сварочном шлеме Стива Манна.

По материалам New York Times, MIT и Quanta Research Cambridge

Categories
Новости

RELATED BY

  • AR/VR конференция и хакатон AVRA MINSK DAYS

    Минск на 3 дня станет центром AR/VR-технологий, объединив лучших экспертов и профессионалов отрасли. AVRA MINSK DAYS подарит сотням разработчиков, предпринимателей, маркетологов, инвесторов и всем интересующимся уникальную атмосферу для приобщения...
  • Цифровая конференция «Experiential Technology Conference & Expo 2017»

    «Experiential Technology Conference & Expo 2017» — это цифровая конференция, главной задачей которой является показать, как новые цифровые технологии влияют на здравоохранение, образование, культуру, спорт, развлечения и многие другие области, создавая...
  • «Как зарабатывать на дополненной и виртуальной реальности?» — репортаж VRToday №5

    Как будет развиваться рынок виртуальных технологий в российских реалиях? Возможно ли заработать на AR/VR проектах? Какие тренды ждут нас в новом году? Ответе на эти и многие другие вопросы можно...
  • Хакатон NEUROMEDIA

    Хакатон NEUROMEDIA — зрелищный коктейль науки технологий и творчества, от создателей фестиваля ВКонтакте и хакатонов Neurohack. Самый яркий и необычный meet’up от ILoveHack (Science Guide). Встреча, на которой произойдет открытый...