Тридцатисекундное видео показывает, как новорождённый младенец тихо дремлет в своей кроватке, и его грудь чуть заметно колышется, вторя первым человеческим вздохам. Но когда ролик обрабатывают с использованием специального алгоритма, усиливающего амплитуду движения и перемены цвета, лицо ребёнка начинает мигать малиновым оттенком при каждом сердцебиении. Способ усиления именуется Эйлеровым видеоусилением и является детищем учёных из Лаборатории информатики и искусственного интеллекта Массачусетского технологического института.
Система наводится на отдельные пиксели и кадр за кадром отслеживает малейшие изменения их цвета, усиливая их в сто раз — к примеру, обращает незаметное смещение в сторону розового в ярко-малиновый. В одном из предоставленных учёными роликов показан башенный кран: слева вы видите материал, не подвергавшийся обработке, который больше похож на фотографию, а справа — усиленное раскачивание строительной установки, способное, будучи реальным, угрожать жизням людей. Необходимо подчеркнуть, что на самом деле такого движения не происходит — это лишь зрительный эффект.
Впервые программа привлекла внимание широкой общественности прошлым летом, когда учёные представили её на ежегодной конференции по компьютерной графике Siggraph в Лос-Анджелесе. С тех пор алгоритм был улучшен в целях повышения качества обработки со значительным прогрессом в чёткости и точности. Студент докторантуры MIT и соавтор проекта Майкл Рубинштейн (Michael Rubinstein) сказал, что после первой презентации его команда получила огромное количество электронных писем с вопросами о применении созданного ей программного обеспечения в массе областей человеческой деятельности, от здравоохранения до распознавания лжи правоохранительными органами. Некоторые люди, по словам Рубинштейна, интересовались, каким образом алгоритм можно использовать в сочетании с Google Glass для получения данных об эмоциях игроков за карточным столом: «Люди хотели получить возможность анализировать оппонента во время игры в покер или блэкджек, узнавая, блефует ли он, по изменению частоты сердечных сокращений».
Самым важным без сомнений является то, что исследователи разместили код своей разработки в интернете, сделав его доступным для любого обитателя Сети. Разумеется, для запуска ПО необходимы определённые технические знания, поскольку его интерфейс не подвергался оптимизации для простых потребителей. Однако на прошлой неделе тайваньский производитель лэптопов Quanta Research Cambridge, финансирующий проект вместе с Национальным научным фондом США и Royal Dutch Shell, открыл для посетителей своего сайта возможность загружать клипы и прогонять их через программу MIT, получая искомый результат на выходе. Также команда работает над версией программного обеспечения для смартфонов. «Как только мы усиливаем эти маленькие движения, перед вашими глазами открывается целый новый мир. Я хочу, чтобы люди смотрели вокруг и видели, что происходит в этом мире крошечных движений», — говорит профессор Фриман. И благодаря карманным и нательным компьютерам его желание вскоре может исполниться.
Если Эйлерово видеоусиление можно будет использовать в потоковом режиме на потребительских гаджетах, то дополненная реальность такого рода действительно будет помогать (не говоря о развлечении) массе людей в самых разнообразных ситуациях. Масса областей применения открывает перед технологией серьёзные практические перспективы, которые будут расти в геометрической прогрессии с развитием AR-очков, вроде недавно запатентованной инкарнации Glass. В контексте также интересно было бы посмотреть, как функция усиления работает в сварочном шлеме Стива Манна.