Согласно двум патентным заявкам, опубликованным в четверг, Apple исследует возможности применения дополненной реальности в iOS, чтобы обеспечить пользователей данными об их окружении, включающими местоположения коммерческих объектов, и специальным режимом, который позволяет смотреть сквозь стены.
Компания подала в американское патентное ведомство две заявки под названиями «Интегрированное позиционирование мобильного устройства» и «Совмещение действительной позиции мобильного устройства с моделью окружающего пространства» («Federated mobile device positioning» и «Registration between actual mobile device position and environmental model»), в которых описала передовое решение дополненной реальности, использующее камеру iPhone, встроенные в гаджет датчики и мобильную связь для просмотра окружения с наложенной информацией из Сети в реальном времени.
В первом проекте данные с GPS, Wi-Fi, датчиков и из других каналов используются для определения местоположения пользователя. Определившись, приложение загружает трёхмерную модель окрестностей вместе с очертаниями и графикой ближайших зданий и достопримечательностей. Однако точное совмещение графики и реальности всё ещё остаётся нерешённой задачей. Именно поэтому в процессе задействована камера, снимающая потоковое видео и помогающая распознать окружение. Получающейся трёхмерной картинкой можно манипулировать при помощи простых жестов, чтобы самостоятельно довести уровень точности до предела. Кроме того поьзователи могут давать виртуальные команды, вроде «влево» и «вправо», чтобы совмещать изображение с реальностью без рук и фиксировать его в нужной позиции (возможно, предполагается работа такой системы в автомобиле).
В ещё одном сценарии пользователь может взаимодействовать непосредственно с моделями, но не с помощью сенсорного экрана, а жестами перед камерой, которая считывает происходящее и подстраивает виртуальную среду по командам. Это требует технологии распознавания объектов, над доведением которой до ума работают многие компании на рынке дополненной реальности, тогда как о ведении разработок необходимых алгоритмов в самой Apple нам ничего не известно.
Также из заявки следует, что система способна не только подстраиваться по команде, но и компенсировать движения снимаемых объектов, чтобы модель точно соответствовала окружению. А после калибровки софт покажет вам различные полезные данные: к примеру, владелец iPhone, путешествуя по незнакомым местам, в дополненной реальности сможет узнавать номера зданий и направления дорог, получать информацию о близлежащих компаниях и даже убирать стены домов, чтобы осмотреть их изнутри.
Функция «рентгеновского зрения» не была подробно описана в документах, кроме замечания, согласно которому данные о внутреннем строении зданий должны храниться на сторонних серверах.
Наконец, Apple упомянула облачную калибровку для автоматизированного каркасного позиционирования, а также позиционирования на основе маркеров, которые используют уникальные характеристики или паттерны реальных объектов для более точного наложения компьютерной модели.
Нет никаких доказательств того, что купертинцы встроят описанные функции в iOS 8 или её более поздние релизы. Хотя о разработках Apple в области дополненной реальности мы слышим не в первый раз.
По материалам Appleinsider