Apple ha presentado DockKit, una nueva interfaz de programación de aplicaciones (API) disponible en la versión beta de iOS 17 que integra aplicaciones de cámara con soportes motorizados compatibles con iPhone, ofreciendo nuevas posibilidades de grabación, así como funciones de seguimiento a sujetos en vivo, con un campo de visión de 360 grados.
Esta nueva API fue presentada por primera vez en uno de los eventos para desarrolladores enmarcados en WWDC 2023, y es capaz de interactuar con soportes articulados para llevar a cabo funciones como rastrear la ubicación de rostros y cuerpos humanos que aparezcan en el encuadre de la cámara.
Tal y como explica Apple a través de su web para desarrolladores, la API DockKit interactúa con soportes motorizados para iPhone para rastrear automáticamente sujetos en vídeo en vivo a través de un campo de visión de 360 grados.
La API permite a los usuarios situarse frente a la cámara y tomar el control del soporte para personalizar el encuadre a través de gestos o movimientos, controlar directamente los motores del soporte y proporcionar su propio modelo de inferencia para rastrear otros objetos.
Básicamente, DockKit integra monturas motorizadas en el sistema para que las aplicaciones de cámara sean capaces de registrar movimientos de sujetos y, en base a ellos, controlar los desplazamiento de la montura.
Asimismo, esta característica ofrece, entre otras cosas, múltiples posibilidades de grabación y fotografía para el iPhone con movimientos dinámicos del dispositivo, según ha desarrollado Apple. Por ejemplo, permite grabar un vídeo y que la cámara siga al usuario moviéndose por una sala.
No obstante, tal y como detalla la tecnológica, DockKit permite deshabilitar el seguimiento automático del sistema e implementar unas pautas de seguimiento propias a través del marco Vision que utiliza algoritmos y aprendizaje automático para detectar puntos de referencia como rostros, texto y objetos.
De esta forma, en vez de seguir a un ser humano se puede configurar para seguir la ubicación de un objeto personalizado, una mascota o seguir los gestos de las manos del usuario únicamente.
Por el momento esta API se encuentra en fase beta y es compatible con la versión beta de iOS 17, así como para las versiones beta de iPad OS 17 y Mac Catalizador 17.
ANIMAL BODY POSE
Una de las posibilidades que ofrece la API DockKit es el seguimiento de animales desde el iPhone y, para ello, se ha de utilizar a su vez la nueva API Animal Body Pose desarrollada por el equipo de Vision, que es capaz de identificar y rastrear a animales a través de la cámara.
Según informa Apple, con ambas API se puede utilizar el iPhone para hacer un seguimiento de mascotas cuando el usuario no está en casa y así conocer qué están haciendo.
Esto es gracias a que Animal Body Pose es capaz de registrar las ubicaciones de las articulaciones del cuerpo de los animales, aunque, por el momento, solo funciona con gatos y perros. Así, puede detectar hasta 25 puntos de referencias corporales de animales que incluyen la cola y las orejas.
La API Animal Body Pose está disponible en Vision a partir de las versiones beta de iOS 17, iPadOS 17, tvOS 17 y macOS Sonoma.
You must be logged in to post a comment Login