- Google lanza innovadora tecnología facial que permite controlar aplicaciones y juegos con solo el movimiento de la cara
- Google lanza tecnología facial innovadora para controlar aplicaciones y juegos con solo el movimiento de la cara
- ¿Qué es Project Gameface?
- Funcionamiento de Project Gameface
- Accesibilidad para todos
Google lanza innovadora tecnología facial que permite controlar aplicaciones y juegos con solo el movimiento de la cara
En un avance tecnológico revolucionario, Google ha lanzado una innovadora tecnología facial que permite a los usuarios controlar aplicaciones y juegos solo con el movimiento de la cara. Esta tecnología, que se basa en el reconocimiento facial y el análisis de expresiones, permite una interacción más natural y intuitiva con los dispositivos electrónicos. Con esta innovadora herramienta, los usuarios podrán controlar aplicaciones y juegos con solo mover la cabeza, pestañear o hacer gestos faciales. Esta tecnología tiene un gran potencial para revolucionar la forma en que interactuamos con la tecnología y abre nuevas posibilidades para personas con discapacidades.
Google lanza tecnología facial innovadora para controlar aplicaciones y juegos con solo el movimiento de la cara
La conferencia de desarrolladores de Google celebrada el pasado 14 de mayo trajo consigo varias novedades en cuanto a dispositivos, software y hardware. Sin embargo, una de las innovaciones que más destaco fue Project Gameface, una tecnología que permite a los usuarios controlar aplicaciones móviles con la cara y las expresiones faciales.
¿Qué es Project Gameface?
Project Gameface es una herramienta de código abierto que permite a los usuarios controlar el cursor de un ordenador mediante el movimiento de la cabeza y diversas muecas. Esto significa que los individuos pueden controlar un juego levantando las cejas para clic, o abriendo la boca para mover el cursor.
Funcionamiento de Project Gameface
Para utilizar esta innovación, el interesado tendrá que usar la cámara frontal del dispositivo para que analice las expresiones faciales y movimientos de la cabeza, traduciendo estos gestos en un control intuitivo y personalizado. Además, podrá configurar su experiencia de uso, personalizando las expresiones faciales, el tamaño de los gestos o, incluso, la velocidad del cursor, entre otras opciones.
La API de detección de puntos de referencia faciales de Google es capaz de reconocer 52 gestos faciales, como levantar las cejas, abrir la boca o guiñar un ojo. Asimismo, Google ha utilizado estos gestos para mapear y controlar una amplia gama de funciones de Project Gameface.
Accesibilidad para todos
La integración de Project Gameface en Android ha permitido mejorar la accesibilidad en los dispositivos con el sistema operativo Android para aquellas personas con dificultades de movimiento o enfermedades como la distrofia muscular. De esta manera, Google ha demostrado su compromiso con la inclusión y la accesibilidad en la tecnología.
Además, Google ha abierto el código fuente de Project Gameface para que los desarrolladores puedan crear aplicaciones Android con este sistema de control, lo que permitirá una mayor adopción y personalización de esta tecnología innovadora.
Deja una respuesta