Creo que esto es factible siempre que la cámara del teléfono apunte a la cabeza del usuario. Sin embargo, probablemente requerirá una luz bastante buena para que la imagen sea lo suficientemente nítida como para poder reconocer correctamente la cara y los ojos.
Cuando el usuario no está mirando directamente a la cámara, es probable que necesite hacer algún tipo de "reconocimiento de cabeza" y determinar la orientación de la cabeza del usuario. Esto te daría una dirección aproximada sobre dónde están buscando.
No conozco ningún proyecto relacionado con el reconocimiento de rostros para iOS, pero probablemente podría buscar en Google y encontrar algún proyecto existente en otro idioma y portarlo a iOS con un poco de esfuerzo.
Como nota al margen, hay un proyecto de bricolaje para la pieza head orientation tracking para PC. Utiliza luces infrarrojas colocadas, por ejemplo, en sus auriculares y una cámara que determina la orientación de su cabeza en función de eso. Quizás te dará algunas ideas.
¿Está hablando de seguimiento de ojos como en "saber dónde está mirando el usuario"? ¿O estás hablando del reconocimiento del iris? – Jochem
Estoy hablando de saber dónde mira el usuario en la pantalla (o fuera de la pantalla, para el caso). –
Entonces no consigo la etiqueta de reconocimiento facial, tampoco creo que la privacidad sea un problema. Tengo poco conocimiento del seguimiento ocular, pero creo que sería un dolor: tamaño de pantalla pequeña y variabilidad de todo (distancias y ángulos de ojos, pantalla y cabeza). – Jochem