May 20, 2022
La Selfie Cam de su teléfono inteligente puede ver mucho al capturar reflejos en sus alumnos

El uso de la biometría (mediciones de características fisiológicas para identificar a alguien) ha facilitado mucho las interacciones con nuestros dispositivos móviles al intercambiar códigos de acceso por escaneos faciales y lecturas de huellas dactilares. Pero, ¿existen otras formas en que nuestras interacciones físicas con los dispositivos puedan facilitar su uso? Investigadores en Japón creen que sí, mirando fijamente a los ojos de un usuario a través de una cámara para selfies.

Mañana marca el inicio de la Conferencia 2022 sobre factores humanos en sistemas informáticos (o CHI, para abreviar) en Nueva Orleans. El enfoque de la conferencia es reunir a investigadores que estudian nuevas formas en que los humanos interactúan con la tecnología. Eso incluye todo, desde controladores de realidad digital que pueden simular la sensación del pelaje de un animal digital, hasta avances en besos simulados de realidad digital, e incluso actualizaciones de pantalla táctil mediante el uso de protectores de pantalla irregulares.

Como parte de la conferencia, un grupo de investigadores de la Universidad de Keio, Yahoo Japón y la Universidad Tecnológica de Tokio está presentando una forma novedosa de detectar cómo un usuario sostiene un dispositivo móvil como un teléfono inteligente y luego adaptar automáticamente la interfaz de usuario a que sea más fácil de usar. Por ahora, la investigación se centra en seis formas diferentes en que un usuario puede sostener un dispositivo como un teléfono inteligente: con ambas manos, solo con la izquierda o solo con la derecha en modo vertical, y las mismas opciones en modo horizontal.

A medida que los teléfonos inteligentes han crecido en tamaño a lo largo de los años, usar uno solo se ha vuelto cada vez más difícil. Pero con una interfaz de usuario que se adapta en consecuencia, como la reubicación dinámica de los botones en los bordes izquierdo o derecho de la pantalla, o la reducción del tamaño del teclado y su alineación a la izquierda o la derecha, usar un teléfono inteligente con una sola mano puede ser mucho más fácil. El único problema es permitir que un teléfono inteligente sepa automáticamente cómo se sostiene y se usa, y eso es lo que este equipo de investigadores ha descubierto sin necesidad de ningún {hardware} adicional.

Con un nivel suficiente de brillo y resolución de pantalla, la cámara para selfies de un teléfono inteligente puede monitorear la cara de un usuario que mira fijamente la pantalla y usar un súper zoom estilo CSI para enfocar el reflejo de la pantalla en sus pupilas. Es una técnica que se ha utilizado en efectos visuales para calcular y recrear la iluminación alrededor de los actores en una toma filmada que se aumenta digitalmente. Pero en este caso, el reflejo de la pupila (tan granulado como es) se puede usar para descubrir cómo se sostiene un dispositivo analizando su forma y buscando las sombras y los puntos oscuros creados cuando los pulgares del usuario cubren la pantalla.

Se necesita cierta capacitación para el usuario closing, que en su mayoría implica tomar 12 fotos de ellos realizando cada postura de agarre para que el software program tenga un tamaño de muestra appreciable para trabajar, pero los investigadores descubrieron que pueden determinar con precisión cómo un el dispositivo se sostiene alrededor del 84% del tiempo. Eso mejorará potencialmente aún más como lo hacen la resolución y las capacidades de las cámaras frontales en los dispositivos móviles, pero eso también genera algunas señales de alerta sobre cuánta información se puede capturar de las pupilas de un usuario. ¿Podrían las aplicaciones nefastas usar la cámara selfie para capturar datos como un usuario que ingresa una contraseña a través de un teclado en pantalla o monitorear sus hábitos de navegación? Tal vez es hora de que todos volvamos a usar teléfonos más pequeños que son amigables con una sola mano y comencemos a bloquear las cámaras selfie con notas adhesivas también.