Notas
La IA es capaz de analizar la pantalla, interactuar con aplicaciones y activar funciones en dispositivos Android
8 de febrero de 2026
Google avanza hacia un futuro donde los usuarios dejarán de controlar directamente sus teléfonos móviles desde la pantalla, delegando esa función a su sistema de inteligencia artificial, Gemini.
Esta apuesta representa un cambio radical en la forma en que se interactúa con los dispositivos Android, abriendo la puerta a una nueva era de automatización en la que las acciones cotidianas dejarán de depender de la intervención manual.
Según lo demostrado en Project Astra, Gemini no solo es capaz de leer la información que se muestra en pantalla, sino que también puede desplazarse por interfaces, identificar y seleccionar opciones, y confirmar acciones de forma autónoma.
El funcionamiento previsto de screen automation se apoya en la capacidad de Gemini para analizar, comprender y ejecutar instrucciones dentro de diferentes apps. Por ejemplo, el usuario podrá pedirle a la IA que compre un producto en línea o reserve un viaje.La inteligencia artificial analizará la pantalla, detectará los elementos necesarios y procederá a realizar los pasos requeridos, desde el inicio del proceso hasta la confirmación final, sin que el usuario deba tocar la pantalla.
Los primeros indicios encontrados en el código de la versión beta de la aplicación de Google para Android sugieren que, aunque las funciones iniciales sean limitadas, el potencial de expansión es considerable. A futuro, Gemini podría gestionar desde el seguimiento de compras y pedidos hasta la organización de actividades personales, todo ello a través de una interfaz conversacional y proactiva.
La integración de screen automation en Android también trae consigo novedades en la interfaz de usuario. Se han detectado nuevas secciones, como "Purchases" (Compras) y "My orders" (Mis pedidos), dentro del área de gestión de cuentas y en la propia app de Gemini.
Aunque estas opciones aún no están operativas, anticipan la posibilidad de que los usuarios puedan consultar y gestionar órdenes directamente desde un panel centralizado, facilitando el seguimiento y la administración de las actividades realizadas por la inteligencia artificial.
La autonomía de Gemini, sin embargo, no significa que el usuario pierda el control sobre su dispositivo. El propio código de la aplicación de Google incorpora advertencias claras: el usuario debe supervisar siempre las acciones realizadas por Gemini.
Aunque la IA está diseñada para minimizar la intervención humana, Google recalca que pueden producirse errores y que la responsabilidad última por cualquier acción ejecutada recae en el usuario. En todo momento, este podrá retomar el control manualmente si lo considera necesario.
Un aspecto relevante que surge de las cadenas de código encontradas es la preocupación por la privacidad y la seguridad de la información. Si el usuario habilita la función de mantener la actividad ("Keep Activity"), revisores entrenados podrán ver capturas de pantalla del dispositivo para garantizar el buen funcionamiento del sistema.
Por esta razón, se recomienda no ingresar información sensible o datos de pago mientras la automatización está activa, aunque no está claro si la IA podrá detectar automáticamente estos casos y pausar su intervención, o si dependerá del usuario desactivarla manualmente.
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.