Microsoft está dando un paso audaz en la integración de la inteligencia artificial dentro de Windows 11: la compañía está experimentando con un sistema que permite que sus agentes de IA funcionen con una cuenta separada, aislada de la del usuario, para operar de forma autónoma sin interferir con lo que tú haces. Esta innovación se está probando ya entre miembros del programa Windows Insider.
¿Qué es el “Agent Workspace”?
Se trata de un espacio independiente dentro del sistema operativo, llamado Agent Workspace, donde los agentes de IA pueden “vivir” y ejecutar tareas en segundo plano. No es un simple servicio: cada agente tiene su propio escritorio, su propia sesión de Windows y una cuenta distinta a la tuya.
Gracias a este enfoque, los agentes pueden navegar por aplicaciones, hacer clic, escribir texto, interactuar con archivos y realizar tareas repetitivas sin usurpar tus recursos ni necesidad de intervención constante.
¿Qué puede hacer la IA en este entorno?
Según Microsoft, estos agentes pueden gestionar tareas como:
- Completar formularios.
- Buscar información dentro de programas instalados.
- Manipular archivos locales: mover, renombrar o editar documentos y otros ficheros.
Lo importante: todo esto sucede sin que la IA “tome el control” de tu teclado o mouse. En cambio, está todo dentro de esa sesión paralela.
Seguridad ante todo (al menos en papel)
¿Por qué tanto recelo y al mismo tiempo tanta ambición detrás de esta arquitectura? La clave está en la seguridad:
- Cuentas de agentes separadas
Cada agente trabaja bajo su propia identidad en Windows. Esto permite aplicar políticas específicas de seguridad solo para ellos, como si fueran “otros usuarios” del equipo. - Permisos controlados
De entrada, los agentes solo tienen acceso limitado a carpetas “known” o conocidas: Documentos, Descargas, Escritorio, Imágenes, Vídeos y similares. Cualquier permiso extra debe ser aprobado explícitamente por el administrador. - Visibilidad y auditoría
Las acciones de cada agente quedan registradas: Microsoft explica que habrá logs auditable para que puedas revisar lo que ha hecho esa IA, y podrás revocar permiso si algo te preocupa. - Requisitos técnicos de confianza
Para que un agente corra en este entorno debe estar firmado por una fuente confiable, lo que ayuda a prevenir que actores maliciosos usen agentes para hacer daño.
Problemas que ya han surgido
Dado que esta es una función experimental, no todo funciona de forma perfecta. Microsoft ha admitido algunos fallos:
- Algunos usuarios dicen que su PC no entra en modo suspensión cuando uno de estos agentes está activo en segundo plano.
- Al apagar el equipo, en ocasiones aparece una advertencia tipo “otra persona está usando el PC”: curiosamente, esa “otra persona” es el agente de IA ejecutándose en su cuenta separada.
- También hay preocupaciones sobre consumo de recursos: aunque Microsoft asegura que el workspace es “más ligero que una máquina virtual”, correr agentes constantemente en segundo plano podría usar RAM o CPU según su actividad.
- Existen riesgos de seguridad emergentes: especialistas han hablado de amenazas como “cross-prompt injection” (inyección cruzada de mensajes), en donde datos maliciosos en la interfaz podrían manipular a los agentes para que hagan acciones no deseadas.
¿Por qué Microsoft hace esto?
El objetivo es claro: que la IA sea verdaderamente útil, no solo como asistente pasivo, sino como un colaborador activo que puede encargarse de tareas tediosas mientras tú haces lo tuyo. Esta estrategia también se alinea con su visión de un Windows “agent-nativo”, más inteligente y proactivo.
Además, la empresa está construyendo mecanismos de control y transparencia, para que no pierdas visibilidad de lo que esos agentes están haciendo y puedas decidir cuándo permitirles más libertad.
Qué significa para los usuarios
Por ahora, solo usuarios del canal Windows Insider pueden experimentar con estas funciones. Microsoft ha dejado claro que vienen desactivadas por defecto, y deben activarse manualmente desde la configuración (Ajustes → Sistema → Componentes de IA → “Experimental Agentic Features”).
Para la mayoría de los usuarios, esto es un experimento interesante: si activas la función, podrías ganar productividad; pero también existe un riesgo, aunque mitigado, sobre privacidad y seguridad si algo sale mal.
¿Hacia dónde va todo esto?
Si la fase de pruebas continúa con éxito, podríamos ver una integración más amplia de agentes de IA en Windows, no solo con Copilot, sino con otras apps. Microsoft está fortaleciendo sus “pilares de seguridad”: permitir que cada agente tenga su propio acceso configurado y un registro de sus acciones.
Al mismo tiempo, expertos en ciberseguridad ya llaman la atención sobre la necesidad de seguir evaluando estos agentes: un sistema tan potente como este podría ser explotado si no se diseña con cuidado.