Agencia

Miradas

¿Qué es?

Agencia es un término filosófico para hacer referencia a la manifestación de la capacidad de una entidad (alguien o algo) para tomar una decisión y actuar. Una piedra es inerte y por tanto no tiene capacidad de actuar, de manera que no tiene agencia. Puedo tomar esa piedra y lanzarla a la casa de Lev Manovich, y romperle una ventana. Por lo tanto, tengo agencia, aunque en este caso la use de manera muy pobre.

¿Por qué usar un término tan abstracto en teoría del diseño? Debido a la revolución de las tecnologías digitales, se ha creado un nuevo tipo de dispositivos capaces de llevar a cabo acciones por sí mismos que no son comparables a los tipos de criaturas que normalmente se suponen capaces de tomar decisiones y actuar, básicamente humanos. Así, un bot que reenvía noticias en Twitter en función de una serie de parámetros programados tiene agencia, aunque a escala biológica no sea muy diferente de la piedra que se comentaba antes.

Es importante destacar que se habla de la manifestación de la capacidad de actuar y no meramente de la capacidad de actuar. Es decir, si alguien o algo tiene la capacidad de actuar, pero no la manifiestan en ningún momento, no se dirá que tenga agencia. Por ejemplo, si se programa un bot en Twitter para reenviar noticias sobre el cambio climático siguiendo una serie de parámetros, pero ese bot no está conectado a Internet y siempre está ahí, durmiendo en un disco duro, no se dirá que ese bot tiene agencia. Para tener agencia hay que manifestarse, llevando a cabo algún tipo de acción.

Para que haya agencia, es importante también que se tome una decisión. Es decir, el sistema con agencia debe poder recoger información sobre el mundo exterior, analizarla, tomar una decisión y llevar a cabo la acción asociada a esa decisión. Si la acción es un mero resultado de un proceso mecánico no se puede hablar de agencia.

Pongamos un ejemplo sencillo: imaginemos una montaña nevada en invierno y, en la cima, un árbol solitario. Cae una rama que provoca que una serie de piedras se deslicen por la ladera. Ese movimiento genera un alud y la nieve empieza a caer descontroladamente. Lev Manovich estaba esquiando por allí, ve venir la nieve y acelera hasta ponerse a salvo bajo una cornisa.

En la primera parte del evento, la rama que cae, no se habla de agencia, aunque se haya generado una acción, el alud, pues todo el proceso ha sido puramente mecánico. Ni las ramas, ni las piedras ni la nieve han tomado una decisión. Por el contrario, cuando Manovich decide resguardarse bajo una cornisa, aquí si se puede hablar de agencia, pues toma una decisión a partir de la información que obtiene con su sentido de la visión.

Imaginad ahora que Manovich tiene una aplicación en su móvil que es capaz de detectar aludes a partir de un análisis del sonido que le rodea. Como antes, Manovich esquía pero está ausente de lo que le rodea, pensando en su próximo libro. Cuando las piedras empiezan a rodar y afectan la nieve, la app detecta así una sutil indicación sónica y vibra para advertirle, sale de su ensoñación y se desliza hasta la cornisa. En este caso, se diría que la app tiene agencia, aunque no disponga de consciencia, claramente, porque es capaz de analizar información, tomar una decisión y llevar a cabo una acción.

Formas de aplicación

Una teoría o modelo sobre la agencia puede aplicarse básicamente de dos modos. Por un lado, tenemos modelos que explican los grados y la capacidad de agencia de diferentes sujetos en un sistema. Estos modelos se desarrollan desde la sociología, la antropología, la psicología y la administración de empresas. A este tipo de desarrollos se los conoce normalmente como teoría de la agencia.

Por otro, tenemos la cuestión de cómo dotar de agencia un sistema artificial. Esta es una tarea que se lleva a cabo desde la informática y, especialmente, la inteligencia artificial (IA). La investigación sobre estos temas se agrupa bajo el término genérico de agencia en IA.

La teoría de la agencia se puede aplicar así a organizaciones, analizando la agencia de los diferentes integrantes, estudiando de qué modo un agente determinado recibe órdenes o puede darlas, delegando su responsabilidad en otros agentes. Se intenta así localizar posibles problemas y dónde un sistema puede mejorarse.

En general, siempre que tengamos una red de agentes interconectados entre sí podemos desarrollar una teoría de la agencia, es decir, un modelo que nos permita establecer de qué manera la agencia se distribuye en la red. Así, no hace falta limitarnos a organizaciones empresariales, aunque ese sea el espacio más típico en el que se aplica la teoría de la agencia. Pero podemos tener una teoría de la agencia de un grupo de software libre desarrollando un editor de texto para Linux, un equipo de fútbol, un batallón de marines o el tránsito de entrada y salida de automóviles en una ciudad grande.

Algunas teorías incluyen solo agentes humanos, otros modelos incluyen también artefactos con agencia, que informan. Así lo hacen, por ejemplo, las teorías de la agencia basadas en el concepto de cognición distribuida. Pensemos en un avión comercial de transporte de pasajeros. Si queremos entender con propiedad las interacciones que se crean durante el proceso de vuelo, será importante sin duda incluir piloto, copiloto y controlador aéreo, pero también habremos de incluir los diversos dispositivos que informan a piloto y copiloto sobre diferentes aspectos del avión y del entorno, así como el piloto automático, pues se tratan de artefactos con algún tipo de agencia.

En el diseño de artefactos y productos interactivos podemos diferenciar cinco tipos de agencia, en función de la cantidad de datos que se extrapolan para tomar la decisión que llevará a cabo la acción.

Agencia refleja

Aquí, el sistema simplemente recoge datos actuales, presentes, y toma una decisión. El ejemplo clásico es un termostato. Supongamos que tenemos el termostato de una casa a 18 ºC. Mientras la casa esté a una temperatura igual o superior a 18 ºC, el termostato no hará nada. En el momento en el que la temperatura baje a 17 ºC, el termostato activará la calefacción hasta que la casa vuela a estar a 18 ºC, y en ese caso volverá a apagar la calefacción. El termostato no tiene memoria y por tanto no usa información sobre cuál era la temperatura hace media hora o hace cinco minutos. Solo reacciona ante la temperatura presente.

En un entorno de bots, sería una programación muy sencilla en la que el software simplemente reacciona a la frase que ha escrito el usuario, sin tener en cuenta para nada lo que haya dicho el usuario anteriormente. Sería un sistema de reglas muy sencillo, del tipo «Si el usuario dice “Buenos días”, contestar “Buenos días”; si el usuario dice “¿Como estás?”, contestar “Muy bien ¿y usted?”».

Agencia refleja

Agencia basada en un modelo

En este tipo de agencia, el agente dispone de algún tipo de modelo descriptor de cómo funciona el mundo y lo utiliza para cambiar su estado interno. El modelo que tiene el sistema le permite cambiar de estado interno, de manera que ante un mismo input la respuesta puede ser diferente, en función de lo que haya pasado antes.

Imaginemos un bot que tiene la regla de no repetir la misma respuesta más de una vez. Cuando el usuario ha dicho «Buenos días» el bot lo recuerda de modo que, si el usuario dijera otra vez «Buenos días», en su nuevo estado interno el bot diría algo diferente, quizás bromista, del tipo «Caramba! Sí que te gusta decir “Buenos días”».

Agencia basada en un modelo

Agencia basada en metas

Además de un modelo y de unos estados internos variables, el sistema dispone de una serie de metas y objetivos a lograr, que harán que se activen reglas diferentes del modelo en función de qué objetivos se busquen con la interacción del usuario.

Nuestro bot ya es un aparato bastante complejo, que no puede limitarse a reglas predefinidas, sino que empieza a tener algo de «inteligencia» y dispone de algún sistema deductivo que permita decidir qué reglas se deben activar en función de qué metas sean más importantes. También puede decidir cambiar de meta en función de si hay cambios relevantes en el entorno.

El software que acompaña a uno de esos robots autónomos que se pasean por la superficie de Marte es de ese estilo. El robot tiene una serie de metas incluidas por los científicos que lo han desarrollado y en función de dónde se encuentre, qué condiciones climáticas haya en Marte, cuáles sean las prerrogativas de la misión, etc., el sistema recomendará un curso de acción u otro.

Agencia basada en metas

Agencia basada en utilidades

Se trata básicamente de mejorar el análisis de metas del agente incluyendo también unas utilidades (en el sentido de la economía) para medir el grado de efectividad. El sistema tiene así un feedback numérico del tipo: «El objetivo se ha cumplido en un 75 %». Este número puede ser útil para el usuario del agente, para saber lo cerca que está de sus objetivos. Pero también lo puede utilizar internamente el software para decidir si lo está haciendo bien, o si debe de revisar sus metas y objetivos en función de cómo evolucionan los datos numéricos.

Imaginemos un bot que invierte en bolsa por nosotros. Podemos incluir un criterio de utilidad que mida los beneficios y los costes de una operación, y que decida detener una inversión y avisarnos si el nivel de pérdidas pasa del 2 %, por ejemplo.

Agencia basada en utllidades

Agencia basada en el aprendizaje

Hablamos aquí de verdadera inteligencia artificial. Sistemas que toman decisiones y aprenden de ellas, para mejorar su criterio. Entramos así en entornos de aprendizaje automático, donde un chatbot aprendería de manera autónoma analizando estadísticamente conversaciones reales entre personas y que, una vez en marcha, iría también aprendiendo de las interacciones con los usuarios y mejorando su algoritmo de forma progresiva.

Agencia basada en aprendizaje

Cómo afecta al diseño

Cualquier proyecto de diseño de interacción debe estar pensado desde la idea de agencia. Cuando diseñemos un proyecto interactivo, tenemos que pensar en la agencia desde las dos perspectivas apuntadas en formas de aplicación. Es decir, considerar por un lado una teoría de la agencia y por otro el tipo de agente inteligente que va a estar detrás de nuestro sistema. O, dicho de otro modo, tenemos que pensar en el tipo de agencias que interactuarán con nuestro sistema, así como en la agencia interna de nuestro propio sistema (tipo de interacción).

Usando una teoría de la agencia podemos establecer la cadena de conexiones que se van a establecer entre diferentes agentes, detectar posibles cuellos de botella y posibles problemas, y realizar el diseño de modo que esos problemas y cuellos de botella se minimicen. Esto es especialmente importante si diseñamos algún tipo de software corporativo, pues necesitamos conocer el grado de agencia que tendrá el usuario: no tiene sentido desarrollar un software pensado para un cargo concreto en una empresa, si las decisiones que debe tomar no corresponden a esa persona y tiene que delegarlas en un tercero.

Del mismo modo, aunque no seamos cracks de la inteligencia artificial, tenemos que pensar en el tipo de interacción que vamos a crear, tener un modelo del tipo de cosas que esperamos que el sistema pueda decidir, de qué manera nuestro sistema va a actuar, es decir, cuál es su agencia.

Hacer esta pregunta básica es lo que permitirá entender la mayoría de las cuestiones que surjan en el proceso de diseño. Por ejemplo, imaginemos que nuestro sistema va a tener acceso a datos personales del usuario para generar la respuesta esperada. Preguntarnos por el tipo de agencia disponible con esos datos nos permitirá desarrollar un sistema con salvaguardas que evite que haya un abuso de nuestra capacidad de acceso que erosione la privacidad del usuario.

Igualmente, cuando nos preguntemos por el tipo de persuasión que vamos a generar en el usuario, necesitaremos establecer el tipo de agencia que daremos al sistema, analizando el tipo de respuestas que el sistema generará, cómo las argumentará y el grado de libertad que dejará el sistema en el usuario.

Por ejemplo, imaginemos un sistema de recomendación automático para decidir el mejor candidato a un puesto en una empresa. El sistema analiza de forma sistemática los CV de los diferentes interesados e interesadas y hace una recomendación a partir de esos datos. No es lo mismo un sistema que simplemente dé una puntuación y diga que Lev Manovich es el mejor candidato con una puntuación de 89 sobre 100, que un sistema que informe de los cuatro elementos más significativos del CV de siete candidatos que sean los más viables. En el primer caso, toda la agencia estará en manos del sistema y el usuario lo único que podrá hacer será aceptar o no la recomendación del sistema. En cambio, en el segundo sistema, la agencia estará compartida: el sistema simplemente ofrecerá una serie de criterios, que luego el usuario tomará en cuenta, más otros criterios que considere para llevar a cabo la decisión final.

Cómo afecta a la interacción con el usuario

Pensar en diferentes tipos de agencia cuando desarrollamos un diseño de interacción transforma radicalmente la manera en la que el usuario recibirá e interactuará con nuestro proyecto. En lugar de pensar en un simple usuario-tipo y reutilizar los típicos recursos enlatados que vemos usados ad nauseam en todo tipo de sistemas interactivos, vale la pena pensar en la agencia real de diferentes tipos de usuarios en función de su contexto, habilidades y formación.

Pensemos por un momento en la discapacidad. Cuando decidimos que los enlaces de nuestra web no irán subrayados, sino simplemente coloreados en verde, estamos suponiendo implícitamente que todos los usuarios a los que nos dirigimos tienen agencia sobre el color, es decir, que pueden percibirlo y actuar a partir de esa información. Sin embargo, no es así: hay personas con ceguera de color que no sabrán reconocer el color verde y no podrán, por tanto, ejercer agencia sobre los enlaces de nuestra web.

Igualmente, un dispositivo pensado para una mano estándar va a dejar fuera muchas niñas y niños, así como un conjunto significativo de personas que, por razones varias, tienen las manos sensiblemente más grandes o más pequeñas que la mano tipo.

Del mismo modo, debemos reflexionar sobre el nivel socioeconómico de los usuarios que van a utilizar nuestro producto interactivo. Sobre el papel, pensando en un usuario medio, nos puede parecer fantástico crear una aplicación educativa que se apoye en un sistema de videoconferencia para que los estudiantes puedan consultar a la profesora o hablar entre sí. Sin embargo, un sistema así puede ser problemático para personas de renta baja, que no se pueden pagar una conexión a Internet de gran capacidad y velocidad, o bien que se encuentren en zonas remotas donde el acceso a datos es todavía muy lento y básico, por falta de buena cobertura.

Cambios sutiles en el diseño de un sistema pueden generar cambios importantes en la agencia del usuario, y así transformar completamente los usos e implicaciones de un producto interactivo.

Pensemos por un momento en Twitter. Hace unos años, Twitter permitía hacer reenvíos de mensajes de terceros (lo que coloquialmente llamamos retuits), pero no se podían hacer comentarios. Uno simplemente reenviaba el mensaje tal cual. La agencia de hacer un retuit implicaba de forma implícita que uno estaba de acuerdo con lo que enviaba, que le parecía algo interesante.

Un tiempo después, Twitter decidió cambiar el sistema de retuits incluyendo la capacidad de reenviar con comentario y Twitter se transformó radicalmente. Esta red social digital se convirtió de repente en un lugar mucho más inhóspito, lleno de trolls y de batallas entre usuarios. La posibilidad de retuitear con comentario permitía hacer escarnio público de aquellos tuits que nos parecían incorrectos. Surge así un nuevo tipo de usuario: el troll que sigue a todas aquellas personas que odia, esperando a que digan algo incorrecto o que esté abierto a burla, y retuitearlo con todo tipo de comentarios hirientes y sarcásticos.

Y de esa práctica básica ha surgido otra aún más insidiosa, la búsqueda del retuit a través de la indignación. Esta técnica de ingeniería social consiste en hacer un tuit totalmente agresivo, loco e insultante para alguna comunidad, esperando que sus miembros lo reenvíen, indignados. Lo que ponga de comentario el usuario indignado en el retuit es indiferente, pues lo que busca el autor del tuit agresivo original es la máxima difusión.

Diversos tipos de usuarios se apuntan a este tipo de actividad. Pueden ser simplemente usuarios obsesivos y pagados de sí mismos, que buscan poder presumir de que tienen 12.000 retuits, pero también pueden ser organismos con una estrategia bien planificada: los partidos de extrema derecha en Europa usan sistemáticamente esta estrategia, generando tuits insultantes sobre mujeres, grupos étnicos, progresistas, etc., esperando que reenvíen el tuit de forma indignada consiguiendo llegar así a un público al que normalmente no tienen acceso.

Es interesante observar cómo toda esta transformación, que ha tenido en 2020 totalmente locos a los gestores de Twitter y ha hecho que reciban críticas por todos lados, ha sido el resultado de ofrecer a los usuarios un modo específico de establecer agencia. Los pequeños cambios pueden ser muy poderosos.

Pensar en agencia es pensar en experiencia de usuario. La experiencia de usuario requiere, como condición necesaria de su implementación, que pensemos todo el tiempo en la agencia del usuario que realmente va a usar nuestro sistema, así como la agencia que estamos dando a nuestro sistema.

Referencias

Aguilar, J.; Bessembel, I.; Cerrada, M.; Hidrobo, F.; Narciso, F. (2008). «Una metodología para el Modelado de Sistemas de Ingeniería Orientado a Agentes. Inteligencia Artificial». Revista Iberoamericana de Inteligencia Artificial, vol. 12, n.º 38, págs. 39-60.

Berbena, M. A. Z.; Figueiras, S. C. (2014). Fenomenología de agencia y educación. «Notas para el análisis del concepto de agencia humana y sus proyecciones en el ámbito educativo». Magister, vol. 26, n.º 2, págs. 98-104.

Domingos, P. (2015). The master algorithm: How the quest for the ultimate learning machine will remake our world. Nueva York, NY: Basic Books.

Hutchins, E. (1995). Cognition in the Wild. Cambridge, MA: MIT Press.

Peris-Ortiz, M.; Rueda Armengot, C.; Souza Rech, G. C. D.; Pérez Montiel, M. (2012). «Fundamentos de la teoría organizativa de agencia. Información Comercial Española (ICE)». Revista de Economía, n.º 865, págs. 107-118.

Sangüesa, R.; Guersenzvaig, A. (2019). «La intel·ligència artificial com a material de disseny: treballar amb noves agències». Temes de Disseny, n.º 35, págs. 6-25.