La mente no es suficiente

En Modelling social actions for AI agents, Castelfranchi describe detalladamente los requerimientos de la arquitectura individual para que un agente racional sea social y colaborativo. Sin embargo, advierte que estos no son suficientes para que emerja una organización entre agentes colaboradores. La mente no es suficiente -dice- ya que existen estructuras de dependencias entre los agentes de un sistema que son determinantes respecto a sus posibilidades de colaboración (más aún que la arquitectura individual de los agentes).

En este sentido, apunta a que estas redes de dependencias juegan un rol causal en las dinámicas del sistema: como estructuras sociales, emergentes y no-planificadas que permiten que se manifiesten formas de cooperación no-basadas en creencias mutuas o acuerdos. Es decir, formas de cooperación basadas en el conocimiento del entorno (i.e. los agentes interactuan con el entorno y posteriormente realizan inferencias tipo en-este-estado-de-entorno-haciendo-esto-consigo-aquello). Formas de cooperación, que emergen de la experiencia y por lo tanto requieren de acción, como las que queremos estudiar en nuestra investigación sobre Estructuras Auto-Organizadas Emergentes en POMDPs colaborativos.

Esta observación de Castelfranchi, que pone el foco en la red de dependencias más que en la arquitectura individual de los agentes, permite entender la mayoría de críticas respecto a los modelos de SMA colaborativos que subrayan que es común dar por hecho que los agentes son benevolentes, que siempre estan dispuestos a colaborar y que siempre desean actuar en pos del bien común… Es decir que más allá la arquitectura individual (altruista) de los agentes no se presta la atención suficiente a la manera en como estos son interdependientes y se interfieren entre sí. Con lo cual, estos modelos artificiales corren el riesgo de caer en buenismos  ya que sólo asumen modelos sociales basados en el altruismo.

Por eso nuestro enfoque propone estudiar la emergencia de estructuras auto-organizadas como sociedades de agentes racionales, no a través de la mente, y por lo tanto sin asumir agentes altruistas, sino asumiendo un entorno profundamente colaborativo. Es decir planteando que: si un entorno es colaborativo, a pesar de que los agentes sean racionales self-interested (i.e. que no tengan la voluntad de colaborar entre ellos, sinó sólo actuar en pos de maximizar su utilidad individual), estos van a terminar adoptando comportamientos colaborativos, puesto que la única manera de maximizar su utilidad individual es maximizando la utilidad global (i.e. colaborando entre ellos). Este enfoque surge de una inquietud antropológica, de una reflexión sobre como percibimos el entorno donde operamos, que se podría resumir con la hipótesis siguiente: hay entornos que son colaborativos, pero los agentes no los pueden llegar a percibir como tal y por lo tanto emprenden acciones competitivas.

Este cambio de foco -de arquitectura individual a redes de dependencias- puede ser muy fructífero para la búsqueda de modelos adaptativos. Ya que implica dejar de pensar en términos de objetivos (goal-oriented) y pensar en términos de utilidad, lo que permite invocar imaginarios muy diferentes: cuando pensamos en utilidad, podemos pensar en un entorno sin estados terminales,  dónde un agente aprende a sobrevivir entregado a un continuo, hay una idea de flujo constante implícita en la metáfora. Pura adaptabilidad. Sin embargo, si pensamos en términos de objetivos, este continuo se convierte en una concatenación intermitente de estados-terminales-alcanzados-y-estados-terminales-por-alcanzar. Fragmentando la idea de una agencia emergente (adaptativa) que va evolucionando, para deconstruirla en pequeñas metas-a-alcanzar que se anidan en jerarquías de otras-metas-a-alcanzar.

Y es que aunque es importante dejar claro que alcanzar un objetivo es equivalente a maximizar la utilidad (en jergas específicas de diferentes sub-areas de la IA) el uso de la terminología reinforced (i.e. hablar de utilidad) contribuye a incidir en  enfoques más bioinspirados -como el que proponemos- evocando metáforas más cercanas a todo aquello adaptativo como la sopa primordial, los ecosistemas, la emergencia de organismos multicelulares. Todo evoca a las estrategias individuales para la supervivencia (a pesar de que se logra a través de la cooperación). Sin embargo,  si usamos terminologías mindreading ponemos el foco en las creencias o estados mentales de los otros agentes, dónde la cooperación surge desde un lugar no tant visceral. Y la cooperación es algo visceral, algo que sólo tiene sentido cuando ayuda a mejorar la utilidad de los que la ejercen, cuando es un consecuente.

Así que dejemos de centrarnos en lo-que-pensamos-que-piensan los otros y exploremos profundamente el entorno, de manera distribuída, para descubrir si realmente es cooperativo. Y si lo es, fluyamos!

Leave a Comment