Por RT
Una filial de Google emplea juegos para comprobar cómo diferentes algoritmos de inteligencia artificial resuelven “dilemas sociales secuenciales”.
Este jueves, la empresa Deepmind, una filial de la multinacional Google, ha publicado un artículo en donde presenta detalles del experimento en el que analizó cómo funcionan bajo la presión de dilemas sociales varios algoritmos que se emplean en la inteligencia artificial.
Para realizar esta prueba, esa compañía ha creado los videojuegos ‘Gathering’ (Recolectando) y ‘Wolfpack’ (Manada de lobos) que, a pesar de que requieren una coordinación cercana de sus acciones, han revelado que al afrontar “dilemas sociales secuenciales” algunos algoritmos también están preparados para ‘traicionarse’.
En el primer juego, dos agentes —uno rojo y otro azul— debían coexistir mientras recogían ‘manzanas’ para ganar puntos, aunque el uno al otro se podían lanzar rayos que les paralizaban de manera temporal con vistas a adquirir ciertas ventajas. Cuando había muchas ‘frutas’, ninguno mostró signos de maldad pero, en el momento en que el número se redujo, ambos se dispararon.
Los desarrolladores concluyeron que “los agentes capaces de implementar estrategias más complejas” intentaron ofensivas con más frecuencia y, por lo tanto, mostraron menos cooperación.
‘Wolfpack’, que simula una caza, probó lo contrario. Este segundo juego requería que dos agentes eliminaran a una víctima y, si ambos se encontraban cerca en el momento de la captura, obtenían más puntos.
Esta prueba mostró que la capacidad de implementar estrategias complejas también proporciona una cooperación más cercana entre los elementos del juego que, en la mayoría de los casos, no perdieron la oportunidad de colaborar para beneficiarse.
Los investigadores aseguran que estos resultados ayudarán tanto a las tecnologías de la información como a las ciencias sociales, dado que podrían aclarar “el misterio de la aparición de la cooperación”. Asimismo, estos especialistas afirman que sus proyectos podrían ofrecer una buena oportunidad para probar medidas de intervención en los sistemas de simulación que incluyen dos agentes, con independencia de que su origen sea humano o artificial.
No hay comentarios.:
Publicar un comentario