viernes, 13 diciembre 2024

Google puede estar a punto de responder a la pregunta sin respuesta sobre los robots

El día que colaboremos estrechamente con los robots, ¿elegirán matarnos?

Seguro que alguna vez se ha hecho esa pregunta. Y la respuesta, por ahora, no está clara. Sin embargo, un estudio de Deep Mind, la empresa de Inteligencia Artificial (IA) de Google, ha revelado en qué condiciones un humano y un robot eligen o cooperar o, por el contrario, ponerse a competir. Una respuesta que tendrá grandes consecuencias en materia económica, control de tráfico o en políticas medioambientales.

EL EXPERIMENTO BUSCA LOGRAR ENTENDER EL COMPORTAMIENTO DE LA INTELIGENCIA ARTIfiCIAL Y LA FORMA DE AYUDARLA A COLABORAR

La investigación, dirigida por Joe Leno, y que se ha publicado en el blog de la compañía, ha empleado la IA en distintos niveles para comprobar qué ocurría. La primera parte fue la puesta en marcha de un juego en el que dos operadores (rojo y azul) debían coger manzanas. A medida que ambos juegan, aprenden, hasta que llega un punto en el que se comportan de manera racional. De forma natural cuando hay manzanas de sobra, tanto el azul como el rojo coexisten de forma pacífica. Sin embargo, cuando cambian las tornas, todo varía. A menores manzanas que puedan captar, más compiten entre ellos.

Se dan cuenta de que les viene mucho mejor ‘neutralizar’ al operador rival para tener ellos más tiempo para recolectar los frutos. No sólo eso, es que a medida que el operador es más inteligente, aplica con más frecuencia la neutralización para llevarse el gato al agua y obtener el mayor beneficio posible.

A MENOS MANZANAS, LA IA SE VUELVE REBELDE Y OPTA POR NO COOPERAR

En paralelo, los investigadores decidieron que los operadores jugaran al Wolfpack. De lo que se trata es de lograr una gran cooperación para capturar lobos. Se trata de mentes artificiales más complejas que, a medida que se complica la situación, se dan cuenta de que es mejor cooperar estrechamente a intentar buscar la individualidad. Es decir, lo contrario a lo que ocurría con el juego anterior. Por tanto, a la hora de dirimir los dilemas sociales que plantean los robots, dice el paper, debe tenerse en cuenta la capacidad de implementar estrategias, pero también la dificultad de aprender.

De este modo, los investigadores concluyen que -cuanta mejor sea la capacidad de aprendizaje y realizar estrategias- mayor será la cooperación con agentes externos. En cualquier caso, no estaría de más ir pensando en acumular alguna manzana de más por si el robot se pone un poco tonto.


- Publicidad -