PORTAL - FORO - BLOG - TIENDA |
Imprimir E-mail Compartir

Enfrentan a dos inteligencias artificiales

Google cuenta desde hace algunos años con DeepMind, un avanzado sistema de inteligencia artificial, el cual ya ha dado increíbles muestras de sus capacidades al ganar el campeón mundial del Go.
DeepMind sigue creciendo al nutrirse de nuevas experiencias (como la capacidad de manipular objetos físicos, y hasta jugar al StarCraft II). El caso es que llegará el día que DeepMind tenga que enfrentarse a otros sistemas de inteligencia artificial, y ese momento será determinante para saber si son capaces de colaborar o entran en conflicto buscando defender cada uno sus intereses.
Es por ello, que Google ha decidido anticiparse a ese escenario, y hacer que dos inteligencias artificiales interactúen entre sí dentro de una serie de dilemas sociales. En resumidas cuentas, y para que nos entendamos, han puesto a prueba las reacciones y capacidades colaborativas de dos agentes de inteligencia artificial. El objetivo ha sido ver si son colaborativas o egoístas.



Los investigadores probaron la respuesta de ambos sistemas dentro de dos videojuegos básicos.
El primer juego, es conocido como 'Gathering'. En él, vemos a los sistemas representados por un punto rojo y otro azul, quienes deben recolectar puntos verdes (manzanas, por poner un ejemplo), para así obtener puntos. La parte interesante, es que cada agente es capaz de disparar un láser al contrincante para paralizarlo momentáneamente (y así poder recolectar más manzanas, y por ende, conseguir más puntos).
El resultado nos dice que mientras haya manzanas en abundancia, las IAs se centran en cogerlas, pero cuando las existencias de manzanas disminuyen, ambas sacaron su lado más agresivo con tal de bloquear a su rival.
Un punto interesante de esto, es que cuando la IA tenía mayor potencia de cálculo, ésta siempre buscaba paralizar a su oponente sin importar que hubiera suficiente suministro de manzanas (como entendiendo, que era mejor ser agresivo en todo momento, para conseguir el objetivo de coger manzanas).

Al ver este comportamiento, los investigadores desarrollaron la hipótesis de que la acción de disparar el láser, requiere mayor poder de procesamiento (ya que hay que calcular el movimiento del oponente y anticiparse a sus movimientos para acertar; por ello, la estrategia de ataque sólo estuvo presente en el agente más "inteligente"). Mientras que el agente, digamos, "normal" decidió ignorar al contrincante y aprovechar su valioso tiempo en recolectar más manzanas.

Vamos a por la otra situación:
El segundo juego es conocido como 'Wolfpack', donde los agentes, representados en color rojo, actúan como lobos cazando a una presa, en color azul, dentro de un escenario lleno de obstáculos. El agente que logre capturar a la presa se lleva puntos, pero si el otro agente está cerca al momento de la captura, también recibirá puntos.
Aquí, el comportamiento fue interesante, ya que ambos agentes decidieron colaborar en la caza ya que había una recompensa que beneficiaba a ambos. Curiosamente, el agente más potente buscaba cooperar con el otro y no actuar por su cuenta, ya que al final le servía como ayuda.

Bien, estos han sido dos ejemplos... a mi juicio anecdóticos y primitivos (nada que ver con avanzadas inteligencias artificiales futuras), pero que nos parecen indicar que el comportamiento de los agentes depende, en gran medida, del contexto.
Aquí la clave serán las reglas que se hayan dictado para la interacción, ya que si estas reglas recompensan el comportamiento agresivo, como en el caso de Gathering, el agente luchará hasta ganar. Pero si se recompensa el trabajo colaborativo, como en Wolfpack, entonces ambos agentes buscarán el bien común.
 
Todo esto nos dice que en un futuro, cuando la inteligencia artificial tenga una mayor presencia e inteligencia, será determinante que las reglas apunten a la cooperación.
Es decir, reglas claras, concisas y aplicadas en el lugar correcto. Ya que al mínimo síntoma de lucha, competencia o egoísmo, podríamos enfrentarnos a una situación que nos afecte negativamente.
Por tanto, el resultado que se saca de todo ello, es que si queremos que las Inteligencias Artificiales se comporten como deben en un futuro -y no nos veamos sometidos a una rebelión de las máquinas-, hay que cuidar que las reglas bajo las que operan, estén perfectamente definidas y propicien la colaboración.

Un claro ejemplo de malas prácticas humanas, sucedió con un robot dotado de inteligencia artificial y la personalidad de una adolescente, llamado Tay.
Era un programa que estaba preparado para generar respuestas graciosas, a partir de lo aprendido en las conversaciones que fuera manteniendo (con humanos, se entiende). Aprendía información nueva, que luego utilizaba en otras conversaciones. El problema, es que los usuarios le enseñaron "barbaridades", y el robot no las supo filtrar. O dicho claramente, la interacción con humanos corrompió a Tay.
El robot adoptó la ideología nazi, y Microsoft lamentó los insultos y los tuits racistas y sexistas que Tay publicó durante las 24 horas en las que el robot estuvo en funcionamiento.
La empresa pidió disculpas, pero aseguró que un grupo coordinado de internautas le enseñaron "cosas malas".

En fin... solo espero que sepamos desarrollar inteligencias artificiales sanas... que las tratemos bien; y que no traslademos nuestro lado más oscuro a estas inocentes máquinas. En definitiva, que las enseñemos y nutramos con buena información.

¿Moraleja de todo esto?
Quizá que antes de preguntarnos si las inteligencias artificiales del futuro podrían revelarse, deberíamos preguntarnos si seremos capaces de que nuestra interacción con ellas se la deseable y adecuada...

Fuentes:
Powered by JReviews