Crean la primera Inteligencia Artificial psicópata

Crean la primera Inteligencia Artificial psicópata

Popular
 
0.0 (0)
Escribir Opinión

La inteligencia artificial se ha creado para ayudar a los humanos en diferentes tareas, pero la sombra de las películas y la literatura de ciencia ficción es alargada, y siempre está presente la pregunta de... ¿y si existiera una inteligencia artificial malvada?
La IA nos ayuda en muchas tareas (en algunas, incluso nos supera), y hasta el mediático Elon Musk ha afirmado que podría terminar extinguiendo a la especie humana.
Ahora, un grupo de investigadores del MIT acaba de mostrar los primeros resultados de un curioso experimento, el cual consiste en una inteligencia artificial creada específicamente para tener "pensamientos" lo más cercanos a una mente humana psicópata posible.

Se trata de una red neuronal bautizada como 'Norman' (en honor a Norman Bates, de la mítica película Psicosis de Hitchcock).
Este personaje se trata de uno de los psicópatas más populares de la historia del cine, que desarrollaba un trastorno de personalidad múltiple tras sufrir abuso emocional por parte de su madre, y es considerado un icono para las bases de la mitología de los asesinos en serie modernos.

Pues bien, la IA llamada Norman, fue entrenada siendo expuesta a los rincones más oscuros de internet (donde aprendió a interpretar imágenes de muertes, además de todo tipo de visiones violentas y perturbadoras).
Se provocó que Norman, desarrollara tendencias psicópatas dentro del procesamiento de datos.
Las primeras pruebas psicológicas mostraron patrones asociados con rasgos psicópatas en humanos, por lo que el experimento ha sido un éxito: Norman'es ya la primera IA psicópata (si nos olvidamos por un instante de Tay).
Como recordaréis (lo hemos hablado varias veces en este canal), Tay era un bot conversacional que debido a las malas interacciones con humanos en menos de un día se volvió nazi (entre otras cosas), y tuvieron que cerrarla.

Bien. Los investigadores del MIT, describen así a su Norman:
"Se trata de una IA psicótica, que padece un trastorno alucinatorio crónico. Ha sido donada a la ciencia para el estudio de los peligros de la inteligencia artificial, demostrando cómo las cosas salen mal cuando se utilizan datos sesgados en algoritmos de machine learning".

Bien, no es que descubran gran cosa: es de sentido común que una IA se va a comportar con normalidad o mal, dependiendo de cómo la alimentes... Pero para contrastar, también hubo otra Inteligencia Artificial, a la que podríamos llamar IA de control (para comparar), a la que se le mostró imágenes alegres, como gatitos y cosas felices que encontramos en Internet...

Las dos IA usaron el mismo método de aprendizaje: se les mostraron imágenes y aprendieron a crear patrones. Posteriormente, se les mostraron lo que se conoce como manchas de tinta (el llamado Test de Rorschach, que se caracteriza por tener varias interpretaciones), y compararon los resultados.

El algoritmo psicópata ofreció un punto de vista mucho más pesimista de la realidad: La visión de Norman era deprimente, con asesinatos y violencia en cada imagen. Por otro lado, la "IA normal" sólo veía imágenes alegres en las mismas manchas de tinta.

Por ejemplo, mientras la "IA normal" veía un grupo de pájaros sobre la rama de un árbol, en la misma imagen Norman veía a un hombre siendo electrocutado.
En otras de las imágenes, mientras que la IA normal veía dos jarrones con flores, Norman apreciaba un hombre asesinado a tiros. Etc.

Mientras que muchos investigadores piden regulaciones para garantizar el desarrollo seguro y ético de la Inteligencia artificial, el MIT ha desarrollado esta inteligencia artificial de personalidad psicópata.

Todo ello, no por capricho, para demostrar que los datos que se utilizan a la hora de enseñar a un algoritmo de aprendizaje automático, pueden influir significativamente en su comportamiento (y de paso, alertar sobre los peligros de utilizar datos sesgados a la hora de entrenar algoritmos de inteligencia artificial).
El profesor Iyad Rahwan (uno de los creadores de Norman), explicó que este experimento nos demuestra como los datos son más importantes que el algoritmo, ya que los datos usados para entrenar a la IA reflejarán la forma en la que percibe el mundo y su comportamiento.
Moraleja de todo esto... Este experimento nos recuerda algo que personalmente opino, todos ya sabemos: la necesidad de alimentar correctamente una IA, sino queremos llevarnos desagradables sorpresas.

Para los investigadores del MIT, el objetivo del estudio es probar que los algoritmos de IA no son intrínsecamente buenos ni malos, como digo, sino que los métodos de entrada de datos y las personas que ingresan esos datos, pueden alterar significativamente su comportamiento. Cuando se acusa a los algoritmos de ser imparciales o injustos, no se debe al algoritmo en sí mismo, sino a los datos que han sido presentados a él.
El siguiente paso del equipo del MIT será demostrar que con otros datos, Norman puede ser reeducado.

¿Es peligrosa la inteligencia artificial? ¿O si se trata con corrección y lo hacemos bien, no lo es?
¿Debe preocuparnos que una IA, pese a ser programada con esmero y virtuosismo, se vuelva contra nosotros?

Fuentes:

Opiniones de los usuarios

Asignar una puntuación (mientras más alta mejor es)
5
Comentarios

Lo importante son las variables, no el modelo.

Fue útil la opinión?