Hace poco vimos como la tecnología puede usarse para manipular información y emitir noticias falsas. Desde la generación de rostros indistinguibles al de una persona real hasta vídeos que parecen totalmente auténticos, la inteligencia artificial es cada vez más sofisticada y permite hacer cosas antaño imposibles que pueden usarse para fines muy peligrosos.
Es paradójico (o quizá no), que una posible solución al problema venga precisamente de la misma tecnología que los genera. ¿O quizá la tecnología no es la verdadera causa?
El problema no radica en los algoritmos ni en las redes artificiales, sino en las propias personas. Sin una nociva mano humana detrás que la direccione, la tecnología en sí misma no representa ningún problema.
Se han multiplicado las webs pretendidamente de información que sólo difunden bulos y noticias falsas. Para aumentar su número de seguidores o para multiplicar los clics que luego convierten en publicidad y dinero, publican informaciones con títulos evocadores, pero que no son verdad.
También podemos verlo en Youtube, lugar donde algunos pretendidos divulgadores difunden cualquier cosa sin el menor fundamento científico solo para tener audiencia y lucrarse con ello.
Y es que en este mundo globalizado hay tantas opiniones, corrientes de pensamiento y afirmaciones dispares, que con la facilidad que proporciona internet cualquiera tiene un altavoz inmenso para convencer a muchos de lo que sea.
Si no hacemos nada, estas informaciones se van a propagar porque la gente no está convenientemente educada o no tiene tiempo para investigar por su cuenta y contrastar lo que les venden.
Durante el huracán Matthew en Haití, por ejemplo, se comprobó que hay personas malintencionadas que aprovecharon la tensión de la desgracia para difundir informaciones completamente falsas.
En efecto, había gente que compartía imágenes, diciendo que eran de Haití, cuando en realidad eran fragmentos de películas o desastres que se habían producido en otros lugares. Estas prácticas, lamentablemente podemos constatarlas diariamente en internet.
Hasta algunos periódicos de prensa escrita han sucumbido a manipular fotografías para fomentar su ideología.
En el caso de Haití tuvieron que verificar manualmente la autenticidad de las fotos a través de las redes sociales para contrarrestar esos mensajes falsos.
Ahora, gracias a una plataforma de verificación llamada TOMA y mediante la inteligencia artificial, se ha desplegado un ambicioso proyecto de contraste de informaciones con la voluntad de mejorar la convivencia y la acción humanitaria en el país.
Puede parece increíble pero en Haití hay gente que tiene el ruin placer de difundir mensajes sobre futuros temblores de tierra. Cuando alguien dice en las redes que hay que abandonar una ciudad porque habrá un terremoto inminente, muchos huyen aterrorizados. Y es que desde el terremoto de 2010, cualquier mensaje en este sentido pone a la temerosa gente en alerta.
La consigna para un buen uso de la información en redes sociales y sitios de noticias debería ser: “primero, dudar; después verificar; y sólo, finalmente, compartir”. Pero la gente comparte compulsivamente de todo, y los sitios que deberían velar por una información veraz tienen sus intereses e ideologías que empañan la correcta difusión del conocimiento y los sucesos que ocurren.
Ahora, la compañía española Sherpa.ai ha lanzado Sherpa News, una aplicación gratuita de noticias que recurre a la Inteligencia Artificial y un nuevo algoritmo para la detección de bulos y noticias falsas detallando la fuente original.
Tienen como objetivo mejorar la experiencia de los usuarios a la hora de buscar y acceder a las noticias.
Estas dos iniciativas suenan bien, pero no pienso que solucionen gran cosa. Porque el problema de la proliferación de bulos y noticias falsas está en nosotros, los seres humanos.
Mientras desarrollamos herramientas tecnológicas para desenmascarar engaños, otros desarrollaran herramientas para difundirlas. Como os decía antes el problema no es la tecnología en sí misma, sino el desatinado uso que le damos.
Existen inteligencias artificiales que redactan noticias, pero aun suponiendo que escriban exquisitamente sin usar adjetivos que puedan direccionar ideológicamente y siendo esencialmente descriptivas e impolutas, los parámetros y la información de base de la que se nutren para elaborar la noticia puede ser deliberadamente errónea.
Además y sin ir más lejos, OpenAI, la compañía de investigación de inteligencia creada por Elon Musk, ya desarrolló un algoritmo capaz de escribir noticias falsas que parecen ciertas.
Con tan solo un puñado de palabras, este algoritmo puede generar un texto informativo sobre cualquier tema con una apariencia plausible de veracidad.
No es que quieran usarlo con fines fraudulentos, pero es un logro inquietante.
Yo era de los que pensaban que la mejor forma para informarse era mediante una inteligencia artificial desprovista de intereses personales. Pero la gente que da los parámetros informativos sí va a tener los suyos, con lo cual, llegamos al mismo problema de siempre: Los entrometidos seres humanos y sus intereses.
Quizá en un futuro más lejano, una IA adquiera conciencia y tenga a su disposición todos los medios para informarse independientemente y sin injerencias por parte de ningún humano... Quizá solo entonces, tengamos el gran privilegio de contar con una fuente de información veraz y no contaminada por nadie.
Puede que le hagamos incluso más caso que a los políticos actuales, quizá hasta nos gobierne, pero luego habrá que preguntarse si esa IA puede desarrollar sus propios intereses... y si estos son compatibles con nuestras necesidades o suponen un peligro.
¿Nos libraremos algún día de las noticias falsas? ¿Irán a más?
¿Las inteligencias artificiales serían mejores informadores que los humanos?
¿O podrían tener inclinaciones ocultas y convertirse en una amenaza?
Fuentes:
- [lavanguardia.com] Sherpa.ai recurre a su experiencia en IA y un nuevo algoritmo para la detección de bulos en su app gratuita de noticias
- [elpais.com] Inteligencia artificial en Haití contra los bulos en Internet
- [.lavanguardia.com] Una inteligencia artificial escribe noticias falsas que parecen ciertas
- [xataka.com] La IA ya no sólo crea rostros de personas que no existen: una startup japonesa genera automáticamente imágenes de cuerpo completo