PORTAL - FORO - BLOG - TIENDA |
Imprimir E-mail Compartir

Botón rojo para apagar la IA... ¿Hay que temerla?

Hay decenas de películas donde la inteligencia artificial podría superar a los humanos y controlar el mundo. Esas historias ya no son sólo de ficción, pues actualmente las máquinas pueden hacer muchas cosas sin interferencia directa de una persona (y cada vez se mejoran, por lo que algunos científicos creen que la humanidad requiere una especie de “seguro” que ayude a eliminar cualquier amenaza).



Llegará un momento en el que las máquinas superarán la inteligencia de los humanos y estos deberán contar con un sistema de prevención para poder interrumpirlas. No es otro guión de película de ciencia ficción, sino la hipótesis de la que parte un estudio realizado por Deep Mind, la empresa de Google especializada en inteligencia artificial, y el Instituto para el Futuro de la Humanidad de la Universidad de Oxford. Ambas empresas han desarrollado de forma conjunta un “gran botón rojo” de emergencia para evitar que las máquinas realicen una “secuencia de acciones dañinas” para el entorno, el operador humano o para ellas mismas; y poder “guiarlas a una situación segura”. O lo que es lo mismo, queremos tener controladas las máquinas (por si las moscas).
Los expertos en inteligencia artificial calculan que hay un 90% de posibilidades de que entre 2075 y 2090, haya máquinas tan inteligentes como los humanos.
Ante el temido supuesto de que las máquinas logren superar la inteligencia de los humanos, resulta un alivio que se pueda disponer de un sistema de prevención para interrumpirlas. Pero no está claro si todos los algoritmos pueden ser fácilmente interrumpibles, admiten.
Juan Antonio Recio sostiene que este tipo de medidas sirven para tranquilizar a la sociedad, y para ayudar a que la gente acepte la inteligencia artificial (para que tengan claro que siempre va a estar controlada, y que nunca se nos va a ir de las manos).

Este tipo de reflexiones no son nuevas en el sector de la inteligencia artificial. El director del Instituto para el Futuro de la Humanidad, Nick Bostrom, ya describía como escenario posible en su libro Superinteligencia: caminos, peligros, estrategias, cómo las máquinas iban a superar a sus programadores; iban a ser tan inteligentes y capaces de mejorarse a sí mismas, e iban a tomar el control planeta.
"Debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico", sostenía en una entrevista.

El estreno de la película Ex machina en el 2015, coincidió con el llamamiento mundial de algunas de las mentes más importantes del planeta (entre ellas, la del físico Stephen Hawking y la del emprendedor Elon Musk). Ambos advertían sobre los riesgos de la Inteligencia Artificial. La carta, firmada por decenas de científicos y auspiciada por el Future of Life Institute, sostiene que la tecnología se está acercando a una peligrosa encrucijada que nos puede hacer prosperar como nunca antes, o llevarnos de cabeza a la autodestrucción.
Otro de los destacados firmantes del manifiesto es el filósofo sueco Nick Bostrom, cuya opinión es que estamos ante el mayor proceso de transformación de la humanidad, que tal vez nos abra las puertas al posthumanismo, pero entraña también grandes riesgos. "En cierto modo, somos como bebés jugando con explosivos", decía.
Otras personas como Ray Kurzweil son más optimistas, y auguran que en el año 2040 emergerá la singularidad, una nueva especie producida por la fusión del ser humano con la tecnología. Kurzweil no es un escritor de novelas de ciencia ficción, sino el director de investigaciones de Google. Un peso pesado.

Cada vez más gente, entiende el transhumanismo como una ampliación de la naturaleza humana en su aspecto biológico y su aspecto intelectual. Y la Inteligencia Artificial, es la gran protagonista. La inteligencia no radicará fundamentalmente en nuestras cabezas biológicas, sino en el gigantesco sistema al que estaremos conectados (las extensiones tecnológicas de nuestra mente).
Hasta ahora solo nos hemos preguntado cómo nos protegemos de las máquinas (como en la famosas leyes de Asimov), pero si hay algo que nos muestra la película CHappie,  también es plantearse cómo proteger de la humanidad a esas máquinas conscientes que podemos crear.
Deberíamos preguntarnos si  nos prestaremos a crear robots conscientes y sensibles, que estén predestinados a ser simplemente nuestros esclavos. En cuyo caso, eso nos dejaría en muy buen lugar.

El problema de la inteligencia artificial se plantea, cuando los sistemas de Inteligencia Artificial no se limitan a manejar datos y obedecer órdenes, sino que toman decisiones.
En los años noventa, se empezó a investigar sobre redes neuronales similares a las del cerebro y sobre algoritmos genéticos. Y la aplicación de potentes sistemas estadísticos y del cálculo de probabilidades, se concretó en programas capaces de aprender.
Hemos visto sus resultados y lo que son capaces de hacer. La última partida perdida por el ser humano ante la máquina, ha sido el milenario juego de estrategia Go.
Ya habíamos asumido que los robots iban a desplazar a los humanos en los trabajos mecánicos, pero ahora aparece la posibilidad de que nos desplacen también en trabajos intelectuales.

La omnipresencia de la inteligencia artificial, la generalización de esa realidad aumentada, nos exige repensar muchas cosas. Entre ellas, nuestros sistemas educativos. Acorde con esos cambios, vamos a tener que desarrollar una inteligencia aumentada que sepa pensar hibridando procesos neuronales y procesos electrónicos (y fomentarla desde la escuela…).
Las sociedades deben prepararse para la aparición de seres autónomos, no humanos.
Nos estamos aproximando al momento en que las máquinas nos puedan decir: 'No me apagues', y  con el tiempo, tendrán hasta la capacidad de querer por sí mismas, de tener sentimientos... ¿Qué haremos entonces?

Fuentes:
Powered by JReviews