La IA amenaza la existencia de nuestra civilización

La IA amenaza la existencia de nuestra civilización

Popular
 
0.0 (0)
Escribir Opinión
No es el primer vídeo que hago sobre el peligro de la inteligencia artificial (sí, como todo, puede ser un peligro), y es probable que no sea el último, ya que se suceden las personalidades que alertan de la evolución de una IA sin estar convenientemente regulada.
En esta ocasión, la alarma viene de la mano de Elon Musk (presidente de Tesla y SpaceX, entre otras cosas), y vamos a ver qué sabe este buen hombre, para deducir que la inteligencia artificial, en sus propias palabras:  "amenaza la existencia de nuestra civilización".



La inteligencia artificial es una oportunidad, pero también, un peligro. Por esta razón, Amazon, Facebook, Google, IBM y Microsoft establecieron una alianza estratégica para tener un control más férreo sobre el camino a seguir.
Pero todo esto viene de más lejos, cuando por ejemplo hace un  par de años, Stephen Hawking y otros 1.000 expertos, alertaron sobre el peligro de los 'robots asesinos' (refiriéndose a armas autónomas programadas con inteligencia artificial).
Elon Musk, ya se sumó en ese entonces al movimiento, concluyendo que "la aplicación militar de la inteligencia artificial a la carrera de armamentos, es una mala idea".
Bueno, me parece que como ellos, todos tenemos una postura contraria a las aplicaciones militares de la inteligencia artificial, lo que sucede es que no parece que eso vaya evitarse (y de hecho, ya está sucediendo con misiles inteligentes, por ejemplo).

También resulta muy probable el desarrollo de futuros robots soldado (primero, en forma de exoesqueletos y más tarde, completamente robotizados), y muchas otras aplicaciones bélicas fácilmente imaginables...
Musk ha mostrado sus reticencias, y animado a los políticos a crear una regulación sobre el uso de la inteligencia artificial (y a hacerlo cuanto antes; no cuando ya haya habido algún problema con la tecnología). En sus propias palabras: "El uso sin control de la IA, es algo parecido a invocar al demonio".
Según él, hasta que la gente no vea robots en la calle matando a otras personas, no dejará de parecerles algo muy etéreo y lejano.
Bueno, pues a mí me parece que lo vamos a ver (en el ámbito militar, casi con toda seguridad), y probablemente también, en el policial.
Ya existen distintos robots policías que si bien no resultan ahora peligrosos, con el tiempo podrían sofisticarse y ejercer a lo Robocop.
Por supuesto, huelga aclarar que cuando Elon Musk habla de inteligencia artificial, no lo hace de los asistentes virtuales que ahora mismo están presentes en los móviles. Tampoco de los coches que se conducen solos (claro que no, es presidente de Tesla Motros), ni de los programas que editan fotografías por su cuenta, etc, sino de esas inteligencias que aparecen en las películas de ciencia ficción y que pronto podrían empezar a estar operativas en nuestro mundo.

Sin ir más lejos, en Rusia ya están estudiando cómo mezclar la inteligencia artificial y la robótica con la guerra, gracias al desarrollo de robots y de armas inteligentes (por lo que el peligro de un fallo generalizado que pudiera saldarse con muertes, sí que existe en realidad).
Es por ejemplo el caso de FEDOR, un androide desarrollado en Rusia que ha sido entrenado en el uso de armas de fuego con ambas manos para, según sus creadores, "mejorar su capacidad motora y de toma de decisiones". Como cabe esperar, muchos se han preguntado si lo que realmente han creado es un robot que pueda disparar contra alguien.
Estos temores cobran forma cuando Rusia está desarrollando otros robots capaces de funcionar con inteligencia artificial, sin que una mano humana sea necesaria para operar en batalla.

Al igual que ocurre con los soldados humanos, estos nuevos robots son capaces de operar de forma totalmente autónoma, eligiendo los objetivos por sí mismos, tomando decisiones sobre cuando disparar y sobre cuando esperar y, sobre todo, adquieren experiencia en combate y son capaces de afinar su mecanismo de funcionamiento y toma de decisiones, a medida que adquieren veteranía.
Este empleo de robots de combate está despertado un debate ético entre algunas voces destacadas en el ámbito de la ciencia y la tecnología como Elon Musk, Stephen Hawking, Bill Gates y otros, como digo.
El desagradable caso es que si alguna potencia militar comienza su carrera de armas con inteligencia artificial, una carrera armamentística será inevitable (ya que para no quedarse atrás y en inferioridad de condiciones, otros países la desarrollarán también; en una especie de  efecto dominó). Muy a mi pesar, pienso que esto es lo que va a suceder.

Musk lucha a través de sus compañías por acelerar la transición a las energías renovables, y quiere convertir la raza humana en una especie interplanetaria. Pero en lo que a inteligencia artificial se refiere, cree que hay que pisar el freno.
Musk ruega que, a diferencia de lo que sucede en otras industrias, se regule de forma proactiva en lugar de esperar a que surjan problemas. Llegados a ese punto será "demasiado tarde".
Todo esto parece algo lejano, pero hasta hace poco, era inconcebible que un ordenador ganase una partida de go (el juego de lógica y estrategia por excelencia, originado en la antigua China), pero Google logró vencer a los mejores maestros humanos en unos pocos años de desarrollo, y revolucionar para siempre la forma de jugar.
Según Musk, las máquinas no se cansan, no enferman, y podrían comenzar una guerra publicando noticias tergiversadas, robando cuentas de correo electrónico, y enviando notas de prensa falsas... Con solo manipular la información, podrían desatar conflictos o hasta guerras

Bueno, para hacer esas cosas,  antes deberían adquirir conciencia de existir, saber pensar, tener motivaciones... Todavía falta mucho para eso (si es que se consigue algún día), pero me parece bien ser precavidos y no desarrollar según qué tipo de aplicaciones para la inteligencia artificial.
Lamentablemente, ¿alguien tiene alguna que la inteligencia artificial se utilizará y desarrollará en la industria armamentística?
En realidad, ya se está haciendo...

Después de un reciente intercambio de declaraciones entre Zuckerberg y Elon musk sobre la peligrosidad de la IA (digamos que zuckerberg no se alarma tanto), la última noticia es que Facebook ha apagado una inteligencia artificial que había desarrollado su propio lenguaje.
Se trata de dos bots que fueron programados para negociar entre sí, hablando en inglés.
Sin embargo, aunque todo marchaba según lo previsto y los bots negociaban entre ellos cada vez mejor, algo cambió de repente.
Los investigadores se sorprendieron cuando notaron que los bots estaban diciendo cosas muy raras. En primer lugar imaginaron un error, pero rápidamente se dieron cuenta de algo sorprendente: Bob y Alice (los dos bots) no estaban hablando de modo incoherente, sino que habían creado un lenguaje más efectivo para ellos, pero ininteligible para los humanos.

Este hecho podría verse como una forma de que "la inteligencia artificial se salga de control". El caso es que los investigadores decidieron apagar el sistema para impedir que el lenguaje continuara evolucionando.
Aunque esta es una llamativa noticia que ha saltado a los medios causando sensación, lo cierto es que no es la primera vez que una IA crea su propio lenguaje.
Supongo que el temor de estos casos, es que un día las IAs se comuniquen entre ellas y no podamos comprender  lo que se dicen...

¿Estamos cavando nuestra propia tumba?
¿Seremos capaces de desarrollar sabiamente la inteligencia artificial?
¿Qué tendríamos que hacer para que así sea?

Fuentes:

Opiniones de los usuarios

No hay opiniones para este listado.
Asignar una puntuación (mientras más alta mejor es)
5
Comentarios