Inteligencia artificial (2)

Popular
 
0.0 (0)
Escribir Opinión

Otro punto a abordar, si se pretende vida artificial consciente, es la Inteligencia emocional. Por inteligencia emocional se entiende la capacidad para reconocer sentimientos propios y ajenos, y la habilidad para manejarlos. En forma sintética, podría decirse que las emociones son estados internos que regulan –de forma flexible– las interacciones del individuo con su entorno y con sus relaciones sociales (Morgado, 2002, p. 137). Son dispositivos especializados en generar una respuesta inmediata frente a una situación, impulsos para actuar, planes instantáneos que la evolución inculcó en los animales para que éstos puedan determinar si una situación es más o menos favorable para su supervivencia. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que “sientan hambre” al detectar que su nivel de energía está descendiendo o que “sientan miedo” cuando aquel esté demasiado bajo. Incluso se podría introducir el “dolor” o el “sufrimiento físico”, a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables. Porque, ¿qué es el dolor sino meros datos procesados por un cerebro? Sin las conexiones (o circuitos), necesarios, la ausencia de dolor físico es totalmente posible; y eso lo podemos comprobar en muchas personas lisiadas. Sin embargo, emular del todo las reacciones emocionales del ser humano, no significa necesariamente que se pueda conseguir que una máquina “sienta” exactamente como un humano. En realidad, que una máquina tenga o no emociones no es la cuestión, ya que –de tenerlas– podrían ser tan diferentes de las del hombre, que a éste le resultaría difícil de entender.
 
Sería como intentar concebir el mundo como lo hace un delfín (que percibe su entorno acuático mediante el sentido de la ecolocación; porque no solamente existen los sentidos humanos). Pero esa imposibilidad no quita que los delfines nos produzcan empatía, aprendan, se generen lazos afectivos, etcétera. Aunque por el momento la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional y calculatorio, muchos de ellos consideran seriamente la posibilidad de incorporar componentes “emotivos”, a fin de aumentar la eficacia de los sistemas inteligentes. En Julio de 2009, un sistema robótico desarrollado en Estados Unidos ha logrado un importante avance en el camino de crear robots que puedan emular con exactitud los gestos y emociones humanas. 'Einstein Robot' puede desarrollar un proceso de autoaprendizaje que le posibilita ir incorporando con el tiempo el manejo de nuevos
músculos faciales y expresiones humanas. Las emociones humanas vinieron dadas por errores de copia del ADN o mutaciones; Y en un entorno hostil o estresante, individuos que respondían en base a emociones, eran preferibles (se propagaron mediante selección natural). Las emociones, además de otorgar mayor rapidez ante una situación (si sientes miedo, reaccionas antes ante un depredador), también sirven para reforzar químicamente algo en la memoria a largo plazo. En la actualidad, y pese a las habladurías al respecto, se sabe con mucha exactitud tanto el funcionamiento de las emociones, como su proceso químico y función. Y esto ya nos permite abordar la tarea de generar robots emocionales.
 
Perrito artificial AIBO
El perrito AIBO y el androide ASIMO, son quizás los más conocidos robots “emocionales”. En Febrero de 2009, desarrollaron un sistema que permite registrar el estado emocional de niños autistas. Nilanjan Sarkar (uno de sus creadores), en un comunicado decía que, actualmente, hay muchas investigaciones en marcha en todo el mundo para intentar usar los robots en el tratamiento de niños con autismo. En Marzo de 2009, Investigadores de la Universidad de Brown, en Estados Unidos, crearon un robot que puede seguir y obedecer los gestos humanos en cualquier entorno, en exteriores e interiores. Y a principios de Julio de 2009, se creaba un robot con una capacidad de visión casi humana (semejante descubrimiento podría pronto impulsar la creación de máquinas capaces de moverse en espacios abarrotados). Pero aunque estos últimos avances parezcan los primeros pasos, lo cierto es que las máquinas emocionales, entendidas como “artefactos” capaces de conocer las emociones humanas, hace años que existen.
Androide ASIMO
Ya en 2002, un ordenador desarrollado por un equipo del Laboratorio de Percepción Mecánica, descubría el estado de ánimo de una persona cotejando más de 10.000 rostros en diferentes momentos de expresión. El programa integraba el reconocimiento de las expresiones con los movimientos del cuerpo, la tonalidad de la voz, y las señales metabólicas. Hasta llegó a superar la observación humana a la hora de distinguir un rostro masculino de otro femenino. En Julio de 2004, investigadores de la universidad californiana de Pasadena, en Estados Unidos, consiguieron registrar las señales que emiten las neuronas relacionadas con la planificación de los movimientos del cuerpo en monos, y decodificarlas usando un ordenador. Tal como explicaron en un artículo publicado en la revista Science, la posibilidad de decodificar dichas señales permitió predecir los movimientos de brazos de los monos cuando ellos “pensaban” cómo alcanzar un objeto, mucho antes de llegar realmente a
tomarlo. Si semejantes avances no son lo suficientemente convincentes (y me dejo muchos), cabe destacar también que la Inteligencia Ambiental se trata de una convergencia de ordenadores, wireless, sensores biométricos, agentes inteligentes y máquinas emocionales, que dotarán de inteligencia a nuestros entornos habituales, domésticos y de trabajo, y amplificarán nuestras capacidades cognitivas. “En nuestro inmediato futuro la inteligencia penetrará en el entorno, y se convertirá en una presencia ambiental”, según Eli Zelkha, CEO Palo Alto Ventures. Estarán incrustados en todos los elementos que nos rodean, y analizarán el entorno y a los usuarios, anticipándose a sus deseos, y haciendo el entorno más inteligente y accesible para todos.
En Junio de 1998, Palo Alto Ventures y Silicon Artists, por encargo del Vicepresidente Ejecutivo de Royal Philips Electronics, Roel Pieper, desarrollaron un primer informe que incluía la definición y el escenario de Ambient Intelligence (AmI), en español Inteligencia Ambiental.

 

Por primera vez, el ser humano no tendría que adaptarse a las máquinas, sino que la tecnología se adaptaría a él. La inteligencia penetrará en el entorno como una presencia ambiental. Entorno en el que nuestras necesidades se verán satisfechas del mismo modo en que la sangre circula en nuestro cuerpo: sin mediar una orden consciente.

 

Palo Alto Ventures y Silicon Artists - 1998

 

Philips lidera este campo y sigue presentando aplicaciones concretas que se inspiran en esta visión y que se agruparon en la presentación comercial de La Casa conectada, que presentó en 2003 en el Ce Bit Rudy Provoost, actual CEO de Philips Electronic Consumer.
En la última edición de la conferencia Computer Human Interaction, celebrada en Boston en Abril de 2009, han sacado a la luz los proyectos de investigación más punteros del sector de los llamados “interfaces de usuario orgánicos”; plastilinas “inteligentes” u objetos sensibles, son algunas de las propuestas planteadas para un futuro que, según algunos especialistas, está a la vuelta de la esquina. En un vídeo ilustración de este planteamiento, los interesados pudieron ver cómo un diseñador cogía un material “radical atoms”, como si fuera masilla, para dar forma a un sonajero infantil. La parte más interesante del proceso consistía en que dicha “masilla” estaría “informada” o sabría la forma que el diseñador está intentando imprimirle, y se auto-colocaría automáticamente, formando círculos perfectos. Y por dar un último ejemplo más actual, en Mayo de 2009 se creó el primer hogar virtual controlado solo con el pensamiento, que pronto será desarrollado para un hogar inteligente real, en el marco de otro proyecto de la UE, el SM4all (smart homes for all, o casas inteligentes para todos). La interacción entre ordenadores y seres humanos cada vez se va perfeccionando más, y los investigadores esperan que los ordenadores del futuro sean capaces de mirar la cara de una persona y extraer la información procedente, como hacemos los humanos entre nosotros. “La informática centrada en el ser humano pone su empeño en comprender a hombres y mujeres, incluyendo sus rostros, sus emociones, sus gestos, el modo en que hablan o sus movimientos”, comentaba Yongjin Wang el Junio de 2008 en declaraciones a Physorg.
Finalmente, una de las cuestiones más peliagudas que está quebrando la ética y que se asocia irremediablemente a la inteligencia, es el “Libre albedrío”. Muchos sostienen que ningún mecanismo cerebral ni neurológico te ordena que hagas cierta acción de tal o cual modo, de forma establecida e incuestionable. Es decir, que la inteligencia humana es capaz de modificarse a si misma gracias al libre albedrío. Pero lo que la neurología ha demostrado, es que la libertad es una ficción cerebral. El famoso “Libre albedrío”, no existe. Así lo confirmaron en 2008 las investigaciones sobre neurociencias. Estas investigaciones determinaron que la actividad cerebral previa a un movimiento, realizado por el sujeto en un tiempo por él elegido, es muy anterior (hasta 10 segundos) a la impresión subjetiva del propio sujeto de que va a realizar ese movimiento. Y aunque la falta de libertad es algo contraintuitivo, los experimentos indican que estamos determinados por las leyes de la Naturaleza. Por eso en Alemania algunos especialistas están reclamando la revisión del código penal para adecuarlo a los resultados de la neurociencia; “Aunque sigamos encarcelando a los que violen las leyes, cambiará la imagen que tenemos tanto de esos criminales como de nosotros mismos”. Ante tales acontecimientos, avances, e investigaciones, puede que en el fondo no seamos tan distintos a los robots (y que seamos como unos bio-robots). En cuyo caso, una empatía generalizada en el futuro hacia ellos, tendría su explicación. Y por los acontecimientos dados, y por los rumbos de investigación tomados, todo apunta que a eso vamos.
El futuro de los robots
EL FUTURO DE LA INTELIGENCIA ARTIFICIAL
En el sentido profesional , el empleo de la IA se orientará a aquellas profesiones que, ya sea por lo incomodo, peligroso, o complicado de su trabajo, necesitan apoyo de un experto en la materia. Las ventajas de disponer de un asistente artificial serán solucionar los errores y defectos propios del ser humano; es decir, el desarrollo de sistemas expertos que hoy en día se están utilizando con éxito en los campos de la medicina, aeronáurtica, etc (aunque todavía no están lo suficientemente avanzados en relación con el ideal de IA completa).
Y en el sentido más personal y social, tarde o temprano seres artificiales de lo más variopintos irrumpirán en nuestras calles y hogares. Desde simpáticas mascotas, hasta sofisticados androides que realizarán todo tipo de tareas. Y todo ello, enmarcado en un ambiente inteligente y sensible a las necesidades del usuario (mediante la inteligencia ambiental de la que hablábamos, y que está en desarrollo). David Levy (científico Holandés descubridor del famoso cometa que colisionó con Júpiter el 1994), en su tesis doctoral “Relaciones íntimas con compañeros artificiales“, sostiene que los robots adquirirán una apariencia totalmente humana y mejorarán sus funciones y personalidad has-
ta el punto de que muchas personas tendrán sexo con ellos, se enamorarán, e inclusive querrán llevarlos al altar. Si parece excesivamente especulativo, solo decir que un estudio del gobierno británico reveló que los robots podrán reclamar, en menos de 50 años, los mismos derechos de los que gozan los seres humanos. Kevin Warwick y Raymond Kurzweil, son acreditados científicos que trabajan activamente en interfaces hombre-máquina desde hace tiempo (y sus resultados los avalan). Están convencidos que la fusión con las máquinas es algo imparable, pero a diferencia de la mayoría de los mortales (entre los que no me incluyo), opinan que semejante proceso nos traerá ventajas inimaginables.

 

Hasta hace poco tiempo, la humanidad era entendida, tanto en el plano filosófico como en el nivel del sentido común, como una cosa que se contraponía esencialmente a las máquinas y a las prótesis que simulan funciones biológicas. La esencia de lo humano parecía residir justamente allí donde el robot fallaba y mostraba sus limites. Pero con la evolución de la robótica, de la biorobótica y de la vida artificial, el autómata fue de manera progresiva asumiendo competencias, talentos e incluso hasta sensibilidades que suponíamos específicas de nuestra especie, forzandonos a un dislocamiento constante y a una continua redefinición de nuestra humanidad. Más que eso: el desarrollo de interfases húmedas y biocompatibles están viabilizando ahora la inserción de elementos electrónicos dentro de nuestro propio cuerpo. Las emblemáticas instalaciones de Kac –de Rara Avis a Time Capsule- parecen sugerir que la máquina y el robot, tantas veces representados en la ciencia ficción como intrusos y usurpadores del lugar de los hombres, en el futuro podrán estar dentro nuestro, es decir, podrán ser nosotros mismos.


 

Arlindo Machado - Buenos Aires, Libros de Rojas, 2000, pp. 51-58

 


Fuentes:

Opiniones de los usuarios

No hay opiniones para este listado.
Asignar una puntuación (mientras más alta mejor es)
5
Comentarios