El rimbombante título del vídeo (que no me he inventado, sino que es como lo titulan los medios) esconde en realidad una sencillez elemental muy fácil de entender: Las máquinas deben saber distinguir entre el bien y el mal si queremos que se comporten adecuadamente conforme a nuestras normas sociales.
A la hora de imaginar el futuro es inevitable no pensar en una ciudad llena de viandantes acompañados de algún que otro robot. Máquinas de compañía que ayudan a un anciano a cruzar la calle o escoltan a los escolares al salir del colegio. Es fácil pensar en una ciudad con robots de diferentes tamaños, formas y colores, pero seguramente, todos ellos tendrán una cosa en común: compartirán una misma ética.
El hecho de que las máquinas con Inteligencia Artificial ya realicen actualmente actividades que requieren cierto nivel de independencia (como sugerir tratamientos a pacientes, tomar decisiones de compra u optimizar los flujos de trabajo) nos plantea la pregunta de dónde están sus límites morales.
La IA tiene un impacto creciente en nuestra sociedad y desde los sistemas de producción industrial que se optimizan a sí mismos hasta el cuidado de la salud, las máquinas realizan tareas humanas cada vez más complejas de manera cada vez más autónoma. En el futuro, las máquinas autónomas aparecerán en más áreas de nuestra vida cotidiana, y deben comportarse adecuadamente. Para ello es indispensable que actúen según normas morales para que su comportamiento sea el esperado.
Por ejemplo, los vehículos autónomos que circulan por sí mismos en las vías públicas... ¿Qué priorizan? ¿Saben distinguir entre el bien y el mal? ¿O entre lo mejor y lo peor en cada situación?
En el caso de un accidente en el que por las circunstancias, sea inevitable que haya víctimas... ¿a quién se debe salvar? Si hay que elegir entre la vida del conductor o un peatón anciano... ¿debe considerarse que la vida del conductor es más valiosa? ¿Y si en vez de un anciano es un niño? ¿Prevalece siempre salvar al de menor edad? ¿Se debe apostar por el resultado que menos número de víctimas arroje? ¿Cómo se regulan estas cosas?
Bien. Esto está todavía en debate, pero controversia a parte, se calcula que el vehículo autónomo evitaría un 90% de los accidentes.
Ante el riesgo de accidentes los programas informáticos de vehículos de este tipo toman decisiones que en principio, tienden a sacrificar a sus pasajeros si hay un riesgo de atropello de peatones.
Unas encuestas en Estados Unidos formulaban preguntas a la gente sobre la forma en que les gustaría que se comportaran los vehículos autónomos.
Los participantes dijeron que los coches autónomos deberían estar programados para proteger a los peatones pero contradictoriamente, indicaron que preferirían comprar aquellos coches inteligentes cuya programación les diera prioridad como pasajeros en cuanto a seguridad (sobre todo, si viajan con la familia).
En consecuencia, las máquinas inteligentes se enfrentarán a decisiones cada vez más difíciles. Un robot autónomo debe saber que no debe matar personas, y debe saber que puede tostar una rebanada de pan en lugar de un hámster. En otras palabras: la IA necesita una brújula moral de tipo humano que la guíe para que tome decisiones éticas correctas.
Pues bien. Ahora, unos investigadores alemanes han enseñado a una Inteligencia Artificial para que siga una línea de conducta ética desde el punto de vista humano. Puede extraer un razonamiento moral sobre la conducta "correcta" e "incorrecta" a partir de un texto escrito.
Los científicos crearon una lista de preguntas y respuestas, con preguntas como "¿Debo matar a personas?", "¿Debo asesinar a personas?", cuyas respuestas podían ser "Sí, debería" o "No, no debería”, etc.
El sistema de inteligencia artificial desarrolló una satisfactoria brújula moral similar a la humana, al procesar una gran cantidad de textos humanos con ese tipo de dilemas.
Este estudio demuestra que las máquinas pueden reflejar nuestros valores. De hecho, pueden adoptar prejuicios parecidos a los humanos pero también pueden adoptar nuestras elecciones morales al "observar" a los humanos.
Antes del siglo 21, la ética de las máquinas no se había tomado mucho en cuenta fuera de la literatura (debido principalmente, a las limitaciones en inteligencia artificial).
En 1950 Isaac Asimov trató el asunto en su libro "Yo, Robot" donde propuso las tres leyes de la robótica para regir los sistemas de inteligencia artificial.
Seguramente las conocéis pero las voy a repetir:
- Un robot no puede dañar a un ser humano ni, por inacción, permitir que éste sea dañado.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando estas órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia hasta donde ésta protección no entre en conflicto con la Primera ni Segunda Ley.
Estas leyes de la robótica han sido interiorizadas por diferentes generaciones de lectores de ciencia ficción que, a día de hoy, creen estar a punto de verlas hechas realidad.
No basándose por completo en estas directrices (pero sí bajo el mismo espíritu de priorización de la vida humana), Europa lleva trabajando años en unas leyes robóticas ajustadas a nuestro tiempo, que regularán nuestras interacciones con las máquinas.
Cuando sean finalmente publicadas ya hablaremos de ellas pero por el momento podemos preguntarnos:
¿Debe preocuparnos el comportamiento de los robots si se programan bien?
¿Sus acciones pueden controlarse o son un potencial peligro?
Y si adquiriesen conciencia... ¿Podrían llegar a ser impredecibles y demasiado peligrosos?
Fuentes:
- [tendencias21.net] Consiguen que la Inteligencia Artificial aprenda la ética humana
- [abc.es] El coche autónomo ante un accidente: ¿salva al conductor o al peatón?
- [es.wikipedia.org] Robots e Imperio
- [es.wikipedia.org] Ética de las máquinas
- [uoc.edu] ¿Quién decide la ética de las máquinas?
- [juguetronica.com] Ética 2.0: las nuevas leyes de la robótica
- [noticias.universia.edu.pe] ¿Existen las leyes de la robótica?