Minority report - El "precog" de la actualidad

Minority report - El "precog" de la actualidad

Popular
 
0.0 (0)
Escribir Opinión

Dentro de unos años, la policía usa las visiones del futuro de un grupo de tres personas "Precognitivas" (que son tres mutantes) que tienen la habilidad de predecir el futuro.
Esto permite a las autoridades arrestar a los criminales antes de que puedan cometer el delito, haciendo así un mundo más seguro.

Este era el punto de partida de la película de Spielberg llamada 'Minority report' basada en un relato corto de Philip K. Dick, y aunque parezca imposible, ya existe una réplica de algo parecido en la actualidad (solo que no se usan mutantes con visiones, sino una inteligencia artificial).

 En efecto, la justicia estadounidense sí utiliza su propio «mutante» (podríamos decir), para saber si alguien puede volver a reincidir.

Se trata de un sofisticado software llamado COMPAS, una herramienta informática que ayuda a los jueces a definir, por ejemplo, si alguien debe ir a la cárcel o salir en libertad condicional, o el tiempo que debe permanecer en prisión, según su puntuación de riesgo de reincidir.

En resumidas cuentas:
Compas es una IA que entre otras cosas, predice si un delincuente volverá a reincidir (y en función de eso, se le da la condicional o no). Podemos establecer "ciertas" similitudes con los precog de la película de Spielberg (pues en ambos casos se trata de predecir el futuro), aunque no sea lo mismo.

Sin embargo, si ya en la ficción no todo era tan idílico como parece inicialmente, en la actualidad se han torcido todavía más las cosas...

Que una máquina decida sobre la vida humana siempre da lugar a controversias, y ahora, investigadores y defensores de los derechos civiles, han dudado sobre la fiabilidad de COMPAS y temido que sus resultados sean injustos.

Así es, un equipo de investigadores liderado por Julia Dressel (estudiante de informática en el Dartmouth College), decidió salir de dudas. Ha estudiado la validez de los resultados de COMPAS, y lo que ha encontrado es de lo más inquietante: El algoritmo no es más fiable que cualquier humano sin preparación.

La estudiante de informática escogió 1.000 acusados y eligió a 400 personas voluntarias para la investigación. Estos elegidos tenían una única misión: debían pronosticar si los delincuentes volverían a ser arrestados dentro de dos años (el mismo estándar que utiliza COMPAS).
Resultado: humanos sin preparación alguna, acertaron con la misma frecuencia que COMPAS.

Pero eso no es todo:
Dressel y su equipo también trabajaron en averiguar si el sistema era racista. Había sospechas de que el sistema favorecía a los ajusticiados blancos frente a los negros, y la conclusión del estudio es que efectivamente, humanos y COMPAS comparten el mismo sesgo racial. Ambos supusieron, incorrectamente, que habría más arrestos de personas negras de lo que realmente sucedió.

A todo esto, la empresa dueña de COMPAS se niega a dar a conocer la fórmula de su desarrollo porque, según dicen: "es un proyecto privado con derechos de autor".

Así pues, el sistema no solo no es más fiable de lo que pueden predecir simples humanos, sino que favorece a los ajusticiados blancos frente a los negros.

En EE.UU., algoritmos similares influyen no solo en las decisiones judiciales, sino también en las aprobaciones de préstamos, las evaluaciones de los docentes e incluso, si los cargos por abuso infantil pueden ser investigados por el estado.
Saber que no son mejores que cualquiera en predecir el comportamiento de un delincuente, hace que deba cuestionarse su fiabilidad...

¿Qué te parece este "precog" actual? ¿Hay que revisar su uso? ¿O pese a todo, se debe suponer que es más eficaz que los humanos?

Fuentes:

Opiniones de los usuarios

No hay opiniones para este listado.
Asignar una puntuación (mientras más alta mejor es)
5
Comentarios