El algoritmo que predice el futuro no es fiable

Tienen un sesgo racial./Archivo
Tienen un sesgo racial. / Archivo
INVESTIGACIÓN

El programa COMPAS falla lo mismo que un ser humano

INNOVA+Madrid

La inteligencia artificial tiene mucho de artificial y también mucho del ser humano. Esto le ha pasado a COMPAS, un avanzadísimo software estadounidense que servía de apoyo a los magistrados del país para dictar sentencia.

El algoritmo de este sistema permitía calcular en base a unas variables el riesgo de una persona de volver a cometer un delito, así daba una puntuación al juez para condenar o absolver a un procesado.

Las primeras acusaciones llegaron con un posible posicionamiento a favor de procesados blancos frente a negros. Julia Dressel y varios investigadores del Dartmouth College iniciaron una investigación para descubrirlo.

La estudiante de informática escogió 1.000 acusados y eligió a 400 personas voluntarias para la investigación. Estos elegidos tenían una misión: debían pronosticar si volverían a ser arrestados dentro de dos años, el mismo estándar que utiliza COMPAS.

Los datos de la investigación son reveladores, los humanos acertaron casi con la misma frecuencia que el algoritmo, entre el 63% y el 67% de las veces, en comparación con el 65% de COMPAS, según informa la revista "Science Advances"El algoritmo que predice el futuro no es fiable.

Dressel y su equipo también trabajaron en averiguar si el sistema era racista. La conclusión del estudio es que humanos y COMPAS comparten el mismo sesgo racial. Ambos supusieron incorrectamente que habría más arrestos de personas negras de lo que realmente sucedió.

Contenido Patrocinado

Fotos