Saltar Aviso
Mundo

¿Cómo en Estados Unidos las matemáticas te pueden meter en prisión?

¿Cómo en Estados Unidos las matemáticas te pueden meter en prisión?
T13
Compartir
En varios estados de EE.UU. están utilizando un puntaje de riesgo basados en un algoritmo para determinar la peligrosidad de un criminal, pero esto ha generado un fuerte debate sobre si su aplicación está siendo parcialmente racista.

¿Es justo para los criminales que sus sentencias y sus opciones de obtener la libertad condicional en EE.UU. sea determinada por un programa informático de análisis de riesgo basado en un complejo algoritmo?

En el documental "Making a murderer" de Netflix queda claro que, por ejemplo, el sistema judicial del estado de Wisconsin tiene sus problemas a la hora de tomar decisiones justas.

Es precisamente otro caso en este estado que atrajo la atención local e internacional sobre cómo funciona el sistema judicial estadounidense.

En febrero de 2013, Eric Loomis fue capturado bajo sospecha de estar involucrado en un tiroteo ocurrido en la pequeña ciudad de La Crosse.

Loomis aceptó que conducía el vehículo donde huyeron las personas que participaron en el intercambio de disparos, pero nada más.

Eric Loomis decidió cuestionar el análisis hecho por Compas, el cual concluyó que debía ser enviado a la cárcel por seis años.
Eric Loomis decidió cuestionar el análisis hecho por Compas, el cual concluyó que debía ser enviado a la cárcel por seis años.

Sin embargo, en la corte fue sentenciado a seis años de prisión.

En la definición, las matemáticas cumplieron un rol preponderante.

Compas

Cuando se estaba tomando la decisión de encerrar a Loomis, la corte notó que él había sido identificado como "un individuo de alto riesgo para la comunidad" por un programa llamado Análisis Compas.

Compas es un acrónimo que en español puede traducirse como Administración de Perfiles de Criminales para Sanciones Alternativas del Sistema de Prisiones de EE.UU. (Correctional Offender Management Profiling for Alternative Sanctions).

Una de las personas familiarizadas con Compas es Julia Angwin de ProPublica, una organización de periodismo de investigación en Estados Unidos.

"Compas es básicamente un cuestionario que se le da a las personas cuando son arrestadas. Y se les pregunta un montón de cosas que terminan concluyendo si esa persona en el futuro podría cometer un crimen", explicó Angwin a la BBC.

Analistas señalan que el algoritmo en sí no es parcializado, sino que muestra que parte del sistema judicial de Estados Unidos sí lo está.
Analistas señalan que el algoritmo en sí no es parcializado, sino que muestra que parte del sistema judicial de Estados Unidos sí lo está.

Angwin explicó que las preguntas incluyen aspectos como "tu historia criminal, si algún miembro de tu familia ha cometido un crimen o ha sido arrestado, si vives en un barrio peligroso, si tienes amigos que pertenecen a una pandilla, tu historial laboral y académico".

Y agregó: "Y a eso le suman preguntas que podíamos denominar pensamiento criminal, que son algo así como: '¿está de acuerdo o en desacuerdo con esta afirmación: está bien para una persona hambrienta robar comida?'".

Cada respuesta recibe un puntaje que varía de 1 a 10.

Entonces aparece un valor promedio de riesgo que decide si alguien puede salir bajo fianza, debe ser enviado a prisión o recibir otro castigo. Cuando la persona ya está encarcelada, el algoritmo determina si merece el beneficio de la libertad condicional.

Los diseñadores del programan señalan que el algoritmo en que se basa el análisis no es parcializado.
Los diseñadores del programan señalan que el algoritmo en que se basa el análisis no es parcializado.

Error humano

Compas y otros programas similares se utilizan en todo Estados Unidos.

El principio, señalan los defensores del método, es que al usar el algoritmo que permita cotejar toda la información posible sobre el acusado se puede ayudar al sistema judicial a tomar decisiones menos subjetivas, anulando el racismo o el error humano.

Por ejemplo, el cuestionario no pregunta sobre la raza del acusado, o sea que en teoría la decisión o el resultado no está influenciado por el racismo.

El problema es que el algoritmo -los números- de donde las respuestas obtienen el puntaje es mantenido en secreto.

Algunos critican que el uso de análisis de datos para determinar penas a los acusados de un crimen pueden aumentar las tensiones raciales y algunas minorías en Estados Unidos.
Algunos critican que el uso de análisis de datos para determinar penas a los acusados de un crimen pueden aumentar las tensiones raciales y algunas minorías en Estados Unidos.

"No sabemos cómo se otorga el puntaje porque es secreto. Es un secreto comercial que tiene la empresa que diseñó Compas y no lo comparte", dijo Angwin.

Y para Angwin esto es un gran problema para el acusado si quiere intentar rebatir su puntuación.
"¿Cómo la persona va a decir que es un ocho o un siete, cuando no sabe cómo lo calificaron, cómo llegó a obtener ese puntaje?", explicó Angwin.

El caso Loomis

Basado en parte en este análisis es que Loomis decidió cuestionar el uso de Compas en su caso.
Pero el pasado mes de julio, la Corte Suprema de Justicia de Wisconsin determinó que, si Compas es utilizado de forma adecuada, no viola los derechos de los acusados.

Sin embargo, en esa misma sentencia la alta corte también determinó que, en el futuro, el análisis de riesgo deberá tener una aclaración sobre sus limitaciones.

Por ejemplo, deberá aclarar que el algoritmo será mantenido en secreto y que el puntaje de riesgo está basado en cómo las personas en ciertos ambientes tienden a comportarse en general y no en una persona en particular.

Muchas estados en EE.UU. están utilizando el mismo sistema de puntaje de riesgo.
Muchas estados en EE.UU. están utilizando el mismo sistema de puntaje de riesgo.

La Corte Suprema de Wisconsin también advirtió que Compas podría darle a las minorías étnicas puntajes de riesgo desproporcionado: una seria debilidad en el sistema teniendo en cuenta las actuales tensiones que se vive con la policía por cuestiones vinculadas a la supuesta discriminación y el desigual trato basado en aspectos raciales.

La corte expresó esta preocupación basándose en la investigación de Angwin y sus colegas de ProPublica, que cuestionaban la exactitud de los puntajes de Compas y su aplicación en la práctica.
Dicha investigación analizó los puntajes de 7.000 personas arrestadas en el estado de Florida durante dos años y la conclusión fue impactante.

"Si comparas a una persona negra y una blanca que tienen el mismo historial, la misma edad, el mismo género, el mismo pasado judicial y el mismo 'futuro criminal' (las posibilidades de cometer un crimen, dos crímenes o ninguno), el acusado negro tiene un 45% más de posibilidades de obtener un puntaje de riesgo que un acusado blanco", explicó Angwin.

Sorpresa

¿Cómo puede un algoritmo ser racialmente parcial si nunca pregunta por la raza?

Compas incluye preguntas como: "¿alguien en tu familia ha sido arrestado?", o "¿cuántas veces has sido arrestado?".
Compas incluye preguntas como: "¿alguien en tu familia ha sido arrestado?", o "¿cuántas veces has sido arrestado?".

"El algoritmo pregunta muchas cosas que pueden aproximarse al tema racial".

Por ejemplo, incluye preguntas como: "¿alguien en tu familia ha sido arrestado?", o "¿cuántas veces has sido arrestado?".

"Hay tal exceso de intervención policial en las comunidades de minorías que es mucho más probable que sean ciertas para una minoría cualquiera que para los blancos", anotó.

Los hallazgos deProPublica han generado bastante debate en Estados Unidos en torno al uso de puntajes de riesgo.

Algunos los han cuestionado. Pero la compañía que diseñó Compas publicó un comunicado en el que rechazaba las conclusiones de ProPublica afirmando que los resultados del algoritmo eran racialmente parcializados.

La empresa ProPublica analizó el análisis de datos de 7.000 personas arrestadas durante dos años.
La empresa ProPublica analizó el análisis de datos de 7.000 personas arrestadas durante dos años.

Tres investigadores no relacionados con Compas también escribieron un documento cuestionando los métodos de ProPublica.

El autor del trabajo fue Anthony Flores, un profesor de la Universidad Estatal de California, en Bakersfield. Él afirmó que los algoritmos han probado ser mejores predictores de criminales repitentes que los propios jueces y que ProPublica ha malinterpretado lo que ha mostrado la información.

"No hemos encontrado ninguna parcialización de ningún tipo cuando hemos reanalizado los datos. Me parece que ProPublica aplicó lo que conocemos como 'tortura de datos'", explicó Flores.

La tortura de datos consiste en intentar varios tipos de medición hasta llegar al resultado que se quiere en una investigación.

"No necesariamente estamos en desacuerdo con sus hallazgos, pero sí con sus conclusiones", añadió.

Hay una tendencia

La BBC conversó con un buen número de estadísticos que no están involucrados en el debate y están bastante de acuerdo en que existen otras maneras de mirar estos datos y concluir que las decisiones del algoritmo no son parcializadas.

Compas hace parte de una tendencia en el sistema penitenciario de EE.UU. para determinar la peligrosidad de un reo mediate el uso de software.
Compas hace parte de una tendencia en el sistema penitenciario de EE.UU. para determinar la peligrosidad de un reo mediate el uso de software.

Pero ambos bandos de la discusión parecen estar de acuerdo en algo: si la gente negra en general tiende más a cometer de nuevo un crimen, entonces para un acusado negro es mucho más factible recibir un alto puntaje de riesgo.

Así que mientras el algoritmo en su esencia puede no ser parcializado, está reflejando de manera más amplia la parcialidad del sistema judicial.

Angwin dijo que esto es algo que merece una reflexión más profunda: "Si estamos hablando de la libertad de las personas, entonces tenemos la obligación de hacerlo bien".

"Pienso que es muy importante recordar que estamos hablando de matemáticas, de procesos que son bastante modificables. Así que podemos hacer un cambio que asegure el resultado que la sociedad necesita y quiere".

Señal T13 En Vivo