Quieren crear un algoritmo para predecir si te convertirás en un asesino
Las autoridades quieren poder predecir si algún ciudadano puede convertirse en asesino a través de algoritmos predictivos

Las autoridades quieren crear un algoritmo que analice a millones de personas e identifique a los potenciales asesinos para poder prevenir crímenes Crédito: Shutterstock
El gobierno del Reino Unido ha iniciado el desarrollo de un algoritmo destinado a predecir futuros crímenes, una iniciativa que ha generado controversia por su similitud con la trama de la película de ciencia ficción “Minority Report”.
Algoritmo para anticipar crímenes
El proyecto, inicialmente denominado “Proyecto de predicción de homicidios” y posteriormente rebautizado como “Intercambio de datos para mejorar la prevención de riesgos”, busca identificar a individuos con alta probabilidad de cometer asesinatos en el futuro. Para ello, se analiza información como datos personales como fecha de nacimiento, historial de salud física y mental, adicciones, intentos de suicidio y discapacidades.
Estos datos provienen de personas que han sido criminales, víctimas o testigos de delitos, y se ha señalado que muchos de ellos no habrían dado su consentimiento explícito para el uso de su información.
El objetivo declarado del gobierno británico es mejorar la seguridad pública mediante la anticipación de comportamientos violentos. Sin embargo, organizaciones de derechos humanos han expresado su preocupación por los riesgos éticos que implica esta iniciativa, calificándola de “peligrosa y distópica”.
Ecos de “Minority Report” en la realidad
La similitud entre este proyecto y la película “Minority Report” ha sido ampliamente comentada. En el filme dirigido por Steven Spielberg y protagonizado por Tom Cruise, una unidad policial especializada, conocida como PreCrimen, detiene a los delincuentes antes de que cometan sus crímenes, basándose en visiones proporcionadas por tres psíquicos llamados “precognitivos”.
Aunque en la realidad no se cuenta con habilidades psíquicas, la utilización de algoritmos para predecir comportamientos delictivos plantea interrogantes similares sobre la ética y la justicia de actuar en función de eventos que aún no han ocurrido.
Preocupaciones éticas y sociales
Críticos del proyecto han señalado que el uso de datos personales sin consentimiento explícito y la posibilidad de que el algoritmo perpetúe sesgos existentes en el sistema judicial podrían llevar a la estigmatización de ciertos grupos sociales. Además, se cuestiona la eficacia de estas herramientas en la reducción real de la criminalidad y se advierte sobre el riesgo de crear un sistema de vigilancia que comprometa las libertades individuales.
Mientras el gobierno británico argumenta que este algoritmo podría ser una herramienta eficaz para prevenir crímenes y mejorar la seguridad pública, las preocupaciones éticas y sociales que suscita su implementación reflejan los dilemas planteados en obras de ficción como “Minority Report”, recordándonos la importancia de equilibrar la innovación tecnológica con el respeto a los derechos fundamentales.
Sigue leyendo:
• 6 maneras en que grupos criminales de América Latina usan la inteligencia artificial para delinquir
• “Cada momento lo convirtió en porno”: cómo un amigo me traicionó usando mi imagen con inteligencia artificial
• “Es como llevar el internet oscuro en tu bolsillo”: cómo Telegram se ha vuelto una app popular para actividades criminales