Big data y machine learning ayudan a combatir la delincuencia. Si bien predecir cuándo y dónde se cometerá un crimen en particular es imposible, en cambio sí es factible determinar en qué área de un vecindario es más probable que se perpetre cierto tipo de delitos, si se usa el software adecuado. Así lo demostraron académicos de la Universidad de California en Los Ángeles (UCLA), en conjunto con los departamentos de policía de Los Ángeles y Santa Cruz, en California.

Los investigadores tomaron un modelo matemático desarrollado por el profesor George Moher y lo alimentaron con datos extraídos de 13 millones de delitos registrados en un lapso de 80 años. Al utilizar técnicas de machine learning para buscar patrones, se dieron cuenta de que ciertos delitos (como los robos a casa habitación, los delitos contra la propiedad y los delitos violentos) tienden a replicarse en lapsos cortos en áreas cercanas. Ello les permitió extrapolar el modelo para predecir con razonable precisión en qué calles de la ciudad se podrían cometer futuros crímenes a partir de los ya ocurridos.

Bautizado The Los Angeles Predictive Policing Experiment, el ensayo piloto tuvo lugar a principios de 2011. Los patrulleros de la estación de policía Foothill (al norte de la ciudad) fueron asignados a vigilar con especial atención los sitios en los que el programa predecía que tendrían lugar los delitos durante su turno de 12 horas.

Al principio, los policías eran reacios a seguir los dictados del algoritmo, pero pronto se convencieron de su utilidad al percatarse de que los delitos efectivamente disminuían: durante la prueba piloto, los patrullajes resultaron en una disminución del 12% en los delitos contra la propiedad, 21% en los delitos violentos y 33% en los robos a casas habitación.

Big data, machine learning y analítica: armas contra la delincuencia

Los datos utilizados por el algoritmo pertenecen a tres categorías: tipo de delito, ubicación del delito y fecha u hora del delito. No se usa información personal ni datos demográficos, étnicos o socioeconómicos; así, se evitan sesgos y se elimina la posibilidad de infringir los derechos de los ciudadanos, delincuentes incluidos.

Las predicciones son presentadas como recuadros rojos de 150 metros de lado en una interfaz web basada en Google Maps. Esos recuadros representan las zonas en las que hay más probabilidad de que ocurran delitos durante un turno de 12 horas. A los oficiales se les recomienda patrullarlos al menos 6 minutos de cada hora con el fin de inhibir —o en su caso detener— a los posibles delincuentes.

En el Reino Unido algunos departamentos de policía replicaron el experimento. En Trafford (Manchester) obtuvieron una reducción del 26.6% en robos a casa habitación en una prueba realizada en 2011. En cambio, en Kent la experiencia fue disímbola: tras un exitoso ensayo de cuatro meses iniciado en diciembre de 2012, sufrieron un aumento en el número de crímenes registrados, que atribuyeron a información insuficiente e inexacta.

Con la experiencia lograda, Moher (quien fundó una empresa de seguridad pública, PredPol, dedicada a brindar consultoría a gobiernos locales) refinó los algoritmos de machine learning para lograr predicciones precisas a partir de un conjunto inicial de datos de un periodo que comprenda de 2 a 5 años. A partir de ahí, el algoritmo se actualiza con la información alimentada a diario por el departamento de policía. La interfaz operada por los departamentos de policía les permite obtener reportes detallados a partir de cualquier combinación de variables, presentadas de una manera visual y sencilla de comprender, tanto que las autoridades pueden compartirla sin mayor problema con los ciudadanos si así lo deciden.