Tecnologías policiales y el temor a una vigilancia sin control

Cada vez más los departamentos de policía y otras entidades judiciales recurren al reconocimiento facial, cámaras corporales y otras tecnologías policiales en su mayoría provenientes de empresas privadas. Este aumento es tal que se proyecta un crecimiento del mercado de tecnologías de reconocimiento facial de 8 mil 500 millones de dólares para 2025, según la plataforma de análisis Statista. Sin embargo, estas herramientas policiales despiertan el temor a una vigilancia sin control, como sugiere una investigadora de la Universidad de California en Davis.

Según un comunicado de la universidad, esta preocupación proviene de la falta de equilibrio entre brindar tecnologías policiales para el trabajo judicial y el derecho a la privacidad de las personas. De acuerdo a la profesora Elizabeth Joh, las empresas privadas fabricantes de estas tecnologías policiales se encuentran actualmente fuera del alcance del escrutinio público. Aunque reconoce las preocupaciones justificadas respecto a la propiedad intelectual, señala que las invocaciones de información patentada no pueden convertirse en un escudo contra la responsabilidad pública cuando sus clientes son departamentos de policía.

Por esta situación actual de las tecnologías policiales, la investigadora señala en un artículo académico en la revista Science la necesidad de implementar leyes para regular el uso de tales equipos. Este artículo publicado el 15 de octubre de 2021, menciona además que las comunidades y personas sometidas a estas tecnologías policiales merecen transparencia sobre el uso de estas herramientas. Igualmente sobre si existe la posibilidad de impactos racialmente discriminatorios, fallas relacionadas con diseño o su ejecución. También si el uso de dichas tecnologías policiales es justificado, por su costo con relación a los recursos públicos disponibles.

En otra nota de prensa de la Universidad de California en Davis, el profesor de ciencias computacionales Ian Davidson señala que cada vez más investigaciones denuncian de sesgos en la inteligencia artificial. Los sesgos de esta tecnología, la cual es motor de muchas de estas herramientas de vigilancia, pueden conducir a resultados sesgados, en particular para poblaciones minoritarias y mujeres, advierte. Según el investigador, se ha demostrado, las tecnologías de reconocimiento facial detectan mejor los rostros blancos en comparación con los rostros de personas con piel más oscura. Similarmente detectan mejor los rostros de hombres en comparación con el de las mujeres, llevando a detenciones erróneas debido a estas imprecisiones.

Debido a señalamientos de este tipo, empresas como Amazon e IBM anunciaron suspensiones en la venta de tecnologías de reconocimiento facial a departamentos policiales en 2020. Además, ciudades estadounidenses como Oakland, San Francisco y Portland no permiten, en sus leyes de protección de datos, el uso de reconocimiento facial, aunque dicho país utiliza esta tecnología en sus fronteras.

La tecnología evoluciona constantemente y nuevas innovaciones prometen facilitar el trabajo en diversas áreas de la vida humana, incluido el judicial. Sin embargo, tecnologías como la inteligencia artificial utilizada en herramientas de vigilancia muchas veces replica sesgos humanos que pueden conducir a errores e injusticias. En este sentido y ante el inminente aumento del uso de tecnologías policiales es imperativo supervisar su uso y permitir la transparencia y rendición de cuentas públicas en esta materia.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.