• Eticas, una de las consultoras especializadas en auditoría algorítmica más potentes de España.
  • Y enumeró en un informe 8 algoritmos que ya usan la Administración Pública del país.
  • El patrón común es que hay poca información y poco auditado sobre cómo funcionan estos procesos automatizados.
  • ¿Ya conoces nuestra cuenta en Instagram? Síguenos

Los algoritmos son mucho más que una inocente secuencia matemática. En función de quién y cómo lo desarrolle, puede proyectar sesgos de su creador. 

De esta manera, procesos automatizados pueden estar generando enormes riesgos a amplias capas de la población, haciendo a colectivos más vulnerables y menoscabando sus derechos.

Regular los algoritmos es uno de los mayores desafíos contemporáneos. Se habla de ello desde hace años, aunque el debate en realidad es incipiente.La Comisión Europea ya presentó en abril del año pasado un borrador de Reglamento de Inteligencia Artificial.

Pero estos algoritmos, que según varias voces de expertos deben ser transparentes, explicables y auditables, también están presentes en las instituciones públicas.

En un informe, la consultora ´Eticas destaca cuáles son algunos de los algoritmos públicos que más riesgos tienen para los ciudadanos. La mayoría de ellos están en poder de las Fuerzas y Cuerpos de Seguridad del Estado.

8 tipos de algoritmos públicos que ya te afectan en tu día a día

1. VioGén

Un ejemplo de ellos es el sistema VioGén, que sirve para detectar «el riesgo de reincidencia de agresores en caso de violencia de género».

«De este algoritmo se conoce cómo se diseñó y cómo funciona», reconoce Eticas. «Sin embargo, el código sigue sin revelarse, ni qué peso tienen las diferentes preguntas del protocolo para que el algoritmo genere una puntuación de riesgo».

2. RisCanvi

RisCanvi es un sistema empleado en el sistema penitenciario de Cataluña desde hace ya cerca de 13 años, y calcula la probabilidad con la que un preso que está en libertad vuelva a reincidir.

3. Tensor

Tensor es un proyecto europeo cuyo propósito era crear una plataforma para que las policías de todo el continente puedan detectar, lo antes posible, actividades de terroristas en la red, como radicalización o células de reclutamiento.

Pero precisamente por su naturaleza, hay muy poca información libre sobre él. Ni siquiera se sabe si se sigue utilizando, por quién ni con qué objetivos.

4. Veripol

Si llamas a la policía y esta te ignora, es probable que un algoritmo llamado VeriPol haya puntuado tu tono de voz y tu forma de expresarte para calcular si tu denuncia es falsa.

Es un sistema de procesamiento del lenguaje y aprendizaje automático que conlleva riesgos de discriminación, ya que aquellas personas que no dominen el español podrían sufrir falsos positivos.

Además, VeriPol también se emplea para identificar lenguaje de odio u otro tipo de amenazas en redes sociales, destaca Eticas.

5. Reconocimiento facial

Otros modelos que las policías ya pueden emplear son los sistemas de reconocimiento facial. 

Precisamente España trabaja desde hace años en la creación de una frontera inteligente en el único paso terrestre que hay entre la UE y África: en Ceuta y en Melilla.

La posibilidad de instalar modelos de reconocimiento facial ya han llevado a exigir garantías por parte de partidos y colectivos sociales.

6. ISSA

ISSA es el chatbot de la Seguridad Social de España. Su código tampoco es público, denuncia Eticas, con lo que puede estar ofreciendo «las mismas respuestas a diferentes usuarios dependiendo de cómo se expresen», con lo que la posibilidad de discriminación a no hispanohablantes es alta.

7. Bosco

Bosco es el modelo que regula el bono social para el pago de la factura de la luz. Además revisa las solicitudes e incluso decide el resultado.

Pero como se señalaba antes, una fundación, Civio, litiga con el Gobierno ya que el mismo rechaza liberar el código.

8. Send@

También hay algoritmos asociados al Servicio Estatal Público de Empleo, como SEND@, que hace una búsqueda entre perfiles semejantes que buscan empleo y ofrece recomendaciones formativas a quienes tienen una mejor trayectoria.

«Históricamente algunos grupos de personas han sido discriminados a la hora de buscar un empleo como las mujeres y las minorías sociales».

AHORA LEE: Un regulador estatal multa a Google en Rusia por la difusión de contenidos prohibidos en YouTube

TAMBIÉN LEE: Amazon presenta a su primer robot de almacén ‘totalmente autónomo’

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: