MADRID, 22 (Portaltic/EP)
PUBLICIDAD
PUBLICIDAD
Con motivo del Día de las Naciones Unidas para las Administraciones Públicas, que se celebra el 23 de junio, el Observatorio de Algoritmos con Impacto Social (OASI) de la Fundación Eticas ha dado a conocer los más habituales en las instituciones gubernamentales españolas.
Esta fundación cuenta con una base de datos que integra los algoritmos según su impacto social, en ámbitos como la salud, la economía, la vigilancia policial, los servicios sociales o la educación.
Así, Eticas busca concienciar a los ciudadanos de la presencia de estos sistemas y de los riesgos en términos de discriminación que conlleva su uso, en algunos casos, si no se realiza un ejercicio de transparencia y de análisis de uso de estos.
En primer lugar, este organismo destaca que las instituciones públicas españolas están cada vez más automatizadas, con numerosos procesos que necesitan una infraestructura digital para agilizar las gestiones en línea.
A pesar de que estos mecanismos pueden suponer un gran apoyo para los trabajadores del sector público, la fundación considera que también pueden generar alguna amenaza en materia de privacidad y de sesgos discriminatorios.
Asimismo, matiza que todos estos algoritmos deberían estar auditados debido a la Ley 40/2015 del Régimen Jurídico del Sector Público, de 1 de octubre de 2021, que regula los Ministerios y su organización interna en España.
LOS ALGORITMOS MÁS USADOS
Para acercar a los ciudadanos los algoritmos más utilizados en tres sectores públicos, como son las fuerzas del orden, los servicios sociales y el empleo, ha elaborado un documento en el que detalla sus nombres y su funcionamiento, con el fin de determinar si existe falta de transparencia en su uso.
El sector de las fuerzas del orden es el que más utiliza los algoritmos. Entre ellos se encuentra VioGén, que detecta el riesgo de reincidencia de agresores en casos de violencia de género. A pesar de que de él se conoce cómo se diseñó y cómo trabaja, su código de funcionamiento, así como el peso que tienen las preguntas del protocolo para determinar esos riesgos, aún no se han revelado, como apuntan desde la fundación.
Por otra parte está Tensor, un proyecto desarrollado a nivel europeo que vigila posibles actividades terroristas en Internet. Debido a su naturaleza y debido a que nació como sistema común para que los cuerpos de seguridad de todo el continente pudieran detectar la radicalización o el reclutamiento en la red, desde Eticas señalan que existe muy poca información sobre esta plataforma.
No solo no hay información disponible sobre la plataforma Tensor, sino que tampoco se sabe si se está utilizando, quién la controla ni con qué objetivos la usa. Veripol, en cambio, se encarga de detectar denuncias falsas y, para ello, utiliza el aprendizaje automático y el procesamiento de lenguaje a fin de analizar las llamadas y predecir que las denuncias sean falsas.
Debido a eso, en Eticas creen que es posible que exista el riesgo de discriminación contra personas que no sean españolas nativas o que tengan un nivel educativo bajo.
En relación a este tipo de sistemas de reconocimiento, Eticas ha recordado que ponen en riesgo el derecho a la privacidad de los usuarios y que también pueden surgir falsos positivos, puesto que los datos con los que se entrena a este tipo de algoritmos suelen estar sesgados.
Finalmente, la fundación ha recordado que Riscanvi, utilizado en Cataluña desde el año 2009, es un algoritmo capaz de calcular la probabilidad de que un preso que está en libertad vuelva a reincidir.
BOSCO, EL ALGORITMO PARA LA FACTURA DE LA LUZ
En cuanto a los servicios sociales, los sistemas algorítmicos están enfocados a clasificar a las personas según sus necesidades o urgencias, entre otros aspectos. Uno de los más utilizados es Bosco, un algoritmo que regula el bono social para el pago de la factura de la luz.
Bosco se encarga de revisar las solicitudes del bono social e, incluso, las resuelve. Tras una serie de resoluciones controvertidas, la organización sin ánimo de lucro Civio solicitó al Gobierno español que liberara el código de este algoritmo, obteniendo una negativa por respuesta. Este caso aún está en curso, ya que llegó a los tribunales.
Por otra parte, y en el sector de empleo, Send@ hace un rastreo entre un grupo de personas que tienen un perfil semejante y se determina quiénes son los que tienen mejor trayectoria profesional para ofrecer recomendaciones formativas.
En este caso desde la fundación apuntan que existe un riesgo de discriminación para los grupos menos favorecidos y, además, puede no contemplar las diferencias y la diversidad entre los demandantes de empleo.
ISSA, por su parte, es el 'chatbot' de la Seguridad Social que, al igual que otros algoritmos mencionados, no es público ni puede ser auditado. Debido a que genera respuestas automáticas, es posible que ofrezca las mismas respuestas a distintos usuarios dependiendo de cómo se expresen, lo que favorece la discriminación.
Finalmente, la Fundación Eticas ha indicado que, fuera de España, existen otros sectores en los que los algoritmos regulan algunos aspectos, como la Educación.
De ese modo, estos sistemas pueden clasificar y ordenar a los estudiantes que aspiran a entrar a escuelas o universidades, lo que fomenta el sesgo entre unos alumnos y otros dependiendo de los intereses de estos centros.