Consejo para la Transparencia y UAI presentan estudio sobre el uso de algoritmos en organismos públicos


Para caracterizar el uso y fines que se dan en la gestión del Estado a los sistemas algorítmicos, y cómo la toma de decisiones derivada de su utilización afecta a la ciudadanía, la Escuela de Gobierno de la Universidad Adolfo Ibáñez (UAI) – a través del través laboratorio de innovación pública GobLab- y el Consejo para la Transparencia (CPLT) desarrollaron el estudio “Transparencia Algorítimica en el Sector Público”.

Desde las instituciones involucradas en esta investigación comentaron que el aumento del uso de este tipo de tecnologías en el ámbito estatal, por ejemplo en un proceso de admisión a un establecimiento educacional o para optar a un beneficio social, ha conllevado una serie de desafíos. En este contexto, la denominada transparencia algorítmica emerge como un requisito relevante de abordar en el esfuerzo de garantizar la protección de los derechos de las personas, redefinidos a partir de los avances tecnológicos.

Los principales resultados fueron dados a conocer en el marco de una actividad organizada por las entidades y que incluyó la presentación de los datos, por parte de Romina Garrido, abogada, investigadora asociada del GobLab y especialista en protección de datos; y comentada por Danielle Zaror, Directora OptlA; Gloria de La Fuente, presidenta del CPLT, la senadora Luz Ebensperger y Alberto Precth, director ejecutivo de Chile Transparente.

“El manejo de grandes cantidades de datos, los mínimos de responsabilidad y nuevas formas posibles de discriminación exigen no solo transparencia de actos y documentos, sino también de procesos que apoyan la toma de decisiones públicas”, comentó Romina Garrido.

Asimismo, Gloria de la Fuente refirió también a la utilización estos sistemas en la gestión del Estado “en el caso de los organismos públicos puede generar consecuencias muy relevantes para la vida de las personas, por ejemplo, el acceso a un beneficio social. Por ello, el Consejo, suscribió este convenio que nos ha permitido avanzar en un ámbito donde predomina la escasez de información y es una línea de trabajo en la que debemos perseverar por los niveles de desconocimiento que hay en esta materia, por ejemplo, entre funcionarios”, apuntó la titular del Consejo para la Transparencia, Gloria de la Fuente.

Catastro y transparencia de algoritmos

La investigación contempló la realización de un catastro de los sistemas algorítmicos cuyo uso fue informado por organismos públicos, una evaluación de la transparencia de un subconjunto de ellos y la elaboración de una recomendación normativa para el Estado.

En el marco de este proceso fueron consultados 870 servicios, registrándose la participación de un 33% de los organismos requeridos. Estos informaron un total de 219 sistemas, un 59,4% de los cuales fueron finalmente excluidos, por no estar dentro de la definición de sistemas de decisiones automatizadas objeto de la investigación.

Este estudio permitió, entre otras cosas, identificar algunas dificultades asociadas a la aproximación conceptual de los sistemas que se buscaba pesquisar, la identificación de responsabilidades claras en casos de uso local de sistemas con gestión centralizada, y también conocer detalles de la información institucional públicamente disponible de los sistemas declarados. Entre los principales hallazgos destacó, con respecto al último punto, que un 80% de los sistemas no contaban con antecedentes publicados en los sitios web de las instituciones públicas que los habían implementado.

En cuanto a los sectores en los cuales se han implementado estos sistemas, se logró establecer que un 38% de los declarados son de salud, seguido por asuntos económicos, con un 13%, y orden público y seguridad, con un 12%.

“Esta es una investigación empírica que finalmente permitirá a otros investigadores, académicos, sociedad civil y ciudadanos, comenzar a pensar en la mejor manera en que estos sistemas puedan contribuir a una mejor gestión pública y, por cierto, abordar sus riesgos, desafíos y conocer su real impacto. También muestra una evidente falta de transparencia en comunicar su existencia, con hallazgos que nos permiten indicar que las capacidades para ser más transparentes en el Estado existen y solo requieren ser bien dirigidas”, explicó Romina Garrido.

Los datos obtenidos con el estudio permitieron explorar un conjunto de 12 sistemas, para conocer su estado del arte, partiendo por la información básica respecto de su existencia, identificación, propósito, los datos que utiliza y su información pública disponible.

No sólo se indagó respecto a los sistemas de inteligencia artificial, sino que también sobre aquellos que utilizan algoritmos secuenciales que resuelven problemas con impacto público. Estos se analizaron bajo un estándar de transparencia algorítmica seleccionado. Los resultados de la muestra, demostraron un avance fortuito de esta materia impulsado por leyes de transparencia y participación de la ciudadanía en gestión pública.

También, que, a pesar de la existencia de información en pocos casos, esta información está dispersa y sin un destinatario definido. Entre los sistemas escogidos se encuentra un sistema de redes neuronales para detectar fraude en licencias médicas, un asistente virtual de FOSIS que ha asistido en 2020 a más de 270.000 personas para la postulación de beneficios que entrega esa entidad y Plan Predial del Servicio Agrícola y Ganadero que a partir del monitoreo de variables ambientales aconseja en aspectos relevantes de la gestión de predios de las personas.

Accede al estudio "Transparencia algorítmica en el sector público":
https://staticcl1.fidelizador.com/cptcomunica/ESTUDIO%20TRANSPARENCIA%20ALGORITMICA%20EN%20EL%20SECTOR%20PUBLICO%20GOBLAB%20CPLT%20final...-1.pdf
Seo Services