Ante creciente uso de este tipo de herramientas para decidir cuestiones que afectan directamente la vida de las personas

En 2017 un médico fue sacado a la fuerza de un avión en Estados Unidos, pese a haber pagado su pasaje para tomar el vuelo comercial. Tras el incidente, cuyo video se viralizó, se conoció que la selección se había realizado a partir de un algoritmo usado por la compañía aérea.

Este tipo de situaciones, en que se deja una decisión que afecta directamente a las personas en manos de modelos matemáticos, está ocurriendo cada vez más frecuentemente, apuntan desde el Consejo para la Transparencia (CPLT), y no sólo asociado a productos o servicios del sector privado. “Los algoritmos están presentes –sepámoslo o no- en diversos aspectos de nuestra vida cotidiana y determinan en muchas ocasiones las decisiones que tomamos, los productos y servicios que utilizamos y los beneficios a los que accedemos o no accedemos”, detalló el presidente del organismo, Jorge Jaraquemada.

De esta forma el Consejo alerta sobre lo que está “detrás” de una serie de decisiones automatizadas que usan técnicas de Big Data e Inteligencia Artificial (IA) para definir por ejemplo al beneficiario de un subsidio o para asignar recursos educacionales.

Para el CPLT, en un contexto de creciente recopilación y tratamiento de grandes cantidades de información digitalizada, incluyendo datos personales, es esencial “generar un marco normativo acorde al desarrollo tecnológico” que determine tanto “los derechos como las responsabilidades de los distintos actores”. Así como, apuntó el abogado, es de suma relevancia “el establecimiento de los mecanismos idóneos de control y protección de datos personales que se usan para construir los algoritmos”.

“En este sentido, la aprobación del Proyecto de Ley sobre Protección de Datos Personales y la consagración de un organismo autónomo que vele por ellos se vuelve cada vez más urgente”, dijo el representante del Consejo. Y subrayó, además, la necesidad de enfrentar “una serie de importantes riesgos que, de no abordarse de manera oportuna y responsable, puede resultar discriminatorios y generar importantes asimetrías de información”.

Un punto esencial para el CPLT es tener claro cómo se construyen, implementan o interpretan los algoritmos que procesan datos. Esto dado que es la base sobre la cual “se adoptan decisiones que afectan a las personas, tanto en el ámbito privado como público”. Asimismo, estimó que la opacidad en la que se mantienen muchos de ellos “puede estar abonando espacios para la manipulación de sus resultados”.

“Hay que considerar que los datos que se seleccionan y la manera cómo se tratan, pueden replicar sesgos, estereotipos y prejuicios de quien -en el mundo físico- los selecciona”, subrayó el presidente del Consejo, entidad encargada de velar por el cumplimiento de la Ley de Protección de Datos Personales en organismos de la administración central del Estado –acorde a lo establecido por la normativa de Transparencia-.

El representante del Consejo hizo el punto también respecto del conocimiento y fiscalización de los algoritmos: “El rol que juega la transparencia en este contexto es fundamental, pues abre la posibilidad de auditar y supervisar los datos, la información que se recoge, la manera cómo se gestionan, analizan y, finalmente, la idoneidad y justicia de las decisiones que se toman a partir de ello”, finalizó.