Desde aplicaciones en el teléfono que usamos, hasta complejos sistemas de gestión empresarial, la inteligencia artificial (IA) nos acompaña hoy a donde vayamos, y su uso en la toma de decisiones plantea la necesidad de hacerlo de forma ética, responsable y respetuosa de los derechos humanos.
Porque con inteligencia artificial hoy se decide, por ejemplo, si una persona es apta para realizar un trabajo, para concederle un crédito o para recibir un subsidio por parte del gobierno...
Para garantizar que esas decisiones se hagan de manera íntegra -o controvertir cuando parece no haber sido así- existen dos principios clave: la transparencia y la explicabilidad. Son herramientas que buscan combatir la opacidad, el engaño, la mentira y el abuso de poder informático.
De acuerdo con la Unesco, la transparencia en el uso y manejo de datos personales “tiene como objetivo proporcionar información adecuada a los respectivos destinatarios para permitir su comprensión y fomentar confianza”, y, según el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial, “la explicabilidad concierne a la capacidad de explicar tanto los procesos técnicos de un sistema (IA) como las decisiones humanas asociadas (por ejemplo, las áreas de aplicación del sistema)”.
Ambos conceptos, recogidos en el reporte especial de la Relatora Especial de la ONU sobre el Derecho a la Privacidad, de agosto de 2023, ayudan a garantizar el debido tratamiento de los datos personales y a evitar que los derechos humanos se vean lesionados o amenazados con el desarrollo de la inteligencia artificial, cuyos elementos básicos son los datos y los algoritmos.
Al respecto, el profesor Nelson Remolina, director del Grupo Gecti, de Estudios en Internet, comercio electrónico, telecomunicaciones e informática asegura que “si con el principio de explicabilidad se quiere que cualquier ser humano conozca por qué razón una decisión es tomada a partir del tratamiento de sus datos con herramientas de inteligencia artificial, pues, por lo menos la explicación debería ser clara, sencilla, completa, veraz y fácilmente entendible por quien solicita la explicación”.
Es decir, “no basta que se informe sobre los datos utilizados como insumos para generar la decisión, sino la lógica o metodología empleada para llegar a la misma. El reto no es menor, pero es alcanzable si se tiene voluntad para explicarle fácilmente a la gente por qué razón se generó una decisión basada en el tratamiento de sus datos personales”.
Las observaciones del profesor Remolina fueron consignadas en un capítulo del libro ‘Protección de datos personales: doctrina y jurisprudencia. Tomo III’, publicado por el Centro de Tecnologías y Sociedad de la Universidad de San Andrés, en Buenos Aires (Argentina), y recogidas en el informe de la Relatora de la ONU sobre el derecho a la privacidad.
En este se concluye que la explicabilidad y la transparencia son contrarios al tratamiento de datos ilegal carente de ética y respeto por los seres humanos y su dignidad.