La inteligencia artificial ha revolucionado varios ámbitos, convirtiéndose en una realidad tangible en nuestro día a día. Esto nos plantea una cuestión fundamental: la intersección entre la inteligencia artificial y la protección de datos. En esta entrevista realizada en Lleida TV, Miquel Serrano explora la relación entre la inteligencia artificial (IA) y la protección de datos, y cómo esta interacción plantea retos importantes en el tratamiento de la información personal.
¿Cuál es el miedo en torno a la inteligencia artificial?
En lugar de sentir miedo, debemos mostrar respeto hacia la inteligencia artificial. A pesar de ser una novedad y un área innovadora, debemos tratarla con cautela y responsabilidad, especialmente en lo que concierne al tratamiento de los datos personales.
¿Cuál es la relación entre la protección de datos y la inteligencia artificial?
Para comprender mejor la interacción entre la protección de datos y la inteligencia artificial, es necesario establecer claramente qué se entiende por inteligencia artificial. En esencia, se trata de programas y algoritmos que recopilan una gran cantidad de información y la procesan. El debate sobre la protección de datos emerge cuando se incluyen datos personales en ese proceso. Es aquí donde la IA debe cuidar cómo tratar estos datos de manera adecuada. Por ejemplo, si implementamos un programa de reconocimiento facial, es necesario alimentarlo con una gran cantidad de fotografías para que funcione correctamente. Asimismo, si implementamos un sistema de selección de personal, es inevitable que se obtengan datos personales. Lo que debemos hacer es tratarlos adecuadamente y seguir los fundamentos de protección de datos.
¿Qué normas de protección de datos debe cumplir la inteligencia artificial?
Es importante destacar que puede haber una tipología de inteligencia artificial que no trabaja con datos personales y, por tanto, no están sometidas a ninguna normativa de protección de datos. Sin embargo, todo programa, algoritmo o sistema de IA que manipule datos personales debe cumplir con el Reglamento General de Protección de Datos (RGPD) de la Unión Europea y con la Legislación Nacional de Protección de Datos (LOPDGDD). Los principios fundamentales que deben respetarse son la licitud, la lealtad y la transparencia en el tratamiento de los datos. Además, debe tenerse en cuenta el principio de responsabilidad proactiva, que implica considerar la forma de tratar los datos desde el inicio del proceso y evitar problemáticas derivadas de un uso incorrecto o inadecuado.
¿Qué datos personales puede procesar precisamente la IA?
Los datos personales que la IA puede procesar pueden ser de naturaleza diversa. Si la IA trabaja con datos de intranet, puede involucrar todo tipo de datos. Es importante tener presente que para utilizar datos de categorías especiales, que incluyen datos delicados como política, religión, prácticas sexuales, afiliación sindical e información de salud, es necesario obtener el consentimiento de los afectados. Nadie puede tratar este tipo de datos sin el adecuado consentimiento.
¿Qué riesgos implica el tratamiento de datos con la IA?
El tratamiento de datos con la IA plantea varios riesgos que todavía no están suficientemente determinados, puesto que es un ámbito en constante evolución. Entre estos riesgos se encuentran los errores en el tratamiento de los datos, la posible manipulación de la información, así como los algoritmos que pueden influir en la toma de decisiones. Esta cuestión es compleja y no tiene respuesta definitiva, pero es importante abordarla con la precaución necesaria para evitar la utilización ilegítima de los datos. No se trata de prohibir su uso, sino de determinar con claridad sus finalidades y beneficios que puede aportar. Es fundamental evaluar cómo este programa, estos algoritmos y otras herramientas de la IA pueden afectarnos y asegurarnos de que se están utilizando adecuadamente y de forma ética.
Hemos estado escuchando ultimando una serie de palabras que nos han llamado mucho la atención: ChatGPT. ¿Qué es el ChatGPT?
ChatGPT es un programa de inteligencia artificial (IA) que ha captado la atención del público en general, con más de 100 millones de usuarios mensuales que lo utilizan para diversas consultas. Este programa permite obtener respuestas rápidas y precisas en distintos ámbitos. Sin embargo, también ha suscitado preocupación, especialmente en el ámbito educativo, donde se ha prohibido su uso en algunos lugares de Estados Unidos. En Italia también se ha prohibido su uso debido a las preocupaciones sobre el tratamiento de datos personales y, en España, la Agencia Española de Protección de Datos está estudiando esta cuestión, con el objetivo de comprender cómo se utilizan los datos y cómo puede afectar a la privacidad de las personas. El problema de esta IA es que toma casi toda la información de Internet, y ahí hay muchos datos de carácter personal. El ChatGPT es una muy buena herramienta, pero hay que saber utilizarlo, ya que puede traer una usabilidad incorrecta de la información.
¿Cuáles son las recomendaciones que nos darías desde ASSplus?
Desde ASSplus, nos gustaría destacar la importancia de no poner barreras, sino establecer los términos adecuados para el tratamiento responsable de la información personal. Es fundamental garantizar que el uso de la información de las personas sea correcto y no se haga un uso inadecuado. Por tanto, nuestro consejo es el siguiente: si una empresa o entidad quiere implementar programas de inteligencia artificial (IA), es crucial revisar si estos programas tratan datos de carácter personal. A partir de ahí, es recomendable elaborar un análisis detallado para asegurarse de que el uso de la información sea adecuado y evitar posibles repercusiones negativas.