EFE | Reporta beneficios y utilidades en todos los sectores y servicios y va a
transformar la vida cotidiana, pero la Inteligencia Artificial (IA) se
ha convertido en una nueva amenaza y en un reto para la adecuada
protección de los datos personales ante la capacidad de esta tecnología
de recabar datos y trazar perfiles, y hacerlo además sin ningún
consentimiento.
A través del "aprendizaje automático", de técnicas de "minería de
datos" o de algoritmos predictivos, las máquinas son capaces de tratar
millones de datos y hacer análisis y deducciones, pero pueden hacerlo
con sesgos que, si no son revisados y re-interpretados, podrían incluso
definir perfiles personales que ni siquiera sean exactos, almacenarlos y
tratarlos sin autorización.
La IA está detrás de la personalización de anuncios en internet; de
la predicción de hipotecas; del diagnóstico de pacientes a partir de sus
datos; del reconocimiento facial en lugares donde prima la seguridad;
de los asistentes inteligentes en el hogar; de la optimización del
recorrido que hace una persona; o de los procedimientos de muchas
empresas para seleccionar a sus trabajadores.
Para poner de relieve los aspectos más importantes que se deben tener
en cuenta a la hora de diseñar productos y servicios que incluyen el
tratamiento de datos a partir de la inteligencia artificial y adaptarlos
al Reglamento General de Protección de Datos, la Agencia Española de
Protección de Datos (AEPD) ha editado una guía que repasa las
inquietudes que genera el uso de esta tecnología.
Luis de Salvador, responsable de la Unidad de Evaluación y
Tecnologías de la AEPD, ha señalado que la Inteligencia Artificial puede
implicar riesgos "pero también puede ser una herramienta para la
protección de los datos personales" y ha apuntado que existen ya
aplicaciones basadas en esa tecnología que podrían servir para reforzar
la protección de los datos personales.
"Todo avance e innovación conlleva grandes beneficios y también
posibles riesgos; el peligro de esos riesgos está en ignorarlos", ha
expresado a EFE Luis de Salvador, quien ha manifestado que la IA supone
desafíos y retos importantes "pero no insuperables". Está seguro de que el Reglamento español es suficientemente flexible
para hacer frente a este desafío e incluye los instrumentos necesarios
para que todas las aplicaciones que usan ese tipo de inteligencia
respeten los derechos y libertades de los ciudadanos.
Miguel Ortego, profesor de Derecho en la Universidad Europea y
experto en derecho tecnológico, ha subrayado sin embargo que el riesgo
de que los datos personales estén indebidamente protegidos es
"evidente", y ha opinado que la legislación actual se basa en modelos
"muy antiguos" y no se adapta a las realidades y necesidades actuales.
"La legislación española está fuera de juego", ha declarado a EFE el
profesor, y ha señalado que aunque la legislación europea y española es
mucho más robusta que la americana, tienen "muchos déficits y lagunas" y
no está en línea con la velocidad a la que avanza la tecnología, por lo
que a su juicio va a quedar "desfasada" en pocos años.
La guía de la AEPD incide en la importancia de la "dimensión ética"
de la Inteligencia Artificial y de proteger valores como la libertad, la
dignidad, la justicia frente al "razonamiento mecánico", en el riesgo
de que las máquinas utilicen sesgos que deriven en discriminaciones, y
de que los resultados de esta tecnología sean aceptados como ciertos e
inamovibles sin ningún espíritu crítico.
Este organismo ha incidido por ello en la importancia de la
"exactitud" de los datos personales, y en que ésta es especialmente
crítica cuando el tratamiento de los datos está basado en información
biométrica -como el reconocimiento facial o la huella dactilar- o cuando
se recogen datos de personas con alguna discapacidad o singularidad
física.
El profesor Miguel Ortego ha advertido del riesgo "real" de
almacenar información con sesgos y se ha referido al caso del sistema
holandés que utilizaba el Gobierno para detectar posibles delincuentes y
fraudes y usaba de forma sesgada datos sobre la raza y condiciones
socio-económicas para determinar quién tiene más posibilidades de
delinquir.
Ortego ha diferenciado la IA "débil" , que a su juicio es "muy
predecible" y está ampliamente controlada por los programadores y las
personas; y la IA "fuerte": máquinas capaces de auto-aprender, de
manejarse solas, de segmentar datos e información y hasta de vender
datos sensibles por sí solas.
Ha incidido por ello en la importancia de la dimensión "ética" en una
sociedad tan tecnológica y digitalizada, y se ha mostrado convencido de
que en muy pocos años las maquinas van a tener una capacidad de
procesar muy superior a la del cerebro humano, pero seguirán careciendo
de la parte emocional.