El acuerdo o pacto logrado en la Unión Europea, en relación con la ley de inteligencia artificial, es un hito histórico que será aprobado, muy previsiblemente, por el Parlamento y el Consejo Europeos. En principio, está muy bien esta regulación de los usos de la IA, pero persisten numerosos interrogantes. Se ha buscado, con esta ley pionera a nivel mundial, un equilibrio entre los intereses de las empresas y la protección de la privacidad de los ciudadanos y también de su seguridad, en muchos sentidos. Si bien la universalización de la utilización del Chat GPT y de otras tecnologías de inteligencia artificial, por parte de cientos de miles o millones de empresas en todo el mundo, y su uso también por una considerable parte de la población mundial en el presente y el futuro, plantea la necesidad de hacer frente a riesgos evidentes: suplantación de identidades, toda clase de engaños, manipulación de la información y el conocimiento, noticias falsas, robos, terrorismo, delitos cibernéticos, todo tipo de discriminaciones, marginación de clases sociales desfavorecidas, robo de datos de historiales médicos, concentración de poder, delitos falsos, acusaciones falsas, conflictos o guerras provocadas por la inteligencia artificial, etcétera.
Es cierto que para evitar todos estos peligros y otros que, de momento, parece que son imprevisibles, se toman medidas y establecen sanciones en esta nueva ley de IA de la Unión Europea. Pero, pueden ser insuficientes, por varias razones ya expuestas. Por ejemplo, con los sistemas de vigilancia biométrica, no se permitirá la categorización por creencias políticas o el reconocimiento de emociones en el trabajo o en la educación. De hecho, los sistemas biométricos estarán limitados y requerirán autorización judicial. Respecto a los sistemas de Inteligencia Artificial generativa se podrán utilizar con respeto a los derechos de autor. Lo que puede ser objeto de más análisis y argumentaciones es la cuantía de las multas para las empresas, que incumplan las medidas previstas en la citada ley. Habrá multas de 7,5 millones de euros o el 1,5 % del volumen de negocio y también para infracciones más graves y empresas mayores, sanciones que pueden alcanzar los 35 millones de euros o el 7% del volumen de negocio. Esto creo que, en muchos casos, no será obstáculo, para que algunas grandes empresas o compañías tecnológicas, prefieran incumplir esta ley, porque los beneficios de hacerlo compensan de sobra la cuantía económica de las sanciones. Es algo que ya está sucediendo en el ámbito de internet y es evidente que con la IA seguimos en el mismo ámbito digital.
Hace falta más transparencia en su regulación, para que no se genere desconfianza y resistencia a su aplicación, en el campo empresarial y también por parte de los ciudadanos. Es necesario que se desarrollen algoritmos imparciales y conjuntos de datos, que respondan a criterios de objetividad. Además, la preocupación por la privacidad y la seguridad de grandes cantidades de datos personales, es algo a garantizar de una forma real y efectiva. En cuanto a los dilemas éticos es preciso inculcar valores éticos a los sistemas de IA, para evitar impactos sociales negativos.
No se debe olvidar que las amenazas para la seguridad de los países son evidentes: auge del armamento autónomo y sin control, estados delincuentes, etc. Si se piensa en la concentración de poder lo que se necesita es descentralización y desarrollo colaborativo de este tipo de tecnología digital.
Además, la dependencia de la IA puede ser inmensa, como ya lo es para muchas personas la de los móviles, y puede conducir a una considerable pérdida de creatividad y capacidad de pensamiento crítico e intuitivo. Se puede producir pérdida de puestos de trabajo y la desigualdad económica incrementarse, con aumento de la brecha salarial y reducción significativa de las oportunidades de movilidad social en los países. Esto afectará especialmente a los trabajadores poco cualificados.
La IA puede causar una disminución de la empatía, las conexiones humanas y las habilidades sociales. La desinformación y la manipulación de la opinión pública, por parte de la Inteligencia Artificial controlada por los poderes fácticos es algo muy probable, si no se impulsan y aprueban medidas eficaces para evitarlo o impedirlo. En todo caso, lo que debe ser esencial es poner en la palestra los valores o prioridades humanas, frente a intereses comerciales de toda clase, que no los toman en consideración y no los respetan. Los Derechos Humanos no son negociables.
Amnistía Internacional ya ha informado y alertado de que sistemas automatizados pueden decidir, si una persona puede recibir prestaciones sociales, atención sanitaria o incluso puede ser acusada falsamente de haber cometido un delito. Estos sistemas pueden ser usados para recortar gastos sociales que son necesarios. Ver video
José Manuel López García