En 2023 la política y la regulación de la IA dejaron de ser un tema de nicho para convertirse en noticia de primera plana, debido en parte, al impacto de sistemas como el ChatGPT de OpenAI, que generaron el uso de la IA y también revelaron sus limitaciones.
La UE aprobó la primera Ley de Inteligencia Artificial en el mundo, esta ley permite o prohíbe el uso de la tecnología según el riesgo que suponga para las personas y busca impulsar la industria europea frente a gigantes como China y Estados Unidos.
En 2023, la administración de Biden emitió una orden ejecutiva sobre la IA, exigiendo más transparencia y nuevas normas, el país está desarrollando una política de IA que favorece la industria y regula cada sector de la economía de manera diferente.
Tanto la UE como Estados Unidos están clasificando los tipos y usos de la IA según el riesgo que plantean, siguiendo un marco similar, algo que es crucial para garantizar la seguridad y la confianza en estas tecnologías, todas estas políticas durante el año 2024 se deberían de transformar en acciones concretas, ya que la regulación de la IA es un desafío global y la colaboración entre países y organizaciones será fundamental para abordarlo.
Debemos de tener en cuenta que la IA puede recopilar y analizar grandes cantidades de datos personales, donde la privacidad se ve amenazada cuando estos datos se utilizan sin consentimiento o se comparten de manera inapropiada, algo que a día de hoy ya está ocurriendo con empresas que se dedican exclusivamente a comprar datos y los utilizan para fines fraudulentos, incluso incurriendo en la extorsión con falsedades, llamando por teléfono repetidas veces, por correo electrónico etc.
Otro ejemplo es el desarrollo de armas basadas en la IA que plantea preocupaciones éticas y de seguridad, algo que la comunidad internacional está debatiendo la prohibición de estas, también a largo plazo, la posibilidad de una IA superinteligente plantea preguntas sobre el control y la seguridad.
Las regulaciones exigen que los sistemas de la IA sean transparentes y expliquen sus decisiones, esto implica proporcionar información sobre como se entrenaron y cómo funcionan, ya que no dejan de ser maquinas preparadas por el hombre.
La UE en las regulaciones clasifican los sistemas de la IA según el riesgo que representan, lo divide en tres categorías, alto riesgo, riesgo limitado y sin riesgo, dentro de los de alto riesgo, están los utilizados en salud o transporte que están sujetos a requisitos más estrictos.
Algunas regulaciones exigen evaluaciones éticas antes de implementar sistemas de IA, esto incluye considerar sesgos, impacto social y derechos humanos, las empresas deben de asumir la responsabilidad por los sistemas de la IA que desarrollen o utilizan y las sanciones por incumplimiento pueden incluir multas significativas.
Los gobiernos y las organizaciones trabajan juntos para poder establecer estándares globales y la regulación actual busca equilibrar la innovación con la seguridad, la ética y los derechos humanos, pero sigue siendo un desafío en constante evolución, debido al rápido avance de la tecnología.
Conchi Basilio