REDACCIÓN | La UE prepara la primera ley integral para regular la inteligencia artificial; las diferentes normativas de protección de datos personales ya prevén el uso masivo de información y cómo se debe reglamentar; y los códigos penales fijan lo que está fuera de la ley y cómo se persigue; pero más allá del ámbito político y judicial, ¿pueden (y deben) las empresas autorregularse e imponerse líneas rojas?.
Los expertos consultados por EFE mantienen que la inteligencia artificial es ya una tecnología tan imprescindible como imparable, y que muchos de los retos del futuro -una mejor sanidad, con tratamientos más personalizados y eficaces; una energía más barata y limpia; o un transporte y una movilidad más sostenible- dependen ya en gran parte de ella.
Porque es capaz de mejorar la navegación, la geolocalización o de crear un “gemelo digital” que replica a un paciente para simular el mejor tratamiento; pero también de imitar en cualquier idioma la voz de un actor; de “robarle” su voz; o de alterar y falsear imágenes hasta convertir en misión imposible distinguir una real de otra “fabricada”.
Y en ese contexto, algunas empresas han comenzado a publicar sus propias guías y a trazar las líneas rojas para que los empleados conozcan el desarrollo de la inteligencia artificial, su implementación, las posibilidades y límites de uso, y se suceden algunos sustantivos -como ética, autorregulación o responsabilidad- adosados a esta tecnología.
Un ejemplo; la multinacional alemana SAP -especializada en el diseño de productos informáticos para la gestión empresarial- ha creado un “manual” dirigido a todos sus trabajadores para asegurar el uso ético de la inteligencia artificial, consciente de que esta tecnología puede abrir posibilidades “ilimitadas” a empresas o gobiernos, pero también desafíos económicos, políticos o sociales dependiendo de cómo se implemente.
La misma pregunta (¿Pueden (y deben) imponerse las empresas líneas rojas en el uso de la IA?) se la hemos formulado uno de los sistemas de IA generativa -el ChatGPT de la empresa OpenAI-; su respuesta: “Muchas empresas reconocen la importancia de establecer límites éticos en el uso de la IA. Esto incluye evitar aplicaciones que puedan causar daño a las personas, discriminación injusta, invasión de la privacidad o cualquier otra consecuencia negativa. Las empresas deben asumir la responsabilidad de cómo se utiliza su tecnología de IA”. Leer más