GRANADA | La inteligencia artificial (IA), cada vez más presente en sectores de la industria, la automoción, la salud o la mercadotecnia, está llamada a ser una de las revoluciones de este siglo, aunque su desarrollo futuro está a su vez condicionado a su capacidad para ser confiable, transparente, explicable y ética.
Situar al ser humano en el centro de la tecnología, sin dejar atrás aspectos sobre regulación y ética, resulta clave para que esta disciplina con grandísimo potencial siga avanzando en la mejora de la calidad de vida de los ciudadanos, preservando los derechos fundamentales y la privacidad de las personas.
Así lo han expuesto, en una entrevista conjunta con EFE, el profesor titular de Filosofía y experto en ética tecnológica Francisco Damián Lara y el catedrático de Ciencias de la Computación e Inteligencia Artificial Francisco Herrera. Este último, uno de los de los científicos españoles más influyentes del mundo en el ámbito de la informática y la ingeniería, ha explicado que una IA «confiable» debe basarse en tres pilares: el desarrollo de sistemas conforme a la ley, la ética y un correcto funcionamiento que prevea medidas ante cualquier efecto adverso.
A estos tres pilares fundamentales, se suman otros siete requisitos que se piden a los sistemas inteligentes: intervención humana, robustez, gestión de la privacidad de datos, transparencia, diversidad y no discriminación, bienestar social y medioambiental y rendición de cuentas. Leer más