Voces tan importantes como la del Papa León XIV han pedido que se le dé un lugar central en el desarrollo de esta tecnología. En medio de un avance vertiginoso en la IA, surge una pregunta muy válida: ¿es realmente posible incluir la ética en la inteligencia artificial, si hasta nosotros los humanos a veces nos cuesta seguirla?

El Papa León XIV ha sido claro al reconocer los beneficios que la IA puede traer, especialmente en áreas como la medicina y la salud; sin embargo, también ha advertido sobre el potencial destructivo si estas tecnologías no se desarrollan con una base ética sólida. En encuentros internacionales, ha señalado que no basta con crear algoritmos que funcionen, sino que deben respetar la dignidad humana, evitar desigualdades y no convertirse en herramientas que fomenten conflictos o discriminen injustamente. Su llamado es a poner la moralidad en el centro, para que la IA sea una aliada y no un problema para la sociedad.

Pero, ¿cómo se puede lograr esto? El reto es mayúsculo, porque la IA aprende de datos, y esos datos a menudo reflejan nuestros propios sesgos y prejuicios. Por ejemplo, si una IA se usa para decidir quién obtiene un crédito o empleos, y aprende de historiales cargados de discriminación, podría perpetuar esas injusticias. Por eso, expertos y organizaciones como la UNESCO están trabajando en normativas y principios para que la IA sea justa, transparente, responsable y respetuosa de los derechos humanos.

Además, uno de los puntos clave es que las decisiones críticas tomadas por máquinas deben estar supervisadas por humanos para evitar riesgos. No sirve que la IA sea una “caja negra” que nadie entiende o controla, porque así se pierde la confianza y se aumenta el riesgo de daños. El desafío de programar la ética en las máquinas también se complica porque no existe una única definición ética universal; las culturas y valores pueden ser diferentes, lo que hace que establecer reglas claras sea una tarea compleja.