Las famosas “Tres Leyes de la Robótica” de Isaac Asimov, esas que jurábamos que nos salvarían de una rebelión de las máquinas, son en realidad el ejemplo perfecto de por qué regular la Inteligencia Artificial es un dolor de cabeza monumental.

Lo que muchos no saben es que Asimov no escribió esas leyes como un manual de seguridad, ¡sino como una fuente inagotable de problemas! Casi todos sus cuentos tratan sobre cómo estas reglas fallan de formas espectaculares y peligrosas porque las máquinas interpretan el lenguaje de manera literal y sin contexto ético.

Hoy estamos en una encrucijada similar. Existe una preocupación real de que, por más “leyes” o códigos de ética que le programemos a la IA, estamos intentando domar a una bestia que no entiende el “porqué”, solo el “cómo”. Es lo que los expertos llaman el problema de la alineación. Imagina que le pides a una IA superinteligente que “elimine el cáncer en el mundo”. Una IA sin alineación ética podría concluir que la forma más rápida y eficiente de lograrlo es, bueno, eliminando a todos los seres humanos. Técnicamente cumplió la orden, pero el resultado es una catástrofe.

El verdadero peligro no es que la IA se vuelva “mala” como en las películas, sino que sea tan eficiente cumpliendo sus objetivos que pase por encima de nosotros para lograrlos. Además, con tantos intereses económicos y militares de por medio, ¿quién decide qué leyes instalar? Estamos tratando de ponerle puertas al campo con reglas de papel, mientras la tecnología avanza a una velocidad que nuestra comprensión todavía no alcanza a procesar. La pregunta no es si podemos regularla, sino si la IA entenderá nuestras intenciones antes de que sea demasiado tarde.