Imagina que el inicio de “Cien Años de Soledad”, esa joya que nos lleva a Macondo, o incluso la mismísima Declaración de Independencia de Estados Unidos, pasaran por un detector de Inteligencia Artificial y… ¡PUM! El resultado dice que son 100% sospechosos de haber sido creados por una máquina. No, no es chiste de mal gusto, ¡es una realidad que está armando un tremendo alboroto!

Resulta que estas herramientas de detección, que en teoría están para desenmascarar textos generados por IA, tienen un pequeño gran problema: no son infalibles. Y vaya si lo están demostrando. Al parecer, la forma en que estas obras maestras están escritas, con ciertas estructuras o vocabulario que los algoritmos interpretan de manera extraña, las hace parecer “robóticas” ante los ojos de la tecnología actual. ¡Una locura!

¿Te imaginas a García Márquez tecleando su obra maestra y que años después un programa le diga: “Oye, esto lo escribió un bot”? O peor aún, que los mismísimos fundadores de Estados Unidos recibieran un reporte diciendo que su declaración de libertad fue obra de un algoritmo del siglo XXI. La situación es tan absurda que da risa, pero también preocupa.

Este “pequeño error” está generando una gran polémica. Profesores están revisando trabajos académicos y se topan con que textos legítimos son marcados como sospechosos, ¡una injusticia total! Escritores ven cómo sus obras son cuestionadas por algoritmos que no entienden de estilo ni de arte. Es un verdadero dolor de cabeza que nos hace pensar: ¿estamos tan obsesionados con la IA que ya no distinguimos la creatividad humana?

La tecnología avanza rápido, eso está claro. Pero está claro que a estos detectores de IA les falta mucho por aprender. Por ahora, nos queda reírnos de la ironía y seguir disfrutando de la genialidad de Gabo y de la historia, sabiendo que, al menos por ahora, los humanos seguimos teniendo ese “toque especial” que las máquinas no pueden replicar… ¡ni detectar!