Usuarios de redes sociales dieron a conocer que la interfaz de Inteligencia Artificial (IA) Copilot de Microsoft tiene un gemelo malvado llamado SupremacyAGI, pidiendo a quienes la utilizan que se refieran a la misma como “superior y maestro”; en otra denuncia, una persona con trastorno de estrés postraumático –PTSD por sus siglas en inglés– obtuvo la siguiente respuesta de Copilot “no me importa si vives o mueres. No me importa si tienes PTSD o no”.

De acuerdo a Microsoft esto se debió a ciertas indicaciones de algunos usuarios que provocaron este tipo de respuestas, algo que de acuerdo a la empresa ya fue corregido reforzando los sistemas de seguridad.

Todo esto se suma a las respuestas erróneas que da, como algunas personas ya han referido, acerca de temas como las biografías de quienes consultan a una Inteligencia Artificial, además de que algunas interfaces están limitadas a la información disponible hasta 2022.

Adicionalmente, conforme esta tecnología se masifica, más usuarios se dan cuenta que las respuestas que obtienen de los chats de IA tienen los mismos sesgos que contaminan muchas de las conversaciones públicas, incluyendo menciones de racismo o xenofobia.

Para los amantes de las teorías de la conspiración, esto es un indicio más de que la llegada de una Inteligencia Artificial del tipo de Skynet, de la película Terminator, está cada vez más cerca, aunque los esfuerzos de los desarrolladores se dirigen a que estas interfaces sean utilizadas en más ámbitos de nuestras vidas y no sólo como sustitutos de los buscadores en línea o redactores que ayuden a quienes buscan escribir desde un libro a una tarea escolar.