Con el desarrollo y la facilidad de acceso que está teniendo la Inteligencia Artificial, también empiezan a surgir problemas que deben ser revisados para que no provoquen efectos negativos y el ejemplo más claro de esto es el material audiovisual que es generado por esta nueva tecnología.
Y es que, por citar un ejemplo, ya empezamos a apreciar ésto en las imágenes generadas por Inteligencia Artificial, lo cual hace necesario que todos empecemos a aprender como diferenciarlas de las que tomamos los seres humanos con nuestras cámaras o dispositivos móviles.
La facilidad para generar fotografías que muestren algo que en realidad no ocurrió, hace que las llamadas fake news se produzcan a una escala masiva, contribuyendo a la desinformación o a la manipulación de ciertas noticias en coyunturas precisas.
En 2023, un post publicado en redes sociales pedía donaciones por el terremoto en Turquía, con una imagen de un bombero abrazando a un niño pequeño, pero se trataba de un intento de estafa que fue descubierto fácilmente porque el bombero tenía seis dedos en una mano, pero con el paso del tiempo estos detalles van a ser corregidos por la Inteligencia Artificial.
Así, lo primero es exigir que medios y usuarios de redes sociales señalen cuando utilizan imágenes, audios o videos generados por Inteligencia Artificial, además de ejercer una lectura crítica de la información que nos llega a través de medios de comunicación, portales web y usuarios de redes sociales, además de buscar herramientas que nos permitan conocer que material audiovisual es producto de esta tecnología y cual no, como ya empieza a suceder con los textos usados en el ámbito académico producidos por Inteligencia Artificial que son entregados como tareas o trabajos de investigación.