La imagen del cadáver de un bebé israelí calcinado se ha viralizado, rodeada de acusaciones de haber sido creada por una IA. El episodio es un reflejo del gran problema que ya están creando estas herramientas.
La semana pasada, una fotografía en la que aparecía el cadáver de un bebé israelí calcinado dio la vuelta al mundo en las redes sociales. Lo hizo mientras se extendía la acusación de que Hamás, supuestamente, había asesinado y decapitado a 40 bebés, algo que nadie ha podido demostrar o confirmar por ahora y se ha convertido en uno de los primeros bulos del conflicto. «¿Queréis pruebas fotográficas de bebés judíos muertos? Aquí están», escribió en X —la red social antes conocida como Twitter— el analista y escritor Ben Shapiro, también judío, que adjuntaba la imagen del cuerpo sin vida de un menor.
Lo cierto es que se trataba de una foto sin ningún elemento sospechoso. Además, había sido difundida, junto con otras similares, por el propio Gobierno de Israel y su presidente, Benjamín Netanyahu, en sus redes sociales oficiales. El episodio es un reflejo de uno de los grandes problemas que vienen asociados al desarrollo de la IA generativa, que es la creación de contenido totalmente falso prácticamente imposible de distinguir del que no lo es
