El Consejo de Ministros ha aprobado esta semana un anteproyecto de ley de gobernanza de la Inteligencia Artificial que obligará a identificar claramente cualquier contenido generado o manipulado mediante esta tecnología.
Esta norma, que adapta el Reglamento europeo de IA a la legislación española, pretende proteger los derechos digitales de los ciudadanos ante el uso creciente de herramientas automatizadas en la creación de imágenes, vídeos, audios o textos, y evitar así fraudes, manipulaciones o malentendidos derivados de su uso.
El anteproyecto contempla que todo contenido creado o modificado mediante inteligencia artificial, desde fotografías editadas hasta vídeos falsos generados por 'deepfakes', deberá estar debidamente etiquetado para advertir de su naturaleza. La nueva normativa entrará en vigor el próximo 2 de agosto y contempla sanciones para quienes incumplan esta obligación, incluyendo multas o medidas como la retirada de productos del mercado. Será la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) quien defina los criterios técnicos para que esta identificación sea válida y verificable.
El texto legal también identifica prácticas vetadas como el uso de técnicas subliminales para manipular decisiones, o el aprovechamiento de vulnerabilidades por razones de edad o situación socioeconómica. La ley se articula como una herramienta para poner freno al uso malicioso de la IA y establecer límites ante un entorno digital donde los contenidos artificiales se multiplican con rapidez y se difunden con facilidad en redes sociales y plataformas digitales.
Muchas grandes tecnológicas ya han comenzado a implementar herramientas para identificar contenido creado por IA, especialmente mediante el estándar C2PA, un protocolo desarrollado por la Joint Development Foundation que permite incorporar metadatos con la procedencia de imágenes, audios o vídeos. Compañías como OpenAI, Google, Meta, Adobe, Amazon, Microsoft o TikTok forman parte de esta coalición que apuesta por una trazabilidad del contenido en internet.
Amazon, por ejemplo, ya incorpora credenciales C2PA en las imágenes generadas por sus modelos Titan. TikTok, además de aceptar este protocolo, etiqueta automáticamente contenidos generados por IA y permite a los usuarios señalizarlos manualmente. Meta, por su parte, combina varias estrategias: marcas de agua invisibles, etiquetas automáticas con el aviso "Información sobre IA" y la integración de señales en su ecosistema digital.
Google también ha desarrollado su propio sistema, SynthID, capaz de insertar marcas de agua digitales directamente en los píxeles de una imagen, imperceptibles al ojo humano pero detectables por software incluso tras modificaciones. Esta tecnología está disponible como herramienta de código abierto.
OpenAI ha integrado clasificadores capaces de estimar si un contenido ha sido creado mediante modelos generativos, además de sistemas de marca de agua robustos diseñados para resistir alteraciones. Estas medidas, cada vez más extendidas en el sector, servirán como base para la futura regulación nacional que, según el Gobierno, será tramitada por la vía de urgencia para garantizar una entrada en vigor ágil y efectiva.