
En los últimos años, el fenómeno de los deepfakes ha suscitado una creciente preocupación en todo el mundo, y España no ha sido la excepción. Este tipo de contenido, que utiliza inteligencia artificial (IA) para crear o modificar vídeos y audios de manera convincente, puede ser utilizado para engañar, difamar o manipular. En este contexto, el consejo de ministros ha aprobado un anteproyecto de ley para el buen uso y gobernanza de la Inteligencia Artificial (IA).
El anteproyecto adapta a nuestra legislación lo establecido en el Reglamento Europeo de Inteligencia Artificial, acordado por las instituciones comunitarias el 8 de diciembre de 2023 y aprobado por el Parlamento Europeo el 13 de marzo del año pasado.
El ministro para la Transformación Digital y de la Función Pública, Óscar López, ha justificado la tramitación de la ley con el argumento de que “la inteligencia artificial es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o puede servir para difundir bulos y para atacar a la democracia”. Ha apuntado al “uso negativo” de la inteligencia artificial mediante la identificación de “prácticas prohibidas” y sistemas de alto riesgo. Esta iniciativa se alinea con los esfuerzos de la Unión Europea, que también ha estado trabajando en una regulación más estricta sobre el uso de la inteligencia artificial y sus aplicaciones en diversas áreas.
El contexto para la creación de esta ley es complejo. La rápida evolución de la tecnología, combinada con la falta de regulaciones específicas en este ámbito, ha permitido que los deepfakes se distribuyan sin control. Sin embargo, el riesgo de abuso es considerable: desde la creación de contenido que pudiera dañar la reputación de individuos hasta la manipulación de información en un contexto político o social. La nueva normativa tiene como objetivo no solo reducir estos riesgos, sino también proteger a los ciudadanos de posibles daños ocasionados por el uso irresponsable y malintencionado de la tecnología.
Las sanciones que acompañan a esta ley son un componente crucial para su efectividad. Al estipular multas y penalizaciones para quienes utilicen los deepfakes de manera ilegítima, se espera desincentivar este tipo de prácticas. La ley, al alinearse con los estándares europeos, también busca establecer un marco común que facilite la cooperación internacional en la regulación de la inteligencia artificial y su impacto en la sociedad. Con estas regulaciones, España se posiciona como un referente en la lucha contra los abusos derivados de la IA, priorizando la seguridad y el bienestar de sus ciudadanos.
Sanciones y obligaciones de las empresas
Las nuevas regulaciones han establecido un marco claro de sanciones para las empresas que no cumplan con las normativas establecidas. En el caso de infracciones graves, las multas pueden ascender hasta los 35 millones de euros o representar el 7% de la facturación global de la empresa, lo que implica un impacto significativo en su situación financiera. Esta medida busca ejercer presión sobre las organizaciones para asegurar el cumplimiento de las regulaciones en la creación y difusión de contenidos generados mediante inteligencia artificial.
Además de las sanciones económicas, las empresas están obligadas a seguir pautas de etiquetado y transparencia que permiten identificar claramente los contenidos generados por IA, en particular aquellos que utilicen técnicas de deepfake. Este etiquetado debe ser claro y fácil de entender, ya que su objetivo es informar al consumidor sobre la naturaleza del contenido, evitando así la desinformación y el uso indebido de estos recursos tecnológicos. La falta de cumplimiento con esta obligación puede llevar a las mencionadas sanciones, así como a un daño reputacional para la empresa involucrada.

Asimismo, las regulaciones describen las infracciones que pueden clasificarse como «graves», lo que aumenta la seriedad del incumplimiento. Estas infracciones incluyen la creación de deepfakes con la intención de desinformar o manipular a la opinión pública, así como cualquier uso que pueda vulnerar derechos de imagen o afectar la privacidad de individuos. Las sanciones impuestas por estas infracciones no son solo cuestionadas por su cuantía, sino también por su capacidad para regular un uso ético y seguro de la inteligencia artificial, garantizando así la protección de los derechos fundamentales de los ciudadanos en el entorno digital.
Ejemplos de deepfakes en España
En los últimos años, España ha sido testigo del crecimiento alarmante de los deepfakes. Esta situación se ha visto exacerbada por la aparición de vídeos falsos que suplantan a figuras públicas reconocidas. Un caso notorio es el de David Broncano, un popular humorista y presentador, cuyo rostro fue utilizado en un vídeo alterado donde hacía declaraciones falsas sobre temas controvertidos. Este tipo de suplantación puede tener serias repercusiones para la reputación y carrera de las personas afectadas.
Otro ejemplo es el uso del deepfake de la famosa cantante Rosalía, en la que se difundieron clips manipulados en plataformas sociales. Estos vídeos no solo engañaron a los fanáticos, sino que generaron una oleada de desinformación, perjudicando tanto su imagen pública como su conexión con el público. Los deepfakes, en este contexto, se han transformado en una herramienta que puede distorsionar la percepción de la realidad y fomentar una cultura de desconfianza.
Aparte de la suplantación de celebridades, los deepfakes también han empezado a ser utilizados para llevar a cabo estafas más complejas. Se han reportado casos de fraudes donde delincuentes se valen de esta tecnología para hacerse pasar por personas de confianza. Por ejemplo, utilizando la imagen y voz de un directivo de una empresa, los estafadores han intentado persuadir a empleados para realizar transferencias de dinero hacia cuentas fraudulentas. Este tipo de engaño muestra no solo la vulnerabilidad de los individuos ante estas tecnologías, sino también el potencial impacto social y económico que acarrean.
La creación de la agencia española de supervisión de la IA
La reciente creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) representa un paso significativo en la regulación del uso de tecnologías avanzadas, especialmente en el contexto de la legislación sobre deepfakes. Esta agencia se estableció como una respuesta a la necesidad de supervisar el desarrollo y aplicación de la inteligencia artificial en España, garantizando que se respeten tanto las normas éticas como los derechos de los ciudadanos. AESIA tiene la responsabilidad de vigilar el cumplimiento de la nueva ley que regula la creación y difusión de deepfakes, asegurando así que cualquier uso de esta tecnología se lleve a cabo de manera responsable y transparente.
En cuanto a sus funciones, AESIA tiene la tarea de elaborar directrices, realizar auditorías y promover buenas prácticas en el ámbito de la inteligencia artificial. Además, la agencia se encargará de evaluar los riesgos asociados con la tecnología de deepfakes y de contribuir a la creación de un marco jurídico que proteja la privacidad y los datos de los individuos. Esto es fundamental, dado que la manipulación de imágenes y vídeos a través de deepfakes puede tener repercusiones serias en la reputación y la vida privada de las personas afectadas.
Otro aspecto crucial de la AESIA es su capacidad para imponer sanciones a las entidades que incumplan las normativas establecidas. No obstante, también enfrenta desafíos significativos, como la rápida evolución de la tecnología y la dificultad de identificar a los responsables de la creación de contenido manipulado. En última instancia, la agencia deberá equilibrar la promoción de la innovación tecnológica con la protección de derechos fundamentales, lo que subraya la importancia de su autoridad en un campo tan dinámico. El éxito de AESIA dependerá de su agilidad para adaptarse a los cambios y de su compromiso con la ética en el ámbito de la inteligencia artificial.