El pasado 25 de noviembre, Día de la Violencia de Género, como cada mañana, hojeaba la prensa nacional y local mientras desayunaba. Entre titulares y noticias habituales, me encontré con un anuncio cuyo rostro me resultó muy familiar. Tardé apenas unos segundos en caer: aquella chica me recordaba muchísimo a Aitana, la influencer creada íntegramente mediante inteligencia artificial. Les recomiendo ver el vídeo que adjunto más abajo, donde se explica quién es, cómo surgió y el impacto que está teniendo. Intrigada, fui directamente a su perfil de Instagram para comparar. Es cierto que ahora tiene el pelo rosa, pero en alguna de las etapas de su trayectoria lo llevó oscuro. La similitud seguía ahí: misma estructura facial, mismos rasgos suaves, misma expresión contenida. Juzguen por sí mismos (nota: La similitud mencionada en este artículo es únicamente una observación personal. No afirmo ni confirmo que la persona del anuncio sea la misma que la influencer digital Aitana, ni que la imagen utilizada haya sido generada mediante inteligencia artificial):

No pude evitar pensar si estábamos ante la misma “persona” o si por el contrario, la imagen del anuncio era de una mujer real cuyo rostro pudo haber servido —quizá sin saberlo— como una de las fuentes de entrenamiento que dieron origen a Aitana tiempo atrás. También consideré otra posibilidad: tal vez se trataba de una colaboración de la propia Aitana en una campaña institucional, ocupando un lugar que tradicionalmente solo habrían ocupado personas reales.
La duda me acompañó todo el día. No sabía si la similitud era pura coincidencia, si había algo más profundo detrás, o si simplemente mi mente estaba buscando patrones. Pero lo cierto es que la escena me hizo pensar. Y cuando algo me ronda la cabeza durante horas, suelo recurrir siempre a lo mismo: escribir. Así nació este artículo. Pero vayamos al tema y a las preguntas que me surgieron.
La aparición de los rostros sintéticos: una nueva era de identidades replicables
Estamos entrando en un momento histórico en el que una imagen ya no garantiza la existencia de una persona detrás de ella. Los avatares generados por inteligencia artificial, como Aitana, han normalizado que un rostro pueda ser bello, coherente y expresivo sin pertenecer a ningún ser humano. Pero este fenómeno va mucho más allá de la estética o la tecnología: desestabiliza nuestra noción de identidad. Durante siglos, el rostro fue el signo de la individualidad, aquello que nos hacía únicos y reconocibles. Hoy, en cambio, los modelos generativos pueden crear cientos de variaciones de un mismo “tipo estético”, rostros que no existen pero que parecen reales y que pueden evocar a personas concretas sin que exista relación entre ellas.
Cuando un cartel institucional, utiliza un rostro así, surge una pregunta nueva: ¿qué significa representar a alguien con una imagen que no corresponde a ninguna persona de carne y hueso, pero que podría confundirse con muchas? El concepto de singularidad se erosiona. Un rostro artificial puede adoptar rasgos familiares, reproducir patrones de belleza o incluso asemejarse a figuras creadas digitalmente por terceros. Este cruce entre lo inexistente y lo reconocible plantea un dilema profundo: en la era de la IA, la identidad ya no es solo de quienes nacen con una cara, sino de quienes la generan, quizás utilizando caras de otras muchas personas, que sin saberlo han participado en su creación. Y eso transforma radicalmente nuestra relación con la representación visual.
La ética de la representación pública: ¿puede una causa humana ser ilustrada con un rostro que no existe?
Cuando una institución pública utiliza una imagen de IA para abordar temas sensibles, como la violencia de género, la cuestión deja de ser técnica y se convierte en un problema moral. Una campaña institucional no solo informa: crea vínculos emocionales, construye narrativa y transmite valores. Utilizar un rostro inexistente introduce una distancia que puede erosionar la autenticidad del mensaje. La violencia que se quiere denunciar es real, concreta, vivida por mujeres con historias propias. ¿Es adecuado sustituir esas historias por una composición digital optimizada para parecer empática, firme o dolida?
A esto se suma la cuestión de la transparencia. Si el público desconoce que la imagen es generada por IA, ¿no se está construyendo una ilusión de realidad que nunca existió? La ciudadanía confía en que las instituciones utilizan representaciones fidedignas, no simulaciones emocionales. Esta opacidad puede afectar a la credibilidad de los mensajes públicos y, especialmente, a su legitimidad moral. Además, la IA tiende a reproducir estándares visuales procedentes de sus datos de entrenamiento: mujeres jóvenes, simétricas, con piel perfecta, dentro de una estética altamente homogénea. Cuando la institución adopta esta estética, lo hace sin cuestionar que está reforzando estereotipos visuales que poco tienen que ver con la diversidad humana real. La IA, si no se gestiona con criterio, no solo crea representación: crea ideología visual sin que nadie lo note.
La frontera legal difusa: derechos de autor, parecidos razonables y propiedad de los avatares
La legalidad del uso de imágenes generadas por IA en campañas públicas no es tan simple como pudiera parecer. Aunque la imagen resultante pertenece a quien la genera —o a quien posee la herramienta utilizada—, eso no significa que no existan riesgos jurídicos. Un avatar digital como Aitana tiene derechos asociados: puede estar protegido como obra artística, como personaje comercial, como marca registrada o como identidad corporativa. Si una IA genera un rostro demasiado similar, aunque no sea una copia literal, podría considerarse una obra derivada o una reproducción que induce a confusión. Este terreno es extremadamente nuevo, y la jurisprudencia aún no ha sentado criterios sólidos. De hecho, aunque ya existe regulación europea en materia de IA, el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, más conocido como “AI Act”, actualmente aún no es obligatorio etiquetar todo el contenido generado por IA, aunque si se menciona en su artículo 50(1) y 50(2). El etiquetado generalizado entrará en vigor definitivamente, según comenta, en agosto de 2026. Sinceramente, a la velocidad que va esto y con la de barbaridades que estoy viendo a diario, me parece que ya debería estar activo.
El problema se agrava cuando hablamos de instituciones públicas, que deben actuar con mayor diligencia que un particular. Una campaña podría, sin proponérselo, generar un conflicto con los creadores de un avatar existente o incluso con personas reales que consideren que la imagen utilizada reproduce sus rasgos sin consentimiento. Y aunque un rostro no pueda patentarse, sí puede protegerse jurídicamente en términos de marca o identidad comercial. La cuestión central es esta: ¿puede una IA inventar un rostro que, sin ser de nadie, se parezca demasiado a alguien? La ley todavía no tiene una respuesta clara, pero el riesgo de conflicto está ahí, especialmente cuando se utilizan modelos entrenados con bases de datos inmensas y opacas que incluyen millones de rostros reales y sintéticos.
La autenticidad en crisis: cómo lo sintético amenaza la verdad emocional de nuestras causas
Quizá el dilema más profundo no sea legal ni técnico, sino moral y cultural. Cuando un cartel que pretende concienciar sobre un problema real utiliza una imagen generada por IA, se introducen capas de ficción que no son evidentes para el ciudadano. La víctima representada no existe, nunca ha sufrido, nunca ha vivido aquello que se intenta denunciar. Su dolor es simulado, su gesto es construido y su expresión está calibrada para generar impacto. Esto plantea una pregunta incómoda: ¿qué valor emocional tiene un testimonio que no proviene de nadie?
Podemos argumentar que la IA permite proteger la privacidad, evitar la explotación del dolor y generar imágenes potentes sin exponer a víctimas reales. Todo eso es cierto. Pero eso no borra la inquietud de fondo: si sustituimos lo humano por lo sintético en nuestras representaciones simbólicas, ¿qué pierde nuestra cultura? ¿Puede un rostro que no pertenece a nadie convertirse en portavoz de quienes sí existen? Y, sobre todo, ¿qué ocurre si dejamos que la IA defina qué estética deben tener nuestras luchas sociales? Lo peligroso no es que la imagen se parezca a Aitana: lo peligroso es que tal vez dejemos de preguntarnos quién está siendo representada y con qué legitimidad.
Conclusión: el verdadero debate no es sobre la identidad, sino sobre lo humano
El parecido entre la mujer del cartel y Aitana —o con cualquier otro avatar— es solo el punto de partida. Lo que realmente está en juego es la forma en que entendemos la representación en una sociedad donde lo sintético y lo real se confunden sin transición. Si permitimos que las instituciones tanto públicas como privadas adopten sin reflexión los productos visuales de la IA, corremos el riesgo de construir un espacio simbólico desvinculado de la experiencia humana. En un mundo donde cualquier rostro puede ser generado, manipulado o combinado, debemos preguntarnos qué valor damos a lo auténtico, qué responsabilidades asumimos al representar causas sensibles y qué límites debemos trazar para que la tecnología no diluya la verdad emocional que sostiene nuestra convivencia.
La IA no solo genera imágenes: genera discursos, genera preguntas difíciles de responder, por lo menos en esta época de transición que estamos viviendo y en la que continuaremos en los próximos años, hasta que encontremos la suficiente claridad para dirimirlos. En cualquier caso, ese es el debate que debemos abrir, con urgencia y con profundidad.