Imatges i IA en màrqueting i RRHH: la drecera que pot sortir cara

Una tendència viral que sembla inofensiva 

L'ús d'eines d'intel·ligència artificial per a «millorar» fotografies—retocar fotos corporatives, generar versions creatives per a campanyes o estilitzar imatges d'equips—s'ha convertit en un recurs habitual en màrqueting i recursos humans. La petició sol sonar innocent: «Passa'm aquesta foto per IA per a…». 

No obstant això, quan en aquesta imatge hi ha persones identificables, estem davant dades personals. I, quan aquesta imatge es puja a un sistema de IA, el perímetre del tractament s'amplia i el control es complica. Així ho adverteix la Guia de l'AEPD sobre l'ús d'imatges de tercers en sistemes d’IA, que analitza els riscos i obligacions derivats d'aquestes pràctiques. 

Si hi ha persones identificables, hi ha protecció de dades 

La imatge d'una persona és una dada personal en la mesura en què permet la seva identificació directa o indirecta (art. 4 RGPD). No és necessari que es tracti de dades «sensibles» o biomètriques en sentit tècnic: n'hi ha prou que la persona sigui recognoscible. 

En entorns corporatius això és especialment rellevant. Fotografies d'empleats, candidats, clients o assistents a esdeveniments formen part de l'àmbit d'aplicació del Reglament (UE) 2016/679 (RGPD) i de la LOPDGDD. Pujar aquestes imatges a una eina de IA implica una comunicació de dades a un tercer (el proveïdor del sistema), la qual cosa exigeix: 

  • Base jurídica adequada (consentiment vàlid o una altra legitimació de l'art. 6 RGPD). 
  • Informació clara sobre el tractament (arts. 13 i 14 RGPD). 
  • Contracte per encàrrec de tractament si el proveïdor actua com a encarregat (art. 28 RGPD). 

L'aparent «simplicitat» tecnològica no elimina aquestes exigències. 

Riscos visibles i invisibles: més enllà del retoc 

La guia de l'AEPD subratlla que l'ús d'imatges en sistemes de IA pot generar riscos que van més enllà de la finalitat inicial. Entre ells: 

  • Pèrdua de control i difusió no prevista: la imatge pot emmagatzemar-se, reutilitzar-se o incorporar-se a l'entrenament de models si no existeixen garanties contractuals clares. 
  • Retenció indefinida: desconeixement sobre quant temps conservarà el proveïdor les imatges. 
  • Inferències automatitzades: a partir d'una fotografia, els sistemes poden inferir edat, gènere, estat d'ànim o altres atributs, amb possibles impactes discriminatoris. 
  • Reutilització per a finalitats diferents: màrqueting, millora d'algorismes o generació de nous continguts. 

En contextos de RRHH, aquests riscos s'intensifiquen. La relació de desequilibri entre empresa i empleat qüestiona la validesa del consentiment, la qual cosa obliga a extremar les cauteles. 

El perímetre s'amplia quan entra la IA 

Pujar una imatge a una plataforma de IA no és equivalent a emmagatzemar-la en un servidor intern. Suposa introduir-la en un ecosistema tecnològic complex, sovint amb proveïdors situats fora de l'Espai Econòmic Europeu. 

Això obliga a analitzar, entre altres qüestions: 

  • Transferències internacionals de dades (arts. 44 i ss. RGPD). 
  • Mesures tècniques i organitzatives del proveïdor. 
  • Possible necessitat de realitzar una Avaluació d'Impacte relativa a la Protecció de Dades (AIPD) si el tractament comporta alt risc (art. 35 RGPD). 

La «drecera» creativa pot convertir-se en una cadena de responsabilitats difícil de gestionar. 

Conclusió: creativitat sí, però amb governança de la dada 

La intel·ligència artificial ofereix oportunitats indiscutibles per a la comunicació i la gestió del talent. Però utilitzar imatges de persones en sistemes de IA sense una anàlisi prèvia és obrir un meló jurídic amb implicacions en control, drets i responsabilitat corporativa. 

La clau no és renunciar a la innovació, sinó integrar-la en una estratègia de compliment i governança de la dada: revisar bases jurídiques, contractes amb proveïdors, polítiques internes i criteris de minimització. 

Perquè en protecció de dades, el que sembla un gest tècnic menor—«passa'm aquesta foto per IA»—pot convertir-se en un tractament complex amb conseqüències legals, reputacionals i econòmiques rellevants. 

Com sempre, cuideu les dades i cuideu-vos! 

Transparència 2.0: així canvia el nou Codi de Conducta d’Influencers a Espanya

Des de l'1 d'octubre de 2025, l'ecosistema digital espanyol fa un nou pas cap a la transparència publicitària. Ha entrat oficialment en vigor l'actualització del Codi de Conducta sobre l'ús d’influencers en la publicitat, promogut per AUTOCONTROL, l'Associació Espanyola d'Anunciants (AEA) i IAB Spain, amb el suport d'institucions públiques com el Ministeri de Consum i la Secretaria d'Estat de Digitalització i Intel·ligència Artificial.

Aquest nou Codi, revisat per primera vegada des de la seva aprovació en 2021, reforça el paper de l'autoregulació en un entorn cada vegada més complex, en el qual la frontera entre el contingut orgànic i el publicitari és més difusa que mai. Amb prop de 1.000 entitats adherides—entre marques, agències, plataformes i creadors—, el text aspira a oferir major seguretat jurídica i a consolidar bones pràctiques en el màrqueting d'influència.

Què canvia respecte al Codi de 2021?

La versió de 2021 va ser pionera en exigir que els continguts patrocinats anessin clarament identificables mitjançant etiquetes o esments explícits («#publi», «#ad», «en col·laboració amb…»). No obstant això, la pràctica diària va demostrar que continuaven existint zones grises: col·laboracions no declarades, obsequis encoberts o esments ambigus que confonien a l'audiència.

El nou Codi 2025 avança precisament en aquesta direcció:

  • Introdueix una llista d'indicis que permet determinar quan un contingut pot considerar-se publicitari, fins i tot sense prova directa de l'acord comercial.
  • Amplia i actualitza l'annex de plataformes digitals, especificant com ha d'identificar-se la publicitat en cadascuna (YouTube, Instagram, TikTok, Twitch, etc.).
  • Afegeix previsions específiques sobre continguts generats amb intel·ligència artificial, la intervenció de menors d'edat i la responsabilitat de les diferents parts (marques, agències i influencers).

En resum: on abans hi havia recomanacions generals, ara hi ha criteris concrets i traçables.

Formació i professionalització de l‘influencer

Una altra de les grans novetats és el Certificat de Capacitació Bàsica per a Influencers sobre normativa publicitària, llançat per AUTOCONTROL dins del programa europeu AdEthics, impulsat per la European Advertising Standards Alliance (EASA). Més de 700 influencers ja estan inscrits en aquesta formació en línia que acredita el coneixement de les normes d'identificació de contingut publicitari.

Aquest pas és decisiu, ja que professionalitza un sector que fins fa poc es movia entre la intuïció i la improvisació, i reforça la responsabilitat compartida entre creadors, agències i anunciants.

Un nou estàndard de transparència digital

Amb aquestes millores, el Codi 2025 té la intenció de no solament facilitar el compliment normatiu, sinó enfortir la confiança entre marques, consumidors i creadors. Les marques adherides podran demostrar el seu compromís amb l'ètica publicitària i evitar sancions o crisis reputacionals derivades d'una comunicació enganyosa.

En un entorn en què la intel·ligència artificial genera i distribueix continguts a una velocitat sense precedents, la transparència deixa de ser una opció: es converteix en un valor competitiu i en una exigència reguladora.

Conclusió

El nou Codi de Conducta no substitueix al de 2021, sinó que l'eleva al següent nivell. Passa de la simple autoregulació a un marc de corresponsabilitat, en el qual tots els actors—des de les grans marques fins als microinfluencers—comparteixen una mateixa meta: que la publicitat sigui clara, ètica i recognoscible.

Com sempre, cuideu les dades i cuideu-vos!

Per accedir al Codi de Conducta, feu clic aquí.

Dinamarca fa un pas valent contra els deepfakes: l’era del copyright personal ha començat?

En un context internacional marcat per l'auge de les tecnologies d'intel·ligència artificial generativa i la proliferació de continguts manipulats—especialment els coneguts deepfakes—, Dinamarca ha sorprès el món amb una proposta legislativa pionera: reconèixer a cada persona drets d'autor sobre la seva imatge, veu i cos. Aquest enfocament, profundament innovador, cerca dotar als ciutadans d'eines legals més efectives per a frenar l'ús no autoritzat de les seves característiques personals en entorns digitals, especialment davant l'amenaça que representa la IA generativa. 

En què consisteix aquesta proposta de llei? 

Dinamarca està disposada a modificar la seva legislació en matèria de drets d'autor per a permetre que qualsevol individu pugui reclamar la titularitat sobre l'explotació no autoritzada de la seva imatge, veu o, fins i tot, moviments corporals generats artificialment. 

La iniciativa sorgeix com a resposta a la creixent difusió de vídeos falsos creats mitjançant IA, alguns d'ells extremadament realistes, que suplanten rostres, veus i gestos de persones reals —famoses o no— sense el seu consentiment. La normativa danesa, encara en fase de desenvolupament, podria constituir una base legal sòlida per a exigir la retirada de continguts deepfake, sol·licitar indemnitzacions per danys morals o patrimonials i, en alguns casos, emprendre accions penals. 

Per què és revolucionària? 

Tradicionalment, els sistemes jurídics occidentals no han reconegut drets d'autor sobre l'aparença o la veu d'una persona, atès que el copyright està reservat a «obres» amb originalitat i autoria. Les persones físiques disposen de mecanismes com el dret a la pròpia imatge o a l'honor, però aquests drets no tenen la mateixa força automàtica ni vocació preventiva que el copyright. 

Dinamarca proposa fusionar l'enfocament dels drets de la personalitat amb la lògica del dret d'autor i, així, permetre que un individu pugui actuar com si fos titular d'una obra quan s'explota la seva identitat digital. Això obriria la porta a mecanismes de takedown similars als que ja existeixen en plataformes com YouTube per a protegir obres musicals o audiovisuals. 

Què passa en altres països? 

  • Als Estats Units, alguns estats com Califòrnia o Illinois han aprovat lleis específiques per a protegir la «veu» o l'«aspecte» de les persones, però des de l'òptica del dret civil i no del copyright. 
  • A la Unió Europea, els drets a la imatge i a la protecció de dades (com l'article 8 de la Carta de Drets Fonamentals de la UE) ofereixen una certa cobertura, però no atorguen un control automàtic ni un dret d'explotació patrimonial. 
  • A Espanya, el dret a la pròpia imatge (LO 1/1982, de 5 de maig) i la protecció de dades (RGPD i LOPDGDD) són les eines disponibles, però no permeten reclamar una «autoria» sobre la nostra veu o cos. Seria necessària una reforma legal de gran importància per a incorporar aquesta perspectiva. 

Un camí cap a la sobirania digital individual? 

La proposta danesa obre un nou paradigma jurídic, que reconeix que a l'era digital l'individu no solament necessita protegir la seva intimitat, sinó també exercir control econòmic i moral sobre la seva identitat digital. Si prospera, podria marcar l'inici d'un nou enfocament europeu per a enfrontar els reptes que planteja la IA generativa, els deepfakes i la manipulació de continguts. 

El debat està servit: hauríem de tenir copyright sobre nosaltres mateixos? 

Com sempre, cuideu les dades i cuideu-vos! 

 Per llegir la notícia, fes clic aquí. 

Revisió Texts legals web