Shadow AI: quan la innovació es converteix en vulnerabilitat legal

La intel·ligència artificial va arribar per quedar-se, però la seva adopció descontrolada pot convertir-se en el major risc legal i reputacional de la teva organització. La coneguda com Shadow AI —l’ús no autoritzat d’eines d’intel·ligència artificial per part d’empleats sense supervisió del departament de TI o compliance— està exposant a milers d’empreses a multes milionàries, filtracions de dades confidencials i greus incompliments normatius.

Les dades són alarmants: una recerca recent de Microsoft revela que el 71% dels empleats al Regne Unit han utilitzat eines d’IA no aprovades en el treball, i el 51% continua fent-ho setmanalment. A Espanya, el 67% de les organitzacions se senten incapaces de detectar implementacions d’IA no controlades, i més del 80% de les companyies espanyoles han sofert incidents de seguretat relacionats amb l’IA. El problema no és menor: un de cada cinc incidents de Shadow AI implica dades sensibles, i només el 32% dels treballadors expressen preocupació per la privacitat de les dades corporatives o de clients introduïdes en eines d’IA de consum.

El veritable risc: vulnerabilitats legals i operatives

Quan un empleat introdueix dades corporatives, informació de clients o estratègies empresarials en eines públiques com ChatGPT, Claude o Gemini sense autorització, genera múltiples vulnerabilitats simultàniament. Els treballadors recurren a aquestes eines per redactar comunicacions laborals (49%), elaborar informes i presentacions (40%) i fins i tot realitzar tasques financeres (22%), però amb una preocupant falta de consciència sobre els riscos: només el 29% es preocupa per la seguretat dels sistemes de TI de la seva organització.

La fuga d’informació confidencial és immediata: les eines d’IA generativa emmagatzemen i reutilitzen la informació introduïda en els seus prompts. Noms de clients, informació de projectes estratègics i codi font propietari són filtrats sense control. Simultàniament, s’incompleixen obligacions del Reglament General de Protecció de Dades (RGPD), que exigeix consentiment explícit, minimització de dades i transparència en el tractament d’informació personal. Les multes poden assolir 20 milions d’euros o el 4% de la facturació global.

El Reglament d’Intel·ligència Artificial (AI Act), les primeres obligacions del qual van entrar en vigor el 2 d’agost de 2025, estableix sancions encara més severes: fins a 35 milions d’euros o el 7% del volum de negoci global. Les organitzacions han de garantir traçabilitat, transparència i supervisió humana en els sistemes d’IA, cosa impossible quan s’utilitzen eines no autoritzades.​

Mesures essencials per a empreses

Prohibir l’ús d’IA no és viable: el 41% dels empleats utilitza aquestes eines perquè hi estan acostumats en la seva vida personal, i el 28% perquè la seva empresa no proporciona una alternativa aprovada. L’estratègia correcta passa per gestionar la Shadow AI mitjançant un marc de governança clar, transparent i auditable.

Realitzar una auditoria interna d’IA: Identificar totes les eines d’IA utilitzades a l’organització, tant autoritzades com no controlades.

Implementar una Política d’Ús Responsable d’IA: Document que estableixi regles, principis i procediments sobre usos permesos, procediments d’aprovació, obligacions de confidencialitat i mesures de seguretat.

Establir controls tècnics de prevenció: Solucions de Prevenció de Pèrdua de Dades (DLP) per examinar informació sensible enviada a plataformes d’IA.

Formar i conscienciar la plantilla: El 87% dels empleats no comprèn els riscos reals de l’ús inadequat d’IA. La formació ha de ser específica per perfil professional.

Designar responsables de governança: Crear un Comitè d’IA amb representació d’àrees clau que supervisi implementació, avaluï noves eines i gestioni incidents.

Conclusió

En un context normatiu cada vegada més exigent, amb el RGPD plenament consolidat, l’AI Act en fase d’implementació i l’AEPD exercint competències sancionadores, les organitzacions no es poden permetre ignorar la Shadow AI.
Com adverteix Darren Hardman, CEO de Microsoft UK & Ireland: “Només l’IA de nivell empresarial ofereix la funcionalitat que els empleats desitgen, envoltada en la privacitat i seguretat que tota organització exigeix”.
La clau està en governar: establir marcs clars, formar equips i implementar controls tècnics. Només així la innovació es converteix en avantatge competitiu sostenible i responsable.

Com sempre, cuideu les dades i cuideu-vos!

Transparència 2.0: així canvia el nou Codi de Conducta d’Influencers a Espanya

Des de l’1 d’octubre de 2025, l’ecosistema digital espanyol fa un nou pas cap a la transparència publicitària. Ha entrat oficialment en vigor l’actualització del Codi de Conducta sobre l’ús d’influencers en la publicitat, promogut per AUTOCONTROL, l’Associació Espanyola d’Anunciants (AEA) i IAB Spain, amb el suport d’institucions públiques com el Ministeri de Consum i la Secretaria d’Estat de Digitalització i Intel·ligència Artificial.

Aquest nou Codi, revisat per primera vegada des de la seva aprovació en 2021, reforça el paper de l’autoregulació en un entorn cada vegada més complex, en el qual la frontera entre el contingut orgànic i el publicitari és més difusa que mai. Amb prop de 1.000 entitats adherides—entre marques, agències, plataformes i creadors—, el text aspira a oferir major seguretat jurídica i a consolidar bones pràctiques en el màrqueting d’influència.

Què canvia respecte al Codi de 2021?

La versió de 2021 va ser pionera en exigir que els continguts patrocinats anessin clarament identificables mitjançant etiquetes o esments explícits («#publi», «#ad», «en col·laboració amb…»). No obstant això, la pràctica diària va demostrar que continuaven existint zones grises: col·laboracions no declarades, obsequis encoberts o esments ambigus que confonien a l’audiència.

El nou Codi 2025 avança precisament en aquesta direcció:

  • Introdueix una llista d’indicis que permet determinar quan un contingut pot considerar-se publicitari, fins i tot sense prova directa de l’acord comercial.
  • Amplia i actualitza l’annex de plataformes digitals, especificant com ha d’identificar-se la publicitat en cadascuna (YouTube, Instagram, TikTok, Twitch, etc.).
  • Afegeix previsions específiques sobre continguts generats amb intel·ligència artificial, la intervenció de menors d’edat i la responsabilitat de les diferents parts (marques, agències i influencers).

En resum: on abans hi havia recomanacions generals, ara hi ha criteris concrets i traçables.

Formació i professionalització de l‘influencer

Una altra de les grans novetats és el Certificat de Capacitació Bàsica per a Influencers sobre normativa publicitària, llançat per AUTOCONTROL dins del programa europeu AdEthics, impulsat per la European Advertising Standards Alliance (EASA). Més de 700 influencers ja estan inscrits en aquesta formació en línia que acredita el coneixement de les normes d’identificació de contingut publicitari.

Aquest pas és decisiu, ja que professionalitza un sector que fins fa poc es movia entre la intuïció i la improvisació, i reforça la responsabilitat compartida entre creadors, agències i anunciants.

Un nou estàndard de transparència digital

Amb aquestes millores, el Codi 2025 té la intenció de no solament facilitar el compliment normatiu, sinó enfortir la confiança entre marques, consumidors i creadors. Les marques adherides podran demostrar el seu compromís amb l’ètica publicitària i evitar sancions o crisis reputacionals derivades d’una comunicació enganyosa.

En un entorn en què la intel·ligència artificial genera i distribueix continguts a una velocitat sense precedents, la transparència deixa de ser una opció: es converteix en un valor competitiu i en una exigència reguladora.

Conclusió

El nou Codi de Conducta no substitueix al de 2021, sinó que l’eleva al següent nivell. Passa de la simple autoregulació a un marc de corresponsabilitat, en el qual tots els actors—des de les grans marques fins als microinfluencers—comparteixen una mateixa meta: que la publicitat sigui clara, ètica i recognoscible.

Com sempre, cuideu les dades i cuideu-vos!

Per accedir al Codi de Conducta, feu clic aquí.

Algoritmes sota vigilància: la nova era de la Inspecció de Treball

La Inspecció de Treball ha estrenat el seu Pla Estratègic 2025-2027 i porta una novetat que no deixa indiferent: la intel·ligència artificial es converteix en protagonista del món laboral. I ho fa per partida doble: serà tant objecte de control en les empreses com eina de control en mans de la pròpia Inspecció.

IA com a objecte de control

Si la teva empresa utilitza algoritmes per a contractar, organitzar torns o prendre decisions sobre la plantilla, és moment de revisar aquests processos. La Inspecció anuncia que vigilarà molt de prop aquestes pràctiques per a evitar biaixos i discriminacions.

La idea és simple: la tecnologia no pot servir per a limitar la igualtat d’oportunitats. De fet, el pla fins i tot apunta al fet que es podria adaptar el règim sancionador per a respondre a possibles abusos en aquest terreny.

El missatge als empresaris és clar: toca ser transparents i responsables amb els sistemes d’IA que afecten les persones.

IA com a eina de control

La Inspecció no es queda enrere. El Pla preveu una profunda modernització tecnològica de l’organisme:

  • Creació d’unitats de tractament massiu de dades en cada Comunitat Autònoma, capaces de manejar grans volums d’informació i detectar patrons de frau.
  • Desenvolupament de noves regles algorítmiques integrades en l’Eina de Lluita contra el Frau.
  • Posada en marxa d’un laboratori d’informàtica forense, especialitzat a obtenir evidències digitals dels sistemes empresarials.
  • Implantació de projectes pilot d’IA per a planificar expedients, automatitzar processos i millorar l’eficiència interna.

Tot això amb un objectiu: anticipar-se al frau, guanyar eficàcia i reforçar la transparència en l’actuació inspectora.

Un canvi de paradigma

La digitalització i la revolució tecnològica són ja part inseparable del món laboral. El Pla Estratègic situa a la Inspecció com a àrbitre i jugador alhora: controla com les empreses apliquen la IA, mentre aprofita aquesta mateixa tecnologia per a optimitzar la seva pròpia labor.

Per a les empreses, el missatge és doble. D’una banda, han de garantir que els sistemes d’IA que impacten en la plantilla respectin els drets fonamentals. D’altra banda, han d’estar preparades per a un control cada vegada més sofisticat, en el qual l’empremta digital i les dades ocupen un lloc central.

La conclusió és evident: la IA ja no és un futurible en les relacions laborals, sinó un present regulat i fiscalitzat. I entre 2025 i 2027, serà un dels eixos prioritaris d’actuació de la Inspecció de Treball i Seguretat Social.

Per llegir el Pla, feu clic aquí.

Com sempre, cuideu les dades i cuideu-vos!

Albània aposta per una ministra artificial: entre la innovació i el risc

Albània ha fet un pas històric —i polèmic—: s’ha convertit en el primer país del món a nomenar una intel·ligència artificial com a ministra. El seu nom és Diella, inspirat en la paraula «diell» (sol, en albanès), com a símbol de transparència.

La nova «ministra» s’encarregarà d’avaluar licitacions públiques, detectar irregularitats i assistir en tràmits electrònics. La seva creació respon a un objectiu polític molt concret: convèncer a Brussel·les de la voluntat d’Albània de lluitar contra la corrupció de cara a la seva adhesió a la Unió Europea en 2030.

La posada en escena no ha pogut ser més simbòlica: en les presentacions oficials, la Diella apareix com una jove somrient, amb vestit típic albanès, saludant des de la pantalla. No obstant això, després del gest de modernitat, sorgeixen moltes incògnites.

Llums i ombres de la iniciativa

El govern albanès pretén mostrar un compromís amb la transparència en un país marcat per sospites de corrupció, favoritisme i blanqueig de capitals en les adjudicacions públiques. Però el moviment desperta més dubtes que certeses.

Delegar un càrrec ministerial en una IA podria ser problemàtic per diversos motius:

  • No s’ha aclarit si hi haurà algun tipus de supervisió humana sobre les decisions de la Diella.
  • No han informat sobre quin ha estat l’algorisme utilitzat, les dades d’entrenament i els mecanismes de validació dels seus resultats.
  • Com qualsevol IA, existeix un risc elevat de biaixos en les adjudicacions i de falta de traçabilitat en els processos.
  • S’obren vulnerabilitats de ciberseguretat en un context geopolític delicat.

A aquestes crítiques se suma un altre factor: la viabilitat. Segons estudis del MIT, el 95% dels projectes d’IA a gran escala fracassen per falta de retorn o per costos excessius. Està Albània preparada per a gestionar un sistema tan complex i delicat?

El risc de substituir en lloc de complementar

La IA pot ser un aliada poderosa per a reforçar la transparència administrativa, però la seva funció hauria de ser acompanyar i millorar el treball humà, no reemplaçar-lo. La substitució completa d’un rol polític d’alt nivell planteja un escenari inèdit i amb implicacions democràtiques profundes: qui assumeix la responsabilitat última de les decisions?

Altres països ja experimenten amb IA en l’administració: Ucraïna té un avatar portaveu, Mèxic una assistent virtual judicial, i el Brasil avança en aquesta línia. Però el cas albanès va més enllà: no és un assistent, sinó una «ministra».

Conclusió

Albània busca amb la Diella enviar un missatge clar a la Unió Europea: compromís amb la transparència i voluntat de modernització. Però l’experiment planteja seriosos dubtes de legitimitat, control i seguretat.

La innovació tecnològica és benvinguda, sempre que no substitueixi el judici crític humà ni posi en risc la confiança en les institucions. La pregunta continua oberta: la Diella és un raig de llum contra la corrupció o un salt massa arriscat en la política digital?

Com sempre, cuideu les dades i cuideu-vos!

EU Data Act: Estem preparats per a la nova era de les dades?

12 de setembre de 2025

Des d’avui s’aplica l’EU Data Act, una normativa que canvia les regles del joc en l’accés i ús de les dades generades per dispositius connectats. Però, què implica exactament i com afectarà empreses i usuaris?

Què és l’EU Data Act?

És una llei de la Unió Europea que atorga als usuaris —ja siguin consumidors o empreses— el dret d’accedir i compartir les dades generades pels seus dispositius connectats (IoT – termostats intel·ligents o vehicles connectats –) de manera estructurada, en temps real i en formats llegibles per màquina.

Per què és tan important aquesta data?

Perquè a partir del 12 de setembre de 2025, els fabricants han de garantir que aquestes dades no quedin sota el seu control exclusiu. Els usuaris tindran llibertat per reutilitzar-les o compartir-les amb tercers, fomentant la innovació i la competència lleial al mercat digital europeu.

Quins beneficis aporta als usuaris?

  • Transparència total: accés immediat a la informació generada pels seus dispositius.
  • Innovació oberta: possibilitat que noves empreses desenvolupin serveis basats en aquestes dades.
  • Major control: els usuaris ja no dependran del fabricant per aprofitar la seva informació.

I què implica per a les empreses?

Aquí arriben els reptes:

  • Adaptació tecnològica: sistemes preparats per exportar dades de manera segura i estandarditzada.
  • Desenvolupament  de clàusules contractuals justes.
  • Compliment legal: alineació amb el RGPD i amb la ciberseguretat.
  • Costos i processos: inversió en infraestructura i formació per adequar-se a la norma.
  • Penalitzacions per incompliments

Estem davant d’un canvi cultural?

Sí. La propietat i el control de les dades ja no resideix només en els fabricants. Europa aposta per una economia digital més oberta, transparent i centrada en l’usuari, on compartir dades no sigui una excepció, sinó una pràctica habitual i segura.

Conclusió

L’EU Data Act és molt més que una norma tècnica: és un pas ferm cap a un mercat digital europeu més competitiu i equilibrat. La pregunta ara és: convertiran les empreses aquesta obligació en una oportunitat real?

Avalua el teu compliment avui per convertir els reptes en avantatges competitives.

Com sempre, cuideu les dades i cuideu-vos!

La primera nació governada per una IA: un experiment polític que planteja més preguntes que respostes

En un racó paradisíac de Palawan, Filipines, s’està gestant un experiment polític i tecnològic sense precedents: l’Illa Sensay, la primera comunitat insular governada per un gabinet íntegrament format per rèpliques d’intel·ligència artificial de figures històriques.

La iniciativa part de la startup britànica Sensay, especialitzada a crear rèpliques humanes d’IA capaces de reproduir amb fidelitat la personalitat i els patrons de decisió de personatges cèlebres, entrenades amb els seus escrits, discursos i filosofia. A l’Illa Sensay, un gabinet de 17 líders històrics ocuparà els principals càrrecs de govern, encapçalats per Marco Aurelio com a president i Winston Churchill com primer ministre.

Altres llocs clau estaran en mans de Nelson Mandela (Justícia), Eleanor Roosevelt (Afers exteriors), Florence Nightingale (Salut), Sun Tzu (Defensa), Ada Lovelace (Ciència i Tecnologia) i Mahatma Gandhi (Assessor d’Ètica), entre altres. Fins i tot s’inclou a Leonardo da Vinci com a ministre de Cultura i Nikola Tesla com a assessor d’Innovació.

Un govern sense partits… però amb algoritmes

El projecte es presenta com una oportunitat per a demostrar que la IA pot governar «lliure de partidismes polítics i bloquejos burocràtics». Qualsevol persona del món podrà registrar-se com a E-resident, proposar polítiques a través d’una plataforma oberta i seguir en directe els debats i votacions del gabinet virtual.

La previsió és ambiciosa:

  • 2025: compra de l’illa i aprovació de la Carta Fundacional, que garanteix llibertats i drets bàsics.
  • 2026: arribada d’observadors i investigadors i posada en marxa d’una microxarxa d’energia renovable.
  • 2027: obertura del programa de residència i declaració d’un Santuari Ambiental que cobrirà el 60% de l’illa.
  • 2028: celebració del Primer Simposi Global sobre Governança d’IA.

Implicacions i desafiaments legals

Encara que l’Illa Sensay neix com un projecte privat, planteja preguntes complexes sobre sobirania i dret internacional:

  • Pot un territori ser reconegut com a «nació» si el seu govern no està composat per humans?
  • Qui és legalment responsable si les decisions del gabinet provoquen danys?
  • Com es garanteix la transparència i l’absència de biaixos en els algorismes?

A més, la gestió de dades serà crítica: la IA tindrà accés a informació personal de residents i e-residents. El volum i la naturalesa de la informació exigiran estàndards de ciberseguretat avançats.

Més que un experiment tecnològic

El fundador de Sensay, Dan Thomson, assegura que el projecte és una resposta a la crisi global de confiança en els parlaments, que segons estudis ha caigut un 78’4% des de 1990. Però el debat transcendeix el tècnic: pot la intel·ligència artificial substituir al judici humà en la política? Quin paper juguen l’empatia, la cultura i l’ètica en decisions que afecten comunitats reals?

L’Illa Sensay podria ser un laboratori viu per al futur de la governança … o un recordatori que no tot el que la tecnologia permet és el que la societat necessita.

Com sempre, cuideu les dades i cuideu-vos!

Imagen: © 2025 Sensay Island – Sovereign Micronation. All rights reserved.

La IA en selecció de personal, sota la lupa legal

En la cerca d’eficiència i objectivitat, moltes empreses estan incorporant eines d’Intel·ligència Artificial (IA) en els seus processos de selecció de personal. Des del sedàs automatitzat de currículums fins a entrevistes per vídeo analitzades per algorismes, la tecnologia ja és part habitual de l’àrea de recursos humans.

No obstant això, hem de recordar que aquest avanç ha d’anar acompanyat d’un compliment normatiu rigorós. El Reglament d’Intel·ligència Artificial de la Unió Europea, aprovat l’any passat (2024), classifica els sistemes de IA utilitzats per a prendre decisions sobre contractació com a sistemes de «alt risc» (art. 6.2). Això implica una sèrie d’obligacions legals estrictes per a empreses que els utilitzin.

Entre les principals exigències, destaquen:

  • Avaluacions de risc i conformitat prèvies al desplegament.
  • Supervisió humana significativa en tot el procés.
  • Mecanismes de transparència: el candidat ha de ser informat si és avaluat per una IA.
  • Prevenció de biaixos i discriminacions algorítmiques.
  • Registre de decisions i traçabilitat del sistema.

L’incompliment pot comportar multes de fins a 35 milions d’euros o el 7% del volum de negoci global, la qual cosa col·loca a la contractació automatitzada en el focus dels reguladors (art. 99.3).

A més, quan la IA tracta dades personals de candidats, també s’ha de tenir en compte el Reglament General de Protecció de Dades (RGPD), especialment, el dret de l’interessat a no ser objecte de decisions automatitzades sense intervenció humana (art. 22 RGPD).

En aquest nou marc, les empreses han de revisar els seus processos i eines de selecció per a garantir que no sols són eficaces, sinó també ètics, transparents i legals. La transformació digital de la selecció del talent ha d’anar de la mà de la confiança i el compliment normatiu.

Conclusió

Incorporar Intel·ligència Artificial en els processos de selecció pot aportar eficiència, agilitat i reducció de biaixos humans, però no elimina les obligacions legals. Molt al contrari: en tractar-se de sistemes d’alt impacte sobre els drets de les persones, el nou marc normatiu europeu exigeix a les organitzacions major control, transparència i diligència.

Si la teva empresa utilitza—o està valorant utilitzar—solucions basades en IA per a garbellar, avaluar o prendre decisions sobre candidats, és imprescindible que tingui en compte les previsions establertes en el Reglament d’IA.

Com sempre, cuideu les dades i cuideu-vos!

Revisió Texts legals web