Shadow AI en el treball: com supervisar sense travessar la línia de la vigilància

L'ús d'eines d'intel·ligència artificial en l'entorn laboral—moltes vegades fora dels canals oficials—està obligant les empreses a replantejar els seus mecanismes de control. El fenomen del Shadow AI planteja un dilema clar: les organitzacions necessiten supervisió, però un enfocament excessiu pot derivar en conflictes laborals i riscos legals. 

L'Agència Espanyola de Protecció de Dades (AEPD), a la seva Guia sobre protecció de dades en les relacions laborals, ofereix un marc clar: el control és legítim, però ha de respectar els principis de proporcionalitat, transparència i minimització. 

El punt de partida: el control empresarial és legítim 

L'Estatut dels Treballadors reconeix la facultat de l'empresa per a adoptar mesures de vigilància i control amb la finalitat de verificar el compliment de les obligacions laborals. Aquest control inclou l'ús d'eines digitals i, per extensió, l'ús que els empleats fan de tecnologies com la intel·ligència artificial. 

Ara bé, com recorda l'AEPD, aquest control ha d'exercir-se dins dels límits del RGPD i la LOPDGDD. És a dir, no tot val: qualsevol mesura ha de ser proporcionada, justificada i respectuosa amb els drets fonamentals dels treballadors. 

El risc de la «vigilància total» 

Davant l'auge del Shadow AI, algunes organitzacions poden caure en la temptació d'implantar sistemes de monitoratge intensiu: registre d'activitat, anàlisi de comportament, captura d'ús d'eines o supervisió contínua. 

El problema és que aquest enfocament pot ser contraproduent. L'AEPD adverteix que les mesures de control excessives poden vulnerar drets com la intimitat o el secret de les comunicacions, especialment si no estan degudament justificades. 

A més, un sistema de vigilància desproporcionat pot generar: 

  • conflictes laborals i pèrdua de confiança, 
  • incompliments en matèria de protecció de dades, 
  • i, en cas d'incident, proves febles o impugnables per haver-se obtingut sense garanties. 

La clau: supervisió proporcional i amb garanties 

L'equilibri està a dissenyar un model de control basat en tres pilars fonamentals: 

Proporcionalitat 

Les mesures han de ser adequades al risc. No és el mateix controlar accessos a informació sensible que monitorar de forma generalitzada tota l'activitat digital. L'empresa ha d'optar per solucions menys intrusives quan siguin suficients. 

Informació prèvia i transparència 

Els treballadors han de conèixer de manera clara quines eines s'utilitzen, quines dades es recullen i amb quina finalitat. L'AEPD insisteix en la importància de polítiques internes ben definides i comunicades. 

Finalitat i minimització 

Les dades recollides han de limitar-se a l'estrictament necessari per a la finalitat perseguida. No es justifica recopilar informació excessiva «per si de cas». 

Shadow AI: del control tècnic a la governança 

Controlar l'ús d'IA en l'empresa no és només una qüestió tecnològica. És, sobretot, una qüestió de governança de la dada i cultura organitzativa. 

Les organitzacions més madures estan optant per enfocaments combinats: 

  • polítiques clares sobre ús d'IA, 
  • formació a empleats sobre riscos, 
  • eines autoritzades i segures, 
  • i controls selectius orientats a riscos concrets. 

Aquest enfocament no elimina el risc, però el gestiona sense envair innecessàriament l'espai del treballador. 

Conclusió: controlar sí, però amb disseny jurídic 

El Shadow AI no se soluciona amb més vigilància, sinó amb millor disseny. La clau està a trobar un equilibri entre control i drets, entre seguretat i confiança. 

Les empreses que optin per mesures desproporcionades no solament s'exposen a sancions, sinó també a un problema més subtil: perdre la validesa dels seus propis mecanismes de control. 

Perquè en l'entorn laboral digital, no n'hi ha prou amb supervisar. Cal fer-ho de manera que, arribat el moment, pugui sostenir-se jurídica i provatòriament. 

 Com sempre, cuideu les dades i cuideu-vos! 

Copiar i enganxar en IA generativa: el risc no és la resposta, és la dada

Les eines d'intel·ligència artificial generativa s'han convertit en un aliat quotidià en el treball: resumir documents, redactar correus o analitzar informació en segons. El gest és simple i cada vegada més habitual: copiar un text, enganxar-lo a una eina d'IA i demanar un resultat.

No obstant això, darrere d'aquesta aparent innocuïtat s'amaga un dels principals riscos actuals en protecció de dades i seguretat de la informació. El problema no acostuma ser la resposta que genera la IA, sinó les dades que introduïm en ella.

L'Agència Espanyola de Protecció de Dades (AEPD) ho ha recordat recentment en el seu Decàleg de recomanacions per a protegir la privacitat en usar intel·ligència artificial, en el qual adverteix dels riscos de compartir informació sensible amb aquesta mena d'eines sense analitzar prèviament el seu impacte.

1. L'origen de molts incidents: un simple «copiar i enganxar»

Gran part dels incidents vinculats a l'anomenat Shadow AI—ús d'eines d'IA fora dels canals autoritzats per l'organització—comencen amb una acció aparentment trivial.

Un empleat necessita ajuda per a revisar un text, resumir un contracte o entendre un informe. Copia el contingut i l’enganxa a una eina d'IA generativa per a obtenir una resposta ràpida. En aquest moment, sense ser plenament conscient, pot estar introduint en un sistema extern informació confidencial, dades personals o informació estratègica de l'empresa.

Segons l'AEPD, abans d'utilitzar aquestes eines és fonamental avaluar quin tipus d'informació s'està compartint i si el servei garanteix un ús adequat de les dades.

2. La pèrdua de control de la dada

Quan s'introdueix informació en una eina d'IA generativa, l'usuari pot perdre visibilitat sobre com es gestiona aquest contingut. Depenent del proveïdor i de la seva configuració, les dades poden:

  • Emmagatzemar-se temporalment o durant més temps de l'esperat.
  • Utilitzar-se per a millorar o entrenar models.
  • Generar registres d'ús o metadades.
  • Processar-se en infraestructures situades fora de l'Espai Econòmic Europeu.

Això no significa que totes les eines utilitzin les dades amb aquests fins, però sí que el control sobre la informació pot diluir-se si no s'analitzen prèviament les condicions d'ús del servei.

Per això, l'AEPD insisteix que l'ús responsable de la IA implica conèixer què passa amb les dades introduïdes i quines garanties ofereix el proveïdor.

3. Una llista breu del que mai hauria de sortir del perímetre

Per a reduir riscos, una bona pràctica consisteix a establir regles clares sobre quin tipus d'informació no ha d'introduir-se en eines d'IA generativa. Entre els exemples més habituals es troben:

  • Dades personals de clients o empleats.
  • Documents contractuals confidencials.
  • Informació financera o estratègica de l'empresa.
  • Credencials, claus o informació d'accés a sistemes.
  • Bases de dades internes o llistats de clients.

Aquest tipus d'informació forma part del perímetre de seguretat de l'organització, i la seva exposició en plataformes externes pot generar riscos legals, reputacionals o de seguretat.

Conclusió: el problema no és utilitzar IA, sinó com s’utilitza

La intel·ligència artificial generativa pot aportar grans beneficis en termes de productivitat i innovació. El repte està a utilitzar-la amb criteris clars de governança de la dada.

El major risc no acostuma a ser la resposta que produeix l'eina, sinó el contingut que s'introdueix en ella sense una avaluació prèvia. Per això, les organitzacions necessiten polítiques internes, formació i criteris clars sobre l'ús d'aquestes tecnologies.

Perquè en l'era de la IA generativa, la pregunta clau ja no és si utilitzem aquestes eines, sinó quina informació estem disposats a compartir amb elles.

Com sempre, cuideu les dades i cuideu-vos!

Imatges i IA en màrqueting i RRHH: la drecera que pot sortir cara

Una tendència viral que sembla inofensiva 

L'ús d'eines d'intel·ligència artificial per a «millorar» fotografies—retocar fotos corporatives, generar versions creatives per a campanyes o estilitzar imatges d'equips—s'ha convertit en un recurs habitual en màrqueting i recursos humans. La petició sol sonar innocent: «Passa'm aquesta foto per IA per a…». 

No obstant això, quan en aquesta imatge hi ha persones identificables, estem davant dades personals. I, quan aquesta imatge es puja a un sistema de IA, el perímetre del tractament s'amplia i el control es complica. Així ho adverteix la Guia de l'AEPD sobre l'ús d'imatges de tercers en sistemes d’IA, que analitza els riscos i obligacions derivats d'aquestes pràctiques. 

Si hi ha persones identificables, hi ha protecció de dades 

La imatge d'una persona és una dada personal en la mesura en què permet la seva identificació directa o indirecta (art. 4 RGPD). No és necessari que es tracti de dades «sensibles» o biomètriques en sentit tècnic: n'hi ha prou que la persona sigui recognoscible. 

En entorns corporatius això és especialment rellevant. Fotografies d'empleats, candidats, clients o assistents a esdeveniments formen part de l'àmbit d'aplicació del Reglament (UE) 2016/679 (RGPD) i de la LOPDGDD. Pujar aquestes imatges a una eina de IA implica una comunicació de dades a un tercer (el proveïdor del sistema), la qual cosa exigeix: 

  • Base jurídica adequada (consentiment vàlid o una altra legitimació de l'art. 6 RGPD). 
  • Informació clara sobre el tractament (arts. 13 i 14 RGPD). 
  • Contracte per encàrrec de tractament si el proveïdor actua com a encarregat (art. 28 RGPD). 

L'aparent «simplicitat» tecnològica no elimina aquestes exigències. 

Riscos visibles i invisibles: més enllà del retoc 

La guia de l'AEPD subratlla que l'ús d'imatges en sistemes de IA pot generar riscos que van més enllà de la finalitat inicial. Entre ells: 

  • Pèrdua de control i difusió no prevista: la imatge pot emmagatzemar-se, reutilitzar-se o incorporar-se a l'entrenament de models si no existeixen garanties contractuals clares. 
  • Retenció indefinida: desconeixement sobre quant temps conservarà el proveïdor les imatges. 
  • Inferències automatitzades: a partir d'una fotografia, els sistemes poden inferir edat, gènere, estat d'ànim o altres atributs, amb possibles impactes discriminatoris. 
  • Reutilització per a finalitats diferents: màrqueting, millora d'algorismes o generació de nous continguts. 

En contextos de RRHH, aquests riscos s'intensifiquen. La relació de desequilibri entre empresa i empleat qüestiona la validesa del consentiment, la qual cosa obliga a extremar les cauteles. 

El perímetre s'amplia quan entra la IA 

Pujar una imatge a una plataforma de IA no és equivalent a emmagatzemar-la en un servidor intern. Suposa introduir-la en un ecosistema tecnològic complex, sovint amb proveïdors situats fora de l'Espai Econòmic Europeu. 

Això obliga a analitzar, entre altres qüestions: 

  • Transferències internacionals de dades (arts. 44 i ss. RGPD). 
  • Mesures tècniques i organitzatives del proveïdor. 
  • Possible necessitat de realitzar una Avaluació d'Impacte relativa a la Protecció de Dades (AIPD) si el tractament comporta alt risc (art. 35 RGPD). 

La «drecera» creativa pot convertir-se en una cadena de responsabilitats difícil de gestionar. 

Conclusió: creativitat sí, però amb governança de la dada 

La intel·ligència artificial ofereix oportunitats indiscutibles per a la comunicació i la gestió del talent. Però utilitzar imatges de persones en sistemes de IA sense una anàlisi prèvia és obrir un meló jurídic amb implicacions en control, drets i responsabilitat corporativa. 

La clau no és renunciar a la innovació, sinó integrar-la en una estratègia de compliment i governança de la dada: revisar bases jurídiques, contractes amb proveïdors, polítiques internes i criteris de minimització. 

Perquè en protecció de dades, el que sembla un gest tècnic menor—«passa'm aquesta foto per IA»—pot convertir-se en un tractament complex amb conseqüències legals, reputacionals i econòmiques rellevants. 

Com sempre, cuideu les dades i cuideu-vos! 

Shadow AI: quan la innovació es converteix en vulnerabilitat legal

La intel·ligència artificial va arribar per quedar-se, però la seva adopció descontrolada pot convertir-se en el major risc legal i reputacional de la teva organització. La coneguda com Shadow AI —l'ús no autoritzat d'eines d'intel·ligència artificial per part d'empleats sense supervisió del departament de TI o compliance— està exposant a milers d'empreses a multes milionàries, filtracions de dades confidencials i greus incompliments normatius.

Les dades són alarmants: una recerca recent de Microsoft revela que el 71% dels empleats al Regne Unit han utilitzat eines d'IA no aprovades en el treball, i el 51% continua fent-ho setmanalment. A Espanya, el 67% de les organitzacions se senten incapaces de detectar implementacions d'IA no controlades, i més del 80% de les companyies espanyoles han sofert incidents de seguretat relacionats amb l'IA. El problema no és menor: un de cada cinc incidents de Shadow AI implica dades sensibles, i només el 32% dels treballadors expressen preocupació per la privacitat de les dades corporatives o de clients introduïdes en eines d'IA de consum.

El veritable risc: vulnerabilitats legals i operatives

Quan un empleat introdueix dades corporatives, informació de clients o estratègies empresarials en eines públiques com ChatGPT, Claude o Gemini sense autorització, genera múltiples vulnerabilitats simultàniament. Els treballadors recurren a aquestes eines per redactar comunicacions laborals (49%), elaborar informes i presentacions (40%) i fins i tot realitzar tasques financeres (22%), però amb una preocupant falta de consciència sobre els riscos: només el 29% es preocupa per la seguretat dels sistemes de TI de la seva organització.

La fuga d'informació confidencial és immediata: les eines d'IA generativa emmagatzemen i reutilitzen la informació introduïda en els seus prompts. Noms de clients, informació de projectes estratègics i codi font propietari són filtrats sense control. Simultàniament, s'incompleixen obligacions del Reglament General de Protecció de Dades (RGPD), que exigeix consentiment explícit, minimització de dades i transparència en el tractament d'informació personal. Les multes poden assolir 20 milions d'euros o el 4% de la facturació global.

El Reglament d'Intel·ligència Artificial (AI Act), les primeres obligacions del qual van entrar en vigor el 2 d'agost de 2025, estableix sancions encara més severes: fins a 35 milions d'euros o el 7% del volum de negoci global. Les organitzacions han de garantir traçabilitat, transparència i supervisió humana en els sistemes d'IA, cosa impossible quan s'utilitzen eines no autoritzades.​

Mesures essencials per a empreses

Prohibir l'ús d'IA no és viable: el 41% dels empleats utilitza aquestes eines perquè hi estan acostumats en la seva vida personal, i el 28% perquè la seva empresa no proporciona una alternativa aprovada. L'estratègia correcta passa per gestionar la Shadow AI mitjançant un marc de governança clar, transparent i auditable.

Realitzar una auditoria interna d'IA: Identificar totes les eines d'IA utilitzades a l'organització, tant autoritzades com no controlades.

Implementar una Política d'Ús Responsable d'IA: Document que estableixi regles, principis i procediments sobre usos permesos, procediments d'aprovació, obligacions de confidencialitat i mesures de seguretat.

Establir controls tècnics de prevenció: Solucions de Prevenció de Pèrdua de Dades (DLP) per examinar informació sensible enviada a plataformes d'IA.

Formar i conscienciar la plantilla: El 87% dels empleats no comprèn els riscos reals de l'ús inadequat d'IA. La formació ha de ser específica per perfil professional.

Designar responsables de governança: Crear un Comitè d'IA amb representació d'àrees clau que supervisi implementació, avaluï noves eines i gestioni incidents.

Conclusió

En un context normatiu cada vegada més exigent, amb el RGPD plenament consolidat, l'AI Act en fase d'implementació i l'AEPD exercint competències sancionadores, les organitzacions no es poden permetre ignorar la Shadow AI.
Com adverteix Darren Hardman, CEO de Microsoft UK & Ireland: "Només l'IA de nivell empresarial ofereix la funcionalitat que els empleats desitgen, envoltada en la privacitat i seguretat que tota organització exigeix".
La clau està en governar: establir marcs clars, formar equips i implementar controls tècnics. Només així la innovació es converteix en avantatge competitiu sostenible i responsable.

Com sempre, cuideu les dades i cuideu-vos!

Transparència 2.0: així canvia el nou Codi de Conducta d’Influencers a Espanya

Des de l'1 d'octubre de 2025, l'ecosistema digital espanyol fa un nou pas cap a la transparència publicitària. Ha entrat oficialment en vigor l'actualització del Codi de Conducta sobre l'ús d’influencers en la publicitat, promogut per AUTOCONTROL, l'Associació Espanyola d'Anunciants (AEA) i IAB Spain, amb el suport d'institucions públiques com el Ministeri de Consum i la Secretaria d'Estat de Digitalització i Intel·ligència Artificial.

Aquest nou Codi, revisat per primera vegada des de la seva aprovació en 2021, reforça el paper de l'autoregulació en un entorn cada vegada més complex, en el qual la frontera entre el contingut orgànic i el publicitari és més difusa que mai. Amb prop de 1.000 entitats adherides—entre marques, agències, plataformes i creadors—, el text aspira a oferir major seguretat jurídica i a consolidar bones pràctiques en el màrqueting d'influència.

Què canvia respecte al Codi de 2021?

La versió de 2021 va ser pionera en exigir que els continguts patrocinats anessin clarament identificables mitjançant etiquetes o esments explícits («#publi», «#ad», «en col·laboració amb…»). No obstant això, la pràctica diària va demostrar que continuaven existint zones grises: col·laboracions no declarades, obsequis encoberts o esments ambigus que confonien a l'audiència.

El nou Codi 2025 avança precisament en aquesta direcció:

  • Introdueix una llista d'indicis que permet determinar quan un contingut pot considerar-se publicitari, fins i tot sense prova directa de l'acord comercial.
  • Amplia i actualitza l'annex de plataformes digitals, especificant com ha d'identificar-se la publicitat en cadascuna (YouTube, Instagram, TikTok, Twitch, etc.).
  • Afegeix previsions específiques sobre continguts generats amb intel·ligència artificial, la intervenció de menors d'edat i la responsabilitat de les diferents parts (marques, agències i influencers).

En resum: on abans hi havia recomanacions generals, ara hi ha criteris concrets i traçables.

Formació i professionalització de l‘influencer

Una altra de les grans novetats és el Certificat de Capacitació Bàsica per a Influencers sobre normativa publicitària, llançat per AUTOCONTROL dins del programa europeu AdEthics, impulsat per la European Advertising Standards Alliance (EASA). Més de 700 influencers ja estan inscrits en aquesta formació en línia que acredita el coneixement de les normes d'identificació de contingut publicitari.

Aquest pas és decisiu, ja que professionalitza un sector que fins fa poc es movia entre la intuïció i la improvisació, i reforça la responsabilitat compartida entre creadors, agències i anunciants.

Un nou estàndard de transparència digital

Amb aquestes millores, el Codi 2025 té la intenció de no solament facilitar el compliment normatiu, sinó enfortir la confiança entre marques, consumidors i creadors. Les marques adherides podran demostrar el seu compromís amb l'ètica publicitària i evitar sancions o crisis reputacionals derivades d'una comunicació enganyosa.

En un entorn en què la intel·ligència artificial genera i distribueix continguts a una velocitat sense precedents, la transparència deixa de ser una opció: es converteix en un valor competitiu i en una exigència reguladora.

Conclusió

El nou Codi de Conducta no substitueix al de 2021, sinó que l'eleva al següent nivell. Passa de la simple autoregulació a un marc de corresponsabilitat, en el qual tots els actors—des de les grans marques fins als microinfluencers—comparteixen una mateixa meta: que la publicitat sigui clara, ètica i recognoscible.

Com sempre, cuideu les dades i cuideu-vos!

Per accedir al Codi de Conducta, feu clic aquí.

Algoritmes sota vigilància: la nova era de la Inspecció de Treball

La Inspecció de Treball ha estrenat el seu Pla Estratègic 2025-2027 i porta una novetat que no deixa indiferent: la intel·ligència artificial es converteix en protagonista del món laboral. I ho fa per partida doble: serà tant objecte de control en les empreses com eina de control en mans de la pròpia Inspecció.

IA com a objecte de control

Si la teva empresa utilitza algoritmes per a contractar, organitzar torns o prendre decisions sobre la plantilla, és moment de revisar aquests processos. La Inspecció anuncia que vigilarà molt de prop aquestes pràctiques per a evitar biaixos i discriminacions.

La idea és simple: la tecnologia no pot servir per a limitar la igualtat d'oportunitats. De fet, el pla fins i tot apunta al fet que es podria adaptar el règim sancionador per a respondre a possibles abusos en aquest terreny.

El missatge als empresaris és clar: toca ser transparents i responsables amb els sistemes d’IA que afecten les persones.

IA com a eina de control

La Inspecció no es queda enrere. El Pla preveu una profunda modernització tecnològica de l'organisme:

  • Creació d'unitats de tractament massiu de dades en cada Comunitat Autònoma, capaces de manejar grans volums d'informació i detectar patrons de frau.
  • Desenvolupament de noves regles algorítmiques integrades en l'Eina de Lluita contra el Frau.
  • Posada en marxa d'un laboratori d'informàtica forense, especialitzat a obtenir evidències digitals dels sistemes empresarials.
  • Implantació de projectes pilot d’IA per a planificar expedients, automatitzar processos i millorar l'eficiència interna.

Tot això amb un objectiu: anticipar-se al frau, guanyar eficàcia i reforçar la transparència en l'actuació inspectora.

Un canvi de paradigma

La digitalització i la revolució tecnològica són ja part inseparable del món laboral. El Pla Estratègic situa a la Inspecció com a àrbitre i jugador alhora: controla com les empreses apliquen la IA, mentre aprofita aquesta mateixa tecnologia per a optimitzar la seva pròpia labor.

Per a les empreses, el missatge és doble. D'una banda, han de garantir que els sistemes d’IA que impacten en la plantilla respectin els drets fonamentals. D’altra banda, han d'estar preparades per a un control cada vegada més sofisticat, en el qual l'empremta digital i les dades ocupen un lloc central.

La conclusió és evident: la IA ja no és un futurible en les relacions laborals, sinó un present regulat i fiscalitzat. I entre 2025 i 2027, serà un dels eixos prioritaris d'actuació de la Inspecció de Treball i Seguretat Social.

Per llegir el Pla, feu clic aquí.

Com sempre, cuideu les dades i cuideu-vos!

Albània aposta per una ministra artificial: entre la innovació i el risc

Albània ha fet un pas històric —i polèmic—: s'ha convertit en el primer país del món a nomenar una intel·ligència artificial com a ministra. El seu nom és Diella, inspirat en la paraula «diell» (sol, en albanès), com a símbol de transparència.

La nova «ministra» s'encarregarà d'avaluar licitacions públiques, detectar irregularitats i assistir en tràmits electrònics. La seva creació respon a un objectiu polític molt concret: convèncer a Brussel·les de la voluntat d'Albània de lluitar contra la corrupció de cara a la seva adhesió a la Unió Europea en 2030.

La posada en escena no ha pogut ser més simbòlica: en les presentacions oficials, la Diella apareix com una jove somrient, amb vestit típic albanès, saludant des de la pantalla. No obstant això, després del gest de modernitat, sorgeixen moltes incògnites.

Llums i ombres de la iniciativa

El govern albanès pretén mostrar un compromís amb la transparència en un país marcat per sospites de corrupció, favoritisme i blanqueig de capitals en les adjudicacions públiques. Però el moviment desperta més dubtes que certeses.

Delegar un càrrec ministerial en una IA podria ser problemàtic per diversos motius:

  • No s'ha aclarit si hi haurà algun tipus de supervisió humana sobre les decisions de la Diella.
  • No han informat sobre quin ha estat l'algorisme utilitzat, les dades d'entrenament i els mecanismes de validació dels seus resultats.
  • Com qualsevol IA, existeix un risc elevat de biaixos en les adjudicacions i de falta de traçabilitat en els processos.
  • S'obren vulnerabilitats de ciberseguretat en un context geopolític delicat.

A aquestes crítiques se suma un altre factor: la viabilitat. Segons estudis del MIT, el 95% dels projectes d’IA a gran escala fracassen per falta de retorn o per costos excessius. Està Albània preparada per a gestionar un sistema tan complex i delicat?

El risc de substituir en lloc de complementar

La IA pot ser un aliada poderosa per a reforçar la transparència administrativa, però la seva funció hauria de ser acompanyar i millorar el treball humà, no reemplaçar-lo. La substitució completa d'un rol polític d'alt nivell planteja un escenari inèdit i amb implicacions democràtiques profundes: qui assumeix la responsabilitat última de les decisions?

Altres països ja experimenten amb IA en l'administració: Ucraïna té un avatar portaveu, Mèxic una assistent virtual judicial, i el Brasil avança en aquesta línia. Però el cas albanès va més enllà: no és un assistent, sinó una «ministra».

Conclusió

Albània busca amb la Diella enviar un missatge clar a la Unió Europea: compromís amb la transparència i voluntat de modernització. Però l'experiment planteja seriosos dubtes de legitimitat, control i seguretat.

La innovació tecnològica és benvinguda, sempre que no substitueixi el judici crític humà ni posi en risc la confiança en les institucions. La pregunta continua oberta: la Diella és un raig de llum contra la corrupció o un salt massa arriscat en la política digital?

Com sempre, cuideu les dades i cuideu-vos!

EU Data Act: Estem preparats per a la nova era de les dades?

12 de setembre de 2025

Des d’avui s’aplica l’EU Data Act, una normativa que canvia les regles del joc en l’accés i ús de les dades generades per dispositius connectats. Però, què implica exactament i com afectarà empreses i usuaris?

Què és l’EU Data Act?

És una llei de la Unió Europea que atorga als usuaris —ja siguin consumidors o empreses— el dret d’accedir i compartir les dades generades pels seus dispositius connectats (IoT – termostats intel·ligents o vehicles connectats –) de manera estructurada, en temps real i en formats llegibles per màquina.

Per què és tan important aquesta data?

Perquè a partir del 12 de setembre de 2025, els fabricants han de garantir que aquestes dades no quedin sota el seu control exclusiu. Els usuaris tindran llibertat per reutilitzar-les o compartir-les amb tercers, fomentant la innovació i la competència lleial al mercat digital europeu.

Quins beneficis aporta als usuaris?

  • Transparència total: accés immediat a la informació generada pels seus dispositius.
  • Innovació oberta: possibilitat que noves empreses desenvolupin serveis basats en aquestes dades.
  • Major control: els usuaris ja no dependran del fabricant per aprofitar la seva informació.

I què implica per a les empreses?

Aquí arriben els reptes:

  • Adaptació tecnològica: sistemes preparats per exportar dades de manera segura i estandarditzada.
  • Desenvolupament  de clàusules contractuals justes.
  • Compliment legal: alineació amb el RGPD i amb la ciberseguretat.
  • Costos i processos: inversió en infraestructura i formació per adequar-se a la norma.
  • Penalitzacions per incompliments

Estem davant d’un canvi cultural?

Sí. La propietat i el control de les dades ja no resideix només en els fabricants. Europa aposta per una economia digital més oberta, transparent i centrada en l’usuari, on compartir dades no sigui una excepció, sinó una pràctica habitual i segura.

Conclusió

L’EU Data Act és molt més que una norma tècnica: és un pas ferm cap a un mercat digital europeu més competitiu i equilibrat. La pregunta ara és: convertiran les empreses aquesta obligació en una oportunitat real?

Avalua el teu compliment avui per convertir els reptes en avantatges competitives.

Com sempre, cuideu les dades i cuideu-vos!

La primera nació governada per una IA: un experiment polític que planteja més preguntes que respostes

En un racó paradisíac de Palawan, Filipines, s'està gestant un experiment polític i tecnològic sense precedents: l'Illa Sensay, la primera comunitat insular governada per un gabinet íntegrament format per rèpliques d'intel·ligència artificial de figures històriques.

La iniciativa part de la startup britànica Sensay, especialitzada a crear rèpliques humanes d’IA capaces de reproduir amb fidelitat la personalitat i els patrons de decisió de personatges cèlebres, entrenades amb els seus escrits, discursos i filosofia. A l'Illa Sensay, un gabinet de 17 líders històrics ocuparà els principals càrrecs de govern, encapçalats per Marco Aurelio com a president i Winston Churchill com primer ministre.

Altres llocs clau estaran en mans de Nelson Mandela (Justícia), Eleanor Roosevelt (Afers exteriors), Florence Nightingale (Salut), Sun Tzu (Defensa), Ada Lovelace (Ciència i Tecnologia) i Mahatma Gandhi (Assessor d'Ètica), entre altres. Fins i tot s'inclou a Leonardo da Vinci com a ministre de Cultura i Nikola Tesla com a assessor d'Innovació.

Un govern sense partits… però amb algoritmes

El projecte es presenta com una oportunitat per a demostrar que la IA pot governar «lliure de partidismes polítics i bloquejos burocràtics». Qualsevol persona del món podrà registrar-se com a E-resident, proposar polítiques a través d'una plataforma oberta i seguir en directe els debats i votacions del gabinet virtual.

La previsió és ambiciosa:

  • 2025: compra de l'illa i aprovació de la Carta Fundacional, que garanteix llibertats i drets bàsics.
  • 2026: arribada d'observadors i investigadors i posada en marxa d'una microxarxa d'energia renovable.
  • 2027: obertura del programa de residència i declaració d'un Santuari Ambiental que cobrirà el 60% de l'illa.
  • 2028: celebració del Primer Simposi Global sobre Governança d’IA.

Implicacions i desafiaments legals

Encara que l'Illa Sensay neix com un projecte privat, planteja preguntes complexes sobre sobirania i dret internacional:

  • Pot un territori ser reconegut com a «nació» si el seu govern no està composat per humans?
  • Qui és legalment responsable si les decisions del gabinet provoquen danys?
  • Com es garanteix la transparència i l'absència de biaixos en els algorismes?

A més, la gestió de dades serà crítica: la IA tindrà accés a informació personal de residents i e-residents. El volum i la naturalesa de la informació exigiran estàndards de ciberseguretat avançats.

Més que un experiment tecnològic

El fundador de Sensay, Dan Thomson, assegura que el projecte és una resposta a la crisi global de confiança en els parlaments, que segons estudis ha caigut un 78’4% des de 1990. Però el debat transcendeix el tècnic: pot la intel·ligència artificial substituir al judici humà en la política? Quin paper juguen l'empatia, la cultura i l'ètica en decisions que afecten comunitats reals?

L'Illa Sensay podria ser un laboratori viu per al futur de la governança … o un recordatori que no tot el que la tecnologia permet és el que la societat necessita.

Com sempre, cuideu les dades i cuideu-vos!

Imagen: © 2025 Sensay Island – Sovereign Micronation. All rights reserved.

Revisió Texts legals web