Un simple clic, un gran problema: l’error humà darrere de la fallada de la CNMC

El 29 d’octubre, la Comissió Nacional dels Mercats i la Competència (CNMC) va protagonitzar un incident que ha generat una àmplia polèmica entorn de la protecció de dades personals i la responsabilitat institucional. L’error, aparentment simple, va consistir a enviar un correu electrònic a 378 influencers espanyols, coneguts oficialment com a Usuaris d’Especial Rellevància (UER), sense utilitzar la còpia oculta (CCO), exposant així les adreces de correu electrònic de tots els destinataris.

Entre els afectats es trobaven figures públiques com Risto Mejide o Ibai Llanos, els qui ràpidament van donar visibilitat al succés en xarxes socials. Més enllà del renou mediàtic, l’incident planteja serioses implicacions legals i ètiques sobre la privacitat i el compliment del Reglament General de Protecció de Dades (RGPD) i la Llei orgànica 3/2018, de Protecció de Dades i Garantia dels Drets Digitals (LOPDGDD).

La importància de la privacitat de les dades

Segons l’article 32 del RGPD, els responsables del tractament han de garantir la seguretat de les dades personals mitjançant mesures tècniques i organitzatives adequades. Enviar un correu massiu amb còpia visible a tots els destinataris és, sens dubte, una vulneració d’aquest principi, ja que permet la divulgació no autoritzada d’informació personal. Encara que l’error hagi estat humà, el RGPD deixa clar que les organitzacions—siguin públiques o privades—han d’adoptar procediments que minimitzin el risc d’aquestes fallades.

Aquest cas posa de manifest que els organismes públics estan subjectes a les mateixes obligacions que les empreses privades. La CNMC, com a autoritat administrativa independent, actua com a responsable del tractament de les dades dels influencers inscrits en el seu registre. Per tant, té l’obligació de protegir aquestes dades, garantir la seva confidencialitat i aplicar protocols de seguretat que evitin incidents com aquest.

No es tracta només d’una qüestió tècnica, sinó també de cultura de protecció de dades. Els errors humans—com confondre «CC» amb «CCO»—poden tenir conseqüències greus si no existeixen controls interns o sistemes automàtics que detectin aquest tipus de riscos abans que ocorri l’enviament.

A més, l’incident podria donar lloc a una investigació per part de l’Agència Espanyola de Protecció de Dades (AEPD), que ja ha sancionat casos similars en els quals es van difondre adreces de correu electrònic sense consentiment.

Conclusió

Aquest succés ha de servir com a recordatori i advertiment: la protecció de dades no és una formalitat, sinó una responsabilitat compartida. Tant les empreses com les institucions públiques han de revisar els seus procediments interns, formar al seu personal i adoptar mesures tecnològiques que evitin que un simple clic acabi comprometent la privacitat de centenars de persones.

Perquè, en matèria de dades personals, un petit error humà pot convertir-se en una gran fallada institucional.

Com sempre, cuideu les dades i cuideu-vos!

Ni anonimat ni IA: el RGPD s’aplica fins i tot a les imatges manipulades digitalment

L’Agència Espanyola de Protecció de Dades (AEPD) ha tornat a pronunciar-se sobre un dels fenòmens més alarmants de l’entorn digital: la difusió d’imatges falses de nus («deepnudes») creades mitjançant intel·ligència artificial. Ha imposat una multa de 2.000 € (reduïda finalment a 1.200 € per reconeixement i pagament voluntari) a un particular per difondre imatges manipulades de menors en grups de missatgeria instantània.

Encara que el sancionat no va generar les imatges, la seva participació en la difusió va ser suficient perquè l’Agència apreciés una infracció de l’article 6.1 del RGPD, al tractar-se d’un tractament de dades personals sense base jurídica legítima.

El que diu el RGPD (i per què importa aquí)

L’article 6 del RGPD estableix que tot tractament de dades personals ha de fundar-se en una base de licitud: consentiment, obligació legal, interès públic, contracte o interès legítim. Si cap d’elles concorre—com en aquest cas—, el tractament és il·lícit, fins i tot si l’infractor no obté benefici ni persegueix una fi sexual.

L’AEPD recorda que el rostre d’una persona és una dada personal (art. 4 RGPD), i que alterar-ho o combinar-ho amb un altre cos no elimina aquesta condició, sinó que l’agreuja: es crea una associació falsa en un context íntim, amb potencial de causar greus danys reputacionals.

Per tant, reexpedir o publicar aquest tipus d’imatges constitueix un tractament addicional, que requereix consentiment i proporcionalitat. L’absència de totes dues bases legitima la sanció.

La IA no esborra la responsabilitat

La resolució reforça una idea clau: l’ús d’intel·ligència artificial no eximeix de responsabilitat. La tecnologia pot automatitzar el mal, però la decisió de compartir continua sent humana. A més, quan els afectats són menors d’edat, entra en joc l’article 84 de la LOPDGDD, que reforça la protecció enfront de la difusió d’imatges que puguin vulnerar la seva dignitat o drets fonamentals.

Lliçons que deixa el cas

  • La IA no anul·la la llei: les imatges sintètiques continuen sent dades personals si permeten identificar a una persona.
  • Compartir també és tractar: reexpedir o publicar implica tractament i pot implicar sanció.
  • Els menors compten amb una protecció reforçada, la qual cosa eleva la gravetat de la infracció.
  • El RGPD és plenament aplicable a la IA generativa: els seus principis de licitud, minimització i proporcionalitat continuen sent la base del compliment.

Conclusions

La sanció de 1.200 €—després de reduccions per reconeixement i pagament voluntari—resulta considerablement baixa si es compara amb la gravetat moral i social de difondre imatges falses de nus de menors.

Encara que el RGPD permet graduar les multes en funció de la proporcionalitat, cal preguntar-se si aquest tipus de conductes no mereixerien també resposta penal, especialment quan concorren elements d’humiliació, assetjament o afectació greu a la dignitat personal.

El cas convida a un debat necessari:

  • Estem aplicant sancions realment dissuasives enfront dels nous riscos digitals?
  • Ha d’intervenir el Dret penal quan la intel·ligència artificial amplifica el mal a menors?

L’AEPD ha posat el focus en la il·licitud del tractament de dades, però la reflexió jurídica—i ètica—va més enllà: la tecnologia pot replicar rostres, però no pot replicar el consentiment… ni reparar el mal emocional causat.

Com sempre, cuideu les dades i cuideu-vos!

Per consultar la resolució, feu clic aquí.

La nova febre digital: quant costa la teva veu al mercat de la IA?

Recentment, Neon s’ha convertit en una de les aplicacions més descarregades del moment. La seva proposta sembla irresistible: pagar als usuaris per gravar i vendre les seves trucades telefòniques. Fins a 30 dòlars al dia per deixar que la seva veu—i les converses que manté—s’utilitzin per a entrenar models d’intel·ligència artificial.

La idea és senzilla: Neon registra les trucades de l’usuari i, si tots dos interlocutors tenen instal·lada l’app, ambdues veus s’utilitzen per a alimentar sistemes d’IA que aprenen a reconèixer, imitar o analitzar el llenguatge humà. A canvi, l’usuari rep una petita compensació econòmica per minut gravat.

Però darrere de l’atractiu model «tecnologia a canvi de diners», sorgeixen enormes interrogants legals i ètics. Sabem realment què estem cedint quan acceptem gravar la nostra veu?

Dades biomètriques: la veu com a identitat digital

A diferència d’una simple dada personal, la veu és un identificador biomètric únic, perquè permet reconèixer, imitar i suplantar identitats. Per això, el Reglament General de Protecció de Dades (RGPD) europeu la considera dada sensible i el seu tractament requereix un consentiment explícit i informat.

El problema és que, segons els termes d’ús de Neon, l’usuari atorga a l’empresa una llicència àmplia i pràcticament il·limitada per a «reproduir, emmagatzemar, modificar i distribuir» les seves gravacions. En la pràctica, això implica cedir el control total sobre una dada que no sols revela la veu, sinó també informació contextual, emocional i de tercers.

De fet, si la trucada és amb algú que no utilitza Neon, l’app igualment grava la part de l’usuari… però inevitablement es capten fragments de l’altra persona. Això planteja dubtes seriosos en matèria de consentiment dels interlocutors i vulnera principis bàsics de minimització i finalitat del RGPD.

Entre la curiositat i el risc

L’empresa assegura que les gravacions s’anonimitzen abans de ser venudes a tercers. No obstant això, experts en seguretat digital alerten: la veu és extraordinàriament difícil d’anonimitzar. Pot utilitzar-se per a crear imitacions perfectes mitjançant IA, obrir comptes bancaris, o fins i tot suplantar a familiars en estafes telefòniques.

A més, les incongruències detectades entre les tarifes anunciades en l’App Store i les publicades en la web de Neon generen dubtes sobre la transparència real del model.

Conclusió: el preu real de la veu

L’èxit viral de Neon demostra una tendència preocupant: cada cop més usuaris estan disposats a monetitzar la seva privacitat a canvi de beneficis immediats. L’«economia de la dada» evoluciona cap a un escenari on la identitat es converteix en un actiu comercializable, sense que molts comprenguin les conseqüències a llarg termini.

Cedir la veu no és innocu, és cedir una part irrepetible de la nostra identitat digital. Per això, abans d’acceptar els «termes i condicions», convé preguntar-se: quant val realment la meva veu? I qui l’escoltarà quan ja no sigui meva?

Com sempre, cuideu les dades i cuideu-vos!

Transparència 2.0: així canvia el nou Codi de Conducta d’Influencers a Espanya

Des de l’1 d’octubre de 2025, l’ecosistema digital espanyol fa un nou pas cap a la transparència publicitària. Ha entrat oficialment en vigor l’actualització del Codi de Conducta sobre l’ús d’influencers en la publicitat, promogut per AUTOCONTROL, l’Associació Espanyola d’Anunciants (AEA) i IAB Spain, amb el suport d’institucions públiques com el Ministeri de Consum i la Secretaria d’Estat de Digitalització i Intel·ligència Artificial.

Aquest nou Codi, revisat per primera vegada des de la seva aprovació en 2021, reforça el paper de l’autoregulació en un entorn cada vegada més complex, en el qual la frontera entre el contingut orgànic i el publicitari és més difusa que mai. Amb prop de 1.000 entitats adherides—entre marques, agències, plataformes i creadors—, el text aspira a oferir major seguretat jurídica i a consolidar bones pràctiques en el màrqueting d’influència.

Què canvia respecte al Codi de 2021?

La versió de 2021 va ser pionera en exigir que els continguts patrocinats anessin clarament identificables mitjançant etiquetes o esments explícits («#publi», «#ad», «en col·laboració amb…»). No obstant això, la pràctica diària va demostrar que continuaven existint zones grises: col·laboracions no declarades, obsequis encoberts o esments ambigus que confonien a l’audiència.

El nou Codi 2025 avança precisament en aquesta direcció:

  • Introdueix una llista d’indicis que permet determinar quan un contingut pot considerar-se publicitari, fins i tot sense prova directa de l’acord comercial.
  • Amplia i actualitza l’annex de plataformes digitals, especificant com ha d’identificar-se la publicitat en cadascuna (YouTube, Instagram, TikTok, Twitch, etc.).
  • Afegeix previsions específiques sobre continguts generats amb intel·ligència artificial, la intervenció de menors d’edat i la responsabilitat de les diferents parts (marques, agències i influencers).

En resum: on abans hi havia recomanacions generals, ara hi ha criteris concrets i traçables.

Formació i professionalització de l‘influencer

Una altra de les grans novetats és el Certificat de Capacitació Bàsica per a Influencers sobre normativa publicitària, llançat per AUTOCONTROL dins del programa europeu AdEthics, impulsat per la European Advertising Standards Alliance (EASA). Més de 700 influencers ja estan inscrits en aquesta formació en línia que acredita el coneixement de les normes d’identificació de contingut publicitari.

Aquest pas és decisiu, ja que professionalitza un sector que fins fa poc es movia entre la intuïció i la improvisació, i reforça la responsabilitat compartida entre creadors, agències i anunciants.

Un nou estàndard de transparència digital

Amb aquestes millores, el Codi 2025 té la intenció de no solament facilitar el compliment normatiu, sinó enfortir la confiança entre marques, consumidors i creadors. Les marques adherides podran demostrar el seu compromís amb l’ètica publicitària i evitar sancions o crisis reputacionals derivades d’una comunicació enganyosa.

En un entorn en què la intel·ligència artificial genera i distribueix continguts a una velocitat sense precedents, la transparència deixa de ser una opció: es converteix en un valor competitiu i en una exigència reguladora.

Conclusió

El nou Codi de Conducta no substitueix al de 2021, sinó que l’eleva al següent nivell. Passa de la simple autoregulació a un marc de corresponsabilitat, en el qual tots els actors—des de les grans marques fins als microinfluencers—comparteixen una mateixa meta: que la publicitat sigui clara, ètica i recognoscible.

Com sempre, cuideu les dades i cuideu-vos!

Per accedir al Codi de Conducta, feu clic aquí.

Algoritmes sota vigilància: la nova era de la Inspecció de Treball

La Inspecció de Treball ha estrenat el seu Pla Estratègic 2025-2027 i porta una novetat que no deixa indiferent: la intel·ligència artificial es converteix en protagonista del món laboral. I ho fa per partida doble: serà tant objecte de control en les empreses com eina de control en mans de la pròpia Inspecció.

IA com a objecte de control

Si la teva empresa utilitza algoritmes per a contractar, organitzar torns o prendre decisions sobre la plantilla, és moment de revisar aquests processos. La Inspecció anuncia que vigilarà molt de prop aquestes pràctiques per a evitar biaixos i discriminacions.

La idea és simple: la tecnologia no pot servir per a limitar la igualtat d’oportunitats. De fet, el pla fins i tot apunta al fet que es podria adaptar el règim sancionador per a respondre a possibles abusos en aquest terreny.

El missatge als empresaris és clar: toca ser transparents i responsables amb els sistemes d’IA que afecten les persones.

IA com a eina de control

La Inspecció no es queda enrere. El Pla preveu una profunda modernització tecnològica de l’organisme:

  • Creació d’unitats de tractament massiu de dades en cada Comunitat Autònoma, capaces de manejar grans volums d’informació i detectar patrons de frau.
  • Desenvolupament de noves regles algorítmiques integrades en l’Eina de Lluita contra el Frau.
  • Posada en marxa d’un laboratori d’informàtica forense, especialitzat a obtenir evidències digitals dels sistemes empresarials.
  • Implantació de projectes pilot d’IA per a planificar expedients, automatitzar processos i millorar l’eficiència interna.

Tot això amb un objectiu: anticipar-se al frau, guanyar eficàcia i reforçar la transparència en l’actuació inspectora.

Un canvi de paradigma

La digitalització i la revolució tecnològica són ja part inseparable del món laboral. El Pla Estratègic situa a la Inspecció com a àrbitre i jugador alhora: controla com les empreses apliquen la IA, mentre aprofita aquesta mateixa tecnologia per a optimitzar la seva pròpia labor.

Per a les empreses, el missatge és doble. D’una banda, han de garantir que els sistemes d’IA que impacten en la plantilla respectin els drets fonamentals. D’altra banda, han d’estar preparades per a un control cada vegada més sofisticat, en el qual l’empremta digital i les dades ocupen un lloc central.

La conclusió és evident: la IA ja no és un futurible en les relacions laborals, sinó un present regulat i fiscalitzat. I entre 2025 i 2027, serà un dels eixos prioritaris d’actuació de la Inspecció de Treball i Seguretat Social.

Per llegir el Pla, feu clic aquí.

Com sempre, cuideu les dades i cuideu-vos!

IA en RRHH: de la promesa al risc regulat

El passat 18 de setembre vam tenir el plaer, des de Tecnolawyer, d’impartir per a ASNALA el seminari web «Com la IA està redefinint les Relacions Laborals». I si alguna cosa va quedar clar després de la sessió és que la Intel·ligència Artificial ja no és una promesa de futur: és una realitat regulada que impacta directament en la gestió de persones i en les obligacions legals de les empreses.

Avui, dos de cada tres organitzacions utilitzen eines d’IA en els seus departaments de RRHH. Parlem de sistemes de selecció, algoritmes que avaluen l’acompliment, eines de càlcul de productivitat o aplicacions que assignen torns i tasques. Tots ells tenen alguna cosa en comú: afecten decisions laborals crítiques, i, per tant, estan sota el radar del Reglament Europeu d’Intel·ligència Artificial (RIA – AI Act).

Les «decisions invisibles»

Un dels conceptes clau que vam debatre és el de les decisions invisibles: aquelles que adopta un algoritme en silenci, però que determinen l’accés a una ocupació, una promoció o fins i tot un acomiadament. La majoria d’empreses encara desconeix les seves obligacions enfront d’aquest nou marc, la qual cosa genera un risc creixent de sancions i litigis.

El Reglament classifica aquests sistemes com d’alt risc i exigeix un compliment exhaustiu. No n’hi ha prou amb aplicar la norma: cal poder demostrar que es compleix. Aquí entren en joc la documentació tècnica, l’avaluació d’impacte algorítmic, els protocols de supervisió humana i la traçabilitat de les decisions.

Responsabilitat i sancions

Les obligacions recauen principalment en les empreses usuàries de la IA, encara que proveïdors i integradors també assumeixen responsabilitats. No obstant això, l’organització que decideixi implantar un sistema és la que respondrà davant la Inspecció o els tribunals si sorgeixen problemes.

Les sancions administratives poden aconseguir els 35 milions d’euros o el 7% de la facturació global. Però més enllà de la multa, existeixen altres riscos: demandes laborals per discriminació, paralització de sistemes crítics, mal reputacional i majors inspeccions laborals.

Compliment i oportunitat

Durant el seminari web vam insistir en què aquest nou escenari no ha de veure’s només com un risc, sinó també com una oportunitat de diferenciació. Les empreses que s’anticipin amb un pla de compliment sòlid estaran més ben posicionades enfront de clients, treballadors i reguladors.

La implementació efectiva del RIA ja està en marxa. Actualment, ens trobem en la Fase III del calendari d’obligacions: auditories internes obligatòries, revisió contínua i actualització permanent. No és moment d’esperar: és moment d’actuar.

Què han de fer les empreses?

La resposta passa per tres passos essencials:

  1. Auditoria inicial dels sistemes d’IA en RRHH.
  2. Documentació i polítiques internes clares sobre el seu ús.
  3. Supervisió humana efectiva, que garanteixi que la tecnologia mai substitueix el judici professional.

En definitiva, la IA en RH ha deixat de ser un luxe o una moda. És un camp regulat, d’alt risc, que exigeix preparació, acompanyament jurídic i un enfocament multidisciplinari (Legal, IT i RH).

Des de Tecnolawyer, juntament amb ASNALA, volem ajudar empreses i despatxos a navegar aquest nou marc. Perquè la pregunta ja no és si la teva organització usa IA, sinó com l’estàs usant i si ho fas de manera legal i responsable.

Com sempre, cuideu les dades i cuideu-vos!

Albània aposta per una ministra artificial: entre la innovació i el risc

Albània ha fet un pas històric —i polèmic—: s’ha convertit en el primer país del món a nomenar una intel·ligència artificial com a ministra. El seu nom és Diella, inspirat en la paraula «diell» (sol, en albanès), com a símbol de transparència.

La nova «ministra» s’encarregarà d’avaluar licitacions públiques, detectar irregularitats i assistir en tràmits electrònics. La seva creació respon a un objectiu polític molt concret: convèncer a Brussel·les de la voluntat d’Albània de lluitar contra la corrupció de cara a la seva adhesió a la Unió Europea en 2030.

La posada en escena no ha pogut ser més simbòlica: en les presentacions oficials, la Diella apareix com una jove somrient, amb vestit típic albanès, saludant des de la pantalla. No obstant això, després del gest de modernitat, sorgeixen moltes incògnites.

Llums i ombres de la iniciativa

El govern albanès pretén mostrar un compromís amb la transparència en un país marcat per sospites de corrupció, favoritisme i blanqueig de capitals en les adjudicacions públiques. Però el moviment desperta més dubtes que certeses.

Delegar un càrrec ministerial en una IA podria ser problemàtic per diversos motius:

  • No s’ha aclarit si hi haurà algun tipus de supervisió humana sobre les decisions de la Diella.
  • No han informat sobre quin ha estat l’algorisme utilitzat, les dades d’entrenament i els mecanismes de validació dels seus resultats.
  • Com qualsevol IA, existeix un risc elevat de biaixos en les adjudicacions i de falta de traçabilitat en els processos.
  • S’obren vulnerabilitats de ciberseguretat en un context geopolític delicat.

A aquestes crítiques se suma un altre factor: la viabilitat. Segons estudis del MIT, el 95% dels projectes d’IA a gran escala fracassen per falta de retorn o per costos excessius. Està Albània preparada per a gestionar un sistema tan complex i delicat?

El risc de substituir en lloc de complementar

La IA pot ser un aliada poderosa per a reforçar la transparència administrativa, però la seva funció hauria de ser acompanyar i millorar el treball humà, no reemplaçar-lo. La substitució completa d’un rol polític d’alt nivell planteja un escenari inèdit i amb implicacions democràtiques profundes: qui assumeix la responsabilitat última de les decisions?

Altres països ja experimenten amb IA en l’administració: Ucraïna té un avatar portaveu, Mèxic una assistent virtual judicial, i el Brasil avança en aquesta línia. Però el cas albanès va més enllà: no és un assistent, sinó una «ministra».

Conclusió

Albània busca amb la Diella enviar un missatge clar a la Unió Europea: compromís amb la transparència i voluntat de modernització. Però l’experiment planteja seriosos dubtes de legitimitat, control i seguretat.

La innovació tecnològica és benvinguda, sempre que no substitueixi el judici crític humà ni posi en risc la confiança en les institucions. La pregunta continua oberta: la Diella és un raig de llum contra la corrupció o un salt massa arriscat en la política digital?

Com sempre, cuideu les dades i cuideu-vos!

Itàlia aprova la primera llei integral d’IA a la UE: què implica realment?

Itàlia s’ha convertit en el primer país de la Unió Europea a promulgar una llei integral que regula la intel·ligència artificial (IA). Aquesta normativa, alineada amb el Reglament d’Intel·ligència Artificial de la UE (RIA), pretén assegurar que l’ús de la IA sigui humà, transparent i segur, alhora que promou la innovació, la ciberseguretat i la protecció de la privacitat.

Què introdueix la nova llei italiana?

  • S’estableixen penes de presó d’1 a 5 anys per a aquells que utilitzin IA per a causar perjudici, com la difusió de deepfakes o la manipulació de contingut perjudicial.
  • Obliga a un control humà i una supervisió estricta en l’ús de la IA en àmbits com el sanitari, educatiu, la justícia, els llocs de treball, etc.
  • Per a menors de 14 anys, s’exigeix el consentiment parental per a accedir a serveis basats en IA.
  • En matèria de drets d’autor, la llei estableix que només les obres assistides per IA que provinguin d’un esforç intel·lectual humà genuí estaran protegides. Així mateix, la mineria de dades amb IA només es permetrà sobre contingut no subjecte a drets d’autor o per a fins científics autoritzats.

Beneficis clau d’aquesta regulació

  • Dóna seguretat jurídica a empreses i usuaris en definir clarament quins usos de la IA són acceptables i quins no.
  • Reforça la privacitat dels ciutadans, limitant abusos tecnològics com els deepfakes o l’ús indegut de les dades.
  • Promou la innovació responsable, ja que obliga les empreses a adoptar estàndards més alts de transparència, supervisió i ètica.
  • Fomenta la confiança: els usuaris poden tenir més certesa que els seus drets estan protegits en interactuar amb IA.

Reptes pràctics per a la seva implementació

  • Cal adaptar tecnologies existents per a complir amb els requisits de supervisió humana, traçabilitat i transparència.
  • Les empreses hauran de revisar els seus models de negoci, els procediments de protecció de dades i la seva responsabilitat legal.
  • Probablement hi haurà costos elevats per a complir amb les noves obligacions, tant en desenvolupament com en auditoria interna.
  • Vigilaran agències com l’Agència per la Itàlia digital i la Agència Nacional per la Seguretat Informàtica, cosa que implica més controls i possibles sancions en cas d’incompliments.

En què canvia la IA després d’aquesta llei

  • La IA deixa de ser un camp regulat únicament a nivell europeu; Itàlia ja l’implementa amb força jurídica local.
  • Augmenta el pes del dret dels usuaris enfront dels fabricants o proveïdors de serveis d’IA.
  • Es reforcen els límits legals sobre continguts generats per IA, especialment quan tenen impacte social, educatiu o sobre menors.
  • S’estableix un estàndard que podria influir en com altres països de la UE regulin la IA localment.

Conclusió

Itàlia fa un pas pioner en la regulació de la IA, marcant un precedent a Europa. Serà fonamental com les empreses adoptin aquesta llei per a convertir l’obligació en valor afegit, no només per evitar sancions, sinó per construir confiança en l’ús ètic de la IA.

Com sempre, cuideu les dades i cuideu-vos!

EU Data Act: Estem preparats per a la nova era de les dades?

12 de setembre de 2025

Des d’avui s’aplica l’EU Data Act, una normativa que canvia les regles del joc en l’accés i ús de les dades generades per dispositius connectats. Però, què implica exactament i com afectarà empreses i usuaris?

Què és l’EU Data Act?

És una llei de la Unió Europea que atorga als usuaris —ja siguin consumidors o empreses— el dret d’accedir i compartir les dades generades pels seus dispositius connectats (IoT – termostats intel·ligents o vehicles connectats –) de manera estructurada, en temps real i en formats llegibles per màquina.

Per què és tan important aquesta data?

Perquè a partir del 12 de setembre de 2025, els fabricants han de garantir que aquestes dades no quedin sota el seu control exclusiu. Els usuaris tindran llibertat per reutilitzar-les o compartir-les amb tercers, fomentant la innovació i la competència lleial al mercat digital europeu.

Quins beneficis aporta als usuaris?

  • Transparència total: accés immediat a la informació generada pels seus dispositius.
  • Innovació oberta: possibilitat que noves empreses desenvolupin serveis basats en aquestes dades.
  • Major control: els usuaris ja no dependran del fabricant per aprofitar la seva informació.

I què implica per a les empreses?

Aquí arriben els reptes:

  • Adaptació tecnològica: sistemes preparats per exportar dades de manera segura i estandarditzada.
  • Desenvolupament  de clàusules contractuals justes.
  • Compliment legal: alineació amb el RGPD i amb la ciberseguretat.
  • Costos i processos: inversió en infraestructura i formació per adequar-se a la norma.
  • Penalitzacions per incompliments

Estem davant d’un canvi cultural?

Sí. La propietat i el control de les dades ja no resideix només en els fabricants. Europa aposta per una economia digital més oberta, transparent i centrada en l’usuari, on compartir dades no sigui una excepció, sinó una pràctica habitual i segura.

Conclusió

L’EU Data Act és molt més que una norma tècnica: és un pas ferm cap a un mercat digital europeu més competitiu i equilibrat. La pregunta ara és: convertiran les empreses aquesta obligació en una oportunitat real?

Avalua el teu compliment avui per convertir els reptes en avantatges competitives.

Com sempre, cuideu les dades i cuideu-vos!

Revisió Texts legals web