Nano Banana Pro: el nou desafiament per a la identitat digital i la seguretat del futur

La irrupció del model Nano Banana Pro de Google, capaç de generar imatges sintètiques de documents d’identitat i rostres amb una precisió sense precedents, ha reobert un debat crític: com protegir la identitat digital en un entorn on la vista humana—i fins i tot uns certs sistemes automatitzats—poden ser enganyats amb una facilitat creixent?

Mentre alguns experts adverteixen que aquesta tecnologia permet fabricar passaports, permisos de conduir o identificacions universitàries falses amb un realisme alarmant, uns altres recorden que els sistemes moderns de verificació no es basen exclusivament en anàlisis visuals. Totes dues perspectives són vàlides i, de fet, subratllen la conclusió més important: el model tradicional d’identificació està sota una tensió sense precedents.

Identitats sintètiques: un risc que ja no és teòric

El gran salt qualitatiu del Nano Banana Pro és la seva capacitat per a replicar patrons visuals amb un nivell de fidelitat que supera el que fa a penes uns mesos semblava plausible. Això suposa un risc real per a processos que continuen secundant-se, parcial o totalment, en proves fotogràfiques o en la correspondència entre «persona en càmera» i «foto en document».

Alguns casos especialment sensibles són:

  • Verificació d’edat mitjançant documents físics o imatges.
  • Monitoratge d’exàmens amb validació puntual d’identitat.
  • Alta d’usuaris en plataformes bancàries o fintech mitjançant una foto del document.
  • Processos de on-boarding en empreses, telemedicina o voluntariat.

El fenomen del face swapping aplicat sobre una identitat verificable amplifica encara més el problema: l’atacant ja no necessita manipular un document, sinó superposar un rostre fals sobre un usuari real durant la verificació.

No tot és apocalipsi: els sistemes seriosos ja no depenen només d’imatges

És cert que els documents actuals—especialment a Europa—incorporen múltiples capes de seguretat físiques i electròniques: hologrames dinàmics, microimpressions, filigranes, MRZ, xips NFC i signatures criptogràfiques. Cap IA pot replicar aquests elements a través d’una simple imatge generada, i els processos robustos d’on-boarding exigeixen lectura de xip, validació criptogràfica i proves de vida avançades.

Dit d’una altra manera: les organitzacions que ja usen mètodes moderns no estan desprotegides, però l’ecosistema global sí que enfronta un repte important, perquè encara hi ha multitud de serveis que es basen en captures de pantalla, fotos o verificacions visuals bàsiques.

Què han de fer les organitzacions ara?

  1. Abandonar la foto com a única prova d’identitat. La imatge és un factor, però ja no pot ser el factor decisiu.
  2. Adoptar models de confiança en capes. Verificació contínua, senyals de comportament, lectura de xip, biometria dinàmica i metadades de procedència.
  3. Tractar la governança de la IA com una àrea operativa. La supervisió passiva no serveix enfront d’amenaces que evolucionen a gran velocitat.
  4. Preparar un pla de resposta per a frau sintètic. Qualsevol institució que gestioni identitats ha d’anticipar escenaris de suplantació avançada.

Conclusió: un avís i un full de ruta

El Nano Banana Pro no destrueix d’un dia per a un altre la identificació digital, però sí que marca un abans i un després. L’autenticitat ja no pot recolzar-se únicament en el visual. La seguretat—en privacitat, identitat i ciberseguretat—dependrà de la nostra capacitat per a evolucionar cap a models on la verificació no sigui un instant, sinó un procés continu i resilient.

Com sempre, cuideu les dades i cuideu-vos!

Arriba el canal europeu de denúncies sobre IA: què suposa per a les empreses i com preparar-se

La governança de la intel·ligència artificial a Europa fa un pas decisiu amb el llançament de l’AI Act Whistleblower Tool, el nou canal europeu per a denunciar infraccions relacionades amb l’ús i desenvolupament de sistemes de IA. L’eina, impulsada per l’Oficina Europea d’Intel·ligència Artificial, introdueix una capa addicional de vigilància en un moment clau: el Reglament d’Intel·ligència Artificial (RIA o AI Act) avança cap a la seva plena aplicació, i les empreses tecnològiques hauran de reforçar la seva cultura de compliment normatiu.

Encara que moltes obligacions del RIA encara no són exigibles, Brussel·les vol anticipar-se a possibles incompliments i converteix a empleats, col·laboradors i socis comercials en aliats estratègics per a detectar riscos. Aquest enfocament se suma al marc ja existent a Espanya, compost per l’Autoritat Independent de Protecció de l’Informant (AIPI), l’Agència Espanyola de Supervisió d’Intel·ligència Artificial (AESIA) i els sistemes interns d’informació obligatoris sota la Llei 2/2023.

En què consisteix l’AI Act Whistleblower Tool?

Es tracta d’un canal de denúncia extern, segur, confidencial i totalment independent dels sistemes interns de les companyies. Permet comunicar presumptes infraccions del RIA, tant en obligacions ja actives com en àmbits connexos afectats pel desplegament de IA:

  • Seguretat de productes.
  • Protecció del consumidor.
  • Privacitat i seguretat de les dades.
  • Pràctiques internes que puguin posar en risc drets fonamentals o la confiança pública.

No obstant això, els experts adverteixen que el seu abast encara és limitat: algunes obligacions—com la transparència sobre les dades d’entrenament—no seran exigibles fins a fases posteriors, i la protecció plena dels denunciants no serà aplicable fins al 2 d’agost de 2026.

Un ecosistema de canals que conviurà i se solaparà

El nou canal europeu no substitueix als mecanismes nacionals. Les denúncies podran presentar-se tant per via interna com externa, sense necessitat d’esgotar cap via prèviament. Això obre la porta a investigacions paral·leles i, potencialment, a un solapament de sancions si concorren diferents supervisors.

Davant aquesta falta de claredat pràctica, els especialistes en compliance recomanen reforçar els sistemes interns per a millorar la seva eficàcia i capacitat de resposta. La Llei 2/2023 exigeix que el sistema intern sigui accessible, garanteixi l’anonimat i la confidencialitat, protegeixi enfront de represàlies i compti amb una gestió independent, encara que l’operació pugui externalitzar-se.

A més, les empreses han d’informar no sols del seu canal intern, sinó també dels canals externs disponibles, inclosos els europeus.

Què han de fer ara les tecnològiques?

Amb la posada en marxa del canal europeu, les organitzacions que desenvolupen o integren IA deurien:

  1. Revisar i actualitzar els seus programes de compliance, incorporant obligacions del RIA i protocols específics de IA.
  2. Auditar els seus sistemes interns d’informació per a garantir la seva eficiència, accessibilitat i alineació amb la Llei 2/2023.
  3. Capacitar als equips sobre obligacions de l’AI Act, riscos legals i funcionament dels diferents canals.
  4. Avaluar l’impacte de possibles recerques simultànies i preparar plans de resposta coordinats.

En un entorn regulador cada vegada més complex, la prevenció i la transparència seran claus per a evitar riscos sancionadors i reputacionals. El missatge és clar: l’era de la supervisió reforçada de la IA ja ha començat, i les empreses han d’estar preparades.

Com sempre, cuideu les dades i cuideu-vos!

 

 

Biometria en turbulències: què revela la sanció milionària de l’AEPD a AENA

L’Agència Espanyola de Protecció de Dades ha imposat a AENA la multa més elevada de la seva història: 10.043.002 € per la utilització de sistemes de reconeixement facial en diversos aeroports sense haver dut a terme una Avaluació d’Impacte en Protecció de Dades (EIPD) completa i vàlida, conforme a l’exigit per l’article 35 del RGPD. La resolució, extensa i detallada, ofereix una anàlisi exhaustiva de les deficiències detectades en el disseny i la documentació del tractament de dades biomètriques per part de l’entitat.

L’expedient deixa clar que el problema no va ser l’adopció de tecnologia biomètrica com a concepte, sinó com es va dissenyar i es va justificar la seva implantació. L’Agència conclou que AENA no va acreditar adequadament la necessitat, proporcionalitat ni els riscos del sistema, aspectes que constitueixen el nucli d’una EIPD robusta i prèvia.

Un tractament d’alt risc sense una EIPD adequada

Al llarg de la resolució, l’AEPD identifica diverses mancances estructurals en l’avaluació presentada per AENA:

  • Insuficiència en l’anàlisi de necessitat i proporcionalitat. Les EIPD no demostraven per què era imprescindible recórrer a un sistema d’identificació 1:N, basat en comparació contra bases de dades centralitzades, quan existien mètodes menys invasius que podien complir la mateixa finalitat operativa.
  • Anàlisi de riscos incomplet i desalineat amb el projecte inicial. La documentació aportada no incloïa l’anàlisi de riscos original de 2021; en el seu lloc, es va presentar un elaborat en 2023, desconnectat del disseny previ i, per tant, incapaç de justificar el tractament des de la seva concepció.
  • Metodologia inadequada per a un projecte d’alta complexitat. L’Agència subratlla que es van utilitzar eines orientades a organitzacions més petites, no adequades per a un sistema implantat en diversos aeroports i que tractava dades de categoria especial.
  • Falta de coherència entre els advertiments rebuts i la continuïtat del projecte. AENA havia plantejat consultes prèvies en les quals reconeixia dificultats per a reduir el risc a nivells acceptables, però, tot i així, va avançar cap a fases pilot i operatives sense disposar d’una EIPD completa.

Un matís important: l’AEPD no rebutja la biometria en aeroports

Encara que la sanció sigui contundent, l’Agència no qüestiona que la biometria pugui utilitzar-se legítimament en aeroports. De fet, la pròpia resolució al·ludeix al Dictamen 11/2024 del Comitè Europeu de Protecció de Dades, que descriu models d’ús compatibles amb el RGPD.

La clau està en el disseny. Existeixen escenaris en els quals la tecnologia biomètrica es basa en:

  • Plantilles emmagatzemades únicament en el dispositiu del passatger.
  • Comparacions 1:1 locals i efímeres.
  • Absència d’emmagatzematge centralitzat per part de l’operador.

Aquest tipus de solucions, menys intrusives i més contingudes, podrien superar el judici de necessitat i proporcionalitat que exigeix el RGPD i que l’AEPD ha trobat a faltar en el cas d’AENA.

Conclusió: un avís i un full de ruta

La sanció no tanca la porta a la biometria, però sí que marca un estàndard clar: qualsevol tractament d’aquest tipus exigeix justificació sòlida, metodologia adequada i una EIPD exhaustiva, prèvia i ben fonamentada. La innovació i l’eficiència operativa són compatibles amb la protecció de dades, sempre que s’integrin des del disseny les garanties necessàries.

Com sempre, cuideu les dades i cuideu-vos!

Per consultar la resolució, feu clic aquí.

Reglament Òmnibus Digital: simplificació o gir de rumb en la regulació europea?

La Comissió Europea ha presentat l’esperada Proposta de Reglament Òmnibus Digital, un paquet ambiciós que pretén harmonitzar, actualitzar i «desburocratitzar» diversos pilars de l’ecosistema normatiu europeu: protecció de dades, intel·ligència artificial, ciberseguretat, cookies i accés a dades. El seu objectiu declarat és clar: facilitar la innovació, reduir càrregues a les empreses i garantir coherència entre normes. Però… estem davant una modernització necessària o una revisió que pot alterar equilibris fonamentals?

Un RGPD més flexible, però també més permeable

Un dels punts més destacables és la reobertura del RGPD, alguna cosa que fa a penes uns anys semblava impensable. La proposta introdueix canvis que, si bé busquen claredat jurídica, poden tenir efectes profunds:

  • Nova definició de dades personals, que incorpora doctrina del TJUE: si la reidentificació no és raonablement possible per a qui tracta les dades, deixa de considerar-se dada personal.
  • Noves excepcions de l’article 9.2, que permeten tractar dades biomètriques per a verificació quan estiguin sota control de l’interessat, o per al desenvolupament i funcionament de models de IA.
  • Interès legítim per a IA, tret que el dret nacional exigeixi consentiment.
  • Deure d’informació més lax, que permet ometre informació «si ja es presumeix coneguda per l’interessat».
  • Bretxes de seguretat: notificació solament quan existeixi «alt risc» i ampliació a 96 hores.

La lectura optimista parla de reducció de càrregues i major claredat. La lectura crítica, no obstant això, alerta d’un risc d’erosió progressiva de la protecció: dades inferides menys protegides, major marge per a entrenar sistemes de IA, i opacitat reforçada per noves excepcions informatives.

Ciberseguretat i notificacions: un únic punt d’accés

En l’àmbit de la ciberseguretat, la proposta crea un punt únic de notificació d’incidents, simplificant un dels processos més fragmentats del marc NIS2. Aquesta mesura pot aportar eficiència real per a empreses multinacionals i sectors amb múltiples obligacions reguladores.

Cookies i ePrivacy: cap a menys bàners (i més canvis estructurals)

L’Òmnibus introdueix modificacions rellevants sobre cookies i ePrivacy:

  • Reducció de bàners mitjançant preferències centralitzades en navegador o sistema operatiu.
  • Nou article 88 a) sobre consentiment per a accés/emmagatzematge en terminals.
  • Un 88 b) que fixa el respecte obligatori de senyals automatitzats de preferències.

Encara que el discurs oficial parla de «millorar l’experiència de l’usuari», alguns experts alerten que l’efecte combinat podria debilitar el marc ePrivacy en integrar-lo parcialment en el RGPD modificat.

IA i accés a dades: alineació amb la Llei de IA

El paquet vincula l’aplicació de normes de IA d’alt risc a la disponibilitat d’eines de suport (estàndards, guies, metodologies) i també impulsa l’accés a dades com a motor d’innovació, buscant coherència amb la Data Act i l’Estratègia Europea de Dades.

Què ve ara?

La Comissió ha obert la segona fase del procés, amb una Avaluació d’Aptitud Digital (Fitness Check) fins a març de 2026. Serà un moment clau: les empreses, administracions i societat civil hauran de posicionar-se sobre si l’Òmnibus representa una simplificació necessària o una reforma que modifica l’essència del RGPD i ePrivacy.

Com sempre, cuideu les dades i cuideu-vos!

Per llegir la Proposta, feu clic aquí.

XXV Congrés ASNALA a Sevilla: passió laboralista i compromís digital

El XXV Congrés d’ASNALA, celebrat a Sevilla sota el lema Laborium 2025, ha estat molt més que un punt de trobada: una demostració del vigor i la comunitat que defineixen el Dret Laboral a Espanya. Durant tres dies, la capital andalusa va reunir centenars de professionals de l’àmbit jurídic-laboral, convertits en protagonistes d’un esdeveniment que va combinar coneixement, innovació i bones relacions.

Tecnolawyer va tenir el privilegi de participar com a patrocinador d’aquesta edició especial, reafirmant el nostre compromís amb l’impuls del Dret Digital Laboral. En el nostre estand presentem dues eines especialment pensades per als laboralistes que volen anticipar-se als reptes tecnològics que ja estan transformant la seva pràctica: l ‘Índex Digital Laboral, que permet conèixer el nivell de maduresa digital de cada professional i comparar-lo de forma anònima amb el dels seus col·legues, i la Guia ràpida “IA: què ha de saber un advocat laboralista avui”, un material de consulta àgil que resumeix els aspectes clau de l’ús responsable i ètic de la intel·ligència artificial en l’àmbit laboral.

El congrés va ser també una oportunitat única per escoltar i comprendre les inquietuds del sector. Molts assistents van compartir les seves experiències al voltant de dues qüestions que van centrar bona part del debat: la irrupció de la IA en els recursos humans —amb el seu potencial, però també amb els seus dilemes jurídics— i la implantació efectiva i demostrable de la Desconnexió Digital a les empreses, un dret que segueix evolucionant en paral·lel a la digitalització del treball. Aquestes converses van confirmar la necessitat d’acompanyar les pimes i els despatxos en l’adopció de bones pràctiques digitals, un objectiu central en la nostra tasca diària.

L’equip d’ASNALA, encapçalat per Ana Gómez, presidenta, i Paloma Ausín, gerent, va oferir una organització impecable que va combinar el rigor professional amb una hospitalitat exemplar. L’agenda de Laborium 2025 no només va brillar per la qualitat de les seves ponències i taules rodones, sinó també per la seva cuidada vessant social: la visita guiada als Reals Alcázares i  el Sopar de Gala van ser moments memorables que van segellar la complicitat entre col·legues de tot Espanya.

Des de Tecnolawyer, tornem de Sevilla amb la satisfacció d’haver compartit coneixement, generat converses valuoses i reforçat vincles amb una comunitat professional apassionada i en plena transformació digital. Aquest Congrés ha deixat clar que el futur del Dret Laboral serà, necessàriament, també digital. I aquí estarem, acompanyant els laboralistes amb solucions jurídic-tecnològiques que els ajudin a liderar aquest canvi.

 

L'equip de Tecnolawyer en el photocall del Sopar de Gala del Congrés d'ASNALA 2025.
L’equip de Tecnolawyer, desplaçat al Congrés, en el photocall del Sopar de Gala del Congrés d’ASNALA 2025.

Ni anonimat ni IA: el RGPD s’aplica fins i tot a les imatges manipulades digitalment

L’Agència Espanyola de Protecció de Dades (AEPD) ha tornat a pronunciar-se sobre un dels fenòmens més alarmants de l’entorn digital: la difusió d’imatges falses de nus («deepnudes») creades mitjançant intel·ligència artificial. Ha imposat una multa de 2.000 € (reduïda finalment a 1.200 € per reconeixement i pagament voluntari) a un particular per difondre imatges manipulades de menors en grups de missatgeria instantània.

Encara que el sancionat no va generar les imatges, la seva participació en la difusió va ser suficient perquè l’Agència apreciés una infracció de l’article 6.1 del RGPD, al tractar-se d’un tractament de dades personals sense base jurídica legítima.

El que diu el RGPD (i per què importa aquí)

L’article 6 del RGPD estableix que tot tractament de dades personals ha de fundar-se en una base de licitud: consentiment, obligació legal, interès públic, contracte o interès legítim. Si cap d’elles concorre—com en aquest cas—, el tractament és il·lícit, fins i tot si l’infractor no obté benefici ni persegueix una fi sexual.

L’AEPD recorda que el rostre d’una persona és una dada personal (art. 4 RGPD), i que alterar-ho o combinar-ho amb un altre cos no elimina aquesta condició, sinó que l’agreuja: es crea una associació falsa en un context íntim, amb potencial de causar greus danys reputacionals.

Per tant, reexpedir o publicar aquest tipus d’imatges constitueix un tractament addicional, que requereix consentiment i proporcionalitat. L’absència de totes dues bases legitima la sanció.

La IA no esborra la responsabilitat

La resolució reforça una idea clau: l’ús d’intel·ligència artificial no eximeix de responsabilitat. La tecnologia pot automatitzar el mal, però la decisió de compartir continua sent humana. A més, quan els afectats són menors d’edat, entra en joc l’article 84 de la LOPDGDD, que reforça la protecció enfront de la difusió d’imatges que puguin vulnerar la seva dignitat o drets fonamentals.

Lliçons que deixa el cas

  • La IA no anul·la la llei: les imatges sintètiques continuen sent dades personals si permeten identificar a una persona.
  • Compartir també és tractar: reexpedir o publicar implica tractament i pot implicar sanció.
  • Els menors compten amb una protecció reforçada, la qual cosa eleva la gravetat de la infracció.
  • El RGPD és plenament aplicable a la IA generativa: els seus principis de licitud, minimització i proporcionalitat continuen sent la base del compliment.

Conclusions

La sanció de 1.200 €—després de reduccions per reconeixement i pagament voluntari—resulta considerablement baixa si es compara amb la gravetat moral i social de difondre imatges falses de nus de menors.

Encara que el RGPD permet graduar les multes en funció de la proporcionalitat, cal preguntar-se si aquest tipus de conductes no mereixerien també resposta penal, especialment quan concorren elements d’humiliació, assetjament o afectació greu a la dignitat personal.

El cas convida a un debat necessari:

  • Estem aplicant sancions realment dissuasives enfront dels nous riscos digitals?
  • Ha d’intervenir el Dret penal quan la intel·ligència artificial amplifica el mal a menors?

L’AEPD ha posat el focus en la il·licitud del tractament de dades, però la reflexió jurídica—i ètica—va més enllà: la tecnologia pot replicar rostres, però no pot replicar el consentiment… ni reparar el mal emocional causat.

Com sempre, cuideu les dades i cuideu-vos!

Per consultar la resolució, feu clic aquí.

IA en RRHH: de la promesa al risc regulat

El passat 18 de setembre vam tenir el plaer, des de Tecnolawyer, d’impartir per a ASNALA el seminari web «Com la IA està redefinint les Relacions Laborals». I si alguna cosa va quedar clar després de la sessió és que la Intel·ligència Artificial ja no és una promesa de futur: és una realitat regulada que impacta directament en la gestió de persones i en les obligacions legals de les empreses.

Avui, dos de cada tres organitzacions utilitzen eines d’IA en els seus departaments de RRHH. Parlem de sistemes de selecció, algoritmes que avaluen l’acompliment, eines de càlcul de productivitat o aplicacions que assignen torns i tasques. Tots ells tenen alguna cosa en comú: afecten decisions laborals crítiques, i, per tant, estan sota el radar del Reglament Europeu d’Intel·ligència Artificial (RIA – AI Act).

Les «decisions invisibles»

Un dels conceptes clau que vam debatre és el de les decisions invisibles: aquelles que adopta un algoritme en silenci, però que determinen l’accés a una ocupació, una promoció o fins i tot un acomiadament. La majoria d’empreses encara desconeix les seves obligacions enfront d’aquest nou marc, la qual cosa genera un risc creixent de sancions i litigis.

El Reglament classifica aquests sistemes com d’alt risc i exigeix un compliment exhaustiu. No n’hi ha prou amb aplicar la norma: cal poder demostrar que es compleix. Aquí entren en joc la documentació tècnica, l’avaluació d’impacte algorítmic, els protocols de supervisió humana i la traçabilitat de les decisions.

Responsabilitat i sancions

Les obligacions recauen principalment en les empreses usuàries de la IA, encara que proveïdors i integradors també assumeixen responsabilitats. No obstant això, l’organització que decideixi implantar un sistema és la que respondrà davant la Inspecció o els tribunals si sorgeixen problemes.

Les sancions administratives poden aconseguir els 35 milions d’euros o el 7% de la facturació global. Però més enllà de la multa, existeixen altres riscos: demandes laborals per discriminació, paralització de sistemes crítics, mal reputacional i majors inspeccions laborals.

Compliment i oportunitat

Durant el seminari web vam insistir en què aquest nou escenari no ha de veure’s només com un risc, sinó també com una oportunitat de diferenciació. Les empreses que s’anticipin amb un pla de compliment sòlid estaran més ben posicionades enfront de clients, treballadors i reguladors.

La implementació efectiva del RIA ja està en marxa. Actualment, ens trobem en la Fase III del calendari d’obligacions: auditories internes obligatòries, revisió contínua i actualització permanent. No és moment d’esperar: és moment d’actuar.

Què han de fer les empreses?

La resposta passa per tres passos essencials:

  1. Auditoria inicial dels sistemes d’IA en RRHH.
  2. Documentació i polítiques internes clares sobre el seu ús.
  3. Supervisió humana efectiva, que garanteixi que la tecnologia mai substitueix el judici professional.

En definitiva, la IA en RH ha deixat de ser un luxe o una moda. És un camp regulat, d’alt risc, que exigeix preparació, acompanyament jurídic i un enfocament multidisciplinari (Legal, IT i RH).

Des de Tecnolawyer, juntament amb ASNALA, volem ajudar empreses i despatxos a navegar aquest nou marc. Perquè la pregunta ja no és si la teva organització usa IA, sinó com l’estàs usant i si ho fas de manera legal i responsable.

Com sempre, cuideu les dades i cuideu-vos!

Itàlia aprova la primera llei integral d’IA a la UE: què implica realment?

Itàlia s’ha convertit en el primer país de la Unió Europea a promulgar una llei integral que regula la intel·ligència artificial (IA). Aquesta normativa, alineada amb el Reglament d’Intel·ligència Artificial de la UE (RIA), pretén assegurar que l’ús de la IA sigui humà, transparent i segur, alhora que promou la innovació, la ciberseguretat i la protecció de la privacitat.

Què introdueix la nova llei italiana?

  • S’estableixen penes de presó d’1 a 5 anys per a aquells que utilitzin IA per a causar perjudici, com la difusió de deepfakes o la manipulació de contingut perjudicial.
  • Obliga a un control humà i una supervisió estricta en l’ús de la IA en àmbits com el sanitari, educatiu, la justícia, els llocs de treball, etc.
  • Per a menors de 14 anys, s’exigeix el consentiment parental per a accedir a serveis basats en IA.
  • En matèria de drets d’autor, la llei estableix que només les obres assistides per IA que provinguin d’un esforç intel·lectual humà genuí estaran protegides. Així mateix, la mineria de dades amb IA només es permetrà sobre contingut no subjecte a drets d’autor o per a fins científics autoritzats.

Beneficis clau d’aquesta regulació

  • Dóna seguretat jurídica a empreses i usuaris en definir clarament quins usos de la IA són acceptables i quins no.
  • Reforça la privacitat dels ciutadans, limitant abusos tecnològics com els deepfakes o l’ús indegut de les dades.
  • Promou la innovació responsable, ja que obliga les empreses a adoptar estàndards més alts de transparència, supervisió i ètica.
  • Fomenta la confiança: els usuaris poden tenir més certesa que els seus drets estan protegits en interactuar amb IA.

Reptes pràctics per a la seva implementació

  • Cal adaptar tecnologies existents per a complir amb els requisits de supervisió humana, traçabilitat i transparència.
  • Les empreses hauran de revisar els seus models de negoci, els procediments de protecció de dades i la seva responsabilitat legal.
  • Probablement hi haurà costos elevats per a complir amb les noves obligacions, tant en desenvolupament com en auditoria interna.
  • Vigilaran agències com l’Agència per la Itàlia digital i la Agència Nacional per la Seguretat Informàtica, cosa que implica més controls i possibles sancions en cas d’incompliments.

En què canvia la IA després d’aquesta llei

  • La IA deixa de ser un camp regulat únicament a nivell europeu; Itàlia ja l’implementa amb força jurídica local.
  • Augmenta el pes del dret dels usuaris enfront dels fabricants o proveïdors de serveis d’IA.
  • Es reforcen els límits legals sobre continguts generats per IA, especialment quan tenen impacte social, educatiu o sobre menors.
  • S’estableix un estàndard que podria influir en com altres països de la UE regulin la IA localment.

Conclusió

Itàlia fa un pas pioner en la regulació de la IA, marcant un precedent a Europa. Serà fonamental com les empreses adoptin aquesta llei per a convertir l’obligació en valor afegit, no només per evitar sancions, sinó per construir confiança en l’ús ètic de la IA.

Com sempre, cuideu les dades i cuideu-vos!

La primera nació governada per una IA: un experiment polític que planteja més preguntes que respostes

En un racó paradisíac de Palawan, Filipines, s’està gestant un experiment polític i tecnològic sense precedents: l’Illa Sensay, la primera comunitat insular governada per un gabinet íntegrament format per rèpliques d’intel·ligència artificial de figures històriques.

La iniciativa part de la startup britànica Sensay, especialitzada a crear rèpliques humanes d’IA capaces de reproduir amb fidelitat la personalitat i els patrons de decisió de personatges cèlebres, entrenades amb els seus escrits, discursos i filosofia. A l’Illa Sensay, un gabinet de 17 líders històrics ocuparà els principals càrrecs de govern, encapçalats per Marco Aurelio com a president i Winston Churchill com primer ministre.

Altres llocs clau estaran en mans de Nelson Mandela (Justícia), Eleanor Roosevelt (Afers exteriors), Florence Nightingale (Salut), Sun Tzu (Defensa), Ada Lovelace (Ciència i Tecnologia) i Mahatma Gandhi (Assessor d’Ètica), entre altres. Fins i tot s’inclou a Leonardo da Vinci com a ministre de Cultura i Nikola Tesla com a assessor d’Innovació.

Un govern sense partits… però amb algoritmes

El projecte es presenta com una oportunitat per a demostrar que la IA pot governar «lliure de partidismes polítics i bloquejos burocràtics». Qualsevol persona del món podrà registrar-se com a E-resident, proposar polítiques a través d’una plataforma oberta i seguir en directe els debats i votacions del gabinet virtual.

La previsió és ambiciosa:

  • 2025: compra de l’illa i aprovació de la Carta Fundacional, que garanteix llibertats i drets bàsics.
  • 2026: arribada d’observadors i investigadors i posada en marxa d’una microxarxa d’energia renovable.
  • 2027: obertura del programa de residència i declaració d’un Santuari Ambiental que cobrirà el 60% de l’illa.
  • 2028: celebració del Primer Simposi Global sobre Governança d’IA.

Implicacions i desafiaments legals

Encara que l’Illa Sensay neix com un projecte privat, planteja preguntes complexes sobre sobirania i dret internacional:

  • Pot un territori ser reconegut com a «nació» si el seu govern no està composat per humans?
  • Qui és legalment responsable si les decisions del gabinet provoquen danys?
  • Com es garanteix la transparència i l’absència de biaixos en els algorismes?

A més, la gestió de dades serà crítica: la IA tindrà accés a informació personal de residents i e-residents. El volum i la naturalesa de la informació exigiran estàndards de ciberseguretat avançats.

Més que un experiment tecnològic

El fundador de Sensay, Dan Thomson, assegura que el projecte és una resposta a la crisi global de confiança en els parlaments, que segons estudis ha caigut un 78’4% des de 1990. Però el debat transcendeix el tècnic: pot la intel·ligència artificial substituir al judici humà en la política? Quin paper juguen l’empatia, la cultura i l’ètica en decisions que afecten comunitats reals?

L’Illa Sensay podria ser un laboratori viu per al futur de la governança … o un recordatori que no tot el que la tecnologia permet és el que la societat necessita.

Com sempre, cuideu les dades i cuideu-vos!

Imagen: © 2025 Sensay Island – Sovereign Micronation. All rights reserved.

Revisió Texts legals web