La primera nació governada per una IA: un experiment polític que planteja més preguntes que respostes

En un racó paradisíac de Palawan, Filipines, s’està gestant un experiment polític i tecnològic sense precedents: l’Illa Sensay, la primera comunitat insular governada per un gabinet íntegrament format per rèpliques d’intel·ligència artificial de figures històriques.

La iniciativa part de la startup britànica Sensay, especialitzada a crear rèpliques humanes d’IA capaces de reproduir amb fidelitat la personalitat i els patrons de decisió de personatges cèlebres, entrenades amb els seus escrits, discursos i filosofia. A l’Illa Sensay, un gabinet de 17 líders històrics ocuparà els principals càrrecs de govern, encapçalats per Marco Aurelio com a president i Winston Churchill com primer ministre.

Altres llocs clau estaran en mans de Nelson Mandela (Justícia), Eleanor Roosevelt (Afers exteriors), Florence Nightingale (Salut), Sun Tzu (Defensa), Ada Lovelace (Ciència i Tecnologia) i Mahatma Gandhi (Assessor d’Ètica), entre altres. Fins i tot s’inclou a Leonardo da Vinci com a ministre de Cultura i Nikola Tesla com a assessor d’Innovació.

Un govern sense partits… però amb algoritmes

El projecte es presenta com una oportunitat per a demostrar que la IA pot governar «lliure de partidismes polítics i bloquejos burocràtics». Qualsevol persona del món podrà registrar-se com a E-resident, proposar polítiques a través d’una plataforma oberta i seguir en directe els debats i votacions del gabinet virtual.

La previsió és ambiciosa:

  • 2025: compra de l’illa i aprovació de la Carta Fundacional, que garanteix llibertats i drets bàsics.
  • 2026: arribada d’observadors i investigadors i posada en marxa d’una microxarxa d’energia renovable.
  • 2027: obertura del programa de residència i declaració d’un Santuari Ambiental que cobrirà el 60% de l’illa.
  • 2028: celebració del Primer Simposi Global sobre Governança d’IA.

Implicacions i desafiaments legals

Encara que l’Illa Sensay neix com un projecte privat, planteja preguntes complexes sobre sobirania i dret internacional:

  • Pot un territori ser reconegut com a «nació» si el seu govern no està composat per humans?
  • Qui és legalment responsable si les decisions del gabinet provoquen danys?
  • Com es garanteix la transparència i l’absència de biaixos en els algorismes?

A més, la gestió de dades serà crítica: la IA tindrà accés a informació personal de residents i e-residents. El volum i la naturalesa de la informació exigiran estàndards de ciberseguretat avançats.

Més que un experiment tecnològic

El fundador de Sensay, Dan Thomson, assegura que el projecte és una resposta a la crisi global de confiança en els parlaments, que segons estudis ha caigut un 78’4% des de 1990. Però el debat transcendeix el tècnic: pot la intel·ligència artificial substituir al judici humà en la política? Quin paper juguen l’empatia, la cultura i l’ètica en decisions que afecten comunitats reals?

L’Illa Sensay podria ser un laboratori viu per al futur de la governança … o un recordatori que no tot el que la tecnologia permet és el que la societat necessita.

Com sempre, cuideu les dades i cuideu-vos!

Imagen: © 2025 Sensay Island – Sovereign Micronation. All rights reserved.

IA sota control: a partir del 2 d’agost, innovar sense complir la llei deixarà de ser una opció

A partir de demà 2 d’agost de 2025, el Reglament d’Intel·ligència Artificial de la Unió Europea (RIA) començarà a aplicar la majoria de les seves disposicions, marcant un abans i un després en l’ús de la intel·ligència artificial a Europa.

I no, no fa falta usar un sistema d’IA avançat per a estar afectat. Des d’aquesta data, totes les eines que utilitzin IA hauran de complir amb obligacions bàsiques, fins i tot si no es consideren d’alt risc. Per exemple, si utilitzes chatbots o altres assistents conversacionals amb IA, hauràs d’informar clarament l’usuari que està interactuant amb un sistema automatitzat; i, si generes contingut amb IA (imatges, vídeos, textos), hauràs d’advertir que ha estat creat amb intel·ligència artificial.

Així mateix, encara que no és obligatori, també es recomana explicar com funciona l’automatització, per a reforçar la transparència.

Quan es considera que un sistema és d’alt risc?

Només en determinats casos, com a sistemes d’IA que afecten a:

  • Processos de contractació o avaluació laboral.
  • Educació i avaluació d’estudiants.
  • Accés a serveis essencials o públics (salut, habitatge, crèdit, immigració).
  • Biometria, vigilància o diagnòstic mèdic.
  • Aplicació de la llei o decisions judicials.
  • Infraestructures crítiques, transport o sistemes industrials.

Si el teu sistema entra en una d’aquestes categories, les exigències legals es multipliquen: hauràs de realitzar anàlisi de riscos, garantir la supervisió humana, documentació tècnica exhaustiva, implementar mesures de ciberseguretat, registre en una base de dades europea i complir amb els requisits d’inspecció i supervisió reguladora.

Compte amb la confusió entre «model» i «sistema»

El Reglament d’IA distingeix entre models de IA (com GPT, Gemini o Claude) i sistemes d’IA, que són les eines concretes que els integren (com un chatbot, una app o una plataforma de gestió documental). Les obligacions comentades s’apliquen als sistemes, no directament als models base.

Conclusió

A partir d’aquest 2 d’agost, ja no hi ha excuses. Si la teva empresa usa intel·ligència artificial —encara que sigui de manera bàsica o puntual—, ha de conèixer i complir amb les noves regles. Perquè la innovació no està renyida amb la transparència i, en la nova era de la IA, complir la normativa serà part del disseny.

Com sempre, cuideu les dades i cuideu-vos!

El teu chatbot compleix la llei? Riscos legals d’automatitzar l’atenció al client amb IA.

En plena era de la digitalització, cada vegada més empreses opten per automatitzar la seva atenció al client mitjançant xatbots i intel·ligència artificial (IA). Aquesta tecnologia permet respondre als usuaris en temps real, reduir costos operatius i millorar la disponibilitat del servei. No obstant això, si bé té els seus beneficis, el seu ús planteja riscos legals significatius, especialment en quant a la protecció de dades personals respecta. 

Bots i dades personals: Quines obligacions legals existeixen? 

Els xatbots que interactuen amb usuaris solen recollir dades com a nom, correu electrònic, número de telèfon, preferències de consum o fins i tot informació sensible. Això els converteix en sistemes de tractament de dades personals, la qual cosa s’ha d’aplicar el Reglament General de Protecció de Dades (RGPD) i la Llei orgànica de Protecció de Dades i Garantia dels Drets Digitals (LOPDGDD). 

Per tant, si la teva empresa utilitza un bot, ha d’assegurar-se de: 

  • Informar l’usuari de manera clara i visible sobre la identitat del responsable del tractament, la finalitat, la base jurídica i els drets que pot exercir (art. 13 RGPD). 
  • Comptar amb una base legal vàlida per a tractar les dades. En molts casos, serà el consentiment, però també podria aplicar-se l’execució d’un contracte o l’interès legítim, sempre que s’hagi realitzat una anàlisi prèvia de ponderació. 
  • Garantir la possibilitat d’exercir drets com l’accés, oposició o supressió, fins i tot quan el contacte s’hagi produït a través d’un sistema automatitzat. 

Incompliments comuns detectats  

Alguns dels diversos incompliments freqüents relacionats amb l’ús de xatbots: 

  • Falta de transparència: molts bots no informen adequadament l’usuari sobre quines dades estan recollint ni amb quina fi. 
  • Absència de mecanismes per a exercir drets: si el bot no permet redirigir a l’usuari a un canal d’atenció humana o formular sol·licituds de drets ARCOPOL, s’infringeix el RGPD. 
  • Gravació de converses sense justificació: emmagatzemar les interaccions sense una finalitat clara ni límit temporal constitueix una infracció dels principis de limitació i minimització del tractament (art. 5 RGPD). 

A més, si el xatbot pren decisions automatitzades amb efectes significatius sobre l’usuari (per exemple, denegar un servei o prioritzar atenció), és necessari aplicar garanties addicionals segons l’art. 22.3 RGPD, com la intervenció humana i el dret a obtenir una explicació. 

I si el bot utilitza IA generativa o models predictius? 

La integració de models de llenguatge avançats (com els que permeten respostes naturals o personalitzades) pot requerir una Avaluació d’Impacte relativa a la Protecció de Dades (AIPD), especialment si es tracta de tractaments innovadors, massius o potencialment intrusius. 

 Actualment, també haurà de tenir-se en compte el Reglament Europeu d’Intel·ligència Artificial (RIA), que classifica els sistemes d’IA segons el seu nivell de risc i exigeix requisits específics de transparència i supervisió. 

Bones pràctiques per a usar bots amb garanties legals 

  • Implementar una política de privacitat específica per al canal d’atenció automatitzada. 
  • Habilitar sempre la possibilitat d’escalat a un agent humà. 
  • Assegurar la minimització de dades i la retenció limitada. 
  • Registrar el tractament en el Registre d’Activitats i revisar contractes amb proveïdors externs. 

En definitiva, automatitzar l’atenció al client amb xatbots és una decisió estratègica encertada, però només si va acompanyada d’un compliment normatiu sòlid i proactiu. No fer-ho pot suposar sancions, pèrdua de confiança i riscos reputacionals. Com sempre en Dret Digital: tecnologia, sí, però amb garanties. 

Com sempre, cuideu les dades i cuideu-vos! 

No et quedis enrere!

Converteix la IA en la teva avantatge de Recursos Humans

Accedeix a continguts exclusius sobre Dret Digital Laboral i Intel·ligència Artificial a RRHH: alertes crítiques, guies pràctiques, checklists i més, que la teva empresa necessita avui per protegir-se i créixer.

Revisió Texts legals web