El dret a desconnectar: una obligació ignorada? 

El recent focus mediàtic sobre l’incompliment empresarial en matèria de desconnexió digital posa l’accent en la necessitat urgent que les companyies passin de les bones intencions a l’acció rigorosa. Igual que amb la protecció de dades biomètriques, el principi de “complir i poder demostrar-ho” marca la diferència entre un risc reputacional i una empresa alineada amb el nou estàndard de benestar digital.  

Fets 

Després de l’entrada en vigor de la Llei Orgànica 3/2018 i la Llei 10/2021, totes les empreses tenen l’obligació de comptar amb un protocol de desconnexió digital negociat i eficaç, no només formal. No obstant això, la Inspecció de Treball ha detectat que en molts casos aquest protocol és simbòlic, manca de mesures reals i no contempla la deguda informació i formació als empleats.  

L’increment de controls el 2025 ha fet aflorar pràctiques com l’enviament freqüent de comunicacions fora de jornada, especialment en el teletreball, i l’absència de vies clares per exercir aquest dret sense patir represàlies. El 27% dels empleats espanyols declara treballar extres digitals sense contraprestació ni justificació.  

Protocols efectius: del paper a la pràctica 

Tenir un protocol no és suficient: s’ha d’adaptar a la realitat interna, abastar la flexibilitat horària, preveure situacions urgents, i formar els equips sobre el dret a desconnectar. L’ experiència europea ho confirma: la desconnexió s’ integra en la cultura corporativa i en la presa de decisions del lideratge, no com una mera clàusula legal.  

El correcte compliment requereix aspectes com: 

  1. Polítiques clares i negociades sobre l’ ús de dispositius i canals fora d’ horari. 
  2. Mecanismes per informar i canalitzar incidents.
  3. Formació i comunicació contínua, revisant i actualitzant els protocols periòdicament.  
  4. Implementació efectiva i no merament formal.

Sancions i risc reputacional 

Les sancions per incompliment han augmentat: de 751 a 7.500 € per a infraccions greus, i fins a 225.018 € si hi ha risc psicosocial provat o assetjament laboral. Fins i tot aquelles empreses amb protocols només “de cara a la galeria” han estat sancionades si no van aplicar, van formar ni comunicar correctament les seves polítiques. La jurisprudència recent avala indemnitzacions per danys derivats de l’estrès digital, i pronuncia nul·les les sancions o acomiadaments a empleats que van exercir el seu dret a la desconnexió.  

Mirada pràctica i europea 

A nivell europeu, la futura directiva de desconnexió digital i els informes de l’Agència Europea per a la Seguretat i Salut en el Treball col·locant el dret a desconnectar com a eix central del benestar i la prevenció psicosocial. Les bones pràctiques recomanen caminar cap a una implantació transversal, real i mesurable, amb auditories internes i visió de millora constant.  

Conclusió 

Complir formalment ja no n’hi ha prou: la desconnexió digital exigeix cultura, implicació de tots els departaments i lideratge actiu. El cost d’ignorar-la es pot superar amb molt el de qualsevol sanció administrativa i, per suposat, una caiguda reputacional.  

Com sempre, cuideu les dades i cuideu-vos! 

La primera nació governada per una IA: un experiment polític que planteja més preguntes que respostes

En un racó paradisíac de Palawan, Filipines, s’està gestant un experiment polític i tecnològic sense precedents: l’Illa Sensay, la primera comunitat insular governada per un gabinet íntegrament format per rèpliques d’intel·ligència artificial de figures històriques.

La iniciativa part de la startup britànica Sensay, especialitzada a crear rèpliques humanes d’IA capaces de reproduir amb fidelitat la personalitat i els patrons de decisió de personatges cèlebres, entrenades amb els seus escrits, discursos i filosofia. A l’Illa Sensay, un gabinet de 17 líders històrics ocuparà els principals càrrecs de govern, encapçalats per Marco Aurelio com a president i Winston Churchill com primer ministre.

Altres llocs clau estaran en mans de Nelson Mandela (Justícia), Eleanor Roosevelt (Afers exteriors), Florence Nightingale (Salut), Sun Tzu (Defensa), Ada Lovelace (Ciència i Tecnologia) i Mahatma Gandhi (Assessor d’Ètica), entre altres. Fins i tot s’inclou a Leonardo da Vinci com a ministre de Cultura i Nikola Tesla com a assessor d’Innovació.

Un govern sense partits… però amb algoritmes

El projecte es presenta com una oportunitat per a demostrar que la IA pot governar «lliure de partidismes polítics i bloquejos burocràtics». Qualsevol persona del món podrà registrar-se com a E-resident, proposar polítiques a través d’una plataforma oberta i seguir en directe els debats i votacions del gabinet virtual.

La previsió és ambiciosa:

  • 2025: compra de l’illa i aprovació de la Carta Fundacional, que garanteix llibertats i drets bàsics.
  • 2026: arribada d’observadors i investigadors i posada en marxa d’una microxarxa d’energia renovable.
  • 2027: obertura del programa de residència i declaració d’un Santuari Ambiental que cobrirà el 60% de l’illa.
  • 2028: celebració del Primer Simposi Global sobre Governança d’IA.

Implicacions i desafiaments legals

Encara que l’Illa Sensay neix com un projecte privat, planteja preguntes complexes sobre sobirania i dret internacional:

  • Pot un territori ser reconegut com a «nació» si el seu govern no està composat per humans?
  • Qui és legalment responsable si les decisions del gabinet provoquen danys?
  • Com es garanteix la transparència i l’absència de biaixos en els algorismes?

A més, la gestió de dades serà crítica: la IA tindrà accés a informació personal de residents i e-residents. El volum i la naturalesa de la informació exigiran estàndards de ciberseguretat avançats.

Més que un experiment tecnològic

El fundador de Sensay, Dan Thomson, assegura que el projecte és una resposta a la crisi global de confiança en els parlaments, que segons estudis ha caigut un 78’4% des de 1990. Però el debat transcendeix el tècnic: pot la intel·ligència artificial substituir al judici humà en la política? Quin paper juguen l’empatia, la cultura i l’ètica en decisions que afecten comunitats reals?

L’Illa Sensay podria ser un laboratori viu per al futur de la governança … o un recordatori que no tot el que la tecnologia permet és el que la societat necessita.

Com sempre, cuideu les dades i cuideu-vos!

Imagen: © 2025 Sensay Island – Sovereign Micronation. All rights reserved.

Quan el control d’accessos sobrepassa l’empremta de la legalitat

L’Agència Espanyola de Protecció de Dades (AEPD) ha resolt un cas que il·lustra perfectament els riscos d’implantar sistemes biomètrics sense una base legal sòlida ni una anàlisi de proporcionalitat. La sanció de 250.000 euros a Loro Parque, S. A. per l’ús d’empremtes dactilars per a controlar l’accés amb l’entrada «Twin Ticket» (TT) obre un debat crític: fins a on poden arribar les empreses al verificar la identitat dels seus clients, i amb quines salvaguardes?

Fets

Loro Parque i Siam Park, tots dos a Tenerife, oferien una entrada combinada TT que permetia visitar ambdós recintes a preu reduït. Per a evitar l’ús fraudulent d’aquesta oferta, el parc va implantar un sistema de verificació basat en captura de 10 punts de coincidència de l’empremta dactilar del visitant en el primer accés. Aquesta informació s’encriptava, convertint-se en una «representació matemàtica» que s’usava per a confirmar que la mateixa persona accedia després al segon parc.

L’empresa ha al·legat que el tractament no implicava dades personals segons el RGPD perquè no s’emmagatzemaven imatges de l’empremta dactilar i la plantilla biomètrica no permetia identificar a una persona de manera directa ni realitzar enginyeria inversa.

No obstant això, l’AEPD ha conclòs el contrari: les plantilles biomètriques derivades d’empremtes dactilars sí que són dades personals quan s’usen per a autenticar o verificar la identitat d’un individu.

L’AEPD recorda que l’art. 9 RGPD prohibeix tractar dades biomètriques excepte en supòsits taxats i, en aquest cas, no existia consentiment vàlid ni una altra base legal aplicable. En aquest sentit, subratlla que el consentiment no pot considerar-se lliure quan no s’ofereix una alternativa real a l’ús de l’empremta.

A més a més, no s’havia realitzat la preceptiva Avaluació d’Impacte en Protecció de Dades (AIPD) ni una anàlisi documentada de proporcionalitat.

Conclusió

Aquest cas marca un precedent important per a qualsevol empresa que utilitzi sistemes biomètrics, especialment en contextos no essencials com l’oci. L’AEPD ha estat clara:

  • Les plantilles biomètriques són dades personals si permeten autenticació, encara que estiguin xifrades i desvinculades de noms o altres dades.
  • La proporcionalitat és clau: ha de demostrar-se que no hi ha mètodes menys intrusius per a aconseguir la mateixa fi.
  • El consentiment ha de ser lliure i amb alternatives, la qual cosa implica oferir un altre mètode de verificació sense penalització per a l’usuari.

Per al sector, el missatge és evident: la implementació de biometria requereix un sòlid suport legal, una AIPD completa i una avaluació d’alternatives menys invasives. En cas contrari, el cost en sancions —i en reputació— pot ser molt més alt que el frau que es pretenia evitar.

Com sempre, cuideu les dades i cuideu-vos!

Per consultar la resolució, feu clic aquí.

IA sota control: a partir del 2 d’agost, innovar sense complir la llei deixarà de ser una opció

A partir de demà 2 d’agost de 2025, el Reglament d’Intel·ligència Artificial de la Unió Europea (RIA) començarà a aplicar la majoria de les seves disposicions, marcant un abans i un després en l’ús de la intel·ligència artificial a Europa.

I no, no fa falta usar un sistema d’IA avançat per a estar afectat. Des d’aquesta data, totes les eines que utilitzin IA hauran de complir amb obligacions bàsiques, fins i tot si no es consideren d’alt risc. Per exemple, si utilitzes chatbots o altres assistents conversacionals amb IA, hauràs d’informar clarament l’usuari que està interactuant amb un sistema automatitzat; i, si generes contingut amb IA (imatges, vídeos, textos), hauràs d’advertir que ha estat creat amb intel·ligència artificial.

Així mateix, encara que no és obligatori, també es recomana explicar com funciona l’automatització, per a reforçar la transparència.

Quan es considera que un sistema és d’alt risc?

Només en determinats casos, com a sistemes d’IA que afecten a:

  • Processos de contractació o avaluació laboral.
  • Educació i avaluació d’estudiants.
  • Accés a serveis essencials o públics (salut, habitatge, crèdit, immigració).
  • Biometria, vigilància o diagnòstic mèdic.
  • Aplicació de la llei o decisions judicials.
  • Infraestructures crítiques, transport o sistemes industrials.

Si el teu sistema entra en una d’aquestes categories, les exigències legals es multipliquen: hauràs de realitzar anàlisi de riscos, garantir la supervisió humana, documentació tècnica exhaustiva, implementar mesures de ciberseguretat, registre en una base de dades europea i complir amb els requisits d’inspecció i supervisió reguladora.

Compte amb la confusió entre «model» i «sistema»

El Reglament d’IA distingeix entre models de IA (com GPT, Gemini o Claude) i sistemes d’IA, que són les eines concretes que els integren (com un chatbot, una app o una plataforma de gestió documental). Les obligacions comentades s’apliquen als sistemes, no directament als models base.

Conclusió

A partir d’aquest 2 d’agost, ja no hi ha excuses. Si la teva empresa usa intel·ligència artificial —encara que sigui de manera bàsica o puntual—, ha de conèixer i complir amb les noves regles. Perquè la innovació no està renyida amb la transparència i, en la nova era de la IA, complir la normativa serà part del disseny.

Com sempre, cuideu les dades i cuideu-vos!

La IA en selecció de personal, sota la lupa legal

En la cerca d’eficiència i objectivitat, moltes empreses estan incorporant eines d’Intel·ligència Artificial (IA) en els seus processos de selecció de personal. Des del sedàs automatitzat de currículums fins a entrevistes per vídeo analitzades per algorismes, la tecnologia ja és part habitual de l’àrea de recursos humans.

No obstant això, hem de recordar que aquest avanç ha d’anar acompanyat d’un compliment normatiu rigorós. El Reglament d’Intel·ligència Artificial de la Unió Europea, aprovat l’any passat (2024), classifica els sistemes de IA utilitzats per a prendre decisions sobre contractació com a sistemes de «alt risc» (art. 6.2). Això implica una sèrie d’obligacions legals estrictes per a empreses que els utilitzin.

Entre les principals exigències, destaquen:

  • Avaluacions de risc i conformitat prèvies al desplegament.
  • Supervisió humana significativa en tot el procés.
  • Mecanismes de transparència: el candidat ha de ser informat si és avaluat per una IA.
  • Prevenció de biaixos i discriminacions algorítmiques.
  • Registre de decisions i traçabilitat del sistema.

L’incompliment pot comportar multes de fins a 35 milions d’euros o el 7% del volum de negoci global, la qual cosa col·loca a la contractació automatitzada en el focus dels reguladors (art. 99.3).

A més, quan la IA tracta dades personals de candidats, també s’ha de tenir en compte el Reglament General de Protecció de Dades (RGPD), especialment, el dret de l’interessat a no ser objecte de decisions automatitzades sense intervenció humana (art. 22 RGPD).

En aquest nou marc, les empreses han de revisar els seus processos i eines de selecció per a garantir que no sols són eficaces, sinó també ètics, transparents i legals. La transformació digital de la selecció del talent ha d’anar de la mà de la confiança i el compliment normatiu.

Conclusió

Incorporar Intel·ligència Artificial en els processos de selecció pot aportar eficiència, agilitat i reducció de biaixos humans, però no elimina les obligacions legals. Molt al contrari: en tractar-se de sistemes d’alt impacte sobre els drets de les persones, el nou marc normatiu europeu exigeix a les organitzacions major control, transparència i diligència.

Si la teva empresa utilitza—o està valorant utilitzar—solucions basades en IA per a garbellar, avaluar o prendre decisions sobre candidats, és imprescindible que tingui en compte les previsions establertes en el Reglament d’IA.

Com sempre, cuideu les dades i cuideu-vos!

Un petó, un vídeo i una sanció: els riscos legals de gravar en públic

By Raph_PH - Coldplay_Glasto24_290624 (23), CC BY 2.0,

Fa uns dies, durant un concert de la banda Coldplay, una de les càmeres de l’esdeveniment—la denominada «Kiss Cam»—va captar a dues persones abraçades de manera afectuosa entre el públic. Aquestes, quan la càmera els va enfocar i la seva imatge va aparèixer en les pantalles del recinte, es van separar immediatament. El seu comportament no va passar inadvertit pel vocalista de la banda, qui va comentar: «Guau, mireu a aquests dos! O estan tenint una aventura o són molt tímids».

En qüestió d’hores, el vídeo es va viralitzar i es va identificar públicament als protagonistes: el CEO i la directora de RH de la mateixa empresa. Tots dos estan casats, però no entre si. La repercussió no va trigar a materialitzar-se: diversos mitjans ja han confirmat que l’empresa va iniciar un expedient disciplinari i que el CEO ha estat suspès temporalment.

Més enllà de l’anècdota o el renou mediàtic, el cas suscita una reflexió jurídica rellevant: quines implicacions tindria la captació i difusió d’una imatge com aquesta si els fets haguessin ocorregut a Espanya?

Al 2021, l’Agència Espanyola de Protecció de Dades (AEPD) va resoldre un procediment sancionador contra un establiment d’oci nocturn que havia publicat en Instagram un vídeo d’un client besant a una persona que no era la seva parella. La reclamació es va fonamentar en la difusió no consentida d’imatges clarament identificables que comprometien l’esfera personal de l’afectat.

El local va al·legar que en l’accés al recinte existia un cartell informatiu advertint de la possibilitat de ser gravat. No obstant això, l’AEPD va considerar que aquest avís no constituïa un consentiment vàlid conforme al RGPD, ja que aquest ha de ser lliure, específic, informat i inequívoc.

La resolució subratlla que la presència de cartells, condicions generals d’accés o el simple fet de trobar-se en un espai públic no supleixen la necessitat d’un consentiment exprés, especialment quan les imatges es destinen a la seva publicació en xarxes socials o altres mitjans públics.

Expectativa raonable de privacitat i protecció de la imatge

L’AEPD també va introduir una reflexió clau: fins i tot en espais oberts al públic, les persones conserven una expectativa raonable de privacitat. En altres paraules, no pot assumir-se que tot el que ocorre en un esdeveniment públic és susceptible de ser gravat i difós lliurement, especialment si la persona afectada no és conscient d’estar sent gravada i l’escena capta aspectes íntims o comprometedors.

Implicacions jurídiques i reputacionals

En el cas del concert de Coldplay, si els fets s’haguessin produït en territori espanyol, podria haver-se plantejat una reclamació davant l’AEPD per captació i difusió no autoritzada de dades personals (la imatge ho és, conforme a l’article 4.1 del RGPD). Depenent de les circumstàncies, fins i tot podria valorar-se la necessitat d’una base legítima per al tractament o l’existència d’un interès legítim degudament ponderat (art. 6.1.f RGPD), alguna cosa que difícilment seria aplicable davant la falta de consentiment clar.

A més, no han d’obviar-se les possibles conseqüències laborals derivades d’aquesta mena d’exposicions públiques, com ha ocorregut en aquest cas. Les empreses, davant aquesta mena de situacions, es veuen en la necessitat de gestionar crisis internes que poden afectar tant la reputació dels professionals implicats com a la de la pròpia organització.

Conclusió

La captació i difusió d’imatges en esdeveniments públics no està exempta de responsabilitat jurídica. L’AEPD deixa clar que la protecció de la imatge personal i el dret a la intimitat no desapareixen en entorns oberts ni queden suspesos per la mera presència de cartells informatius.

En un context en el qual els dispositius mòbils i les xarxes socials faciliten una difusió massiva i immediata de continguts, convé recordar que la protecció de dades personals és un dret fonamental, i que l’obtenció d’un consentiment vàlid és molt més que una formalitat: és un requisit legal imprescindible.

Com sempre, cuideu les dades i cuideu-vos!

Per consultar la resolució, feu clic aquí.

Copyright By Raph_PH – Coldplay_Glasto24_290624 (23), CC BY 2.0.

Dinamarca fa un pas valent contra els deepfakes: l’era del copyright personal ha començat?

En un context internacional marcat per l’auge de les tecnologies d’intel·ligència artificial generativa i la proliferació de continguts manipulats—especialment els coneguts deepfakes—, Dinamarca ha sorprès el món amb una proposta legislativa pionera: reconèixer a cada persona drets d’autor sobre la seva imatge, veu i cos. Aquest enfocament, profundament innovador, cerca dotar als ciutadans d’eines legals més efectives per a frenar l’ús no autoritzat de les seves característiques personals en entorns digitals, especialment davant l’amenaça que representa la IA generativa. 

En què consisteix aquesta proposta de llei? 

Dinamarca està disposada a modificar la seva legislació en matèria de drets d’autor per a permetre que qualsevol individu pugui reclamar la titularitat sobre l’explotació no autoritzada de la seva imatge, veu o, fins i tot, moviments corporals generats artificialment. 

La iniciativa sorgeix com a resposta a la creixent difusió de vídeos falsos creats mitjançant IA, alguns d’ells extremadament realistes, que suplanten rostres, veus i gestos de persones reals —famoses o no— sense el seu consentiment. La normativa danesa, encara en fase de desenvolupament, podria constituir una base legal sòlida per a exigir la retirada de continguts deepfake, sol·licitar indemnitzacions per danys morals o patrimonials i, en alguns casos, emprendre accions penals. 

Per què és revolucionària? 

Tradicionalment, els sistemes jurídics occidentals no han reconegut drets d’autor sobre l’aparença o la veu d’una persona, atès que el copyright està reservat a «obres» amb originalitat i autoria. Les persones físiques disposen de mecanismes com el dret a la pròpia imatge o a l’honor, però aquests drets no tenen la mateixa força automàtica ni vocació preventiva que el copyright. 

Dinamarca proposa fusionar l’enfocament dels drets de la personalitat amb la lògica del dret d’autor i, així, permetre que un individu pugui actuar com si fos titular d’una obra quan s’explota la seva identitat digital. Això obriria la porta a mecanismes de takedown similars als que ja existeixen en plataformes com YouTube per a protegir obres musicals o audiovisuals. 

Què passa en altres països? 

  • Als Estats Units, alguns estats com Califòrnia o Illinois han aprovat lleis específiques per a protegir la «veu» o l’«aspecte» de les persones, però des de l’òptica del dret civil i no del copyright. 
  • A la Unió Europea, els drets a la imatge i a la protecció de dades (com l’article 8 de la Carta de Drets Fonamentals de la UE) ofereixen una certa cobertura, però no atorguen un control automàtic ni un dret d’explotació patrimonial. 
  • A Espanya, el dret a la pròpia imatge (LO 1/1982, de 5 de maig) i la protecció de dades (RGPD i LOPDGDD) són les eines disponibles, però no permeten reclamar una «autoria» sobre la nostra veu o cos. Seria necessària una reforma legal de gran importància per a incorporar aquesta perspectiva. 

Un camí cap a la sobirania digital individual? 

La proposta danesa obre un nou paradigma jurídic, que reconeix que a l’era digital l’individu no solament necessita protegir la seva intimitat, sinó també exercir control econòmic i moral sobre la seva identitat digital. Si prospera, podria marcar l’inici d’un nou enfocament europeu per a enfrontar els reptes que planteja la IA generativa, els deepfakes i la manipulació de continguts. 

El debat està servit: hauríem de tenir copyright sobre nosaltres mateixos? 

Com sempre, cuideu les dades i cuideu-vos! 

 Per llegir la notícia, fes clic aquí. 

Multa per reincidència: una altra oportunitat perduda per a complir el RGPD

Es revela una preocupant reincidència en l’incompliment de les obligacions legals en matèria de protecció de dades establertes en la LOPDGDD i el RGPD per part d’una empresa que ja va ser sancionada amb anterioritat pel mateix motiu.

Antecedents

En una resolució prèvia, l’AEPD ja va sancionar a l’empresa i li va ordenar adoptar mesures correctores—entre elles, adequar la seva política de privacitat en la web i els contractes als requisits de l’article 13 del RGPD. No obstant això, l’empresa no sols no va executar aquestes mesures, sinó que a més va ignorar múltiples requeriments de l’AEPD—alguns notificats electrònicament i altres retornats per Correus— demostrant una conducta clarament negligent i fins i tot evasiva.

Aquesta falta de resposta va donar peu a l’obertura d’un nou procediment per incompliment de la resolució dictada per l’AEPD (article 58.2.d) del RGPD), que faculta a les autoritats de control a ordenar el compliment de la normativa en un termini determinat. La reiterada omissió d’aquestes ordres constitueix una infracció molt greu segons l’article 72.1.m) de la LOPDGDD, sancionable amb multes que poden aconseguir els 20 milions d’euros o el 4% del volum de negoci global.

A pesar que la sanció imposada finalment va ascendir a 900 euros—reduïda a 540 euros després del reconeixement de responsabilitat i el pagament voluntari conforme a l’article 85 de la LPACAP—, el fet més significatiu no és l’import econòmic, sinó la reiteració de l’incompliment i l’actitud obstruccionista de l’empresa.

L’historial reflecteix una falta de diligència en les seves obligacions com a responsable del tractament de dades, la qual cosa incrementa el seu nivell de responsabilitat segons els criteris de l’article 83.2 del RGPD, especialment en quant a la intencionalitat, reincidència i falta de cooperació amb l’autoritat.

A més, l’AEPD ha reiterat que el reconeixement de la infracció no eximeix a Cubillo Gallego, S.L. de complir efectivament les mesures correctores, la qual cosa reflecteix el caràcter persistent i estructural de l’obligació de compliment normatiu en aquesta matèria.

Conclusió

Aquest cas és un clar recordatori que la falta de compliment continuat pot implicar sancions successives, i que l’AEPD no cessarà en la seva labor supervisora fins que les entitats infractores s’alineïn amb el marc normatiu europeu. Ignorar les resolucions de l’autoritat supervisora no sols genera conseqüències legals immediates, sinó que a més afebleix la confiança dels ciutadans en la protecció de les seves dades personals.

Com sempre, cuideu les dades i cuideu-vos!

Per llegir la resolució, fes clic aquí.

Desconnexió digital i salut mental: EL TSJ de Galícia es pronuncia

El Tribunal Superior de Justícia de Galícia (TSJG), en la seva recent Sentència nº2292/2025, de 25 d’abril, declara que l’empresa Greenalia S.A. va vulnerar el dret a la desconnexió digital i a la integritat moral d’una treballadora que es trobava de baixa mèdica per trastorn d’ansietat.

El Tribunal confirma que enviar-li correus laborals durant aquest període va atemptar contra la seva dignitat i li imposa el pagament d’una indemnització de 1.500 € per danys i perjudicis.

Antecedents

L’empleada, que va presentar la seva baixa voluntària a l’abril de 2024, va denunciar haver rebut comunicacions laborals mentre estava en situació d’incapacitat temporal, perquè tenia diagnosticat un trastorn d’ansietat.

Durant aquest temps, si bé no li van exigir resposta immediata, diversos companys li van remetre correus electrònics sobre qüestions de treball. No obstant això, l’empresa no va adoptar mesures per a evitar-ho.

El TSJ de Galícia subratlla la importància del dret a la desconnexió digital, recollit en l’article 88 de la Llei Orgànica 3/2018. Aquest dret no sols protegeix el treballador d’haver de respondre a missatges fora de la seva jornada, sinó que també imposa a l’empresa una obligació activa d’abstenir-se d’enviar comunicacions laborals durant el temps de descans, vacances o situacions com una baixa mèdica.

En aquest cas, la Sala argumenta que la falta de respecte a aquest dret, en un context de vulnerabilitat emocional acreditada per informes mèdics, agreuja l’estat dels empleats i suposa una intromissió en el dret fonamental a la integritat moral (art. 15 CE).

Encara que l’empresa va al·legar que no exigia resposta immediata i que els correus formaven part de fils ja iniciats, el Tribunal entén que el simple fet de rebre aquestes comunicacions, estant de baixa, representa una forma de pressió i una falta de respecte a l’espai personal i al procés de recuperació de la treballadora. Per tant, el Tribunal rebutja que la falta d’exigència de resposta obligatòria per part de la treballadora eximeixi a l’empresa de la seva responsabilitat

La sentència aclareix que el dret a la desconnexió no és una mera cortesia empresarial, sinó un component clau del benestar laboral i la salut mental. Obliga l’empresa a prevenir intrusions que comprometin la recuperació del treballador o afectin la seva vida personal.

Tot i que es revoquen parcialment altres afirmacions de la sentència anterior—no s’aprecien vulneracions del dret a la integritat física ni a l’honor—, el TSJ de Galícia manté la condemna per vulneració de la integritat moral i l’obligació d’indemnitzar a la treballadora.

Conclusió

Aquesta resolució reafirma que l’incompliment del dret a la desconnexió digital pot suposar una violació de drets fonamentals, i marca un precedent important per a empreses i treballadors.

Com sempre, cuideu les dades i cuideu-vos!

Per consultar la resolució, feu clic aquí.

Revisió Texts legals web