Més enllà del “Cosmetic compliance”

A l’àmbit empresarial, complir amb les normatives i regulacions és fonamental no només per evitar sancions, sinó també per construir una reputació sòlida i confiable. No obstant això, existeix un fenomen preocupant conegut com a “cosmetic compliance” o “compliment cosmètic“, que es refereix a pràctiques superficials destinades a aparentar conformitat amb les lleis i regulacions sense realment adherir-s’hi. Aquest concepte, prestat dels programes de Compliance Penal, és especialment rellevant també en l’àrea de protecció de dades, on el compliment efectiu és crucial per protegir la privacitat i la seguretat de la informació personal.

En el context de la protecció de dades, el “cosmetic compliance” pot manifestar-se de diverses formes. Per exemple, una empresa pot dissenyar polítiques de privacitat detallades i completes, però si no s’implementen de manera efectiva o si els empleats no estan adequadament capacitats per seguir aquestes polítiques, la conformitat és només superficial.

Una altra manifestació d’ aquesta pràctica és la utilització de tecnologies avançades per a la protecció de dades, sense configurar correctament aquestes eines o sense integrar-les adequadament en els processos operatius de l’ empresa. Això pot crear una falsa sensació de seguretat tant per a l’empresa com per als clients, quan en realitat les dades poden estar en risc.

Com detectar el “Cosmetic Compliance” en Protecció de Dades

Textos Legals Web “copiats i enganxats”

Un dels exemples més comuns de “cosmetic compliance” és l’ ús de textos legals copiats i enganxats d’altres fonts. Moltes empreses copien polítiques de privacitat, termes i condicions, o avisos legals d’altres pàgines web sense adaptar aquests documents a la seva pròpia realitat operativa i regulatòria. Això no només és una infracció de drets d’ autor, sinó que també pot portar a un incompliment real, ja que aquests textos poden no reflectir les pràctiques i necessitats específiques de l’ empresa.

Política de Cookies Irreal

Una altra pràctica comuna és la implementació de polítiques de cookies que no reflecteixen la realitat de les cookies que s’instal·len al navegador del client. Algunes empreses publiquen polítiques detallades sobre l’ús de cookies, però a la pràctica instal·len més cookies de les declarades, o cookies amb finalitats diferents a les anunciades.

Manca de Signatura d’ Acords de Confidencialitat o de Contractes d’ Encarregat de Tractament

L’absència d’acords de confidencialitat o contractes d’encarregat de tractament adequats és un altre senyal de “cosmetic compliance”. Les empreses han d’assegurar que qualsevol tercer que manegi dades personals en el seu nom (com a proveïdors de serveis) estigui legalment obligat a protegir aquesta informació, sense excepció. La manca d’ aquests acords pot posar en risc la seguretat de les dades i contravenir les normatives de protecció de dades.

Manca d’ Implementació de Mesures de Seguretat Efectives

L’ adquisició d’ eines avançades de seguretat sense una integració adequada en els processos operatius és un altre indici. Si una empresa inverteix en tecnologia de protecció de dades, però no configura aquestes eines correctament o no les utilitza de manera coherent amb les seves polítiques, està simplement aparentant compliment.

Auditories Internes Inadequades

Les auditories internes que són infreqüents, superficials o realitzades per personal no qualificat poden ser un signe de “cosmetic compliance”. Les auditories efectives han d’ ésser exhaustives i dutes a terme per professionals capacitats que puguin identificar i corregir deficiències en les pràctiques de protecció de dades.

Conclusió

El “cosmetic compliance” és una pràctica que pot tenir greus conseqüències per a les empreses, tant en termes de sancions econòmiques com de pèrdua de confiança dels clients, entre d’altres.

És molt important que l’ empresa implanti una cultura interna de compliment, no només pel que fa a privacitat, sinó també en les altres àrees de responsabilitat. Això requereix tenir una estratègia i, des de la responsabilitat proactiva i partint dels principis del RGPD de protecció des del disseny i per defecte, la protecció de dades es prepari abans d’ iniciar les activitats i que el tractament estigui configurat per utilitzar únicament les dades personals estrictament necessàries.

I la direcció ha d’ implicar tota l’ empresa en el compliment.

I, com sempre, cuideu les dades i ¡cuideu-vos!

La Lliga (LFP) sota Vigilància

En una era on la tecnologia s’entrellaça cada vegada més amb la vida quotidiana, la privacitat de les dades s’ha convertit en un tema de discussió fonamental. Recentment, l’Agència Espanyola de Protecció de Dades (AEPD) ha posat el focus en La Lliga de Futbol Professional (LFP) per l’ús de sistemes de reconeixement facial als estadis. Aquest avís no només ressalta els desafiaments que enfronten les grans organitzacions, sinó que també envia un missatge crucial a les empreses en general sobre la importància de navegar amb cura en el complex món de la biometria i la protecció de dades.

De fet, ja ens referim al tema setmanes enrere quan l’AEDP va publicar la Guia sobre tractaments de control de presència mitjançant sistemes biomètrics per al control de presència i accés als llocs de treball. La publicació va suposar un important canvi de postura de l’ Agència respecte a l’ ús de la biometria en l’ accés i el control laboral.

Reconeixement Facial i Privacitat

El reconeixement facial, una forma de biometria, s’ha utilitzat cada vegada més per millorar la seguretat en llocs públics, incloent estadis esportius. Tot i que aquestes tecnologies ofereixen beneficis significatius en termes de seguretat, també generen preocupacions considerables sobre la privacitat i els drets individuals. L’AEPD ha cridat l’atenció sobre aquest equilibri delicat, emfatitzant la necessitat de complir amb regulacions estrictes, com el RGPD.

La resposta de La Lliga (LFP)

Davant les advertències de l’AEPD, La Lliga ha defensat el seu ús de sistemes de reconeixement facial, argumentant que el seu principal objectiu és garantir la seguretat als estadis.

La Lliga sosté que aquesta tecnologia ajuda a identificar individus que puguin representar una amenaça, com aquells amb prohibicions d’accés o implicats en actes violents previs. Aquesta justificació es basa en la premissa que la seguretat col·lectiva pot requerir mesures més robustes, tot i que intrusives.

 Tanmateix, aquesta posició planteja un important debat: fins on pot arribar una organització en la implementació de tecnologies de vigilància sota la premissa de la seguretat, sense vulnerar els drets individuals de privacitat?

I aquest debat afecta també totes les empreses i organitzacions.

Implicacions per les empreses

A falta de veure com es resol el contenciós entre La Lliga i l’AEPD, i a l’espera de veure si La Lliga és capaç de trobar suport jurídic per a les seves pretensions, les empreses han de ser conscients que qualsevol tecnologia intrusiva, especialment aquelles que processen dades biomètriques, requereix una anàlisi exhaustiva en termes de compliment normatiu, previ a la seva aplicació. És fonamental que les empreses avaluïn no només els beneficis de seguretat i eficiència que aquestes tecnologies poden oferir, sinó també l’ impacte en la confiança i la privacitat dels individus. Adoptar un enfocament transparent i responsable, alineat amb les directrius de l’ AEPD i el RGPD, és essencial per evitar sancions i preservar la reputació de l’empresa.

Conclusió

L’advertència de l’AEPD a La Lliga per l’ús de reconeixement facial en estadis és un recordatori oportú per a les empreses sobre la importància d’equilibrar la innovació tecnològica amb el respecte a la privacitat i la normativa de protecció de dades. Aquest cas subratlla la necessitat d’ un maneig acurat i ètic de tecnologies potencialment intrusives, instant les empreses a considerar no només els avantatges operatius, sinó també les implicacions legals i socials de la seva implementació.

Som a les portes d’una nova edició del Mobile World Congress (MWC) a celebrar a Barcelona. L’any passat van fer un ús intensiu del reconeixement facial per a la gestió de l’accés dels visitants. Veurem quina solució apliquen aquest any.

Mentrestant, cuideu-vos molt!

Fi de l’ús de l’empremta dactilar per l’accés al centre de treball?

L’Agència Espanyola de Protecció de Dades (AEPD) ha publicat recentment una Guia sobre tractaments de control de presència mitjançant sistemes biomètrics per al control de presència i accés als llocs de treball. La Guia representa tot un repte per a l’ adopció de sistemes d’ identificació biomètrica, ja que l’ AEPD ha revisat els seus criteris i aclarit els requisits essencials per al tractament de dades. I no posa gens fàcil.

Segons el Reglament General de Protecció de Dades (RGPD), les dades biomètriques es consideren una categoria especial de dades quan s’utilitzen per identificar de manera única a una persona. L’AEPD ha aclarit que aquestes dades només es poden processar en circumstàncies excepcionals, com ara amb el consentiment explícit de la persona o si és necessari per al compliment de les lleis laborals o els drets de protecció social i hi ha una base legal per fer-ho.

La Guia indica que les disposicions legals anteriors que es pensava que legitimaven aquests sistemes biomètrics són insuficients, ja que no esmenten expressament el processament de dades biomètriques ni proporcionen les proteccions de privacitat necessàries per als empleats. A més, el consentiment dels empleats tampoc es considera una base vàlida per a la legitimació a causa del desequilibri de poder inherent entre empresaris i empleats.

La conclusió és que esdevé extremadament difícil, si no impossible, utilitzar sistemes d’identificació biomètrica per a aquests propòsits en les empreses, sense una regulació específica europea o espanyola o un acord de negociació col·lectiva que proporcioni normes clares i garanties.

Com a alternatives als controls biomètrics, les solucions podrien incloure mètodes tradicionals com fulls de signatura manuals, targetes clau electròniques, codis PIN o aplicacions mòbils que permeten registres basats en la ubicació. Aquestes alternatives es preveuen menys invasives per a la privacitat, s’alineen amb el principi de minimització de dades del RGPD i encara complir amb els requisits operacionals del lloc de treball.

L’impacte per a les empreses dels nous criteris de l’AEPD en reconèixer la biometria com mancada de legitimació per al tractament de dades és significatiu. Les empreses hauran de reconsiderar l’ús de sistemes de control biomètric, ja que la Guia limita fortament aquestes pràctiques. Sense una base legal específica, consentiment explícit (molt complicat de fer servir en la pràctica per el desequilibri entre empresa i treballador i tenir que superar el judici d’idoneïtat) o acords col·lectius amb garanties adequades, les empreses no podran utilitzar dades biomètriques per a controls de presència o accés.

Tot això pot requerir canvis operatius significatius i, com dèiem, la implementació de mètodes alternatius de control de presència que respectin la privacitat i la protecció de dades dels empleats.  L’Agència, fins i tot, recomana explorar opcions que ni siguin tecnològiques com, per exemple, la utilització de recursos humans. Vaja, posar un vigilant a la porta, com s’ha fet tota la vida. En fi …

D’ara en endavant, no poseu el dit enlloc i cuideu-vos!

Noves “smart glasses” de Meta i Ray-Ban: tecnologia que espanta

Meta ha anunciat en el seu esdeveniment Meta Connect 2023 les seves noves ulleres intel·ligents en col·laboració amb Ray-Ban. És la segona generació de les Ray-Ban Meta Smart Glasses, que han estat dissenyades per EssilorLuxottica i es posaran a la venda als EUA el pròxim 17 d’octubre amb un preu inicial de 299 dòlars (no se sap encara quant costaran a Espanya).

La combinació de la experiència d’un gran fabricant d’ulleres com Ray-Ban amb una plataforma tecnològica capdavantera ha donat a llum un producte tremendament avançat, amb possibilitats gaire bé infinites i a un preu assequible.

Les especificacions tècniques són, senzillament, brutals. Càmera millorada de 12 MP, emissió en directe a Instagram i Facebook, àudio millorat, trucades i missatges, comandaments de veu, touchpad i botó de captura, estoig de carga i, naturalment no podia faltar, Meta AI per trobar la informació en el moment precís des de les teves ulleres. Disposa també d’una App dedicada.

I el disseny és Ray-Ban. Amb això ho diem tot. Des de l’estoig quasi convencional (però que emmagatzema 8 càrregues) fins a dos dissenys icònics: Wayfarer i Headliner, en diferent colors. Són lleugeres, a la moda i amb més de 150 combinacions de muntures i vidres. I, naturalment, es poden graduar a petició.

I, fins aquí, la part brillant de la noticia. Però, com les monedes, tot té dos cares. I el revers és, como quasi sempre, la privacitat. No oblidem que estem parlant de Meta, una companyia que s’ha destacat sempre per tenir un absolut menyspreu per les dades personals dels seus usuaris.  

Només cal recordar l’escàndol de Cambridge Analytica que va desvetllar que l’empresa va accedir indegudament a dades de milions d’usuaris de Facebook per influir a les eleccions.

I, des de l’entrada en aplicació del RGPD el 2018, Meta ha enfrontat multes rècord i litigis relacionats amb la privacitat de les dades en diversos països, inclosos Estats Units i els països membres de la Unió Europea, a causa de la seva gestió de la informació de l’usuari. Aquests han inclòs problemes amb el consentiment de l’usuari i el compartir dades amb tercers sense permís explícit.

Un altre problema important que té Meta és l’ús de dades de l’usuari per fer publicitat dirigida, mitjançant, algoritmes per mostrar contingut i anuncis personalitzats. Aquesta pràctica ha aixecat crítiques en relació  amb la privacitat i l’autonomia de l’usuari.

Tantes han estat les crítiques i tant el debat en els mitjans o a les xarxes que, finalment, Facebook va tenir que canviar el seu nom corporatiu a Meta.

 I, ara, després de la iniciativa del Metavers (que de moment no arrenca), presenta la segona generació d’ulleres intel·ligents. I, es clar, el primer que pensem és en l’horror de milions d’usuaris recopilant dades, en tot moment i lloc, en foto, vídeo àudio i pujant-les en directe a les xarxes socials.

Haurem de veure la Política de Privacitat de Meta per aquest supòsit però, permeteu-me no ser gaire optimista veient-ne la trajectòria fins ara. Això sí, les ulleres són una “passada” i qui sap si tindran èxit i aviat tots portarem ulleres intel·ligents amb la mateixa naturalitat que portem rellotge.

De moment, però, cuideu-vos!

Espanya, un pas endavant en la supervisió de la Intel·ligència Artificial

En efecte, l’Agència Espanyola d’Intel·ligència Artificial (AESIA) començarà a funcionar en un termini màxim de tres mesos. A finals d’agost, el Consell de Ministres va aprovar l’Estatut d’aquest organisme, que s’adscriu al Ministeri d’Assumptes Econòmics i Transformació Digital. Espanya es converteix així en el primer país europeu en tenir un òrgan d’aquestes característiques. Però comencen per el principi.

Què és la intel·ligència artificial?

La intel·ligència artificial (IA) és un subcamp de la informàtica que busca crear sistemes capaços de realitzar tasques que requereixen intel·ligència humana. Aquestes tasques poden incloure, però no es limiten a, la comprensió del llenguatge natural, la percepció visual, la presa de decisions, la resolució de problemes i l’aprenentatge a partir de dades o experiències anteriors.

La IA es basa en diferents tècniques i teories, incloent-hi els algoritmes de cerca, la lògica, el reconeixement de patrons, l’aprenentatge automàtic, les xarxes neuronals, la robòtica, entre d’altres.

Què és la intel·ligència artificial generativa?

I com tot avança a tota velocitat, ara ja disposem de IA generativa. La intel·ligència artificial generativa es refereix a sistemes d’IA que poden generar contingut nou que no ha estat prèviament vist. En lloc de simplement analitzar dades i extreure’n informació (com ho faria un sistema d’IA “discriminatiu”), els sistemes generatius poden crear dades que semblen noves i originals.

Això fa que els problemes que planteja la IA és multipliquin.

Perquè necessitem regular la IA?

Les raons són múltiples. Podem citar-ne unes quantes com conductes d’ètica dubtosa que afectin a la privacitat dels individus, raons de seguretat si la IA es fa servir per atacar sistemes de ciberseguretat, opacitat dels algoritmes que amaga com es prenen les decisions, biaix en la presa de decisions que afecti a la igualtat de les persones, responsabilitat en cas de decisions errònies preses per la IA, estimular la innovació cap a direccions positives per la societat, fer aportacions decisives en el camp econòmic i laboral si la IA està ben orientada, protegir el consumidor o, per últim, per coordinar la nostra regulació amb la d’altres països, a la manera, per exemple, com s’ha fet amb la protecció de dades a Europa.

La clau és trobar un equilibri entre protegir la societat i els drets individuals sense frenar la innovació i el desenvolupament tecnològic.

Quin pas ha donat Espanya?

El Govern ha explicat que aquesta estratègia inclou diferents plans estratègics, entre ells l’Estratègia Nacional d’Intel·ligència Artificial (ENIA) , que té com a objectiu donar un marc de referència per al desenvolupament d’una intel·ligència artificial “inclusiva, sostenible i centrada en la ciutadania”.

L’Estratègia forma part del Pla de Recuperació, Transformació i Resiliència (PRTR) , que pretén situar Espanya com a país capdavanter en intel·ligència artificial (IA). L’AESIA s’adscriu al Ministeri d’Afers Econòmics i Transformació Digital mitjançant la Secretaria d’Estat de Digitalització i Intel·ligència Artificial.

Amb la creació d’aquesta agència, Espanya es converteix en el primer país europeu que té un òrgan d’aquestes característiques i s’anticipa a l’entrada en vigor del Reglament europeu d’intel·ligència artificial.

La figura del DPD en la aplicació de la IA

El Delegat de Protecció de Dades, professional que revisa el compliment de la normativa de privacitat a les empreses i organismes, és la figura idònia per supervisar la utilització de la IA. Com diu l’AEPD, “el DPD, fins i tot en els casos que no sigui obligatori, pot ser de gran utilitat en aquelles entitats que empren solucions basades en IA i que tracten dades personals, o  que desenvolupen solucions d’IA que fan ús de dades personals per a l’entrenament dels models. A tenir-ho present.

Conclusions

El món de la IA, tant apassionant com ple de perills i incerteses, ha irromput amb força en la nostra societat. I encara només hem vist el principi. Si som capaços de fer-la nostra, tot minimitzant les desavantatges i potenciant les avantatges per tots, no per uns quants, estic convençut que estem davant del que els americans en diuen un ”game changer”.  Molt disruptiu, potser, fins i tot, superant l’eclosió d’Internet. Veruem.

 

Mentrestant, cuideu-vos!

Com gestionar les xarxes socials d’una persona que ens ha deixat?

La vida passa i cada dia passa més de pressa. I a mida que va passant, anem deixant, amb millor o pitjor fortuna, la nostra empremta. Fins ara, aquesta empremta era analògica però, des de fa uns anys, s’hi ha afegit l’empremta digital. De forma silenciosa però constant, cada dia afegim més informació nostra a Internet.

Què es una Empremta Digital ja ho vam explicar temps enrere quan ens preguntàvem Què sap Internet de tu?  Podem definir l’Empremta com el conjunt de dades i continguts personals que compartim a Internet, en particular a les xarxes socials. I la pregunta que ens fem avui és què passa amb aquesta informació quan una persona ens deixa.

La mort d’un esser estimat és sempre un moment difícil. I gestionar la seva presència digital pot sembla un detall insignificant però, és un pas important per honrar la seva memòria. Escrivim aquestes notes arrel de la petició del fill d’un client perquè donéssim de baixa la compte del seu pare a Linkedin. Perquè és important eliminar un compte de Linkedin d’una personal que ens ha deixat? I com ho fem? Continua llegint i trobaràs les respostes.

Perquè eliminar el compte és important?

Eliminar el compte d’una persona morta a Linkedin és important perquè pot ajudar a prevenir el robatori d’identitat i protegir la privacitat de la persona morta i dels seus contactes. A més, pot ajudar a evitar que s’ enviïn missatges no desitjats o es realitzin publicacions en nom de la persona morta. I, per descomptat, evitarem que ens arribi un recordatori anual del seu aniversari, amb el dolor addicional que pot suposar per família i amics.

Per últim, és important també des del punt de vista d’empresa per que pot provocar confusió si el finat no contesta a les sol·licituds d’altres membres de Linkedin.

Passos a seguir per eliminar el compte de Linkedin d’una persona morta

  1. Visita la pàgina d’Ajuda de LinkedIn i busca “Tancar el compte d’un ésser estimat mort”.
  2. Omple el formulari de verificació de defunció, proporcionant tota la informació necessària, com la teva relació amb el finat (testament, llibre de família, etc.) i una còpia de l’obituari o certificat de defunció.
  3. Envia el formulari i espera que l’equip de LinkedIn revisi la teva sol·licitud. Això pot trigar algunes setmanes, però un cop s’aprova, el compte es tancarà.

És possible que Llnkedin ens demani informació addicional i cal tenir en compte que el procediment és irreversible.

Alternatives

Linkedin ofereix també la possibilitat de convertir el compte estàndard en un compte “in memoriam. Aquest tipus de compte permet als contactes del finat compartir records i homenatges en el seu perfil.

Conclusió

Tancar el compte de Linkedin és important però és una de les coses que cal fer quan ens deixa una persona estimada. Però no és la única. A més de les xarxes socials, hi ha molts altres llocs a Internet on hi pot haver continguts que facin referència al finat. Potser algun d’indesitjable però també molts d’interessants i que caldrà preservar.

La nostra recomanació és demanar un Informe d’Empremta Digital, a partir del qual poder repassar totes les aparicions i actuar en conseqüència en cada cas.

Com sempre, cuideu-vos i cuideu del vostres, fins i tot, dels que ens falten!

Fi de les trucades comercials no desitjades?

Tots estem cansats de rebre trucades no desitjades, moltes a hores intempestives, oferint-nos tot tipus de serveis, ofertes o propostes de los més divers. En efecte, a les ja conegudes trucades dels operadors de telefonia que ens ofereixen la tarifa definitiva amb tota classe de regals i descomptes, fins a ONG’s que reclamen ajudes per els seus propòsits, passant per tota mena d’empreses fent una acció comercial desagradable per tothom, amb una més que discutida rendibilitat. I ara, en campanya, també si afegeixen els partits polítics de forma més o menys disfressada.

Doncs bé, sembla que aquesta pràctica comercial pot estar en camí de desaparèixer. En efecte, el passat 30 de juny de 2022 va entrar en vigor la Llei 11/2022 General de Telecomunicacions, excepte l’article 66.1.b) per el que es va establir una moratòria d’un any per la seva entrada en vigor. I l’any es va complir ahir. I l’AEPD ha publicat una Circular que ho explica.

Consentiment

L’article es refereix, precisament, al dret de no rebre trucades comercials no desitjades. A partir d’ara, els usuaris tindrem dret s no rebre aquest tipus de trucades, tret que existeixi consentiment per part nostra o que la comunicació es pugui emparar en una altre base de legitimació de l’article 6.1 del Reglament (UE) 2016/679, es a dir, el RGPD.  

I com és natural aquest consentiment ah de complir totes les exigències que recull el Reglament.

Interès legítim

El cas més freqüent d’utilització d’aquesta base de legitimació per l’empresa, és que hi hagi una relació contractual prèvia, si el responsable va obtenir les dades de forma lícita i les fa servir per comunicacions comercials referents a productes o serveis de la seva empresa que siguin similars als que inicialment van ser objecte de contractació per part del client.

Mesures prèvies

Serà necessari que les empreses consultin prèviament els sistemes d’exclusió publicitària, conforme a l’article 23 de la LOPDGDD. El més conegut és la inscripció al Servei Llista Robinson. És gratuït i molt senzill de fer servir. L’AEPD ofereix a la seva web diverses maneres de restringir la publicitat no desitjada.

Les empreses també hauran adoptar garanties addicionals com són la informació sobre la identitat de l’empresari, indicar la finalitat comercial de la trucada i informar sobre la possibilitat de revocar el consentiment o exercir el dret d’oposició a rebre trucades.

Les trucades s’hauran de gravar per demostrar el compliment de la normativa sobre protecció de dades.

Les sancions

L’encarregat de fer complir la norma és l’AEPD que podrà imposar sancions fins a 100.000€ per les faltes lleus, i de fins a 20M€ en els casos d’infraccions molt greus.

Conclusions

Potser estiguem molt a la vora de resoldre una situació molt injusta per els usuaris y que fa masses anys que dura. L’abús i la impunitat de que han fet gala moltes empreses, tecnològiques, assegurances, bancàries, etc, havia arribat a un punt de fer-se, moltes vegades, insuportable. Seguirem d’a prop l’evolució de l’aplicació de la norma i, en especial, pel que fa referència a les sancions.

Des d’avui, la vida és una mica més fàcil per els usuaris. Recordeu, cuideu-vos!

ChatGPT: Àngel o Dimoni

Així es titulava la sessió d’ahir de El Mirador Indiscret, unes sessions de debat que periòdicament organitza el Col·legi del Màrqueting i la Comunicació de Catalunya sobre temes d’actualitat i interès per els col·legiats.

I la d’ahir no podia ser més oportuna ni de més interès. Oportuna perquè ChatGPT és, sens dubte, la tecnologia del moment de la que tothom en parla. Només veient la velocitat en la taxa d’adopció (mes de 100 milions d’usuaris en dos mesos) ens en podem fer la idea. I d’interès, més que mai, per tota la professió: creatius, copys, directors d’art, … per les implicacions que tindrà en la seva feina.

Veient la inversió de Microsoft i la incorporació de ChatGPT en el seu cercador Bing podem pensar que això no ha fet més que començar. I de la importància que té el fenòmen, en Gerard Olivé va posar dos exemples molt recents.

El primer, el pànic de Google quan Microsoft va anunciar la incorporació que va ser èpic. Tot de sobte, la totpoderosa Google rebia una sotragada de dimensions difícils d’avaluar encara en el seu “core business”, el cercador. Tot d’una, sembla més interessant buscar a Bing amb ChatGPT que a Google. I ningú ho va a veure venir.

I el segon, la intensa aplicació de la intel·ligència artificial als seus processos de negoci per part de Shein, la distribuïdora tèxtil, que els ho dona una avantatge competitiva davant d’Inditex, H&M i d’altres competidors. El time to market resulta ser molt més competitiu, tant en temps com en disseny. La seva app va ser la mès descarregada en compres als Estats Units l’any passat. A tenir en compte.

I, és clar, després de glosar les meravelles de l’eina, i sense voler desinflar el soufflé, era necessari tocar el tema de la protecció de dades. Per això, Gina Tost (Secretaria de Polítiques Digitals de la Generalitat)  es va encarregar, des del punt de vista de l’Administració, de valorar la irrupció d’aquestes tecnologies, les amenaces que es preveuen, els drets i deures digitals afectats i, naturalment, de la importància del marc regulador i com s’està treballant en aquest sentit.

I en aquest sentit, hem d’assenyalar que el be jurídic a protegir és la Privacitat Digital. És el dret que tenim als usuaris de protegir les nostres dades a internet y decidir quina informació poden veure els demés, quina informació poden utilitzar i amb quina finalitat i com exercir els nostres drets. És una expectativa legítima que tenim com individus de poder administrar la nostra “empremta digital”, entesa com l’allau de dades personals que generem cada dia i que, en definitiva, determinen la nostra reputació digital.

Com dèiem al principi, això no ha fet més que començar. ChatGPT no és, ni molt menys, l’única eina d’intel·ligència artificial al nostre abast. Ara mateix les podem comptar per centenars, amb totes les derivacions imaginables. Fins i tot, ja apareixen feines tant específiques com la de “prompt engineer”,  aquell professional que desenvolupa i optimitza la comunicació amb els algoritmes per obtenir el millor resultat.

En front d’aquest tsunami tecnològic que se’ns ve a sobre, la normativa de protecció de dades és l’instrument al nostre abast per mantenir la sobirania de les nostres dades. Hem de tenir el control perquè, d’altre manera, caldrà repensar si el viatge val la pena.

Com sempre, cuideu les vostres dades i cuideu-vos!

“Sentir el control”. Això és tot el que es demana.

Segons l’últim Informe que l’empresa d’investigació de mercats Ipsos ha fet per Google, “Privacitat des del disseny: els beneficis de donar el control a la gent”, les empreses que basen els seus negocis en l’explotació de les dades personals dels usuaris comencen a valorar l’aplicació de polítiques de protecció de dades que permeti als usuaris tenir la percepció que les seves dades personals seran tractades de forma adequada.

Els usuaris prefereixen veure anuncis rellevants i útils i estan oberts a compartir les seves dades amb les marques, però volen sentir el control de quan ho fan. Millorar la sensació de control que la gent té sobre les seves dades és una manera poderosa perquè les marques generin confiança, augmentin l’eficàcia del màrqueting i obtinguin millors resultats.

Principals conclusions del Informe

  1. Proporcionar una experiència de privadesa positiva pot augmentar la quota de preferències de marca en un 49%.
    Després d’una experiència de privadesa positiva amb la seva marca de segona elecció, el 49% de les persones van dir que canviarien de la seva marca preferida a la segona marca.
  1. Equivocar-se en l’experiència de privadesa té un impacte negatiu tant en la confiança com en les preferències de marca.
    Per a molts dels participants en l’estudi, les experiències de privadesa que no tenien transparència o que no proporcionaven coneixement i/o autonomia al client eren molt perjudicials, tant per a la confiança de la marca com per les preferències dels participants.
  1. Hi ha poderoses pràctiques de privacitat que les marques poden desplegar per augmentar les sensacions de control, i les combinacions més efectives tenen un impacte positiu notable en alguna cosa més que els sentiments de control.
    Per obtenir el impacte positiu més gran en les sensacions de control, les marques haurien de desplegar una combinació provada de pràctiques que creïn experiències de privadesa Significatives, Memorables i Manejables.

L’estudi suggereix que les marques que poden oferir aquestes experiències veuran, amb el pas del temps, un efecte bola de neu positiu: la gent sentirà que té el control, cosa que augmenta la confiança de la marca i augmenta les preferències de la marca. Les marques que descuidin la privadesa corren el risc de l’escenari contrari. El camí cap a l’èxit és clar: adoptar pràctiques basades en les tres característiques mencionades (Significatives, Memorables i Manejables)  per donar a les persones una sensació de control i millorar l’eficàcia del màrqueting.

“Sentir” el control

Per als usuaris, “sentir” el control és alguna cosa més que tenir el control. Les eines de privadesa que permeten a les persones canviar les seves preferències de cookies i donar-se de baixa del màrqueting per correu electrònic poden ajudar-los a mantenir control de les seves dades. Però aquestes eines no són suficients per proporcionar als clients la sensació més substancial de control que necessiten per confiar en una marca. Els clients també volen saber quan i per què comparteixen la seva informació i entendre els avantatges que rebran de fer-ho.

Per concloure, direm que les marques tenen que fer un esforç perquè el client tingui la percepció de que té el control sobre la seva privadesa i que, naturalment, el tingui. Si sabem quines dades compartim i com ens beneficia a nosaltres fer-ho, l’empresa té que ser lleial amb nosaltres. A canvi, tindrà la nostra confiança, el que es traduirà, a ben segur, en millors vendes.

I, com sempre, cuideu-vos!

Revisió Texts legals web