Más allà del “Cosmetic compliance”

En el ámbito empresarial, cumplir con las normativas y regulaciones es fundamental no solo para evitar sanciones, sino también para construir una reputación sólida y confiable. Sin embargo, existe un fenómeno preocupante conocido como «cosmetic compliance» o «cumplimiento cosmético«, que se refiere a prácticas superficiales destinadas a aparentar conformidad con las leyes y regulaciones sin realmente adherirse a ellas. Este concepto, prestado de los programas de Compliance Penal, es especialmente relevante también en el área de protección de datos, donde el cumplimiento efectivo es crucial para proteger la privacidad y la seguridad de la información personal.

En el contexto de la protección de datos, el «cosmetic compliance» puede manifestarse de varias formas. Por ejemplo, una empresa puede diseñar políticas de privacidad detalladas y completas, pero si no se implementan de manera efectiva o si los empleados no están adecuadamente capacitados para seguir estas políticas, la conformidad es solo superficial.

Otra manifestación de esta práctica es la utilización de tecnologías avanzadas para la protección de datos, sin configurar correctamente estas herramientas o sin integrarlas adecuadamente en los procesos operativos de la empresa. Esto puede crear una falsa sensación de seguridad tanto para la empresa como para los clientes, cuando en realidad los datos pueden estar en riesgo.

Cómo detectar el “Cosmetic Compliance» en Protección de Datos

Textos Legales Web “copiados y pegados”

Uno de los ejemplos más comunes de «cosmetic compliance» es el uso de textos legales copiados y pegados de otras fuentes. Muchas empresas copian políticas de privacidad, términos y condiciones, o avisos legales de otras páginas web sin adaptar estos documentos a su propia realidad operativa y regulatoria. Esto no solo es una infracción de derechos de autor, sino que también puede llevar a un incumplimiento real, ya que estos textos pueden no reflejar las prácticas y necesidades específicas de la empresa.

Política de Cookies Irreal

Otra práctica común es la implementación de políticas de cookies que no reflejan la realidad de las cookies que se instalan en el navegador del cliente. Algunas empresas publican políticas detalladas sobre el uso de cookies, pero en la práctica instalan más cookies de las declaradas, o cookies con fines diferentes a los anunciados.

Falta de Firma de Acuerdos de Confidencialidad o de Contratos de Encargado de Tratamiento

La ausencia de acuerdos de confidencialidad o contratos de encargado de tratamiento adecuados es otra señal de «cosmetic compliance». Las empresas deben asegurar que cualquier tercero que maneje datos personales en su nombre (como proveedores de servicios) esté legalmente obligado a proteger esa información, sin excepción. La falta de estos acuerdos puede poner en riesgo la seguridad de los datos y contravenir las normativas de protección de datos.

Falta de Implementación de Medidas de Seguridad Efectivas

La adquisición de herramientas avanzadas de seguridad sin una integración adecuada en los procesos operativos es otro indicio. Si una empresa invierte en tecnología de protección de datos, pero no configura estas herramientas correctamente o no las utiliza de manera coherente con sus políticas, está simplemente aparentando cumplimiento.

Auditorías Internas Inadecuadas

Las auditorías internas que son infrecuentes, superficiales o realizadas por personal no cualificado pueden ser un signo de «cosmetic compliance». Las auditorías efectivas deben ser exhaustivas y llevadas a cabo por profesionales capacitados que puedan identificar y corregir deficiencias en las prácticas de protección de datos.

Conclusión

El «cosmetic compliance» es una práctica que puede tener graves consecuencias para las empresas, tanto en términos de sanciones económicas como de pérdida de confianza de los clientes, entre otras.

Es muy importante que la empresa implante una cultura interna de cumplimiento, no solo en lo que se refiere a privacidad, sino también en las otras áreas de responsabilidad. Esto requiere tener una estrategia y, desde la responsabilidad proactiva y partiendo de los principios del RGPD de protección desde el diseño y por defecto, la protección de datos se prepare antes de iniciar las actividades y que el tratamiento esté configurado para utilizar únicamente los datos personales estrictamente necesarios.

Y la dirección debe implicar a toda la empresa en el cumplimiento.

Y, como siempre, cuidad los datos y ¡cuidaos!

La Liga (LFP) bajo Vigilancia

En una era donde la tecnología se entrelaza cada vez más con la vida cotidiana, la privacidad de los datos se ha convertido en un tema de discusión fundamental. Recientemente, la Agencia Española de Protección de Datos (AEPD) ha puesto el foco en La Liga de Fútbol Profesional (LFP) por el uso de sistemas de reconocimiento facial en los estadios. Este aviso no solo resalta los desafíos que enfrentan las grandes organizaciones, sino que también envía un mensaje crucial a las empresas en general sobre la importancia de navegar con cuidado en el complejo mundo de la biometría y la protección de datos.

De hecho, ya nos referimos al tema semanas atrás cuando la AEDP publicó la  Guía sobre tratamientos de control de presencia mediante sistemas biométricos para el control de presencia y acceso a los puestos de trabajo. La publicación supuso un importante cambio de postura de la Agencia respecto al uso de la biometría en el acceso y el control laboral.

 

Reconocimiento Facial y Privacidad

El reconocimiento facial, una forma de biometría, se ha utilizado cada vez más para mejorar la seguridad en lugares públicos, incluyendo estadios deportivos. Aunque estas tecnologías ofrecen beneficios significativos en términos de seguridad, también generan preocupaciones considerables sobre la privacidad y los derechos individuales. La AEPD ha llamado la atención sobre este equilibrio delicado, enfatizando la necesidad de cumplir con regulaciones estrictas, como el RGPD.

 

La Respuesta de La Liga (LFP)

Frente a las advertencias de la AEPD, La Liga ha defendido su uso de sistemas de reconocimiento facial, argumentando que su principal objetivo es garantizar la seguridad en los estadios.

La Liga sostiene que esta tecnología ayuda a identificar a individuos que puedan representar una amenaza, como aquellos con prohibiciones de acceso o implicados en actos violentos previos. Esta justificación se basa en la premisa de que la seguridad colectiva puede requerir medidas más robustas, aunque intrusivas.

Sin embargo, esta posición plantea un importante debate: ¿hasta dónde puede llegar una organización en la implementación de tecnologías de vigilancia bajo la premisa de la seguridad, sin vulnerar los derechos individuales de privacidad?

Y este debate afecta también a todas las empresas y organizaciones.

 

Implicaciones para las empresas

A falta de ver como se resuelve el contencioso entre La Liga y la AEPD, y a la espera de ver si La Liga es capaz de encontrar soporte jurídico para sus pretensiones, las empresas deben ser conscientes de que cualquier tecnología intrusiva, especialmente aquellas que procesan datos biométricos, requiere un análisis exhaustivo en términos de cumplimiento normativo, previo a su aplicación.

Es fundamental que las empresas evalúen no solo los beneficios de seguridad y eficiencia que estas tecnologías pueden ofrecer, sino también el impacto en la confianza y la privacidad de los individuos. Adoptar un enfoque transparente y responsable, alineado con las directrices de la AEPD y el RGPD, es esencial para evitar sanciones y preservar la reputación de la empresa.

 

Conclusión

La advertencia de la AEPD a La Liga por el uso de reconocimiento facial en estadios es un recordatorio oportuno para las empresas sobre la importancia de equilibrar la innovación tecnológica con el respeto a la privacidad y la normativa de protección de datos. Este caso subraya la necesidad de un manejo cuidadoso y ético de tecnologías potencialmente intrusivas, instando a las empresas a considerar no solo las ventajas operativas, sino también las implicaciones legales y sociales de su implementación.

Estamos a las puertas de una nueva edición del Mobile World Congress (MWC) a celebrar en Barcelona. El año pasado hicieron un uso intensivo del reconocimiento facial para la gestión del acceso de los visitantes. Veremos qué solución aplican este año.

Mientras tanto, ¡cuidaos mucho!

¿Fin del uso de la huella dactilar para el acceso al centro de trabajo?

La Agencia Española de Protección de Datos (AEPD) ha publicado recientemente una Guía sobre tratamientos de control de presencia mediante sistemas biométricos para el control de presencia y acceso a los puestos de trabajo. La Guía representa todo un reto para la adopción de sistemas de identificación biométrica, ya que la AEPD ha revisado sus criterios y aclarado los requisitos esenciales para el tratamiento de datos. Y no pone nada fácil.

Según el Reglamento General de Protección de Datos (RGPD), los datos biométricos se consideran una categoría especial de datos cuando se utilizan para identificar de manera única a una persona. La AEPD ha aclarado que estos datos solo se pueden procesar en circunstancias excepcionales, como con el consentimiento explícito de la persona o si es necesario para el cumplimiento de las leyes laborales o los derechos de protección social y hay una base legal para hacerlo.

La Guía indica que las disposiciones legales anteriores que se pensaba que legitimaban estos sistemas biométricos son insuficientes, ya que no mencionan expresamente el procesamiento de datos biométricos ni proporcionan las protecciones de privacidad necesarias para los empleados. Además, el consentimiento de los empleados tampoco se considera una base válida para la legitimación debido al desequilibrio de poder inherente entre empresarios y empleados.

La conclusión es que se convierte en extremadamente difícil, si no imposible, utilizar sistemas de identificación biométrica para estos propósitos en las empresas, sin una regulación específica europea o española o un acuerdo de negociación colectiva que proporcione normas claras y garantías.

Como alternativas a los controles biométricos, las soluciones podrían incluir métodos tradicionales como hojas de firma manuales, tarjetas clave electrónicas, códigos PIN o aplicaciones móviles que permiten registros basados en la ubicación. Estas alternativas se prevén menos invasivas para la privacidad, se alinean con el principio de minimización de datos del RGPD y aún cumplir con los requisitos operacionales del puesto de trabajo.

El impacto para las empresas de los nuevos criterios de la AEPD al reconocer la biometría como falta de legitimación para el tratamiento de datos es significativo. Las empresas deberán reconsiderar el uso de sistemas de control biométrico, ya que la Guía limita fuertemente estas prácticas. Sin una base legal específica, consentimiento explícito (muy complicado de utilizar en la práctica para el desequilibrio entre empresa y trabajador y tener que superar el juicio de idoneidad) o acuerdos colectivos con garantías adecuadas, las empresas no podrán utilizar datos biométricos para controles de presencia o acceso.

Todo ello puede requerir cambios operativos significativos y, como decíamos, la implementación de métodos alternativos de control de presencia que respeten la privacidad y la protección de datos de los empleados.  La Agencia, incluso, recomienda explorar opciones que ni sean tecnológicas como, por ejemplo, la utilización de recursos humanos. Vaya, poner un vigilante en la puerta, como se ha hecho toda la vida. En fin …

De ahora en adelante, no pongáis el dedo en ningún sitio y ¡cuidaos!

Nuevas «smart glasses» de Meta y Ray-Ban: tecnología que asusta

Meta ha anunciado en su evento Meta Connect 2023 sus nuevas gafas inteligentes en colaboración con Ray-Ban. Es la segunda generación de las Ray-Ban Meta Smart Glasses, que han sido diseñadas por EssilorLuxottica y se pondrán a la venta en EEUU el próximo 17 de octubre con un precio inicial de 299 dólares (no se sabe aún cuánto costarán en España).
 
La combinación de la experiencia de un gran fabricante de gafas como Ray-Ban con una plataforma tecnológica puntera ha dado a luz un producto tremendamente avanzado, con posibilidades muy bien infinitas y a un precio asequible.
 
Las especificaciones técnicas son, sencillamente, brutales. Cámara mejorada de 12 MP, emisión en directo en Instagram y Facebook, audio mejorado, llamadas y mensajes, comandos de voz, touchpad y botón de captura, estuche de carga y, naturalmente no podía faltar, Meta AI para encontrar la información en el momento preciso desde tus gafas. Dispone también de una App dedicada.
 
Y el diseño es Ray-Ban. Con eso lo decimos todo. Desde el estuche casi convencional (pero que almacena 8 cargas) hasta dos diseños icónicos: Wayfarer y Headliner, en diferentes colores. Son ligeras, a la moda y con más de 150 combinaciones de monturas y cristales. Y, naturalmente, se pueden graduar a petición.
 
Y, hasta aquí, la parte brillante de la noticia. Pero, como las monedas, todo tiene dos caras. Y el reverso es, como casi siempre, la privacidad. No olvidemos que estamos hablando de Meta, una compañía que se ha destacado siempre por tener un absoluto desprecio por los datos personales de sus usuarios.
 
Sólo hay que recordar el escándalo de Cambridge Analytica que desveló que la empresa accedió indebidamente a datos de millones de usuarios de Facebook para influir en las elecciones.
 
Y, desde la entrada en aplicación del RGPD en 2018, Meta ha enfrentado multas récord y litigios relacionados con la privacidad de los datos en varios países, incluidos Estados Unidos y los países miembros de la Unión Europea, debido a su gestión de la información del usuario. Estos han incluido problemas con el consentimiento del usuario y el compartir datos con terceros sin permiso explícito.
 
Otro problema importante que tiene Meta es el uso de datos del usuario para hacer publicidad dirigida, mediante, algoritmos para mostrar contenido y anuncios personalizados. Esta práctica ha levantado críticas en relación con la privacidad y la autonomía del usuario.
 
Tantas han sido las críticas y tanto el debate en los medios o en las redes que, finalmente, Facebook tuvo que cambiar su nombre corporativo a Meta.
 
Y, ahora, tras la iniciativa del Metaverso (que de momento no arranca), presenta la segunda generación de gafas inteligentes. Y, claro, lo primero que pensamos es en el horror de millones de usuarios recopilando datos, en todo momento y lugar, en foto, vídeo audio y subiéndolas en directo a las redes sociales.
 
Tendremos que ver la Política de Privacidad de Meta por este supuesto pero, permitidme no ser muy optimista, vista su trayectoria hasta ahora. Eso sí, las gafas son una «pasada» y quién sabe si tendrán éxito y pronto todos llevaremos gafas inteligentes con la misma naturalidad que llevamos reloj.
 
De momento, pero, cuidaos!

España, un paso adelante en la supervisión de la Inteligencia Artificial

En efecto, la Agencia Española de Inteligencia Artificial (AESIA) comenzará a funcionar en un plazo máximo de tres meses. A finales de agosto, el Consejo de Ministros aprobó el Estatuto de este organismo, que se adscribe al Ministerio de Asuntos Económicos y Transformación Digital. España se convierte así en el primer país europeo en tener un órgano de estas características. Pero empiezan por el principio.
 

¿Qué es la inteligencia artificial?

La inteligencia artificial (IA) es un subcampo de la informática que busca crear sistemas capaces de realizar tareas que requieren inteligencia humana. Estas tareas pueden incluir, pero no se limitan a, la comprensión del lenguaje natural, la percepción visual, la toma de decisiones, la resolución de problemas y el aprendizaje a partir de datos o experiencias anteriores.
 
La IA se basa en diferentes técnicas y teorías, incluyendo los algoritmos de búsqueda, la lógica, el reconocimiento de patrones, el aprendizaje automático, las redes neuronales, la robótica, entre otros.
 

¿Qué es la inteligencia artificial generativa?

Y como todo avanza a toda velocidad, ahora ya disponemos de IA generativa. La inteligencia artificial generativa se refiere a sistemas de IA que pueden generar contenido nuevo que no ha sido previamente visto. En lugar de simplemente analizar datos y extraer información (como lo haría un sistema de IA «discriminativo»), los sistemas generativos pueden crear datos que parecen nuevos y originales.
Esto hace que los problemas que plantea la IA se multipliquen.
 

¿Por qué necesitamos regular la IA?

Las razones son múltiples. Podemos citar unas cuantas como conductas de ética dudosa que afecten a la privacidad de los individuos, razones de seguridad si la IA se utiliza para atacar sistemas de ciberseguridad, opacidad de los algoritmos que esconde como se toman las decisiones, sesgo en la toma de decisiones que afecte a la igualdad de las personas, responsabilidad en caso de decisiones erróneas tomadas por la IA, estimular la innovación hacia direcciones positivas para la sociedad, hacer aportaciones decisivas en el campo económico y laboral si la IA está bien orientada, proteger al consumidor o, por último, para coordinar nuestra regulación con la de otros países, a la manera, por ejemplo, como se ha hecho con la protección de datos en Europa.
La clave es encontrar un equilibrio entre proteger la sociedad y los derechos individuales sin frenar la innovación y el desarrollo tecnológico.
 

¿Qué paso ha dado España?

El Gobierno ha explicado que esta estrategia incluye diferentes planes estratégicos, entre ellos la Estrategia Nacional de Inteligencia Artificial (ENIA) , que tiene como objetivo dar un marco de referencia para el desarrollo de una inteligencia artificial «inclusiva, sostenible y centrada en la ciudadanía».

 

La Estrategia forma parte del Plan de Recuperación, Transformación y Resiliencia (PRTR) , que pretende situar a España como país puntero en inteligencia artificial (IA). La AESIA se adscribe al Ministerio de Asuntos Económicos y Transformación Digital mediante la Secretaría de Estado de Digitalización e Inteligencia Artificial.

Con la creación de esta agencia, España se convierte en el primer país europeo que tiene un órgano de estas características y se anticipa a la entrada en vigor del Reglamento europeo de inteligencia artificial.

 

La figura del DPD en la aplicación de la IA

El Delegado de Protección de Datos, profesional que revisa el cumplimiento de la normativa de privacidad a las empresas y organismos, es la figura idónea para supervisar la utilización de la IA. Como dice la AEPD, «el DPD, incluso en los casos que no sea obligatorio, puede ser de gran utilidad en aquellas entidades que emplean soluciones basadas en IA y que tratan datos personales, o que desarrollan soluciones de IA que hacen uso de datos personales para el entrenamiento de los modelos. A tenerlo presente.
 

Conclusiones

El mundo de la IA, tanto apasionante como lleno de peligros e incertidumbres, ha irrumpido con fuerza en nuestra sociedad. Y todavía sólo hemos visto el principio. Si somos capaces de hacerla nuestra, minimizando las desventajas y potenciando las ventajas para todos, no por unos cuantos, estoy convencido de que estamos ante lo que los americanos dicen un «game changer». Muy disruptivo, quizás, incluso, superando la eclosión de Internet. Veremos.
 
Mientras tanto, ¡cuidaos!

¿Cómo gestionar las redes sociales de una persona que nos ha dejado?

La vida pasa y cada día pasa más deprisa. Y a medida que va pasando, vamos dejando, con mejor o peor fortuna, nuestra huella. Hasta ahora, esta huella era analógica pero, desde hace unos años, se ha añadido la huella digital. De forma silenciosa pero constante, cada día añadimos más información nuestra a Internet.

Qué es una Huella Digital ya lo explicamos tiempo atrás cuando nos preguntábamos ¿Qué sabe Internet de ti? Podemos definir la Huella como el conjunto de datos y contenidos personales que compartimos en Internet, en particular en las redes sociales. Y la pregunta que nos hacemos hoy es qué pasa con esta información cuando una persona nos deja.

La muerte de un ser querido es siempre un momento difícil. Y gestionar su presencia digital puede parecer un detalle insignificante pero, es un paso importante para honrar su memoria. Escribimos estas notas a raíz de la petición del hijo de un cliente para que diéramos de baja la cuenta de su padre en Linkedin. ¿Por qué es importante eliminar una cuenta de Linkedin de una personal que nos ha dejado? ¿Y cómo lo hacemos? Continúa leyendo y encontrarás las respuestas.

¿Por qué eliminar la cuenta es importante?

Eliminar la cuenta de una persona muerta en Linkedin es importante porque puede ayudar a prevenir el robo de identidad y proteger la privacidad de la persona fallecida y de sus contactos. Además, puede ayudar a evitar que se envíen mensajes no deseados o se realicen publicaciones en nombre de la persona fallecida. Y, por supuesto, evitaremos que nos llegue un recordatorio anual de su cumpleaños, con el dolor adicional que puede suponer para familia y amigos.

Por último, es importante también desde el punto de vista de empresa para que puede provocar confusión si el finado no contesta a las solicitudes de otros miembros de Linkedin.

Pasos a seguir para eliminar la cuenta de Linkedin de una persona fallecida

  1. Visita la página de Ayuda de LinkedIn y busca «Cerrar la cuenta de un ser querido fallecido».
  2. Rellena el formulario de verificación de defunción, proporcionando toda la información necesaria, como tu relación con el finado (testamento, libro de familia, etc.) y una copia del obituario o certificado de defunción.
  3. Envía el formulario y espera que el equipo de LinkedIn revise tu solicitud. Esto puede tardar algunas semanas, pero una vez se aprueba, la cuenta se cerrará.

    Es posible que Linkedin nos pida información adicional y hay que tener en cuenta que el procedimiento es irreversible.

Alternativas

Linkedin ofrece también la posibilidad de convertir la cuenta estándar en una cuenta «in memoriam«. Este tipo de cuenta permite a los contactos del finado compartir recuerdos y homenajes en su perfil.

Conclusión

Cerrar la cuenta de Linkedin es importante pero es una de las cosas que hay que hacer cuando nos deja una persona estimada. Pero no es la única. Además de las redes sociales, hay muchos otros sitios en Internet donde puede haber contenidos que hagan referencia al finado. Quizá alguno indeseable pero también muchos interesantes y que habrá que preservar.

Nuestra recomendación es solicitar un Informe de Huella Digital, a partir del cual poder repasar todas las apariciones y actuar en consecuencia en cada caso.

¡Como siempre, cuidaos y cuidad de los vuestros, incluso de los que nos faltan!

¿Fin de las llamadas comerciales no deseadas?

Todos estamos cansados de recibir llamadas no deseadas, muchas a horas intempestivas, ofreciéndonos todo tipo de servicios, ofertas o propuestas de los más diverso. En efecto, a las ya conocidas llamadas de los operadores de telefonía que nos ofrecen la tarifa definitiva con toda clase de regalos y descuentos, hasta ONG’s que reclaman ayudas para sus propósitos, pasando por todo tipo de empresas haciendo una acción comercial desagradable para todos, con una más que discutida rentabilidad. Y ahora, en campaña, también si añaden los partidos políticos de forma más o menos disfrazada.
 
Pues bien, parece que esta práctica comercial puede estar en camino de desaparecer. En efecto, el pasado 30 de junio de 2022 entró en vigor la Ley 11/2022 General de Telecomunicaciones, excepto el artículo 66.1.b) por el que se estableció una moratoria de un año para su entrada en vigor. Y el año se cumplió ayer. Y la AEPD ha publicado una Circular que lo explica.

Consentimiento

El artículo se refiere, precisamente, al derecho de no recibir llamadas comerciales no deseadas. A partir de ahora, los usuarios tendremos derecho s no recibir este tipo de llamadas, salvo que exista consentimiento por nuestra parte o que la comunicación se pueda amparar en otra base de legitimación del artículo 6.1 del Reglamento (UE) 2016/679, es decir, el RGPD.
 
Y como es natural este consentimiento ah de cumplir todas las exigencias que recoge el Reglamento.
 

Interés legítimo

El caso más frecuente de utilización de esta base de legitimación por la empresa, es que haya una relación contractual previa, si el responsable obtuvo los datos de forma lícita y los utiliza por comunicaciones comerciales referentes a productos o servicios de su empresa que sean similares a los que inicialmente fueron objeto de contratación por parte del cliente.

Medidas previas

Será necesario que las empresas consulten previamente los sistemas de exclusión publicitaria, conforme al artículo 23 de la LOPDGDD. El más conocido es la inscripción en el Servicio Lista Robinson. Es gratuito y muy sencillo de usar. La AEPD ofrece en su web varias maneras de restringir la publicidad no deseada.
 
Las empresas también deberán adoptar garantías adicionales como son la información sobre la identidad del empresario, indicar la finalidad comercial de la llamada e informar sobre la posibilidad de revocar el consentimiento o ejercer el derecho de oposición a recibir llamadas.
 
Las llamadas deberán grabarse para demostrar el cumplimiento de la normativa sobre protección de datos.

Las sanciones

El encargado de hacer cumplir la norma es la AEPD que podrá imponer sanciones hasta 100.000€ por las faltas leves, y de hasta 20M€ en los casos de infracciones muy graves. Conclusiones Quizás estemos muy cerca de resolver una situación muy injusta para los usuarios y que hace masas años que dura. El abuso y la impunidad de que han hecho gala muchas empresas, tecnológicas, seguros, bancarios, etc, había llegado a un punto de hacerse, muchas veces, insoportable. Seguiremos de cerca la evolución de la aplicación de la norma y, en especial, en cuanto a las sanciones.
 
Desde hoy, la vida es un poco más fácil para los usuarios. ¡Recordad, cuidémonos!

ChatGPT: Ángel o Demonio

Así se titulaba la sesión de ayer de El Mirador Indiscret, unas sesiones de debate que periódicamente organiza el Col·legi del Màrqueting i la Comunicació de Cataluña sobre temas de actualidad e interés para los colegiados.

Y la de ayer no podía ser más oportuna ni de más interés. Oportuna porque ChatGPT es, sin duda, la tecnología del momento de la que todo el mundo habla. Sólo viendo la velocidad en la tasa de adopción (mes de 100 millones de usuarios en dos meses) nos podemos hacer la idea. Y de interés, más que nunca, por toda la profesión: creativos, copys, directores de arte, … por las implicaciones que tendrá en su trabajo.

Viendo la inversión de Microsoft y la incorporación de ChatGPT en su buscador Bing podemos pensar que esto no ha hecho más que empezar. Y de la importancia que tiene, Gerard Oliveras puso dos ejemplos muy recientes.

El primero, el pánico de Google cuando Microsoft anunció la incorporación que fue épico. De repente, la todopoderosa Google recibía una sacudida de dimensiones difíciles de evaluar aún en su «core business», el buscador. Ahora parece más interesante buscar a Bing con ChatGPT que en Google. Y nadie lo vio venir.

Y la segundo, la intensa aplicación de la inteligencia artificial a sus procesos de negocio por parte de Shein, la distribuidora textil, que le proporciona una ventaja competitiva frente a Inditex, H&M y otros competidores. El time to market resulta ser mucho más competitivo, tanto en tiempo como en diseño. Su app fue la más descargada en compras en Estados Unidos el año pasado. A tener en cuenta.

Y, claro, después de glosa las maravillas de la herramienta, y sin querer desinflar el soufflé, era necesario tocar el tema de la protección de datos. Para ello, Gina Tost (Secretaría de Políticas Digitales de la Generalitat) se encargó, desde el punto de vista de la Administración, de valorar la irrupción de estas tecnologías, las amenazas que se prevén, los derechos y deberes digitales afectados y, naturalmente, de la importancia del marco regulador y cómo se está trabajando en este sentido.

Y en este sentido, debemos señalar que el bien jurñidico a proteger es la Privacidad Digital. Es el derecho que tenemos a los usuarios de proteger nuestros datos en internet y decidir qué información pueden ver los demás, qué información pueden utilizar y con qué finalidad y cómo ejercer nuestros derechos. Es una expectativa legítima que tenemos como individuos de poder administrar nuestra «huella digital«, entendida como la avalancha de datos personales que generamos cada día y que, en definitiva, determinan nuestra reputación digital.

Como decíamos al principio, esto no ha hecho más que empezar. ChatGPT no es, ni mucho menos, la única herramienta de inteligencia artificial a nuestro alcance. Ahora mismo las podemos contar por centenares, con todas las derivaciones imaginables. Incluso, ya aparecen trabajos tan específicos como el de «prompt engineer«, aquel profesional que desarrolla y optimiza la comunicación con los algoritmos para obtener el mejor resultado.

Frente a este tsunami tecnológico que se nos viene encima, la normativa de protección de datos es el instrumento a nuestro alcance para mantener la soberanía de nuestros datos. Tenemos que tener el control porque, de otro modo, habrá que repensar si el viaje vale la pena.

Como siempre, cuidad vuestros datos y cuidaos!

«Sentir el control». Es todo lo que se pide.

Según el último Informe que la empresa de investigación de mercados Ipsos ha hecho por Google, «Privacidad desde el diseño: los beneficios de dar el control a la gente«, las empresas que basan sus negocios en la explotación de los datos personales de los usuarios empiezan a valorar la aplicación de políticas de protección de datos que permita a los usuarios tener la percepción de que sus datos personales serán tratados de forma adecuada.

Los usuarios prefieren ver anuncios relevantes y útiles y están abiertos a compartir sus datos con las marcas, pero quieren sentir el control de cuándo lo hacen. Mejorar la sensación de control que la gente tiene sobre sus datos es una manera poderosa para que las marcas generen confianza, aumenten la eficacia del marketing y obtengan mejores resultados.

Principales conclusiones del Informe

  1. Proporcionar una experiencia de privacidad positiva puede aumentar la cuota de preferencias de marca en un 49%.
    Tras una experiencia de privacidad positiva con su marca de segunda elección, el 49% de las personas dijeron que cambiarían de su marca preferida a la segunda marca.
  2. Equivocarse en la experiencia de privacidad tiene un impacto negativo tanto en la confianza como en las preferencias de marca.
    Para muchos de los participantes en el estudio, las experiencias de privacidad que no tenían transparencia o que no proporcionaban conocimiento y/o autonomía al cliente eran muy perjudiciales, tanto para la confianza de la marca como para las preferencias de los participantes.
  3. Hay poderosas prácticas de privacidad que las marcas pueden desplegar para aumentar las sensaciones de control, y las combinaciones más efectivas tienen un impacto positivo notable en algo más que los sentimientos de control.
    Para obtener el mayor impacto positivo en las sensaciones de control, las marcas deberían desplegar una combinación probada de prácticas que creen experiencias de privacidad Significativas, Memorables y Manejables.

El estudio sugiere que las marcas que pueden ofrecer estas experiencias verán, con el paso del tiempo, un efecto bola de nieve positivo: la gente sentirá que tiene el control, lo que aumenta la confianza de la marca y aumenta las preferencias de la marca. Las marcas que descuiden la privacidad corren el riesgo del escenario contrario. El camino hacia el éxito es claro: adoptar prácticas basadas en las tres características mencionadas (Significativas, Memorables y Manejables) para dar a las personas una sensación de control y mejorar la eficacia del marketing.

“Sentir” el control

Para los usuarios, «sentir» el control es algo más que tener el control. Las herramientas de privacidad que permiten a las personas cambiar sus preferencias de cookies y darse de baja del marketing por correo electrónico pueden ayudarles a mantener control de sus datos. Pero estas herramientas no son suficientes para proporcionar a los clientes la sensación más sustancial de control que necesitan para confiar en una marca. Los clientes también quieren saber cuándo y por qué comparten su información y entender las ventajas que recibirán de hacerlo.

Para concluir, diremos que las marcas tienen que hacer un esfuerzo para que el cliente tenga la percepción de que tiene el control sobre su privacidad y que, naturalmente, lo tenga. Si sabemos qué datos compartimos y cómo nos beneficia a nosotros hacerlo, la empresa tiene que ser leal con nosotros. A cambio, tendrá nuestra confianza, lo que se traducirá, a buen seguro, en mejores ventas.

¡Y, como siempre, cuidaos!

Revisión Textos Legales Web