Derechos digitales de los menores y marketing responsable

En un mundo cada vez más digitalizado, el marketing dirigido a menores ha cobrado una relevancia significativa, pues la tecnología está al alcance de las personas cada vez a una edad más temprana. Por ello, se ha manifestado la necesidad de implementar regulaciones estrictas y estrategias responsables para proteger a este grupo vulnerable. Las nuevas normativas y prácticas buscan equilibrar la influencia del marketing digital mientras se asegura el bienestar y la seguridad de los menores.

Regulaciones recientes en marketing dirigido a menores

La Unión Europea ha sido pionera en establecer regulaciones que protegen a los menores en el entorno digital. La Ley de Servicios Digitales (DSA, por sus siglas en inglés) es un ejemplo clave, ya que prohíbe la publicidad basada en perfiles para menores y obliga a las plataformas en línea a evaluar los riesgos sistémicos que puedan afectar los derechos y el bienestar mental de los niños.

Por otro lado, en España, se ha aprobado justamente este año el Real Decreto de «Usuarios de Especial Relevancia», que obliga a los influencers a etiquetar contenido por edades y prohíbe la promoción de productos como tabaco o alcohol, asegurando que no se cause daño psicológico o físico a los menores.

Estrategias de marketing responsable

1. Transparencia y veracidad

La ética en la publicidad exige que las marcas sean transparentes y veraces en sus comunicaciones. Esto implica presentar información precisa sobre productos y servicios, evitando afirmaciones engañosas que puedan erosionar la confianza del consumidor. Las campañas deben ser claras sobre su naturaleza publicitaria, especialmente cuando se dirigen a menores.

2. Inclusión y diversidad

Las estrategias de marketing responsable también promueven la inclusión y diversidad. Por ello, es fundamental que las campañas reflejen una variedad de culturas y contextos para que todos los niños se sientan representados. Esto no solo mejora la percepción de marca, sino que también fomenta un entorno más inclusivo.

3. Uso ético de influencers

El uso de influencers infantiles requiere un enfoque ético. Las marcas deben asegurarse de que estos influencers promuevan productos adecuados para su audiencia y cumplan con las regulaciones pertinentes. Además, deben evitar cualquier contenido que pueda explotar la inexperiencia o credulidad de los menores.

4. Contenido educativo y entretenido

El contenido dirigido a menores debe ser tanto educativo como entretenido. Las campañas efectivas utilizan elementos lúdicos para captar la atención mientras transmiten mensajes positivos o educativos. Esto no solo ayuda a mantener el interés del niño, sino que también contribuye al desarrollo cognitivo.

Retos actuales

A pesar de las regulaciones y estrategias responsables, existen desafíos significativos:

  • Adaptación tecnológica: La rápida evolución tecnológica requiere una constante actualización de las normativas para abordar nuevas formas de publicidad digital.
  • Cumplimiento global: Las diferencias entre las legislaciones nacionales e internacionales complican el cumplimiento uniforme por parte de las empresas globales.
  • Equilibrio entre creatividad y regulación: Las marcas deben encontrar un equilibrio entre ser creativas e innovadoras en sus campañas mientras cumplen con las regulaciones estrictas.

Conclusión

El marketing dirigido a menores es un campo delicado que requiere una atención meticulosa tanto desde el punto de vista legal como ético. Las recientes regulaciones buscan proteger a los menores mientras permiten que las marcas continúen interactuando con este público de manera responsable. A medida que avanza la tecnología, será crucial que las empresas sigan adaptándose para garantizar prácticas publicitarias seguras y efectivas. Al hacerlo, no solo cumplirán con las normativas vigentes, sino que también contribuirán al desarrollo positivo del entorno digital para las generaciones futuras.

Como siempre, cuidad los datos y ¡cuidaos!

La protección de datos personales y la publicidad dirigida: el fallo del TJUE contra Meta

El passat 4 d’octubre, el Tribunal de Justícia de la Unió Europea (TJUE) va fallar a favor de l’activista austríac Max Schrems en la seva disputa legal actual contra Meta Platforms, la companyia de Facebook (Assumpte C-446/21, Schrems v. Meta). Schrems havia interposat una demanda en un tribunal d’Àustria, argumentant que Meta havia dirigit anuncis basats en la seva orientació sexual a través de publicitat personalitzada, processant així les seves dades personals.

Aquest dictamen resulta rellevant quant als límits del tractament de dades personals per part de les xarxes socials, específicament en l’ àmbit de la publicitat personalitzada. Aquest veredicte no només reforça la importància de la protecció de la privacitat en l’entorn digital, sinó que també delimita clarament com les plataformes han de gestionar les dades dels seus usuaris.

Si bé és cert que Schrems mostra de forma pública la seva orientació sexual, això no legitima a Facebook l’utilitzar aquesta informació, juntament amb altres dades, per dirigir-li anuncis personalitzats. És important que reflexionem sobre els límits d’ús de les nostres dades. En aquesta era de digitalització, les dades—les nostres dades—circulen a velocitat vertiginosa. Tot i ser una cosa intangible, no podem oblidar que la seva transportabilitat és una característica ideal perquè les empreses comercialitzin amb ells. Evidentment, hem d’establir límits clars per protegir la nostra intimitat.

En el cas de Schrems, Meta s’ha justificat al·legant que els usuaris comparteixen informació sobre si mateixos en diverses plataformes i que això permet a l’empresa generar perfils detallats per oferir publicitat més rellevant. No obstant, Schrems mai havia compartit directament dades sobre la seva orientació sexual a Facebook, per la qual cosa els anuncis que rebia no estaven basats en informació publicada explícitament en el seu perfil, sinó en l ‘anàlisi dels seus interessos. Aquí és important destacar que Meta recull les dades personals dels usuaris de Facebook referides a les seves activitats tant en aquesta xarxa social com fora d’ella, com pàgines d’Internet i d’aplicacions de tercers.

Els límits del tractament de dades

Cal recordar que, segons el principi de minimització de dades, el tractament de les dades personals dels usuaris ha de ser mínim (art. 5.1.c) RGPD). L’ aplicació d’ aquest principi, per tant, hauria de restringir l’ ús de dades personals per oferir publicitat personalitzada. Tanmateix, Meta i moltes altres empreses es limiten a ignorar aquest precepte… ¿Vol dir això que les nostres dades personals es poden utilitzar de forma indefinida amb finalitats publicitàries? Després d’aquesta sentència, només una part de les dades emmagatzemades per les empreses podran utilitzar-se amb finalitats publicitàries, fins i tot quan els usuaris donin el seu consentiment.

El Tribunal ha subratllat la necessitat de les empreses de diferenciar entre els diferents tipus de dades i respectar la sensibilitat i el consentiment dels usuaris en tractar informació personal.

Amb aquesta sentència, el TJUE reafirma el seu compromís amb la protecció dels drets dels ciutadans europeus davant els gegants tecnològics, en particular amb relació a la publicitat dirigida. Les plataformes digitals hauran de reconsiderar com manegen l’agregació de dades dels usuaris, i com aquestes dades poden ser utilitzades per personalitzar els anuncis sense violar els drets de privacitat.

Conclusió

La sentència del TJUE contra Meta és una fita en la defensa de la privacitat de les dades en el món digital. En un entorn on cada vegada més informació personal és recopilada i processada, aquesta decisió destaca la necessitat de garantir que les empreses tecnològiques respectin els drets dels usuaris, fins i tot quan aquestes comparteixen certes dades públicament. Les xarxes socials i altres plataformes s’ han d’ alinear amb els principis establerts pel RGPD i assegurar-se que el tractament de dades sigui transparent, proporcionat i, sobretot, respectuós amb els drets fonamentals de les persones.

Com sempre, cuideu les dades i ¡cuideu-vos!

Más allà del “Cosmetic compliance”

En el ámbito empresarial, cumplir con las normativas y regulaciones es fundamental no solo para evitar sanciones, sino también para construir una reputación sólida y confiable. Sin embargo, existe un fenómeno preocupante conocido como «cosmetic compliance» o «cumplimiento cosmético«, que se refiere a prácticas superficiales destinadas a aparentar conformidad con las leyes y regulaciones sin realmente adherirse a ellas. Este concepto, prestado de los programas de Compliance Penal, es especialmente relevante también en el área de protección de datos, donde el cumplimiento efectivo es crucial para proteger la privacidad y la seguridad de la información personal.

En el contexto de la protección de datos, el «cosmetic compliance» puede manifestarse de varias formas. Por ejemplo, una empresa puede diseñar políticas de privacidad detalladas y completas, pero si no se implementan de manera efectiva o si los empleados no están adecuadamente capacitados para seguir estas políticas, la conformidad es solo superficial.

Otra manifestación de esta práctica es la utilización de tecnologías avanzadas para la protección de datos, sin configurar correctamente estas herramientas o sin integrarlas adecuadamente en los procesos operativos de la empresa. Esto puede crear una falsa sensación de seguridad tanto para la empresa como para los clientes, cuando en realidad los datos pueden estar en riesgo.

Cómo detectar el “Cosmetic Compliance» en Protección de Datos

Textos Legales Web “copiados y pegados”

Uno de los ejemplos más comunes de «cosmetic compliance» es el uso de textos legales copiados y pegados de otras fuentes. Muchas empresas copian políticas de privacidad, términos y condiciones, o avisos legales de otras páginas web sin adaptar estos documentos a su propia realidad operativa y regulatoria. Esto no solo es una infracción de derechos de autor, sino que también puede llevar a un incumplimiento real, ya que estos textos pueden no reflejar las prácticas y necesidades específicas de la empresa.

Política de Cookies Irreal

Otra práctica común es la implementación de políticas de cookies que no reflejan la realidad de las cookies que se instalan en el navegador del cliente. Algunas empresas publican políticas detalladas sobre el uso de cookies, pero en la práctica instalan más cookies de las declaradas, o cookies con fines diferentes a los anunciados.

Falta de Firma de Acuerdos de Confidencialidad o de Contratos de Encargado de Tratamiento

La ausencia de acuerdos de confidencialidad o contratos de encargado de tratamiento adecuados es otra señal de «cosmetic compliance». Las empresas deben asegurar que cualquier tercero que maneje datos personales en su nombre (como proveedores de servicios) esté legalmente obligado a proteger esa información, sin excepción. La falta de estos acuerdos puede poner en riesgo la seguridad de los datos y contravenir las normativas de protección de datos.

Falta de Implementación de Medidas de Seguridad Efectivas

La adquisición de herramientas avanzadas de seguridad sin una integración adecuada en los procesos operativos es otro indicio. Si una empresa invierte en tecnología de protección de datos, pero no configura estas herramientas correctamente o no las utiliza de manera coherente con sus políticas, está simplemente aparentando cumplimiento.

Auditorías Internas Inadecuadas

Las auditorías internas que son infrecuentes, superficiales o realizadas por personal no cualificado pueden ser un signo de «cosmetic compliance». Las auditorías efectivas deben ser exhaustivas y llevadas a cabo por profesionales capacitados que puedan identificar y corregir deficiencias en las prácticas de protección de datos.

Conclusión

El «cosmetic compliance» es una práctica que puede tener graves consecuencias para las empresas, tanto en términos de sanciones económicas como de pérdida de confianza de los clientes, entre otras.

Es muy importante que la empresa implante una cultura interna de cumplimiento, no solo en lo que se refiere a privacidad, sino también en las otras áreas de responsabilidad. Esto requiere tener una estrategia y, desde la responsabilidad proactiva y partiendo de los principios del RGPD de protección desde el diseño y por defecto, la protección de datos se prepare antes de iniciar las actividades y que el tratamiento esté configurado para utilizar únicamente los datos personales estrictamente necesarios.

Y la dirección debe implicar a toda la empresa en el cumplimiento.

Y, como siempre, cuidad los datos y ¡cuidaos!

La Liga (LFP) bajo Vigilancia

En una era donde la tecnología se entrelaza cada vez más con la vida cotidiana, la privacidad de los datos se ha convertido en un tema de discusión fundamental. Recientemente, la Agencia Española de Protección de Datos (AEPD) ha puesto el foco en La Liga de Fútbol Profesional (LFP) por el uso de sistemas de reconocimiento facial en los estadios. Este aviso no solo resalta los desafíos que enfrentan las grandes organizaciones, sino que también envía un mensaje crucial a las empresas en general sobre la importancia de navegar con cuidado en el complejo mundo de la biometría y la protección de datos.

De hecho, ya nos referimos al tema semanas atrás cuando la AEDP publicó la  Guía sobre tratamientos de control de presencia mediante sistemas biométricos para el control de presencia y acceso a los puestos de trabajo. La publicación supuso un importante cambio de postura de la Agencia respecto al uso de la biometría en el acceso y el control laboral.

 

Reconocimiento Facial y Privacidad

El reconocimiento facial, una forma de biometría, se ha utilizado cada vez más para mejorar la seguridad en lugares públicos, incluyendo estadios deportivos. Aunque estas tecnologías ofrecen beneficios significativos en términos de seguridad, también generan preocupaciones considerables sobre la privacidad y los derechos individuales. La AEPD ha llamado la atención sobre este equilibrio delicado, enfatizando la necesidad de cumplir con regulaciones estrictas, como el RGPD.

 

La Respuesta de La Liga (LFP)

Frente a las advertencias de la AEPD, La Liga ha defendido su uso de sistemas de reconocimiento facial, argumentando que su principal objetivo es garantizar la seguridad en los estadios.

La Liga sostiene que esta tecnología ayuda a identificar a individuos que puedan representar una amenaza, como aquellos con prohibiciones de acceso o implicados en actos violentos previos. Esta justificación se basa en la premisa de que la seguridad colectiva puede requerir medidas más robustas, aunque intrusivas.

Sin embargo, esta posición plantea un importante debate: ¿hasta dónde puede llegar una organización en la implementación de tecnologías de vigilancia bajo la premisa de la seguridad, sin vulnerar los derechos individuales de privacidad?

Y este debate afecta también a todas las empresas y organizaciones.

 

Implicaciones para las empresas

A falta de ver como se resuelve el contencioso entre La Liga y la AEPD, y a la espera de ver si La Liga es capaz de encontrar soporte jurídico para sus pretensiones, las empresas deben ser conscientes de que cualquier tecnología intrusiva, especialmente aquellas que procesan datos biométricos, requiere un análisis exhaustivo en términos de cumplimiento normativo, previo a su aplicación.

Es fundamental que las empresas evalúen no solo los beneficios de seguridad y eficiencia que estas tecnologías pueden ofrecer, sino también el impacto en la confianza y la privacidad de los individuos. Adoptar un enfoque transparente y responsable, alineado con las directrices de la AEPD y el RGPD, es esencial para evitar sanciones y preservar la reputación de la empresa.

 

Conclusión

La advertencia de la AEPD a La Liga por el uso de reconocimiento facial en estadios es un recordatorio oportuno para las empresas sobre la importancia de equilibrar la innovación tecnológica con el respeto a la privacidad y la normativa de protección de datos. Este caso subraya la necesidad de un manejo cuidadoso y ético de tecnologías potencialmente intrusivas, instando a las empresas a considerar no solo las ventajas operativas, sino también las implicaciones legales y sociales de su implementación.

Estamos a las puertas de una nueva edición del Mobile World Congress (MWC) a celebrar en Barcelona. El año pasado hicieron un uso intensivo del reconocimiento facial para la gestión del acceso de los visitantes. Veremos qué solución aplican este año.

Mientras tanto, ¡cuidaos mucho!

¿Fin del uso de la huella dactilar para el acceso al centro de trabajo?

La Agencia Española de Protección de Datos (AEPD) ha publicado recientemente una Guía sobre tratamientos de control de presencia mediante sistemas biométricos para el control de presencia y acceso a los puestos de trabajo. La Guía representa todo un reto para la adopción de sistemas de identificación biométrica, ya que la AEPD ha revisado sus criterios y aclarado los requisitos esenciales para el tratamiento de datos. Y no pone nada fácil.

Según el Reglamento General de Protección de Datos (RGPD), los datos biométricos se consideran una categoría especial de datos cuando se utilizan para identificar de manera única a una persona. La AEPD ha aclarado que estos datos solo se pueden procesar en circunstancias excepcionales, como con el consentimiento explícito de la persona o si es necesario para el cumplimiento de las leyes laborales o los derechos de protección social y hay una base legal para hacerlo.

La Guía indica que las disposiciones legales anteriores que se pensaba que legitimaban estos sistemas biométricos son insuficientes, ya que no mencionan expresamente el procesamiento de datos biométricos ni proporcionan las protecciones de privacidad necesarias para los empleados. Además, el consentimiento de los empleados tampoco se considera una base válida para la legitimación debido al desequilibrio de poder inherente entre empresarios y empleados.

La conclusión es que se convierte en extremadamente difícil, si no imposible, utilizar sistemas de identificación biométrica para estos propósitos en las empresas, sin una regulación específica europea o española o un acuerdo de negociación colectiva que proporcione normas claras y garantías.

Como alternativas a los controles biométricos, las soluciones podrían incluir métodos tradicionales como hojas de firma manuales, tarjetas clave electrónicas, códigos PIN o aplicaciones móviles que permiten registros basados en la ubicación. Estas alternativas se prevén menos invasivas para la privacidad, se alinean con el principio de minimización de datos del RGPD y aún cumplir con los requisitos operacionales del puesto de trabajo.

El impacto para las empresas de los nuevos criterios de la AEPD al reconocer la biometría como falta de legitimación para el tratamiento de datos es significativo. Las empresas deberán reconsiderar el uso de sistemas de control biométrico, ya que la Guía limita fuertemente estas prácticas. Sin una base legal específica, consentimiento explícito (muy complicado de utilizar en la práctica para el desequilibrio entre empresa y trabajador y tener que superar el juicio de idoneidad) o acuerdos colectivos con garantías adecuadas, las empresas no podrán utilizar datos biométricos para controles de presencia o acceso.

Todo ello puede requerir cambios operativos significativos y, como decíamos, la implementación de métodos alternativos de control de presencia que respeten la privacidad y la protección de datos de los empleados.  La Agencia, incluso, recomienda explorar opciones que ni sean tecnológicas como, por ejemplo, la utilización de recursos humanos. Vaya, poner un vigilante en la puerta, como se ha hecho toda la vida. En fin …

De ahora en adelante, no pongáis el dedo en ningún sitio y ¡cuidaos!

Nuevas «smart glasses» de Meta y Ray-Ban: tecnología que asusta

Meta ha anunciado en su evento Meta Connect 2023 sus nuevas gafas inteligentes en colaboración con Ray-Ban. Es la segunda generación de las Ray-Ban Meta Smart Glasses, que han sido diseñadas por EssilorLuxottica y se pondrán a la venta en EEUU el próximo 17 de octubre con un precio inicial de 299 dólares (no se sabe aún cuánto costarán en España).
 
La combinación de la experiencia de un gran fabricante de gafas como Ray-Ban con una plataforma tecnológica puntera ha dado a luz un producto tremendamente avanzado, con posibilidades muy bien infinitas y a un precio asequible.
 
Las especificaciones técnicas son, sencillamente, brutales. Cámara mejorada de 12 MP, emisión en directo en Instagram y Facebook, audio mejorado, llamadas y mensajes, comandos de voz, touchpad y botón de captura, estuche de carga y, naturalmente no podía faltar, Meta AI para encontrar la información en el momento preciso desde tus gafas. Dispone también de una App dedicada.
 
Y el diseño es Ray-Ban. Con eso lo decimos todo. Desde el estuche casi convencional (pero que almacena 8 cargas) hasta dos diseños icónicos: Wayfarer y Headliner, en diferentes colores. Son ligeras, a la moda y con más de 150 combinaciones de monturas y cristales. Y, naturalmente, se pueden graduar a petición.
 
Y, hasta aquí, la parte brillante de la noticia. Pero, como las monedas, todo tiene dos caras. Y el reverso es, como casi siempre, la privacidad. No olvidemos que estamos hablando de Meta, una compañía que se ha destacado siempre por tener un absoluto desprecio por los datos personales de sus usuarios.
 
Sólo hay que recordar el escándalo de Cambridge Analytica que desveló que la empresa accedió indebidamente a datos de millones de usuarios de Facebook para influir en las elecciones.
 
Y, desde la entrada en aplicación del RGPD en 2018, Meta ha enfrentado multas récord y litigios relacionados con la privacidad de los datos en varios países, incluidos Estados Unidos y los países miembros de la Unión Europea, debido a su gestión de la información del usuario. Estos han incluido problemas con el consentimiento del usuario y el compartir datos con terceros sin permiso explícito.
 
Otro problema importante que tiene Meta es el uso de datos del usuario para hacer publicidad dirigida, mediante, algoritmos para mostrar contenido y anuncios personalizados. Esta práctica ha levantado críticas en relación con la privacidad y la autonomía del usuario.
 
Tantas han sido las críticas y tanto el debate en los medios o en las redes que, finalmente, Facebook tuvo que cambiar su nombre corporativo a Meta.
 
Y, ahora, tras la iniciativa del Metaverso (que de momento no arranca), presenta la segunda generación de gafas inteligentes. Y, claro, lo primero que pensamos es en el horror de millones de usuarios recopilando datos, en todo momento y lugar, en foto, vídeo audio y subiéndolas en directo a las redes sociales.
 
Tendremos que ver la Política de Privacidad de Meta por este supuesto pero, permitidme no ser muy optimista, vista su trayectoria hasta ahora. Eso sí, las gafas son una «pasada» y quién sabe si tendrán éxito y pronto todos llevaremos gafas inteligentes con la misma naturalidad que llevamos reloj.
 
De momento, pero, cuidaos!

España, un paso adelante en la supervisión de la Inteligencia Artificial

En efecto, la Agencia Española de Inteligencia Artificial (AESIA) comenzará a funcionar en un plazo máximo de tres meses. A finales de agosto, el Consejo de Ministros aprobó el Estatuto de este organismo, que se adscribe al Ministerio de Asuntos Económicos y Transformación Digital. España se convierte así en el primer país europeo en tener un órgano de estas características. Pero empiezan por el principio.
 

¿Qué es la inteligencia artificial?

La inteligencia artificial (IA) es un subcampo de la informática que busca crear sistemas capaces de realizar tareas que requieren inteligencia humana. Estas tareas pueden incluir, pero no se limitan a, la comprensión del lenguaje natural, la percepción visual, la toma de decisiones, la resolución de problemas y el aprendizaje a partir de datos o experiencias anteriores.
 
La IA se basa en diferentes técnicas y teorías, incluyendo los algoritmos de búsqueda, la lógica, el reconocimiento de patrones, el aprendizaje automático, las redes neuronales, la robótica, entre otros.
 

¿Qué es la inteligencia artificial generativa?

Y como todo avanza a toda velocidad, ahora ya disponemos de IA generativa. La inteligencia artificial generativa se refiere a sistemas de IA que pueden generar contenido nuevo que no ha sido previamente visto. En lugar de simplemente analizar datos y extraer información (como lo haría un sistema de IA «discriminativo»), los sistemas generativos pueden crear datos que parecen nuevos y originales.
Esto hace que los problemas que plantea la IA se multipliquen.
 

¿Por qué necesitamos regular la IA?

Las razones son múltiples. Podemos citar unas cuantas como conductas de ética dudosa que afecten a la privacidad de los individuos, razones de seguridad si la IA se utiliza para atacar sistemas de ciberseguridad, opacidad de los algoritmos que esconde como se toman las decisiones, sesgo en la toma de decisiones que afecte a la igualdad de las personas, responsabilidad en caso de decisiones erróneas tomadas por la IA, estimular la innovación hacia direcciones positivas para la sociedad, hacer aportaciones decisivas en el campo económico y laboral si la IA está bien orientada, proteger al consumidor o, por último, para coordinar nuestra regulación con la de otros países, a la manera, por ejemplo, como se ha hecho con la protección de datos en Europa.
La clave es encontrar un equilibrio entre proteger la sociedad y los derechos individuales sin frenar la innovación y el desarrollo tecnológico.
 

¿Qué paso ha dado España?

El Gobierno ha explicado que esta estrategia incluye diferentes planes estratégicos, entre ellos la Estrategia Nacional de Inteligencia Artificial (ENIA) , que tiene como objetivo dar un marco de referencia para el desarrollo de una inteligencia artificial «inclusiva, sostenible y centrada en la ciudadanía».

 

La Estrategia forma parte del Plan de Recuperación, Transformación y Resiliencia (PRTR) , que pretende situar a España como país puntero en inteligencia artificial (IA). La AESIA se adscribe al Ministerio de Asuntos Económicos y Transformación Digital mediante la Secretaría de Estado de Digitalización e Inteligencia Artificial.

Con la creación de esta agencia, España se convierte en el primer país europeo que tiene un órgano de estas características y se anticipa a la entrada en vigor del Reglamento europeo de inteligencia artificial.

 

La figura del DPD en la aplicación de la IA

El Delegado de Protección de Datos, profesional que revisa el cumplimiento de la normativa de privacidad a las empresas y organismos, es la figura idónea para supervisar la utilización de la IA. Como dice la AEPD, «el DPD, incluso en los casos que no sea obligatorio, puede ser de gran utilidad en aquellas entidades que emplean soluciones basadas en IA y que tratan datos personales, o que desarrollan soluciones de IA que hacen uso de datos personales para el entrenamiento de los modelos. A tenerlo presente.
 

Conclusiones

El mundo de la IA, tanto apasionante como lleno de peligros e incertidumbres, ha irrumpido con fuerza en nuestra sociedad. Y todavía sólo hemos visto el principio. Si somos capaces de hacerla nuestra, minimizando las desventajas y potenciando las ventajas para todos, no por unos cuantos, estoy convencido de que estamos ante lo que los americanos dicen un «game changer». Muy disruptivo, quizás, incluso, superando la eclosión de Internet. Veremos.
 
Mientras tanto, ¡cuidaos!

¿Cómo gestionar las redes sociales de una persona que nos ha dejado?

La vida pasa y cada día pasa más deprisa. Y a medida que va pasando, vamos dejando, con mejor o peor fortuna, nuestra huella. Hasta ahora, esta huella era analógica pero, desde hace unos años, se ha añadido la huella digital. De forma silenciosa pero constante, cada día añadimos más información nuestra a Internet.

Qué es una Huella Digital ya lo explicamos tiempo atrás cuando nos preguntábamos ¿Qué sabe Internet de ti? Podemos definir la Huella como el conjunto de datos y contenidos personales que compartimos en Internet, en particular en las redes sociales. Y la pregunta que nos hacemos hoy es qué pasa con esta información cuando una persona nos deja.

La muerte de un ser querido es siempre un momento difícil. Y gestionar su presencia digital puede parecer un detalle insignificante pero, es un paso importante para honrar su memoria. Escribimos estas notas a raíz de la petición del hijo de un cliente para que diéramos de baja la cuenta de su padre en Linkedin. ¿Por qué es importante eliminar una cuenta de Linkedin de una personal que nos ha dejado? ¿Y cómo lo hacemos? Continúa leyendo y encontrarás las respuestas.

¿Por qué eliminar la cuenta es importante?

Eliminar la cuenta de una persona muerta en Linkedin es importante porque puede ayudar a prevenir el robo de identidad y proteger la privacidad de la persona fallecida y de sus contactos. Además, puede ayudar a evitar que se envíen mensajes no deseados o se realicen publicaciones en nombre de la persona fallecida. Y, por supuesto, evitaremos que nos llegue un recordatorio anual de su cumpleaños, con el dolor adicional que puede suponer para familia y amigos.

Por último, es importante también desde el punto de vista de empresa para que puede provocar confusión si el finado no contesta a las solicitudes de otros miembros de Linkedin.

Pasos a seguir para eliminar la cuenta de Linkedin de una persona fallecida

  1. Visita la página de Ayuda de LinkedIn y busca «Cerrar la cuenta de un ser querido fallecido».
  2. Rellena el formulario de verificación de defunción, proporcionando toda la información necesaria, como tu relación con el finado (testamento, libro de familia, etc.) y una copia del obituario o certificado de defunción.
  3. Envía el formulario y espera que el equipo de LinkedIn revise tu solicitud. Esto puede tardar algunas semanas, pero una vez se aprueba, la cuenta se cerrará.

    Es posible que Linkedin nos pida información adicional y hay que tener en cuenta que el procedimiento es irreversible.

Alternativas

Linkedin ofrece también la posibilidad de convertir la cuenta estándar en una cuenta «in memoriam«. Este tipo de cuenta permite a los contactos del finado compartir recuerdos y homenajes en su perfil.

Conclusión

Cerrar la cuenta de Linkedin es importante pero es una de las cosas que hay que hacer cuando nos deja una persona estimada. Pero no es la única. Además de las redes sociales, hay muchos otros sitios en Internet donde puede haber contenidos que hagan referencia al finado. Quizá alguno indeseable pero también muchos interesantes y que habrá que preservar.

Nuestra recomendación es solicitar un Informe de Huella Digital, a partir del cual poder repasar todas las apariciones y actuar en consecuencia en cada caso.

¡Como siempre, cuidaos y cuidad de los vuestros, incluso de los que nos faltan!

¿Fin de las llamadas comerciales no deseadas?

Todos estamos cansados de recibir llamadas no deseadas, muchas a horas intempestivas, ofreciéndonos todo tipo de servicios, ofertas o propuestas de los más diverso. En efecto, a las ya conocidas llamadas de los operadores de telefonía que nos ofrecen la tarifa definitiva con toda clase de regalos y descuentos, hasta ONG’s que reclaman ayudas para sus propósitos, pasando por todo tipo de empresas haciendo una acción comercial desagradable para todos, con una más que discutida rentabilidad. Y ahora, en campaña, también si añaden los partidos políticos de forma más o menos disfrazada.
 
Pues bien, parece que esta práctica comercial puede estar en camino de desaparecer. En efecto, el pasado 30 de junio de 2022 entró en vigor la Ley 11/2022 General de Telecomunicaciones, excepto el artículo 66.1.b) por el que se estableció una moratoria de un año para su entrada en vigor. Y el año se cumplió ayer. Y la AEPD ha publicado una Circular que lo explica.

Consentimiento

El artículo se refiere, precisamente, al derecho de no recibir llamadas comerciales no deseadas. A partir de ahora, los usuarios tendremos derecho s no recibir este tipo de llamadas, salvo que exista consentimiento por nuestra parte o que la comunicación se pueda amparar en otra base de legitimación del artículo 6.1 del Reglamento (UE) 2016/679, es decir, el RGPD.
 
Y como es natural este consentimiento ah de cumplir todas las exigencias que recoge el Reglamento.
 

Interés legítimo

El caso más frecuente de utilización de esta base de legitimación por la empresa, es que haya una relación contractual previa, si el responsable obtuvo los datos de forma lícita y los utiliza por comunicaciones comerciales referentes a productos o servicios de su empresa que sean similares a los que inicialmente fueron objeto de contratación por parte del cliente.

Medidas previas

Será necesario que las empresas consulten previamente los sistemas de exclusión publicitaria, conforme al artículo 23 de la LOPDGDD. El más conocido es la inscripción en el Servicio Lista Robinson. Es gratuito y muy sencillo de usar. La AEPD ofrece en su web varias maneras de restringir la publicidad no deseada.
 
Las empresas también deberán adoptar garantías adicionales como son la información sobre la identidad del empresario, indicar la finalidad comercial de la llamada e informar sobre la posibilidad de revocar el consentimiento o ejercer el derecho de oposición a recibir llamadas.
 
Las llamadas deberán grabarse para demostrar el cumplimiento de la normativa sobre protección de datos.

Las sanciones

El encargado de hacer cumplir la norma es la AEPD que podrá imponer sanciones hasta 100.000€ por las faltas leves, y de hasta 20M€ en los casos de infracciones muy graves. Conclusiones Quizás estemos muy cerca de resolver una situación muy injusta para los usuarios y que hace masas años que dura. El abuso y la impunidad de que han hecho gala muchas empresas, tecnológicas, seguros, bancarios, etc, había llegado a un punto de hacerse, muchas veces, insoportable. Seguiremos de cerca la evolución de la aplicación de la norma y, en especial, en cuanto a las sanciones.
 
Desde hoy, la vida es un poco más fácil para los usuarios. ¡Recordad, cuidémonos!

Revisión Textos Legales Web