Albania apuesta por una ministra artificial: entre la innovación y el riesgo

Albania ha dado un paso histórico —y polémico—: se ha convertido en el primer país del mundo en nombrar a una inteligencia artificial como ministra. Su nombre es Diella, inspirado en la palabra «diell» (sol, en albanés), como símbolo de transparencia.


La nueva «ministra» se encargará de evaluar licitaciones públicas, detectar irregularidades y asistir en trámites electrónicos. Su creación responde a un objetivo político muy concreto: convencer a Bruselas de la voluntad de Albania de luchar contra la corrupción de cara a su adhesión a la Unión Europea en 2030.


La puesta en escena no ha podido ser más simbólica: en las presentaciones oficiales, Diella aparece como una joven sonriente, con traje típico albanés, saludando desde la pantalla. Sin embargo, tras el gesto de modernidad, surgen muchas incógnitas.


Luces y sombras de la iniciativa


El gobierno albanés pretende mostrar un compromiso con la transparencia en un país marcado por sospechas de corrupción, favoritismo y blanqueo de capitales en las adjudicaciones públicas. Pero el movimiento despierta más dudas que certezas.


Delegar un cargo ministerial en una IA podría ser problemático por varios motivos:


  • No se ha aclarado si habrá algún tipo de supervisión humana sobre las decisiones de Diella.
  • No han informado sobre cuál ha sido el algoritmo utilizado, los datos de entrenamiento y los mecanismos de validación de sus resultados.
  • Como cualquier IA, existe un riesgo elevado de sesgos en las adjudicaciones y de falta de trazabilidad en los procesos.
  • Se abren vulnerabilidades de ciberseguridad en un contexto geopolítico delicado.

A estas críticas se suma otro factor: la viabilidad. Según estudios del MIT, el 95 % de los proyectos de IA a gran escala fracasan por falta de retorno o por costes excesivos. ¿Está Albania preparada para gestionar un sistema tan complejo y delicado?


El riesgo de sustituir en vez de complementar


La IA puede ser un aliado poderoso para reforzar la transparencia administrativa, pero su función debería ser acompañar y mejorar el trabajo humano, no reemplazarlo. La sustitución completa de un rol político de alto nivel plantea un escenario inédito y con implicaciones democráticas profundas: ¿quién asume la responsabilidad última de las decisiones?


Otros países ya experimentan con IA en la administración: Ucrania tiene un avatar portavoz, México una asistente virtual judicial, y Brasil avanza en esa línea. Pero el caso albanés va más allá: no es un asistente, sino una «ministra».


Conclusión


Albania busca con Diella enviar un mensaje claro a la Unión Europea: compromiso con la transparencia y voluntad de modernización. Pero el experimento plantea serias dudas de legitimidad, control y seguridad.


La innovación tecnológica es bienvenida, siempre que no sustituya el juicio crítico humano ni ponga en riesgo la confianza en las instituciones. La pregunta sigue abierta: ¿es Diella un rayo de luz contra la corrupción o un salto demasiado arriesgado en la política digital?


Como siempre, cuidad los datos y ¡cuidaos!

Italia aprueba la primera ley integral de IA en la UE: ¿qué implica realmente?

Italia se ha convertido en el primer país de la Unión Europea en promulgar una ley integral que regula la inteligencia artificial (IA). Esta normativa, alineada con el Reglamento de Inteligencia Artificial de la UE (RIA) , pretende asegurar que el uso de la IA sea humano, transparente y seguro, al tiempo que promueve la innovación, la ciberseguridad y la protección de la privacidad.

¿Qué introduce la nueva ley italiana?

  • Se establecen penas de prisión de 1 a 5 años para aquellos que utilicen IA para causar perjuicio, como la difusión de deepfakes o la manipulación de contenido perjudicial.
  • Obliga a un control humano y una estricta supervisión en el uso de la IA en ámbitos como el sanitario, educativo, la justicia, los puestos de trabajo, etc.
  • Para menores de 14 años , se exige el consentimiento parental para acceder a servicios basados ​​en IA.
  • En materia de derechos de autor , la ley establece que sólo las obras asistidas por IA que provengan de un esfuerzo intelectual humano genuino estarán protegidas. Asimismo, la minería de datos con IA sólo se permitirá sobre contenido no sujeto a derechos de autor o para fines científicos autorizados.

Beneficios clave de esta regulación

  • Da seguridad jurídica a empresas y usuarios al definir claramente qué usos de la IA son aceptables y cuáles no.
  • Refuerza la privacidad de los ciudadanos , limitando abusos tecnológicos como los deepfakes o el uso indebido de los datos.
  • Promueve la innovación responsable , ya que obliga a las empresas a adoptar estándares más altos de transparencia, supervisión y ética.
  • Fomenta la confianza : los usuarios pueden tener más certeza de que sus derechos están protegidos al interactuar con IA.

Retos prácticos para su implementación

  • Es necesario adaptar tecnologías existentes para cumplir con los requisitos de supervisión humana, trazabilidad y transparencia.
  • Las empresas tendrán que revisar sus modelos de negocio , los procedimientos de protección de datos y su responsabilidad legal.
  • Probablemente habrá costes elevados para cumplir con las nuevas obligaciones, tanto en desarrollo como en auditoría interna.
  • Vigilarán agencias como la Agencia por la Italia digital y la Agencia Nacional por la Seguridad Informática , lo que implica más controles y posibles sanciones en caso de incumplimientos.

¿En qué cambia la IA después de esta ley

  • La IA deja de ser un campo regulado únicamente a nivel europeo; Italia ya lo implementa con fuerza jurídica local .
  • Aumenta el peso del derecho de los usuarios frente a los fabricantes o proveedores de servicios de IA.
  • Se refuerzan los límites legales sobre contenidos generados por IA, especialmente cuando tienen impacto social, educativo o menores.
  • Se establece un estándar que podría influir en cómo otros países de la UE regulen la IA localmente.

Conclusión

Italia da un paso pionero en la regulación de la IA, marcando un precedente en Europa. Será fundamental cómo las empresas adopten esta ley para convertir la obligación en valor añadido , no sólo para evitar sanciones, sino para construir confianza en el uso ético de la IA .

Como siempre, ¡cuidad los datos y cuídese!

EU Data Act: ¿Estamos preparados para la nueva era de los datos?

12 de septiembre de 2025


 Desde hoy se aplica la EU Data Act, una normativa que cambia las reglas del juego en el acceso y uso de los datos generados por dispositivos conectados. Pero ¿qué implica exactamente y cómo afectará a empresas y usuarios?


¿Qué es el EU Data Act?


Es una ley de la Unión Europea que otorga a los usuarios —ya sean consumidores o empresas— el derecho de acceder y compartir los datos generados por sus dispositivos conectados (IoT – termostatos inteligentes o coches conectados –) de manera estructurada, en tiempo real y en formatos legibles por máquina.


¿Por qué es tan importante esta fecha?


Porque a partir del 12 de septiembre de 2025, los fabricantes deben garantizar que esos datos no quedan bajo su control exclusivo. Los usuarios tendrán libertad para reutilizarlos o compartirlos con terceros, fomentando la innovación y la competencia leal en el mercado digital europeo.


¿Qué beneficios aporta para los usuarios?


  • Transparencia total: acceso inmediato a la información generada por sus dispositivos.
  • Innovación abierta: posibilidad de que nuevas empresas desarrollen servicios basados en esos datos.
  • Mayor control: los usuarios ya no dependerán del fabricante para explotar su información.

¿Y qué implica para las empresas?


Aquí llegan los retos:


  • Adaptación tecnológica: sistemas preparados para exportar datos de manera segura y estandarizada.
  • Desarrollo de cláusulas contractuales justas
  • Cumplimiento legal: alineación con el RGPD y con la ciberseguridad.
  • Costes y procesos: inversión en infraestructura y formación para adecuarse a la norma.
  • Penalizaciones por incumplimiento

¿Estamos ante un cambio cultural?


Sí. La propiedad y el control de los datos ya no reside solo en los fabricantes. Europa apuesta por una economía digital más abierta, transparente y centrada en el usuario, donde compartir datos no sea una excepción, sino una práctica habitual y segura.


Conclusión


El EU Data Act es mucho más que una norma técnica: es un paso firme hacia un mercado digital europeo más competitivo y equilibrado. La pregunta ahora es: ¿convertirán las empresas esta obligación en una oportunidad real?


Evalúa tu cumplimiento hoy para convertir los retos en ventajas competitivas.


Como siempre, cuidad los datos y ¡cuidaos!

El derecho a desconectar: ¿una obligación ignorada?

El reciente foco mediático sobre el incumplimiento empresarial en materia de desconexión digital pone el acento en la necesidad urgente de que las compañías pasen de las buenas intenciones a la acción rigurosa. Al igual que con la protección de datos biométricos, el principio de “cumplir y poder demostrarlo” marca la diferencia entre un riesgo reputacional y una empresa alineada con el nuevo estándar de bienestar digital.


Hechos


Tras la entrada en vigor de la Ley Orgánica 3/2018 y la Ley 10/2021, todas las empresas tienen la obligación de contar con un protocolo de desconexión digital negociado y eficaz, no solo formal. Sin embargo, la Inspección de Trabajo ha detectado que en muchos casos este protocolo es simbólico, carece de medidas reales y no contempla la debida información y formación a los empleados.


El incremento de controles en 2025 ha hecho aflorar prácticas como el envío frecuente de comunicaciones fuera de jornada, especialmente en el teletrabajo, y la ausencia de vías claras para ejercer este derecho sin sufrir represalias. El 27% de los empleados españoles declara trabajar extras digitales sin contraprestación ni justificación.


Protocolos efectivos: del papel a la práctica


Tener un protocolo no es suficiente: debe adaptarse a la realidad interna, abarcar la flexibilidad horaria, prever situaciones urgentes, y formar a managers y equipos sobre el derecho a desconectar. La experiencia europea lo confirma: la desconexión se integra en la cultura corporativa y en la toma de decisiones del liderazgo, no como una mera cláusula legal.


El correcto cumplimiento requiere puntos como:


  • Políticas claras y negociadas sobre el uso de dispositivos y canales fuera de horario.
  • Mecanismos para informar y canalizar incidentes.
  • Formación y comunicación continua, revisando y actualizando los protocolos periódicamente.
  • Implantación efectiva, no meramente formal.

Sanciones y riesgo reputacional


Las sanciones por incumplimiento han aumentado: de 751 a 7.500 € para infracciones graves, y hasta 225.018 € si existe riesgo psicosocial probado o acoso laboral. Incluso aquellas empresas con protocolos solo “de cara a la galería” han sido sancionadas si no aplicaron, formaron ni comunicaron correctamente sus políticas. La jurisprudencia reciente avala indemnizaciones por daños derivados del estrés digital, y pronuncia nulas las sanciones o despidos a empleados que ejercieron su derecho a la desconexión.


Mirada práctica y europea


A nivel europeo, la futura Directiva de desconexión digital y los informes de la Agencia Europea para la Seguridad y Salud en el Trabajo colocando el derecho a desconectar como eje central del bienestar y la prevención psicosocial. Las buenas prácticas recomiendan caminar hacia una implantación transversal, real y medible, con auditorías internas y visión de mejora constante.


Conclusión


Cumplir formalmente ya no basta: la desconexión digital exige cultura, implicación de todos los departamentos y liderazgo activo. El coste de ignorarla puede superar con mucho el de cualquier sanción administrativa y, por supuesto, una caída reputacional.


Como siempre, cuidad los datos y ¡cuidaos!

La primera nación gobernada por una IA: un experimento político que plantea más preguntas que respuestas

En un rincón paradisíaco de Palawan, Filipinas, se está gestando un experimento político y tecnológico sin precedentes: la Isla Sensay, la primera comunidad insular gobernada por un gabinete íntegramente formado por réplicas de inteligencia artificial de figuras históricas.


La iniciativa parte de la startup británica Sensay, especializada en crear réplicas humanas de IA capaces de reproducir con fidelidad la personalidad y los patrones de decisión de personajes célebres, entrenadas con sus escritos, discursos y filosofía. En la Isla Sensay, un gabinete de 17 líderes históricos ocupará los principales cargos de gobierno, encabezados por Marco Aurelio como presidente y Winston Churchill como primer ministro.


Otros puestos clave estarán en manos de Nelson Mandela (Justicia), Eleanor Roosevelt (Asuntos Exteriores), Florence Nightingale (Salud), Sun Tzu (Defensa), Ada Lovelace (Ciencia y Tecnología) y Mahatma Gandhi (Asesor de Ética), entre otros. Incluso se incluye a Leonardo da Vinci como ministro de Cultura y Nikola Tesla como asesor de Innovación.


Un gobierno sin partidos… pero con algoritmos


El proyecto se presenta como una oportunidad para demostrar que la IA puede gobernar «libre de partidismos políticos y bloqueos burocráticos». Cualquier persona del mundo podrá registrarse como E-residente, proponer políticas a través de una plataforma abierta y seguir en directo los debates y votaciones del gabinete virtual.


La hoja de ruta es ambiciosa:


  • 2025: compra de la isla y aprobación de la Carta Fundacional, que garantiza libertades y derechos básicos.
  • 2026: llegada de observadores e investigadores y puesta en marcha de una microrred de energía renovable.
  • 2027: apertura del programa de residencia y declaración de un Santuario Ambiental que cubrirá el 60% de la isla.
  • 2028: celebración del Primer Simposio Global sobre Gobernanza de IA.

Implicaciones y desafíos legales


Aunque la Isla Sensay nace como un proyecto privado, plantea preguntas complejas sobre soberanía y derecho internacional:


  • ¿Puede un territorio ser reconocido como «nación» si su gobierno no está compuesto por humanos?
  • ¿Quién es legalmente responsable si las decisiones del gabinete provocan daños?
  • ¿Cómo se garantiza la transparencia y la ausencia de sesgos en los algoritmos?

Además, la gestión de datos será crítica: la IA manejará información personal de residentes y e-residentes. El volumen y la naturaleza de la información exigirán estándares de ciberseguridad avanzados.


Más que un experimento tecnológico


El fundador de Sensay, Dan Thomson, asegura que el proyecto es una respuesta a la crisis global de confianza en los parlamentos, que según estudios ha caído un 78’4% desde 1990. Pero el debate trasciende lo técnico: ¿puede la inteligencia artificial sustituir al juicio humano en la política? ¿Qué papel juegan la empatía, la cultura y la ética en decisiones que afectan a comunidades reales?


La Isla Sensay podría ser un laboratorio vivo para el futuro de la gobernanza… o un recordatorio de que no todo lo que la tecnología permite es lo que la sociedad necesita.


Como siempre, cuidad los datos y ¡cuidaos!


Imagen: © 2025 Sensay Island – Sovereign Micronation. All rights reserved.

Cuando el control de accesos sobrepasa la huella de la legalidad

La Agencia Española de Protección de Datos (AEPD) ha resuelto un caso que ilustra perfectamente los riesgos de implantar sistemas biométricos sin una base legal sólida ni un análisis de proporcionalidad. La sanción de 250.000 euros a Loro Parque, S.A. por el uso de huellas dactilares para controlar el acceso con la entrada «Twin Ticket» (TT) abre un debate crítico: ¿hasta dónde pueden llegar las empresas al verificar la identidad de sus clientes, y con qué salvaguardas?


Hechos


Loro Parque y Siam Park, ambos en Tenerife, ofrecían una entrada combinada TT que permitía visitar ambos recintos a precio reducido. Para evitar el uso fraudulento de esta oferta, el parque implantó un sistema de verificación basado en captura de 10 puntos de coincidencia de la huella dactilar del visitante en el primer acceso. Esa información se encriptaba, convirtiéndose en una «representación matemática» que se usaba para confirmar que la misma persona accedía después al segundo parque.


La empresa ha alegado que el tratamiento no implicaba datos personales según el RGPD porque no se almacenaban imágenes de la huella y la plantilla biométrica no permitía identificar a una persona de forma directa ni realizar ingeniería inversa.


Sin embargo, la AEPD ha concluido lo contrario: las plantillas biométricas derivadas de huellas sí son datos personales cuando se usan para autenticar o verificar la identidad de un individuo.


La AEPD recuerda que el art. 9 RGPD prohíbe tratar datos biométricos salvo en supuestos tasados y, en este caso, no existía consentimiento válido ni otra base legal aplicable. En este sentido, subraya que el consentimiento no puede considerarse libre cuando no se ofrece una alternativa real al uso de la huella.


Además, no se había realizado la preceptiva Evaluación de Impacto en Protección de Datos (EIPD) ni un análisis documentado de proporcionalidad.


Conclusión


Este caso marca un precedente importante para cualquier empresa que utilice sistemas biométricos, especialmente en contextos no esenciales como el ocio. La AEPD ha sido clara:


  • Las plantillas biométricas son datos personales si permiten autenticación, aunque estén cifradas y desvinculadas de nombres u otros datos.
  • La proporcionalidad es clave: debe demostrarse que no hay métodos menos intrusivos para lograr el mismo fin.
  • El consentimiento debe ser libre y con alternativas, lo que implica ofrecer otro método de verificación sin penalización para el usuario.

Para el sector, el mensaje es evidente: la implementación de biometría requiere un sólido soporte legal, una EIPD completa y una evaluación de alternativas menos invasivas. De lo contrario, el coste en sanciones —y en reputación— puede ser mucho más alto que el fraude que se pretendía evitar.


Como siempre, cuidad los datos y ¡cuidaos!


Para consultar la resolución, haga clic aquí.

IA bajo control: a partir del 2 de agosto, innovar sin cumplir la ley dejará de ser una opción

A partir de mañana 2 de agosto de 2025, el Reglamento de Inteligencia Artificial de la Unión Europea (RIA) comenzará a aplicar la mayoría de sus disposiciones, marcando un antes y un después en el uso de la inteligencia artificial en Europa.


Y no, no hace falta usar un sistema de IA avanzado para estar afectado. Desde esa fecha, todas las herramientas que utilicen IA deberán cumplir con obligaciones básicas, incluso si no se consideran de alto riesgo. Por ejemplo, si usas chatbots u otros asistentes conversacionales con IA, deberás informar claramente al usuario de que está interactuando con un sistema automatizado; y, si generas contenido con IA (imágenes, vídeos, textos), deberás advertir que ha sido creado con inteligencia artificial.


Asimismo, aunque no es obligatorio, también se recomienda explicar cómo funciona la automatización, para reforzar la transparencia.


¿Cuándo se considera que un sistema es de alto riesgo?


Solo en determinados casos, como sistemas de IA que afectan a:


  • Procesos de contratación o evaluación laboral.
  • Educación y evaluación de estudiantes.
  • Acceso a servicios esenciales o públicos (salud, vivienda, crédito, inmigración).
  • Biometría, vigilancia o diagnóstico médico.
  • Aplicación de la ley o decisiones judiciales.
  • Infraestructuras críticas, transporte o sistemas industriales.

Si tu sistema entra en una de estas categorías, las exigencias legales se multiplican: tendrás que realizar análisis de riesgos, garantizar la supervisión humana, documentación técnica exhaustiva, implementar medidas de ciberseguridad, registro en una base de datos europea y cumplir con los requisitos de inspección y supervisión regulatoria.


Cuidado con la confusión entre «modelo» y «sistema»


El Reglamento de IA distingue entre modelos de IA (como GPT, Gemini o Claude) y sistemas de IA, que son las herramientas concretas que los integran (como un chatbot, una app o una plataforma de gestión documental). Las obligaciones comentadas se aplican a los sistemas, no directamente a los modelos base.


Conclusión


A partir de este 2 de agosto, ya no hay excusas. Si tu empresa usa inteligencia artificial —aunque sea de forma básica o puntual—, debe conocer y cumplir con las nuevas reglas. Porque la innovación no está reñida con la transparencia y, en la nueva era de la IA, cumplir la normativa será parte del diseño.


Como siempre, cuidad los datos y ¡cuidaos!

La IA en selección de personal, bajo la lupa legal

En la búsqueda de eficiencia y objetividad, muchas empresas están incorporando herramientas de inteligencia artificial (IA) en sus procesos de selección de personal. Desde la criba automatizada de currículums hasta entrevistas por vídeo analizadas por algoritmos, la tecnología ya es parte habitual del área de recursos humanos.


Sin embargo, debemos recordar que este avance debe ir acompañado de un cumplimiento normativo riguroso. El Reglamento de Inteligencia Artificial de la Unión Europea, aprobado el año pasado (2024), clasifica los sistemas de IA utilizados para tomar decisiones sobre contratación como sistemas de «alto riesgo» (art. 6.2). Esto implica una serie de obligaciones legales estrictas para empresas que los utilicen.


Entre las principales exigencias, destacan:


  • Evaluaciones de riesgo y conformidad previas al despliegue.
  • Supervisión humana significativa en todo el proceso.
  • Mecanismos de transparencia: el candidato debe ser informado si es evaluado por una IA.
  • Prevención de sesgos y discriminaciones algorítmicas.
  • Registro de decisiones y trazabilidad del sistema.

El incumplimiento puede conllevar multas de hasta 35 millones de euros o el 7% del volumen de negocio global, lo que coloca a la contratación automatizada en el foco de los reguladores (art. 99.3).


Además, cuando la IA trata datos personales de candidatos, también se debe tener en cuenta el Reglamento General de Protección de Datos (RGPD), en especial, el derecho del interesado a no ser objeto de decisiones automatizadas sin intervención humana (art. 22 RGPD).


En este nuevo marco, las empresas deben revisar sus procesos y herramientas de selección para garantizar que no solo son eficaces, sino también éticos, transparentes y legales. La transformación digital de la selección del talento debe ir de la mano de la confianza y el cumplimiento normativo.


Conclusión


Incorporar inteligencia artificial en los procesos de selección puede aportar eficiencia, agilidad y reducción de sesgos humanos, pero no elimina las obligaciones legales. Muy al contrario: al tratarse de sistemas de alto impacto sobre los derechos de las personas, el nuevo marco normativo europeo exige a las organizaciones mayor control, transparencia y diligencia.


Si tu empresa utiliza—o está valorando utilizar—soluciones basadas en IA para cribar, evaluar o tomar decisiones sobre candidatos, es imprescindible que tenga en cuenta las previsiones establecidas en el Reglamento de IA.


Como siempre, cuidad los datos y ¡cuidaos!

Un beso, un vídeo y una sanción: los riesgos legales de grabar en público

By Raph_PH - Coldplay_Glasto24_290624 (23), CC BY 2.0,

Hace unos días, durante un concierto de la banda Coldplay, una de las cámaras del evento—la denominada «Kiss Cam»—captó a dos personas abrazadas de forma afectuosa entre el público. Estas, en cuanto la cámara les enfocó y su imagen apareció en las pantallas del recinto, se separaron inmediatamente. Su comportamiento no pasó inadvertido por el vocalista de la banda, quien comentó: «Guau, ¡mirad a estos dos! O están teniendo una aventura o son muy tímidos».


En cuestión de horas, el vídeo se viralizó y se identificó públicamente a los protagonistas: el CEO y la directora de RRHH de la misma empresa. Ambos están casados, pero no entre sí. La repercusión no tardó en materializarse: diversos medios ya han confirmado que la empresa inició un expediente disciplinario y que el CEO ha sido suspendido temporalmente.


Más allá de la anécdota o el revuelo mediático, el caso suscita una reflexión jurídica relevante: ¿qué implicaciones tendría la captación y difusión de una imagen como esta si los hechos hubieran ocurrido en España?


En 2021, la Agencia Española de Protección de Datos (AEPD) resolvió un procedimiento sancionador contra un establecimiento de ocio nocturno que había publicado en Instagram un vídeo de un cliente besando a una persona que no era su pareja. La reclamación se fundamentó en la difusión no consentida de imágenes claramente identificables que comprometían la esfera personal del afectado.


El local alegó que en el acceso al recinto existía un cartel informativo advirtiendo de la posibilidad de ser grabado. Sin embargo, la AEPD consideró que dicho aviso no constituía un consentimiento válido conforme al RGPD, ya que este debe ser libre, específico, informado e inequívoco.


La resolución subraya que la presencia de carteles, condiciones generales de acceso o el simple hecho de encontrarse en un espacio público no suplen la necesidad de un consentimiento expreso, especialmente cuando las imágenes se destinan a su publicación en redes sociales u otros medios públicos.


Expectativa razonable de privacidad y protección de la imagen


La AEPD también introdujo una reflexión clave: incluso en espacios abiertos al público, las personas conservan una expectativa razonable de privacidad. En otras palabras, no puede asumirse que todo lo que ocurre en un evento público es susceptible de ser grabado y difundido libremente, especialmente si la persona afectada no es consciente de estar siendo grabada y la escena capta aspectos íntimos o comprometedores.


Implicaciones jurídicas y reputacionales


En el caso del concierto de Coldplay, si los hechos se hubieran producido en territorio español, podría haberse planteado una reclamación ante la AEPD por captación y difusión no autorizada de datos personales (la imagen lo es, conforme al artículo 4.1 del RGPD). Dependiendo de las circunstancias, incluso podría valorarse la necesidad de una base legítima para el tratamiento o la existencia de un interés legítimo debidamente ponderado (art. 6.1.f RGPD), algo que difícilmente sería aplicable ante la falta de consentimiento claro.


Además, no deben obviarse las posibles consecuencias laborales derivadas de este tipo de exposiciones públicas, como ha ocurrido en este caso. Las empresas, ante este tipo de situaciones, se ven en la necesidad de gestionar crisis internas que pueden afectar tanto a la reputación de los profesionales implicados como a la de la propia organización.


Conclusión


La captación y difusión de imágenes en eventos públicos no está exenta de responsabilidad jurídica. La AEPD deja claro que la protección de la imagen personal y el derecho a la intimidad no desaparecen en entornos abiertos ni quedan suspendidos por la mera presencia de cartelería informativa.


En un contexto en el que los dispositivos móviles y las redes sociales facilitan una difusión masiva e inmediata de contenidos, conviene recordar que la protección de datos personales es un derecho fundamental, y que la obtención de un consentimiento válido es mucho más que una formalidad: es un requisito legal imprescindible.


Como siempre, cuidad los datos y ¡cuidaos!


Para consultar la resolución, haga clic aquí.


Copyright By Raph_PH - Coldplay_Glasto24_290624 (23), CC BY 2.0.

Revisión Textos Legales Web