Un simple clic, un gran problema: el error humano detrás del fallo de la CNMC

El 29 de octubre, la Comisión Nacional de los Mercados y la Competencia (CNMC) protagonizó un incidente que ha generado una amplia polémica en torno a la protección de datos personales y la responsabilidad institucional. El error, aparentemente simple, consistió en enviar un correo electrónico a 378 influencers españoles, conocidos oficialmente como Usuarios de Especial Relevancia (UER), sin utilizar la copia oculta (CCO), exponiendo así las direcciones de correo electrónico de todos los destinatarios.


Entre los afectados se encontraban figuras públicas como Risto Mejide o Ibai Llanos, quienes rápidamente dieron visibilidad al suceso en redes sociales. Más allá del revuelo mediático, el incidente plantea serias implicaciones legales y éticas sobre la privacidad y el cumplimiento del Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica 3/2018, de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD).


La importancia de la privacidad de los datos


Según el artículo 32 del RGPD, los responsables del tratamiento deben garantizar la seguridad de los datos personales mediante medidas técnicas y organizativas adecuadas. Enviar un correo masivo con copia visible a todos los destinatarios es, sin duda, una vulneración de este principio, ya que permite la divulgación no autorizada de información personal. Aunque el error haya sido humano, el RGPD deja claro que las organizaciones—sean públicas o privadas—deben adoptar procedimientos que minimicen el riesgo de estos fallos.


Este caso pone de manifiesto que los organismos públicos están sujetos a las mismas obligaciones que las empresas privadas. La CNMC, como autoridad administrativa independiente, actúa como responsable del tratamiento de los datos de los influencers inscritos en su registro. Por tanto, tiene la obligación de proteger esos datos, garantizar su confidencialidad y aplicar protocolos de seguridad que eviten incidentes como este.


No se trata solo de una cuestión técnica, sino también de cultura de protección de datos. Los errores humanos—como confundir «CC» con «CCO»—pueden tener consecuencias graves si no existen controles internos o sistemas automáticos que detecten este tipo de riesgos antes de que ocurra el envío.


Además, el incidente podría dar lugar a una investigación por parte de la Agencia Española de Protección de Datos (AEPD), que ya ha sancionado casos similares en los que se difundieron direcciones de correo electrónico sin consentimiento.


Conclusión


Este suceso debe servir como recordatorio y advertencia: la protección de datos no es una formalidad, sino una responsabilidad compartida. Tanto las empresas como las instituciones públicas deben revisar sus procedimientos internos, formar a su personal y adoptar medidas tecnológicas que eviten que un simple clic acabe comprometiendo la privacidad de cientos de personas.


Porque, en materia de datos personales, un pequeño error humano puede convertirse en un gran fallo institucional.


Como siempre, cuidad los datos y ¡cuidaos!

Ni anonimato ni IA: el RGPD se aplica incluso a las imágenes manipuladas digitalmente

La Agencia Española de Protección de Datos (AEPD) ha vuelto a pronunciarse sobre uno de los fenómenos más alarmantes del entorno digital: la difusión de imágenes falsas de desnudos («deepnudes») creadas mediante inteligencia artificial. Ha impuesto una multa de 2.000 € (reducida finalmente a 1.200 € por reconocimiento y pago voluntario) a un particular por difundir imágenes manipuladas de menores en grupos de mensajería instantánea.


Aunque el sancionado no generó las imágenes, su participación en la difusión fue suficiente para que la Agencia apreciara una infracción del artículo 6.1 del RGPD, al tratarse de un tratamiento de datos personales sin base jurídica legítima.


Lo que dice el RGPD (y por qué importa aquí)


El artículo 6 del RGPD establece que todo tratamiento de datos personales debe fundarse en una base de licitud: consentimiento, obligación legal, interés público, contrato o interés legítimo. Si ninguna de ellas concurre—como en este caso—, el tratamiento es ilícito, incluso si el infractor no obtiene beneficio ni persigue un fin sexual.


La AEPD recuerda que el rostro de una persona es un dato personal (art. 4 RGPD), y que alterarlo o combinarlo con otro cuerpo no elimina esa condición, sino que la agrava: se crea una asociación falsa en un contexto íntimo, con potencial de causar graves daños reputacionales.


Por tanto, reenviar o publicar este tipo de imágenes constituye un tratamiento adicional, que requiere consentimiento y proporcionalidad. La ausencia de ambas bases legitima la sanción.


La IA no borra la responsabilidad


La resolución refuerza una idea clave: el uso de inteligencia artificial no exime de responsabilidad. La tecnología puede automatizar el daño, pero la decisión de compartir sigue siendo humana. Además, cuando los afectados son menores de edad, entra en juego el artículo 84 de la LOPDGDD, que refuerza la protección frente a la difusión de imágenes que puedan vulnerar su dignidad o derechos fundamentales.


Lecciones que deja el caso


  • La IA no anula la ley: las imágenes sintéticas siguen siendo datos personales si permiten identificar a una persona.
  • Compartir también es tratar: reenviar o publicar implica tratamiento y puede acarrear sanción.
  • Los menores cuentan con una protección reforzada, lo que eleva la gravedad de la infracción.
  • El RGPD es plenamente aplicable a la IA generativa: sus principios de licitud, minimización y proporcionalidad siguen siendo la base del cumplimiento.

Conclusiones


La sanción de 1.200 € —tras reducciones por reconocimiento y pago voluntario— resulta, cuanto menos, llamativamente baja si se compara con la gravedad moral y social de difundir imágenes falsas de desnudos de menores.


Aunque el RGPD permite graduar las multas en función de la proporcionalidad, cabe preguntarse si este tipo de conductas no merecerían también respuesta penal, especialmente cuando concurren elementos de humillación, acoso o afectación grave a la dignidad personal.


El caso invita a un debate necesario:


  • ¿Estamos aplicando sanciones realmente disuasorias frente a los nuevos riesgos digitales?
  • ¿Debe el Derecho penal intervenir cuando la inteligencia artificial amplifica el daño a menores?

La AEPD ha puesto el foco en la ilicitud del tratamiento de datos, pero la reflexión jurídica—y ética—va más allá: la tecnología puede replicar rostros, pero no puede replicar el consentimiento… ni reparar el daño emocional causado.


Como siempre, cuidad los datos y ¡cuidaos!


Para leer la resolución, haga clic aquí.

La nueva fiebre digital: ¿cuánto cuesta tu voz en el mercado de la IA?

En apenas unos días, Neon se ha convertido en una de las aplicaciones más descargadas del momento. Su propuesta parece irresistible: pagar a los usuarios por grabar y vender sus llamadas telefónicas. Hasta 30 dólares al día por dejar que su voz—y las conversaciones que mantiene—se utilicen para entrenar modelos de inteligencia artificial.


La idea es sencilla: Neon registra las llamadas del usuario y, si ambos interlocutores tienen instalada la app, ambas voces se utilizan para alimentar sistemas de IA que aprenden a reconocer, imitar o analizar el lenguaje humano. A cambio, el usuario recibe una pequeña compensación económica por minuto grabado.


Pero detrás del atractivo modelo «tecnología a cambio de dinero», surgen enormes interrogantes legales y éticos. ¿Sabemos realmente qué estamos cediendo cuando aceptamos grabar nuestra voz?


Datos biométricos: la voz como identidad digital


A diferencia de un simple dato personal, la voz es un identificador biométrico único, pues permite reconocer, imitar y suplantar identidades. Por ello, el Reglamento General de Protección de Datos (RGPD) europeo la considera dato sensible y su tratamiento requiere un consentimiento explícito e informado.


El problema es que, según los términos de uso de Neon, el usuario otorga a la empresa una licencia amplia y prácticamente ilimitada para «reproducir, almacenar, modificar y distribuir» sus grabaciones. En la práctica, esto implica ceder el control total sobre un dato que no solo revela la voz, sino también información contextual, emocional y de terceros.


De hecho, si la llamada es con alguien que no utiliza Neon, la app igualmente graba la parte del usuario… pero inevitablemente se captan fragmentos de la otra persona. Esto plantea dudas serias en materia de consentimiento de los interlocutores y vulnera principios básicos de minimización y finalidad del RGPD.


Entre la curiosidad y el riesgo


La empresa asegura que las grabaciones se anonimizan antes de ser vendidas a terceros. Sin embargo, expertos en seguridad digital alertan: la voz es extraordinariamente difícil de anonimizar. Puede utilizarse para crear imitaciones perfectas mediante IA, abrir cuentas bancarias, o incluso suplantar a familiares en estafas telefónicas.


Además, las incongruencias detectadas entre las tarifas anunciadas en la App Store y las publicadas en la web de Neon generan dudas sobre la transparencia real del modelo.


Conclusión: el verdadero precio de la voz


El éxito viral de Neon demuestra una tendencia preocupante: cada vez más usuarios están dispuestos a monetizar su privacidad a cambio de beneficios inmediatos. La «economía del dato» evoluciona hacia un escenario donde la identidad se convierte en un activo comercializable, sin que muchos comprendan las consecuencias a largo plazo.


Ceder la voz no es inocuo, es ceder una parte irrepetible de nuestra identidad digital. Por eso, antes de aceptar los «términos y condiciones», conviene preguntarse: ¿cuánto vale realmente mi voz? ¿Y quién la escuchará cuando ya no sea mía?


Como siempre, cuidad los datos y ¡cuidaos!

Transparencia 2.0: así cambia el nuevo Código de Conducta de Influencers en España

Desde el 1 de octubre de 2025, el ecosistema digital español da un nuevo paso hacia la transparencia publicitaria. Ha entrado oficialmente en vigor la actualización del Código de Conducta sobre el uso de influencers en la publicidad, promovido por AUTOCONTROL, la Asociación Española de Anunciantes (AEA) e IAB Spain, con el apoyo de instituciones públicas como el Ministerio de Consumo y la Secretaría de Estado de Digitalización e Inteligencia Artificial.


Este nuevo Código, revisado por primera vez desde su aprobación en 2021, refuerza el papel de la autorregulación en un entorno cada vez más complejo, en el que la frontera entre el contenido orgánico y el publicitario es más difusa que nunca. Con cerca de 1.000 entidades adheridas—entre marcas, agencias, plataformas y creadores—, el texto aspira a ofrecer mayor seguridad jurídica y a consolidar buenas prácticas en el marketing de influencia.


¿Qué cambia respecto al Código de 2021?


La versión de 2021 fue pionera al exigir que los contenidos patrocinados fueran claramente identificables mediante etiquetas o menciones explícitas («#publi», «#ad», «en colaboración con…»). Sin embargo, la práctica diaria demostró que seguían existiendo zonas grises: colaboraciones no declaradas, obsequios encubiertos o menciones ambiguas que confundían a la audiencia.


El nuevo Código 2025 avanza precisamente en esa dirección:


  • Introduce una lista de indicios que permite determinar cuándo un contenido puede considerarse publicitario, incluso sin prueba directa del acuerdo comercial.
  • Amplía y actualiza el anexo de plataformas digitales, especificando cómo debe identificarse la publicidad en cada una (YouTube, Instagram, TikTok, Twitch, etc.).
  • Añade previsiones específicas sobre contenidos generados con inteligencia artificial, la intervención de menores de edad y la responsabilidad de las distintas partes (marcas, agencias e influencers).

En resumen: donde antes había recomendaciones generales, ahora hay criterios concretos y trazables.


Formación y profesionalización del influencer


Otra de las grandes novedades es el Certificado de Capacitación Básica para Influencers sobre normativa publicitaria, lanzado por AUTOCONTROL dentro del programa europeo AdEthics, impulsado por la European Advertising Standards Alliance (EASA). Más de 700 influencers ya están inscritos en esta formación online que acredita el conocimiento de las normas de identificación de contenido publicitario.


Este paso es decisivo, ya que profesionaliza un sector que hasta hace poco se movía entre la intuición y la improvisación, y refuerza la responsabilidad compartida entre creadores, agencias y anunciantes.


Un nuevo estándar de transparencia digital


Con estas mejoras, el Código 2025 busca no solo facilitar el cumplimiento normativo, sino fortalecer la confianza entre marcas, consumidores y creadores. Las marcas adheridas podrán demostrar su compromiso con la ética publicitaria y evitar sanciones o crisis reputacionales derivadas de una comunicación engañosa.


En un entorno en el que la inteligencia artificial genera y distribuye contenidos a una velocidad sin precedentes, la transparencia deja de ser una opción: se convierte en un valor competitivo y en una exigencia regulatoria.


Conclusión


El nuevo Código de Conducta no sustituye al de 2021, sino que lo eleva al siguiente nivel. Pasa de la simple autorregulación a un marco de corresponsabilidad, en el que todos los actores—desde las grandes marcas hasta los microinfluencers—comparten una misma meta: que la publicidad sea clara, ética y reconocible.


Como siempre, cuidad los datos y ¡cuidaos!


Para acceder al Código de Conducta, haga clic aquí.

Algoritmos bajo vigilancia: la nueva era de la Inspección de Trabajo

La Inspección de Trabajo ha estrenado su Plan Estratégico 2025-2027 y trae una novedad que no deja indiferente: la inteligencia artificial se convierte en protagonista del mundo laboral. Y lo hace por partida doble: será tanto objeto de control en las empresas como herramienta de control en manos de la propia Inspección.


IA como objeto de control


Si tu empresa utiliza algoritmos para contratar, organizar turnos o tomar decisiones sobre la plantilla, es momento de revisar esos procesos. La Inspección anuncia que vigilará muy de cerca estas prácticas para evitar sesgos y discriminaciones.


La idea es simple: la tecnología no puede servir para limitar la igualdad de oportunidades. De hecho, el plan incluso apunta a que se podría adaptar el régimen sancionador para responder a posibles abusos en este terreno.


El mensaje a los empleadores es claro: toca ser transparentes y responsables con los sistemas de IA que afectan a las personas.


IA como herramienta de control


La Inspección no se queda atrás. El Plan prevé una profunda modernización tecnológica del organismo:


  • Creación de unidades de tratamiento masivo de datos en cada Comunidad Autónoma, capaces de manejar grandes volúmenes de información y detectar patrones de fraude.
  • Desarrollo de nuevas reglas algorítmicas integradas en la Herramienta de Lucha contra el Fraude.
  • Puesta en marcha de un laboratorio de informática forense, especializado en obtener evidencias digitales de los sistemas empresariales.
  • Implantación de proyectos piloto de IA para planificar expedientes, automatizar procesos y mejorar la eficiencia interna.

Todo ello con un objetivo: anticiparse al fraude, ganar eficacia y reforzar la transparencia en la actuación inspectora.


Un cambio de paradigma


La digitalización y la revolución tecnológica son ya parte inseparable del mundo laboral. El Plan Estratégico sitúa a la Inspección como árbitro y jugador a la vez: controla cómo las empresas aplican la IA, mientras aprovecha esa misma tecnología para optimizar su propia labor.


Para las empresas, el mensaje es doble. Por un lado, deben garantizar que los sistemas de IA que impactan en la plantilla respeten los derechos fundamentales. Por otro, deben estar preparadas para un control cada vez más sofisticado, en el que la huella digital y los datos ocupan un lugar central.


La conclusión es evidente: la IA ya no es un futurible en las relaciones laborales, sino un presente regulado y fiscalizado. Y entre 2025 y 2027, será uno de los ejes prioritarios de actuación de la Inspección de Trabajo y Seguridad Social.


Para leer el Plan, haga clic aquí.


Como siempre, cuidad los datos y ¡cuidaos!

IA en RRHH: de la promesa al riesgo regulado

El pasado 18 de septiembre tuvimos el placer, desde Tecnolawyer, de impartir para ASNALA el webinar «Cómo la IA está redefiniendo las Relaciones Laborales». Y si algo quedó claro tras la sesión es que la Inteligencia Artificial ya no es una promesa de futuro: es una realidad regulada que impacta directamente en la gestión de personas y en las obligaciones legales de las empresas.


Hoy, dos de cada tres organizaciones utilizan herramientas de IA en sus departamentos de RRHH. Hablamos de sistemas de selección, algoritmos que evalúan el desempeño, herramientas de cálculo de productividad o aplicaciones que asignan turnos y tareas. Todos ellos tienen algo en común: afectan a decisiones laborales críticas, y por tanto están bajo el radar del Reglamento Europeo de Inteligencia Artificial (RIA – AI Act).


Las «decisiones invisibles»


Uno de los conceptos clave que debatimos es el de las decisiones invisibles: aquellas que adopta un algoritmo en silencio, pero que determinan el acceso a un empleo, una promoción o incluso un despido. La mayoría de empresas aún desconoce sus obligaciones frente a este nuevo marco, lo que genera un riesgo creciente de sanciones y litigios.


El Reglamento clasifica estos sistemas como de alto riesgo y exige un cumplimiento exhaustivo. No basta con aplicar la norma: hay que poder demostrar que se cumple. Aquí entran en juego la documentación técnica, la evaluación de impacto algorítmico, los protocolos de supervisión humana y la trazabilidad de las decisiones.


Responsabilidad y sanciones


Las obligaciones recaen principalmente en las empresas usuarias de la IA, aunque proveedores e integradores también asumen responsabilidades. No obstante, la organización que decide implantar un sistema es la que responderá ante la Inspección o los tribunales si surgen problemas.


Las sanciones administrativas pueden alcanzar los 35 millones de euros o el 7 % de la facturación global. Pero más allá de la multa, existen otros riesgos: demandas laborales por discriminación, paralización de sistemas críticos, daño reputacional y mayores inspecciones laborales.


Cumplimiento y oportunidad


Durante el webinar insistimos en que este nuevo escenario no debe verse solo como un riesgo, sino también como una oportunidad de diferenciación. Las empresas que se anticipen con un plan de cumplimiento sólido estarán mejor posicionadas frente a clientes, trabajadores y reguladores.


La implementación efectiva del RIA ya está en marcha. Actualmente, nos encontramos en la Fase III del calendario de obligaciones: auditorías internas obligatorias, revisión continua y actualización permanente. No es momento de esperar: es momento de actuar.


¿Qué deben hacer las empresas?


La respuesta pasa por tres pasos esenciales:


  1. Auditoría inicial de los sistemas de IA en RRHH.
  2. Documentación y políticas internas claras sobre su uso.
  3. Supervisión humana efectiva, que garantice que la tecnología nunca sustituye el juicio profesional.

En definitiva, la IA en RRHH ha dejado de ser un lujo o una moda. Es un campo regulado, de alto riesgo, que exige preparación, acompañamiento jurídico y un enfoque multidisciplinar (Legal, IT y RRHH).


Desde Tecnolawyer, junto con ASNALA, queremos ayudar a empresas y despachos a navegar este nuevo marco. Porque la pregunta ya no es si tu organización usa IA, sino cómo la estás usando y si lo haces de forma legal y responsable.


Como siempre, cuidad los datos y ¡cuidaos!

Albania apuesta por una ministra artificial: entre la innovación y el riesgo

Albania ha dado un paso histórico —y polémico—: se ha convertido en el primer país del mundo en nombrar a una inteligencia artificial como ministra. Su nombre es Diella, inspirado en la palabra «diell» (sol, en albanés), como símbolo de transparencia.


La nueva «ministra» se encargará de evaluar licitaciones públicas, detectar irregularidades y asistir en trámites electrónicos. Su creación responde a un objetivo político muy concreto: convencer a Bruselas de la voluntad de Albania de luchar contra la corrupción de cara a su adhesión a la Unión Europea en 2030.


La puesta en escena no ha podido ser más simbólica: en las presentaciones oficiales, Diella aparece como una joven sonriente, con traje típico albanés, saludando desde la pantalla. Sin embargo, tras el gesto de modernidad, surgen muchas incógnitas.


Luces y sombras de la iniciativa


El gobierno albanés pretende mostrar un compromiso con la transparencia en un país marcado por sospechas de corrupción, favoritismo y blanqueo de capitales en las adjudicaciones públicas. Pero el movimiento despierta más dudas que certezas.


Delegar un cargo ministerial en una IA podría ser problemático por varios motivos:


  • No se ha aclarado si habrá algún tipo de supervisión humana sobre las decisiones de Diella.
  • No han informado sobre cuál ha sido el algoritmo utilizado, los datos de entrenamiento y los mecanismos de validación de sus resultados.
  • Como cualquier IA, existe un riesgo elevado de sesgos en las adjudicaciones y de falta de trazabilidad en los procesos.
  • Se abren vulnerabilidades de ciberseguridad en un contexto geopolítico delicado.

A estas críticas se suma otro factor: la viabilidad. Según estudios del MIT, el 95 % de los proyectos de IA a gran escala fracasan por falta de retorno o por costes excesivos. ¿Está Albania preparada para gestionar un sistema tan complejo y delicado?


El riesgo de sustituir en vez de complementar


La IA puede ser un aliado poderoso para reforzar la transparencia administrativa, pero su función debería ser acompañar y mejorar el trabajo humano, no reemplazarlo. La sustitución completa de un rol político de alto nivel plantea un escenario inédito y con implicaciones democráticas profundas: ¿quién asume la responsabilidad última de las decisiones?


Otros países ya experimentan con IA en la administración: Ucrania tiene un avatar portavoz, México una asistente virtual judicial, y Brasil avanza en esa línea. Pero el caso albanés va más allá: no es un asistente, sino una «ministra».


Conclusión


Albania busca con Diella enviar un mensaje claro a la Unión Europea: compromiso con la transparencia y voluntad de modernización. Pero el experimento plantea serias dudas de legitimidad, control y seguridad.


La innovación tecnológica es bienvenida, siempre que no sustituya el juicio crítico humano ni ponga en riesgo la confianza en las instituciones. La pregunta sigue abierta: ¿es Diella un rayo de luz contra la corrupción o un salto demasiado arriesgado en la política digital?


Como siempre, cuidad los datos y ¡cuidaos!

Italia aprueba la primera ley integral de IA en la UE: ¿qué implica realmente?

Italia se ha convertido en el primer país de la Unión Europea en promulgar una ley integral que regula la inteligencia artificial (IA). Esta normativa, alineada con el Reglamento de Inteligencia Artificial de la UE (RIA) , pretende asegurar que el uso de la IA sea humano, transparente y seguro, al tiempo que promueve la innovación, la ciberseguridad y la protección de la privacidad.

¿Qué introduce la nueva ley italiana?

  • Se establecen penas de prisión de 1 a 5 años para aquellos que utilicen IA para causar perjuicio, como la difusión de deepfakes o la manipulación de contenido perjudicial.
  • Obliga a un control humano y una estricta supervisión en el uso de la IA en ámbitos como el sanitario, educativo, la justicia, los puestos de trabajo, etc.
  • Para menores de 14 años , se exige el consentimiento parental para acceder a servicios basados ​​en IA.
  • En materia de derechos de autor , la ley establece que sólo las obras asistidas por IA que provengan de un esfuerzo intelectual humano genuino estarán protegidas. Asimismo, la minería de datos con IA sólo se permitirá sobre contenido no sujeto a derechos de autor o para fines científicos autorizados.

Beneficios clave de esta regulación

  • Da seguridad jurídica a empresas y usuarios al definir claramente qué usos de la IA son aceptables y cuáles no.
  • Refuerza la privacidad de los ciudadanos , limitando abusos tecnológicos como los deepfakes o el uso indebido de los datos.
  • Promueve la innovación responsable , ya que obliga a las empresas a adoptar estándares más altos de transparencia, supervisión y ética.
  • Fomenta la confianza : los usuarios pueden tener más certeza de que sus derechos están protegidos al interactuar con IA.

Retos prácticos para su implementación

  • Es necesario adaptar tecnologías existentes para cumplir con los requisitos de supervisión humana, trazabilidad y transparencia.
  • Las empresas tendrán que revisar sus modelos de negocio , los procedimientos de protección de datos y su responsabilidad legal.
  • Probablemente habrá costes elevados para cumplir con las nuevas obligaciones, tanto en desarrollo como en auditoría interna.
  • Vigilarán agencias como la Agencia por la Italia digital y la Agencia Nacional por la Seguridad Informática , lo que implica más controles y posibles sanciones en caso de incumplimientos.

¿En qué cambia la IA después de esta ley

  • La IA deja de ser un campo regulado únicamente a nivel europeo; Italia ya lo implementa con fuerza jurídica local .
  • Aumenta el peso del derecho de los usuarios frente a los fabricantes o proveedores de servicios de IA.
  • Se refuerzan los límites legales sobre contenidos generados por IA, especialmente cuando tienen impacto social, educativo o menores.
  • Se establece un estándar que podría influir en cómo otros países de la UE regulen la IA localmente.

Conclusión

Italia da un paso pionero en la regulación de la IA, marcando un precedente en Europa. Será fundamental cómo las empresas adopten esta ley para convertir la obligación en valor añadido , no sólo para evitar sanciones, sino para construir confianza en el uso ético de la IA .

Como siempre, ¡cuidad los datos y cuídese!

EU Data Act: ¿Estamos preparados para la nueva era de los datos?

12 de septiembre de 2025


 Desde hoy se aplica la EU Data Act, una normativa que cambia las reglas del juego en el acceso y uso de los datos generados por dispositivos conectados. Pero ¿qué implica exactamente y cómo afectará a empresas y usuarios?


¿Qué es el EU Data Act?


Es una ley de la Unión Europea que otorga a los usuarios —ya sean consumidores o empresas— el derecho de acceder y compartir los datos generados por sus dispositivos conectados (IoT – termostatos inteligentes o coches conectados –) de manera estructurada, en tiempo real y en formatos legibles por máquina.


¿Por qué es tan importante esta fecha?


Porque a partir del 12 de septiembre de 2025, los fabricantes deben garantizar que esos datos no quedan bajo su control exclusivo. Los usuarios tendrán libertad para reutilizarlos o compartirlos con terceros, fomentando la innovación y la competencia leal en el mercado digital europeo.


¿Qué beneficios aporta para los usuarios?


  • Transparencia total: acceso inmediato a la información generada por sus dispositivos.
  • Innovación abierta: posibilidad de que nuevas empresas desarrollen servicios basados en esos datos.
  • Mayor control: los usuarios ya no dependerán del fabricante para explotar su información.

¿Y qué implica para las empresas?


Aquí llegan los retos:


  • Adaptación tecnológica: sistemas preparados para exportar datos de manera segura y estandarizada.
  • Desarrollo de cláusulas contractuales justas
  • Cumplimiento legal: alineación con el RGPD y con la ciberseguridad.
  • Costes y procesos: inversión en infraestructura y formación para adecuarse a la norma.
  • Penalizaciones por incumplimiento

¿Estamos ante un cambio cultural?


Sí. La propiedad y el control de los datos ya no reside solo en los fabricantes. Europa apuesta por una economía digital más abierta, transparente y centrada en el usuario, donde compartir datos no sea una excepción, sino una práctica habitual y segura.


Conclusión


El EU Data Act es mucho más que una norma técnica: es un paso firme hacia un mercado digital europeo más competitivo y equilibrado. La pregunta ahora es: ¿convertirán las empresas esta obligación en una oportunidad real?


Evalúa tu cumplimiento hoy para convertir los retos en ventajas competitivas.


Como siempre, cuidad los datos y ¡cuidaos!

Revisión Textos Legales Web