Transparencia 2.0: así cambia el nuevo Código de Conducta de Influencers en España

Desde el 1 de octubre de 2025, el ecosistema digital español da un nuevo paso hacia la transparencia publicitaria. Ha entrado oficialmente en vigor la actualización del Código de Conducta sobre el uso de influencers en la publicidad, promovido por AUTOCONTROL, la Asociación Española de Anunciantes (AEA) e IAB Spain, con el apoyo de instituciones públicas como el Ministerio de Consumo y la Secretaría de Estado de Digitalización e Inteligencia Artificial.


Este nuevo Código, revisado por primera vez desde su aprobación en 2021, refuerza el papel de la autorregulación en un entorno cada vez más complejo, en el que la frontera entre el contenido orgánico y el publicitario es más difusa que nunca. Con cerca de 1.000 entidades adheridas—entre marcas, agencias, plataformas y creadores—, el texto aspira a ofrecer mayor seguridad jurídica y a consolidar buenas prácticas en el marketing de influencia.


¿Qué cambia respecto al Código de 2021?


La versión de 2021 fue pionera al exigir que los contenidos patrocinados fueran claramente identificables mediante etiquetas o menciones explícitas («#publi», «#ad», «en colaboración con…»). Sin embargo, la práctica diaria demostró que seguían existiendo zonas grises: colaboraciones no declaradas, obsequios encubiertos o menciones ambiguas que confundían a la audiencia.


El nuevo Código 2025 avanza precisamente en esa dirección:


  • Introduce una lista de indicios que permite determinar cuándo un contenido puede considerarse publicitario, incluso sin prueba directa del acuerdo comercial.
  • Amplía y actualiza el anexo de plataformas digitales, especificando cómo debe identificarse la publicidad en cada una (YouTube, Instagram, TikTok, Twitch, etc.).
  • Añade previsiones específicas sobre contenidos generados con inteligencia artificial, la intervención de menores de edad y la responsabilidad de las distintas partes (marcas, agencias e influencers).

En resumen: donde antes había recomendaciones generales, ahora hay criterios concretos y trazables.


Formación y profesionalización del influencer


Otra de las grandes novedades es el Certificado de Capacitación Básica para Influencers sobre normativa publicitaria, lanzado por AUTOCONTROL dentro del programa europeo AdEthics, impulsado por la European Advertising Standards Alliance (EASA). Más de 700 influencers ya están inscritos en esta formación online que acredita el conocimiento de las normas de identificación de contenido publicitario.


Este paso es decisivo, ya que profesionaliza un sector que hasta hace poco se movía entre la intuición y la improvisación, y refuerza la responsabilidad compartida entre creadores, agencias y anunciantes.


Un nuevo estándar de transparencia digital


Con estas mejoras, el Código 2025 busca no solo facilitar el cumplimiento normativo, sino fortalecer la confianza entre marcas, consumidores y creadores. Las marcas adheridas podrán demostrar su compromiso con la ética publicitaria y evitar sanciones o crisis reputacionales derivadas de una comunicación engañosa.


En un entorno en el que la inteligencia artificial genera y distribuye contenidos a una velocidad sin precedentes, la transparencia deja de ser una opción: se convierte en un valor competitivo y en una exigencia regulatoria.


Conclusión


El nuevo Código de Conducta no sustituye al de 2021, sino que lo eleva al siguiente nivel. Pasa de la simple autorregulación a un marco de corresponsabilidad, en el que todos los actores—desde las grandes marcas hasta los microinfluencers—comparten una misma meta: que la publicidad sea clara, ética y reconocible.


Como siempre, cuidad los datos y ¡cuidaos!


Para acceder al Código de Conducta, haga clic aquí.

Algoritmos bajo vigilancia: la nueva era de la Inspección de Trabajo

La Inspección de Trabajo ha estrenado su Plan Estratégico 2025-2027 y trae una novedad que no deja indiferente: la inteligencia artificial se convierte en protagonista del mundo laboral. Y lo hace por partida doble: será tanto objeto de control en las empresas como herramienta de control en manos de la propia Inspección.


IA como objeto de control


Si tu empresa utiliza algoritmos para contratar, organizar turnos o tomar decisiones sobre la plantilla, es momento de revisar esos procesos. La Inspección anuncia que vigilará muy de cerca estas prácticas para evitar sesgos y discriminaciones.


La idea es simple: la tecnología no puede servir para limitar la igualdad de oportunidades. De hecho, el plan incluso apunta a que se podría adaptar el régimen sancionador para responder a posibles abusos en este terreno.


El mensaje a los empleadores es claro: toca ser transparentes y responsables con los sistemas de IA que afectan a las personas.


IA como herramienta de control


La Inspección no se queda atrás. El Plan prevé una profunda modernización tecnológica del organismo:


  • Creación de unidades de tratamiento masivo de datos en cada Comunidad Autónoma, capaces de manejar grandes volúmenes de información y detectar patrones de fraude.
  • Desarrollo de nuevas reglas algorítmicas integradas en la Herramienta de Lucha contra el Fraude.
  • Puesta en marcha de un laboratorio de informática forense, especializado en obtener evidencias digitales de los sistemas empresariales.
  • Implantación de proyectos piloto de IA para planificar expedientes, automatizar procesos y mejorar la eficiencia interna.

Todo ello con un objetivo: anticiparse al fraude, ganar eficacia y reforzar la transparencia en la actuación inspectora.


Un cambio de paradigma


La digitalización y la revolución tecnológica son ya parte inseparable del mundo laboral. El Plan Estratégico sitúa a la Inspección como árbitro y jugador a la vez: controla cómo las empresas aplican la IA, mientras aprovecha esa misma tecnología para optimizar su propia labor.


Para las empresas, el mensaje es doble. Por un lado, deben garantizar que los sistemas de IA que impactan en la plantilla respeten los derechos fundamentales. Por otro, deben estar preparadas para un control cada vez más sofisticado, en el que la huella digital y los datos ocupan un lugar central.


La conclusión es evidente: la IA ya no es un futurible en las relaciones laborales, sino un presente regulado y fiscalizado. Y entre 2025 y 2027, será uno de los ejes prioritarios de actuación de la Inspección de Trabajo y Seguridad Social.


Para leer el Plan, haga clic aquí.


Como siempre, cuidad los datos y ¡cuidaos!

Albania apuesta por una ministra artificial: entre la innovación y el riesgo

Albania ha dado un paso histórico —y polémico—: se ha convertido en el primer país del mundo en nombrar a una inteligencia artificial como ministra. Su nombre es Diella, inspirado en la palabra «diell» (sol, en albanés), como símbolo de transparencia.


La nueva «ministra» se encargará de evaluar licitaciones públicas, detectar irregularidades y asistir en trámites electrónicos. Su creación responde a un objetivo político muy concreto: convencer a Bruselas de la voluntad de Albania de luchar contra la corrupción de cara a su adhesión a la Unión Europea en 2030.


La puesta en escena no ha podido ser más simbólica: en las presentaciones oficiales, Diella aparece como una joven sonriente, con traje típico albanés, saludando desde la pantalla. Sin embargo, tras el gesto de modernidad, surgen muchas incógnitas.


Luces y sombras de la iniciativa


El gobierno albanés pretende mostrar un compromiso con la transparencia en un país marcado por sospechas de corrupción, favoritismo y blanqueo de capitales en las adjudicaciones públicas. Pero el movimiento despierta más dudas que certezas.


Delegar un cargo ministerial en una IA podría ser problemático por varios motivos:


  • No se ha aclarado si habrá algún tipo de supervisión humana sobre las decisiones de Diella.
  • No han informado sobre cuál ha sido el algoritmo utilizado, los datos de entrenamiento y los mecanismos de validación de sus resultados.
  • Como cualquier IA, existe un riesgo elevado de sesgos en las adjudicaciones y de falta de trazabilidad en los procesos.
  • Se abren vulnerabilidades de ciberseguridad en un contexto geopolítico delicado.

A estas críticas se suma otro factor: la viabilidad. Según estudios del MIT, el 95 % de los proyectos de IA a gran escala fracasan por falta de retorno o por costes excesivos. ¿Está Albania preparada para gestionar un sistema tan complejo y delicado?


El riesgo de sustituir en vez de complementar


La IA puede ser un aliado poderoso para reforzar la transparencia administrativa, pero su función debería ser acompañar y mejorar el trabajo humano, no reemplazarlo. La sustitución completa de un rol político de alto nivel plantea un escenario inédito y con implicaciones democráticas profundas: ¿quién asume la responsabilidad última de las decisiones?


Otros países ya experimentan con IA en la administración: Ucrania tiene un avatar portavoz, México una asistente virtual judicial, y Brasil avanza en esa línea. Pero el caso albanés va más allá: no es un asistente, sino una «ministra».


Conclusión


Albania busca con Diella enviar un mensaje claro a la Unión Europea: compromiso con la transparencia y voluntad de modernización. Pero el experimento plantea serias dudas de legitimidad, control y seguridad.


La innovación tecnológica es bienvenida, siempre que no sustituya el juicio crítico humano ni ponga en riesgo la confianza en las instituciones. La pregunta sigue abierta: ¿es Diella un rayo de luz contra la corrupción o un salto demasiado arriesgado en la política digital?


Como siempre, cuidad los datos y ¡cuidaos!

EU Data Act: ¿Estamos preparados para la nueva era de los datos?

12 de septiembre de 2025


 Desde hoy se aplica la EU Data Act, una normativa que cambia las reglas del juego en el acceso y uso de los datos generados por dispositivos conectados. Pero ¿qué implica exactamente y cómo afectará a empresas y usuarios?


¿Qué es el EU Data Act?


Es una ley de la Unión Europea que otorga a los usuarios —ya sean consumidores o empresas— el derecho de acceder y compartir los datos generados por sus dispositivos conectados (IoT – termostatos inteligentes o coches conectados –) de manera estructurada, en tiempo real y en formatos legibles por máquina.


¿Por qué es tan importante esta fecha?


Porque a partir del 12 de septiembre de 2025, los fabricantes deben garantizar que esos datos no quedan bajo su control exclusivo. Los usuarios tendrán libertad para reutilizarlos o compartirlos con terceros, fomentando la innovación y la competencia leal en el mercado digital europeo.


¿Qué beneficios aporta para los usuarios?


  • Transparencia total: acceso inmediato a la información generada por sus dispositivos.
  • Innovación abierta: posibilidad de que nuevas empresas desarrollen servicios basados en esos datos.
  • Mayor control: los usuarios ya no dependerán del fabricante para explotar su información.

¿Y qué implica para las empresas?


Aquí llegan los retos:


  • Adaptación tecnológica: sistemas preparados para exportar datos de manera segura y estandarizada.
  • Desarrollo de cláusulas contractuales justas
  • Cumplimiento legal: alineación con el RGPD y con la ciberseguridad.
  • Costes y procesos: inversión en infraestructura y formación para adecuarse a la norma.
  • Penalizaciones por incumplimiento

¿Estamos ante un cambio cultural?


Sí. La propiedad y el control de los datos ya no reside solo en los fabricantes. Europa apuesta por una economía digital más abierta, transparente y centrada en el usuario, donde compartir datos no sea una excepción, sino una práctica habitual y segura.


Conclusión


El EU Data Act es mucho más que una norma técnica: es un paso firme hacia un mercado digital europeo más competitivo y equilibrado. La pregunta ahora es: ¿convertirán las empresas esta obligación en una oportunidad real?


Evalúa tu cumplimiento hoy para convertir los retos en ventajas competitivas.


Como siempre, cuidad los datos y ¡cuidaos!

La primera nación gobernada por una IA: un experimento político que plantea más preguntas que respuestas

En un rincón paradisíaco de Palawan, Filipinas, se está gestando un experimento político y tecnológico sin precedentes: la Isla Sensay, la primera comunidad insular gobernada por un gabinete íntegramente formado por réplicas de inteligencia artificial de figuras históricas.


La iniciativa parte de la startup británica Sensay, especializada en crear réplicas humanas de IA capaces de reproducir con fidelidad la personalidad y los patrones de decisión de personajes célebres, entrenadas con sus escritos, discursos y filosofía. En la Isla Sensay, un gabinete de 17 líderes históricos ocupará los principales cargos de gobierno, encabezados por Marco Aurelio como presidente y Winston Churchill como primer ministro.


Otros puestos clave estarán en manos de Nelson Mandela (Justicia), Eleanor Roosevelt (Asuntos Exteriores), Florence Nightingale (Salud), Sun Tzu (Defensa), Ada Lovelace (Ciencia y Tecnología) y Mahatma Gandhi (Asesor de Ética), entre otros. Incluso se incluye a Leonardo da Vinci como ministro de Cultura y Nikola Tesla como asesor de Innovación.


Un gobierno sin partidos… pero con algoritmos


El proyecto se presenta como una oportunidad para demostrar que la IA puede gobernar «libre de partidismos políticos y bloqueos burocráticos». Cualquier persona del mundo podrá registrarse como E-residente, proponer políticas a través de una plataforma abierta y seguir en directo los debates y votaciones del gabinete virtual.


La hoja de ruta es ambiciosa:


  • 2025: compra de la isla y aprobación de la Carta Fundacional, que garantiza libertades y derechos básicos.
  • 2026: llegada de observadores e investigadores y puesta en marcha de una microrred de energía renovable.
  • 2027: apertura del programa de residencia y declaración de un Santuario Ambiental que cubrirá el 60% de la isla.
  • 2028: celebración del Primer Simposio Global sobre Gobernanza de IA.

Implicaciones y desafíos legales


Aunque la Isla Sensay nace como un proyecto privado, plantea preguntas complejas sobre soberanía y derecho internacional:


  • ¿Puede un territorio ser reconocido como «nación» si su gobierno no está compuesto por humanos?
  • ¿Quién es legalmente responsable si las decisiones del gabinete provocan daños?
  • ¿Cómo se garantiza la transparencia y la ausencia de sesgos en los algoritmos?

Además, la gestión de datos será crítica: la IA manejará información personal de residentes y e-residentes. El volumen y la naturaleza de la información exigirán estándares de ciberseguridad avanzados.


Más que un experimento tecnológico


El fundador de Sensay, Dan Thomson, asegura que el proyecto es una respuesta a la crisis global de confianza en los parlamentos, que según estudios ha caído un 78’4% desde 1990. Pero el debate trasciende lo técnico: ¿puede la inteligencia artificial sustituir al juicio humano en la política? ¿Qué papel juegan la empatía, la cultura y la ética en decisiones que afectan a comunidades reales?


La Isla Sensay podría ser un laboratorio vivo para el futuro de la gobernanza… o un recordatorio de que no todo lo que la tecnología permite es lo que la sociedad necesita.


Como siempre, cuidad los datos y ¡cuidaos!


Imagen: © 2025 Sensay Island – Sovereign Micronation. All rights reserved.

La IA en selección de personal, bajo la lupa legal

En la búsqueda de eficiencia y objetividad, muchas empresas están incorporando herramientas de inteligencia artificial (IA) en sus procesos de selección de personal. Desde la criba automatizada de currículums hasta entrevistas por vídeo analizadas por algoritmos, la tecnología ya es parte habitual del área de recursos humanos.


Sin embargo, debemos recordar que este avance debe ir acompañado de un cumplimiento normativo riguroso. El Reglamento de Inteligencia Artificial de la Unión Europea, aprobado el año pasado (2024), clasifica los sistemas de IA utilizados para tomar decisiones sobre contratación como sistemas de «alto riesgo» (art. 6.2). Esto implica una serie de obligaciones legales estrictas para empresas que los utilicen.


Entre las principales exigencias, destacan:


  • Evaluaciones de riesgo y conformidad previas al despliegue.
  • Supervisión humana significativa en todo el proceso.
  • Mecanismos de transparencia: el candidato debe ser informado si es evaluado por una IA.
  • Prevención de sesgos y discriminaciones algorítmicas.
  • Registro de decisiones y trazabilidad del sistema.

El incumplimiento puede conllevar multas de hasta 35 millones de euros o el 7% del volumen de negocio global, lo que coloca a la contratación automatizada en el foco de los reguladores (art. 99.3).


Además, cuando la IA trata datos personales de candidatos, también se debe tener en cuenta el Reglamento General de Protección de Datos (RGPD), en especial, el derecho del interesado a no ser objeto de decisiones automatizadas sin intervención humana (art. 22 RGPD).


En este nuevo marco, las empresas deben revisar sus procesos y herramientas de selección para garantizar que no solo son eficaces, sino también éticos, transparentes y legales. La transformación digital de la selección del talento debe ir de la mano de la confianza y el cumplimiento normativo.


Conclusión


Incorporar inteligencia artificial en los procesos de selección puede aportar eficiencia, agilidad y reducción de sesgos humanos, pero no elimina las obligaciones legales. Muy al contrario: al tratarse de sistemas de alto impacto sobre los derechos de las personas, el nuevo marco normativo europeo exige a las organizaciones mayor control, transparencia y diligencia.


Si tu empresa utiliza—o está valorando utilizar—soluciones basadas en IA para cribar, evaluar o tomar decisiones sobre candidatos, es imprescindible que tenga en cuenta las previsiones establecidas en el Reglamento de IA.


Como siempre, cuidad los datos y ¡cuidaos!

Revisión Textos Legales Web