Seguridad o privacidad: el pulso judicial por el fichaje con huella digital

La reciente Sentencia nº 370/2025 del Juzgado de lo Social nº 3 de A Coruña ha reabierto el debate sobre la legalidad del registro de jornada mediante sistemas biométricos en el entorno laboral. En un contexto marcado por la cautela de la Agencia Española de Protección de Datos (AEPD) y la tendencia empresarial a abandonar estos sistemas, el fallo avala la utilización de la huella digital como mecanismo de control horario en un hospital público, calificándola de «poco invasiva» y «proporcionada».


Un caso con implicaciones más allá del hospital


El conflicto enfrentaba al comité de empresa y a la Confederación Intersindical Galega frente al Instituto Policlínico Santa Teresa S.A. Los representantes sindicales alegaban vulneración de los derechos fundamentales a la intimidad, la salud y la libertad sindical por el uso obligatorio de un sistema de fichaje mediante huella dactilar.


El tribunal, sin embargo, desestimó íntegramente la demanda y consideró que el sistema biométrico empleado—basado en plantillas no identificativas y con medidas de seguridad avanzadas—respetaba los principios del RGPD y la LOPDGDD, resultando idóneo para garantizar el registro horario exigido por el artículo 34.9 del Estatuto de los Trabajadores.


Un argumento jurídico polémico


El punto más controvertido radica en la base jurídica elegida por el juzgado para legitimar el tratamiento de datos biométricos: la excepción del artículo 9.2.i) del RGPD, relativa al tratamiento necesario por razones de interés público en el ámbito de la salud pública.
Aplicar esta excepción—concebida para amenazas sanitarias o seguridad asistencial—al simple registro de jornada laboral resulta, cuanto menos, discutible. El tribunal justifica su decisión al considerar el hospital una infraestructura crítica (Ley 8/2011), donde la verificación biométrica contribuiría a la seguridad de pacientes, medicamentos y personal. No obstante, este razonamiento confunde dos tratamientos distintos: el control de acceso (más defendible desde la perspectiva de la seguridad) y el registro horario, cuya finalidad es puramente laboral.


Falta de doctrina unificada


El caso refleja la ausencia de una doctrina consolidada en torno al fichaje biométrico.
Mientras que la AEPD, en su Guía sobre uso de datos biométricos (noviembre de 2023), insiste en que estos sistemas son altamente intrusivos y de uso excepcional, algunos tribunales y organismos técnicos—como el CNPIC o el Consejo Español para el Registro de Jornada—mantienen posiciones más permisivas, especialmente en contextos de seguridad reforzada.


El resultado es un panorama fragmentado en el que la misma práctica puede considerarse ilícita o proporcional según el órgano que la valore.


Una sentencia que invita a la reflexión


El Juzgado de A Coruña ha ido más allá de la postura mayoritaria al calificar la huella digital como menos intrusiva que alternativas como las apps con geolocalización o los lectores de tarjetas NFC.
Esta valoración, sin embargo, parece minimizar la naturaleza sensible de los datos biométricos y el riesgo inherente a su tratamiento. Más que un paso hacia la modernización tecnológica, el fallo puede interpretarse como un retroceso en la cultura de protección de datos laborales.


En definitiva, esta sentencia nos invita a una reflexión urgente: ¿Estamos ante un cambio de tendencia judicial o ante un exceso de interpretación que desdibuja los límites del RGPD? Lo cierto es que, a día de hoy, la seguridad jurídica en materia de fichaje biométrico sigue tan difusa como las huellas que pretende registrar.


Como siempre, cuidad los datos y ¡cuidaos!


Para leer la resolución, haga clic aquí.

XXV Congreso ASNALA en Sevilla: pasión laboralista y compromiso digital

El XXV Congreso de ASNALA, celebrado en Sevilla bajo el lema Laborium 2025, ha sido mucho más que un punto de encuentro: una demostración del vigor y la comunidad que definen al Derecho Laboral en España. Durante tres días, la capital andaluza reunió a cientos de profesionales del ámbito jurídico-laboral, convertidos en protagonistas de un evento que combinó conocimiento, innovación y buenas relaciones.


Tecnolawyer tuvo el privilegio de participar como patrocinador de esta edición especial, reafirmando nuestro compromiso con el impulso del Derecho Digital Laboral. En nuestro stand presentamos dos herramientas especialmente pensadas para los laboralistas que desean anticiparse a los retos tecnológicos que ya están transformando su práctica: el Índice Digital Laboral, que permite conocer el nivel de madurez digital de cada profesional y compararlo de forma anónima con el de sus colegas, y la Guía rápida “IA: qué ha de saber un abogado laboralista hoy”, un material de consulta ágil que resume los aspectos clave del uso responsable y ético de la inteligencia artificial en el ámbito laboral.


El congreso fue también una oportunidad única para escuchar y comprender las inquietudes del sector. Muchos asistentes compartieron sus experiencias en torno a dos cuestiones que centraron buena parte del debate: la irrupción de la IA en los recursos humanos —con su potencial, pero también con sus dilemas jurídicos— y la implantación efectiva y demostrable de la Desconexión Digital en las empresas, un derecho que sigue evolucionando en paralelo a la digitalización del trabajo. Estas conversaciones confirmaron la necesidad de acompañar a las pymes y a los despachos en la adopción de buenas prácticas digitales, un objetivo central en nuestra labor diaria.


El equipo de ASNALA, encabezado por Ana Gómez, presidenta, y Paloma Ausín, gerente, ofreció una organización impecable que combinó el rigor profesional con una hospitalidad ejemplar. La agenda de Laborium 2025 no solo brilló por la calidad de sus ponencias y mesas redondas, sino también por su cuidada vertiente social: la visita guiada a los Reales Alcázares y la Cena de Gala fueron momentos memorables que sellaron la complicidad entre colegas de toda España.


Desde Tecnolawyer, regresamos de Sevilla con la satisfacción de haber compartido conocimiento, generado conversaciones valiosas y reforzado vínculos con una comunidad profesional apasionada y en plena transformación digital. Este Congreso ha dejado claro que el futuro del Derecho Laboral será, necesariamente, también digital. Y ahí estaremos, acompañando a los laboralistas con soluciones jurídico-tecnológicas que les ayuden a liderar ese cambio.

El equipo de Tecnolawyer en el photocall de la Cena de Gala del Congreso ASNALA 2025.
El equipo de Tecnolawyer, desplazado al Congreso, en el photocall de la Cena de Gala del Congreso de ASNALA 2025.

Un simple clic, un gran problema: el error humano detrás del fallo de la CNMC

El 29 de octubre, la Comisión Nacional de los Mercados y la Competencia (CNMC) protagonizó un incidente que ha generado una amplia polémica en torno a la protección de datos personales y la responsabilidad institucional. El error, aparentemente simple, consistió en enviar un correo electrónico a 378 influencers españoles, conocidos oficialmente como Usuarios de Especial Relevancia (UER), sin utilizar la copia oculta (CCO), exponiendo así las direcciones de correo electrónico de todos los destinatarios.


Entre los afectados se encontraban figuras públicas como Risto Mejide o Ibai Llanos, quienes rápidamente dieron visibilidad al suceso en redes sociales. Más allá del revuelo mediático, el incidente plantea serias implicaciones legales y éticas sobre la privacidad y el cumplimiento del Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica 3/2018, de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD).


La importancia de la privacidad de los datos


Según el artículo 32 del RGPD, los responsables del tratamiento deben garantizar la seguridad de los datos personales mediante medidas técnicas y organizativas adecuadas. Enviar un correo masivo con copia visible a todos los destinatarios es, sin duda, una vulneración de este principio, ya que permite la divulgación no autorizada de información personal. Aunque el error haya sido humano, el RGPD deja claro que las organizaciones—sean públicas o privadas—deben adoptar procedimientos que minimicen el riesgo de estos fallos.


Este caso pone de manifiesto que los organismos públicos están sujetos a las mismas obligaciones que las empresas privadas. La CNMC, como autoridad administrativa independiente, actúa como responsable del tratamiento de los datos de los influencers inscritos en su registro. Por tanto, tiene la obligación de proteger esos datos, garantizar su confidencialidad y aplicar protocolos de seguridad que eviten incidentes como este.


No se trata solo de una cuestión técnica, sino también de cultura de protección de datos. Los errores humanos—como confundir «CC» con «CCO»—pueden tener consecuencias graves si no existen controles internos o sistemas automáticos que detecten este tipo de riesgos antes de que ocurra el envío.


Además, el incidente podría dar lugar a una investigación por parte de la Agencia Española de Protección de Datos (AEPD), que ya ha sancionado casos similares en los que se difundieron direcciones de correo electrónico sin consentimiento.


Conclusión


Este suceso debe servir como recordatorio y advertencia: la protección de datos no es una formalidad, sino una responsabilidad compartida. Tanto las empresas como las instituciones públicas deben revisar sus procedimientos internos, formar a su personal y adoptar medidas tecnológicas que eviten que un simple clic acabe comprometiendo la privacidad de cientos de personas.


Porque, en materia de datos personales, un pequeño error humano puede convertirse en un gran fallo institucional.


Como siempre, cuidad los datos y ¡cuidaos!

Ni anonimato ni IA: el RGPD se aplica incluso a las imágenes manipuladas digitalmente

La Agencia Española de Protección de Datos (AEPD) ha vuelto a pronunciarse sobre uno de los fenómenos más alarmantes del entorno digital: la difusión de imágenes falsas de desnudos («deepnudes») creadas mediante inteligencia artificial. Ha impuesto una multa de 2.000 € (reducida finalmente a 1.200 € por reconocimiento y pago voluntario) a un particular por difundir imágenes manipuladas de menores en grupos de mensajería instantánea.


Aunque el sancionado no generó las imágenes, su participación en la difusión fue suficiente para que la Agencia apreciara una infracción del artículo 6.1 del RGPD, al tratarse de un tratamiento de datos personales sin base jurídica legítima.


Lo que dice el RGPD (y por qué importa aquí)


El artículo 6 del RGPD establece que todo tratamiento de datos personales debe fundarse en una base de licitud: consentimiento, obligación legal, interés público, contrato o interés legítimo. Si ninguna de ellas concurre—como en este caso—, el tratamiento es ilícito, incluso si el infractor no obtiene beneficio ni persigue un fin sexual.


La AEPD recuerda que el rostro de una persona es un dato personal (art. 4 RGPD), y que alterarlo o combinarlo con otro cuerpo no elimina esa condición, sino que la agrava: se crea una asociación falsa en un contexto íntimo, con potencial de causar graves daños reputacionales.


Por tanto, reenviar o publicar este tipo de imágenes constituye un tratamiento adicional, que requiere consentimiento y proporcionalidad. La ausencia de ambas bases legitima la sanción.


La IA no borra la responsabilidad


La resolución refuerza una idea clave: el uso de inteligencia artificial no exime de responsabilidad. La tecnología puede automatizar el daño, pero la decisión de compartir sigue siendo humana. Además, cuando los afectados son menores de edad, entra en juego el artículo 84 de la LOPDGDD, que refuerza la protección frente a la difusión de imágenes que puedan vulnerar su dignidad o derechos fundamentales.


Lecciones que deja el caso


  • La IA no anula la ley: las imágenes sintéticas siguen siendo datos personales si permiten identificar a una persona.
  • Compartir también es tratar: reenviar o publicar implica tratamiento y puede acarrear sanción.
  • Los menores cuentan con una protección reforzada, lo que eleva la gravedad de la infracción.
  • El RGPD es plenamente aplicable a la IA generativa: sus principios de licitud, minimización y proporcionalidad siguen siendo la base del cumplimiento.

Conclusiones


La sanción de 1.200 € —tras reducciones por reconocimiento y pago voluntario— resulta, cuanto menos, llamativamente baja si se compara con la gravedad moral y social de difundir imágenes falsas de desnudos de menores.


Aunque el RGPD permite graduar las multas en función de la proporcionalidad, cabe preguntarse si este tipo de conductas no merecerían también respuesta penal, especialmente cuando concurren elementos de humillación, acoso o afectación grave a la dignidad personal.


El caso invita a un debate necesario:


  • ¿Estamos aplicando sanciones realmente disuasorias frente a los nuevos riesgos digitales?
  • ¿Debe el Derecho penal intervenir cuando la inteligencia artificial amplifica el daño a menores?

La AEPD ha puesto el foco en la ilicitud del tratamiento de datos, pero la reflexión jurídica—y ética—va más allá: la tecnología puede replicar rostros, pero no puede replicar el consentimiento… ni reparar el daño emocional causado.


Como siempre, cuidad los datos y ¡cuidaos!


Para leer la resolución, haga clic aquí.

La nueva fiebre digital: ¿cuánto cuesta tu voz en el mercado de la IA?

En apenas unos días, Neon se ha convertido en una de las aplicaciones más descargadas del momento. Su propuesta parece irresistible: pagar a los usuarios por grabar y vender sus llamadas telefónicas. Hasta 30 dólares al día por dejar que su voz—y las conversaciones que mantiene—se utilicen para entrenar modelos de inteligencia artificial.


La idea es sencilla: Neon registra las llamadas del usuario y, si ambos interlocutores tienen instalada la app, ambas voces se utilizan para alimentar sistemas de IA que aprenden a reconocer, imitar o analizar el lenguaje humano. A cambio, el usuario recibe una pequeña compensación económica por minuto grabado.


Pero detrás del atractivo modelo «tecnología a cambio de dinero», surgen enormes interrogantes legales y éticos. ¿Sabemos realmente qué estamos cediendo cuando aceptamos grabar nuestra voz?


Datos biométricos: la voz como identidad digital


A diferencia de un simple dato personal, la voz es un identificador biométrico único, pues permite reconocer, imitar y suplantar identidades. Por ello, el Reglamento General de Protección de Datos (RGPD) europeo la considera dato sensible y su tratamiento requiere un consentimiento explícito e informado.


El problema es que, según los términos de uso de Neon, el usuario otorga a la empresa una licencia amplia y prácticamente ilimitada para «reproducir, almacenar, modificar y distribuir» sus grabaciones. En la práctica, esto implica ceder el control total sobre un dato que no solo revela la voz, sino también información contextual, emocional y de terceros.


De hecho, si la llamada es con alguien que no utiliza Neon, la app igualmente graba la parte del usuario… pero inevitablemente se captan fragmentos de la otra persona. Esto plantea dudas serias en materia de consentimiento de los interlocutores y vulnera principios básicos de minimización y finalidad del RGPD.


Entre la curiosidad y el riesgo


La empresa asegura que las grabaciones se anonimizan antes de ser vendidas a terceros. Sin embargo, expertos en seguridad digital alertan: la voz es extraordinariamente difícil de anonimizar. Puede utilizarse para crear imitaciones perfectas mediante IA, abrir cuentas bancarias, o incluso suplantar a familiares en estafas telefónicas.


Además, las incongruencias detectadas entre las tarifas anunciadas en la App Store y las publicadas en la web de Neon generan dudas sobre la transparencia real del modelo.


Conclusión: el verdadero precio de la voz


El éxito viral de Neon demuestra una tendencia preocupante: cada vez más usuarios están dispuestos a monetizar su privacidad a cambio de beneficios inmediatos. La «economía del dato» evoluciona hacia un escenario donde la identidad se convierte en un activo comercializable, sin que muchos comprendan las consecuencias a largo plazo.


Ceder la voz no es inocuo, es ceder una parte irrepetible de nuestra identidad digital. Por eso, antes de aceptar los «términos y condiciones», conviene preguntarse: ¿cuánto vale realmente mi voz? ¿Y quién la escuchará cuando ya no sea mía?


Como siempre, cuidad los datos y ¡cuidaos!

Transparencia 2.0: así cambia el nuevo Código de Conducta de Influencers en España

Desde el 1 de octubre de 2025, el ecosistema digital español da un nuevo paso hacia la transparencia publicitaria. Ha entrado oficialmente en vigor la actualización del Código de Conducta sobre el uso de influencers en la publicidad, promovido por AUTOCONTROL, la Asociación Española de Anunciantes (AEA) e IAB Spain, con el apoyo de instituciones públicas como el Ministerio de Consumo y la Secretaría de Estado de Digitalización e Inteligencia Artificial.


Este nuevo Código, revisado por primera vez desde su aprobación en 2021, refuerza el papel de la autorregulación en un entorno cada vez más complejo, en el que la frontera entre el contenido orgánico y el publicitario es más difusa que nunca. Con cerca de 1.000 entidades adheridas—entre marcas, agencias, plataformas y creadores—, el texto aspira a ofrecer mayor seguridad jurídica y a consolidar buenas prácticas en el marketing de influencia.


¿Qué cambia respecto al Código de 2021?


La versión de 2021 fue pionera al exigir que los contenidos patrocinados fueran claramente identificables mediante etiquetas o menciones explícitas («#publi», «#ad», «en colaboración con…»). Sin embargo, la práctica diaria demostró que seguían existiendo zonas grises: colaboraciones no declaradas, obsequios encubiertos o menciones ambiguas que confundían a la audiencia.


El nuevo Código 2025 avanza precisamente en esa dirección:


  • Introduce una lista de indicios que permite determinar cuándo un contenido puede considerarse publicitario, incluso sin prueba directa del acuerdo comercial.
  • Amplía y actualiza el anexo de plataformas digitales, especificando cómo debe identificarse la publicidad en cada una (YouTube, Instagram, TikTok, Twitch, etc.).
  • Añade previsiones específicas sobre contenidos generados con inteligencia artificial, la intervención de menores de edad y la responsabilidad de las distintas partes (marcas, agencias e influencers).

En resumen: donde antes había recomendaciones generales, ahora hay criterios concretos y trazables.


Formación y profesionalización del influencer


Otra de las grandes novedades es el Certificado de Capacitación Básica para Influencers sobre normativa publicitaria, lanzado por AUTOCONTROL dentro del programa europeo AdEthics, impulsado por la European Advertising Standards Alliance (EASA). Más de 700 influencers ya están inscritos en esta formación online que acredita el conocimiento de las normas de identificación de contenido publicitario.


Este paso es decisivo, ya que profesionaliza un sector que hasta hace poco se movía entre la intuición y la improvisación, y refuerza la responsabilidad compartida entre creadores, agencias y anunciantes.


Un nuevo estándar de transparencia digital


Con estas mejoras, el Código 2025 busca no solo facilitar el cumplimiento normativo, sino fortalecer la confianza entre marcas, consumidores y creadores. Las marcas adheridas podrán demostrar su compromiso con la ética publicitaria y evitar sanciones o crisis reputacionales derivadas de una comunicación engañosa.


En un entorno en el que la inteligencia artificial genera y distribuye contenidos a una velocidad sin precedentes, la transparencia deja de ser una opción: se convierte en un valor competitivo y en una exigencia regulatoria.


Conclusión


El nuevo Código de Conducta no sustituye al de 2021, sino que lo eleva al siguiente nivel. Pasa de la simple autorregulación a un marco de corresponsabilidad, en el que todos los actores—desde las grandes marcas hasta los microinfluencers—comparten una misma meta: que la publicidad sea clara, ética y reconocible.


Como siempre, cuidad los datos y ¡cuidaos!


Para acceder al Código de Conducta, haga clic aquí.

Algoritmos bajo vigilancia: la nueva era de la Inspección de Trabajo

La Inspección de Trabajo ha estrenado su Plan Estratégico 2025-2027 y trae una novedad que no deja indiferente: la inteligencia artificial se convierte en protagonista del mundo laboral. Y lo hace por partida doble: será tanto objeto de control en las empresas como herramienta de control en manos de la propia Inspección.


IA como objeto de control


Si tu empresa utiliza algoritmos para contratar, organizar turnos o tomar decisiones sobre la plantilla, es momento de revisar esos procesos. La Inspección anuncia que vigilará muy de cerca estas prácticas para evitar sesgos y discriminaciones.


La idea es simple: la tecnología no puede servir para limitar la igualdad de oportunidades. De hecho, el plan incluso apunta a que se podría adaptar el régimen sancionador para responder a posibles abusos en este terreno.


El mensaje a los empleadores es claro: toca ser transparentes y responsables con los sistemas de IA que afectan a las personas.


IA como herramienta de control


La Inspección no se queda atrás. El Plan prevé una profunda modernización tecnológica del organismo:


  • Creación de unidades de tratamiento masivo de datos en cada Comunidad Autónoma, capaces de manejar grandes volúmenes de información y detectar patrones de fraude.
  • Desarrollo de nuevas reglas algorítmicas integradas en la Herramienta de Lucha contra el Fraude.
  • Puesta en marcha de un laboratorio de informática forense, especializado en obtener evidencias digitales de los sistemas empresariales.
  • Implantación de proyectos piloto de IA para planificar expedientes, automatizar procesos y mejorar la eficiencia interna.

Todo ello con un objetivo: anticiparse al fraude, ganar eficacia y reforzar la transparencia en la actuación inspectora.


Un cambio de paradigma


La digitalización y la revolución tecnológica son ya parte inseparable del mundo laboral. El Plan Estratégico sitúa a la Inspección como árbitro y jugador a la vez: controla cómo las empresas aplican la IA, mientras aprovecha esa misma tecnología para optimizar su propia labor.


Para las empresas, el mensaje es doble. Por un lado, deben garantizar que los sistemas de IA que impactan en la plantilla respeten los derechos fundamentales. Por otro, deben estar preparadas para un control cada vez más sofisticado, en el que la huella digital y los datos ocupan un lugar central.


La conclusión es evidente: la IA ya no es un futurible en las relaciones laborales, sino un presente regulado y fiscalizado. Y entre 2025 y 2027, será uno de los ejes prioritarios de actuación de la Inspección de Trabajo y Seguridad Social.


Para leer el Plan, haga clic aquí.


Como siempre, cuidad los datos y ¡cuidaos!

IA en RRHH: de la promesa al riesgo regulado

El pasado 18 de septiembre tuvimos el placer, desde Tecnolawyer, de impartir para ASNALA el webinar «Cómo la IA está redefiniendo las Relaciones Laborales». Y si algo quedó claro tras la sesión es que la Inteligencia Artificial ya no es una promesa de futuro: es una realidad regulada que impacta directamente en la gestión de personas y en las obligaciones legales de las empresas.


Hoy, dos de cada tres organizaciones utilizan herramientas de IA en sus departamentos de RRHH. Hablamos de sistemas de selección, algoritmos que evalúan el desempeño, herramientas de cálculo de productividad o aplicaciones que asignan turnos y tareas. Todos ellos tienen algo en común: afectan a decisiones laborales críticas, y por tanto están bajo el radar del Reglamento Europeo de Inteligencia Artificial (RIA – AI Act).


Las «decisiones invisibles»


Uno de los conceptos clave que debatimos es el de las decisiones invisibles: aquellas que adopta un algoritmo en silencio, pero que determinan el acceso a un empleo, una promoción o incluso un despido. La mayoría de empresas aún desconoce sus obligaciones frente a este nuevo marco, lo que genera un riesgo creciente de sanciones y litigios.


El Reglamento clasifica estos sistemas como de alto riesgo y exige un cumplimiento exhaustivo. No basta con aplicar la norma: hay que poder demostrar que se cumple. Aquí entran en juego la documentación técnica, la evaluación de impacto algorítmico, los protocolos de supervisión humana y la trazabilidad de las decisiones.


Responsabilidad y sanciones


Las obligaciones recaen principalmente en las empresas usuarias de la IA, aunque proveedores e integradores también asumen responsabilidades. No obstante, la organización que decide implantar un sistema es la que responderá ante la Inspección o los tribunales si surgen problemas.


Las sanciones administrativas pueden alcanzar los 35 millones de euros o el 7 % de la facturación global. Pero más allá de la multa, existen otros riesgos: demandas laborales por discriminación, paralización de sistemas críticos, daño reputacional y mayores inspecciones laborales.


Cumplimiento y oportunidad


Durante el webinar insistimos en que este nuevo escenario no debe verse solo como un riesgo, sino también como una oportunidad de diferenciación. Las empresas que se anticipen con un plan de cumplimiento sólido estarán mejor posicionadas frente a clientes, trabajadores y reguladores.


La implementación efectiva del RIA ya está en marcha. Actualmente, nos encontramos en la Fase III del calendario de obligaciones: auditorías internas obligatorias, revisión continua y actualización permanente. No es momento de esperar: es momento de actuar.


¿Qué deben hacer las empresas?


La respuesta pasa por tres pasos esenciales:


  1. Auditoría inicial de los sistemas de IA en RRHH.
  2. Documentación y políticas internas claras sobre su uso.
  3. Supervisión humana efectiva, que garantice que la tecnología nunca sustituye el juicio profesional.

En definitiva, la IA en RRHH ha dejado de ser un lujo o una moda. Es un campo regulado, de alto riesgo, que exige preparación, acompañamiento jurídico y un enfoque multidisciplinar (Legal, IT y RRHH).


Desde Tecnolawyer, junto con ASNALA, queremos ayudar a empresas y despachos a navegar este nuevo marco. Porque la pregunta ya no es si tu organización usa IA, sino cómo la estás usando y si lo haces de forma legal y responsable.


Como siempre, cuidad los datos y ¡cuidaos!

Albania apuesta por una ministra artificial: entre la innovación y el riesgo

Albania ha dado un paso histórico —y polémico—: se ha convertido en el primer país del mundo en nombrar a una inteligencia artificial como ministra. Su nombre es Diella, inspirado en la palabra «diell» (sol, en albanés), como símbolo de transparencia.


La nueva «ministra» se encargará de evaluar licitaciones públicas, detectar irregularidades y asistir en trámites electrónicos. Su creación responde a un objetivo político muy concreto: convencer a Bruselas de la voluntad de Albania de luchar contra la corrupción de cara a su adhesión a la Unión Europea en 2030.


La puesta en escena no ha podido ser más simbólica: en las presentaciones oficiales, Diella aparece como una joven sonriente, con traje típico albanés, saludando desde la pantalla. Sin embargo, tras el gesto de modernidad, surgen muchas incógnitas.


Luces y sombras de la iniciativa


El gobierno albanés pretende mostrar un compromiso con la transparencia en un país marcado por sospechas de corrupción, favoritismo y blanqueo de capitales en las adjudicaciones públicas. Pero el movimiento despierta más dudas que certezas.


Delegar un cargo ministerial en una IA podría ser problemático por varios motivos:


  • No se ha aclarado si habrá algún tipo de supervisión humana sobre las decisiones de Diella.
  • No han informado sobre cuál ha sido el algoritmo utilizado, los datos de entrenamiento y los mecanismos de validación de sus resultados.
  • Como cualquier IA, existe un riesgo elevado de sesgos en las adjudicaciones y de falta de trazabilidad en los procesos.
  • Se abren vulnerabilidades de ciberseguridad en un contexto geopolítico delicado.

A estas críticas se suma otro factor: la viabilidad. Según estudios del MIT, el 95 % de los proyectos de IA a gran escala fracasan por falta de retorno o por costes excesivos. ¿Está Albania preparada para gestionar un sistema tan complejo y delicado?


El riesgo de sustituir en vez de complementar


La IA puede ser un aliado poderoso para reforzar la transparencia administrativa, pero su función debería ser acompañar y mejorar el trabajo humano, no reemplazarlo. La sustitución completa de un rol político de alto nivel plantea un escenario inédito y con implicaciones democráticas profundas: ¿quién asume la responsabilidad última de las decisiones?


Otros países ya experimentan con IA en la administración: Ucrania tiene un avatar portavoz, México una asistente virtual judicial, y Brasil avanza en esa línea. Pero el caso albanés va más allá: no es un asistente, sino una «ministra».


Conclusión


Albania busca con Diella enviar un mensaje claro a la Unión Europea: compromiso con la transparencia y voluntad de modernización. Pero el experimento plantea serias dudas de legitimidad, control y seguridad.


La innovación tecnológica es bienvenida, siempre que no sustituya el juicio crítico humano ni ponga en riesgo la confianza en las instituciones. La pregunta sigue abierta: ¿es Diella un rayo de luz contra la corrupción o un salto demasiado arriesgado en la política digital?


Como siempre, cuidad los datos y ¡cuidaos!

Revisión Textos Legales Web