Blog

Carta de Derechos Digitales

José Luis Piñar Mañas. Catedrático de Derecho Administrativo. Patrono de la Fundación Instituto Hermes

El pasado 14 de julio, el presidente del Gobierno presentó en la Moncloa la Carta de Derechos Digitales y afirmó que con ello «España se sitúa a la vanguardia internacional en la protección de derechos de la ciudadanía». ¿Es realmente así, teniendo en cuenta que la Carta carece de valor normativo, que tan sólo es un documento programático que pretende recoger en un texto los derechos fundamentales que deberían en todo caso ser reconocidos en la sociedad digital?

Desde luego, la protección efectiva de los derechos sólo se alcanza cuando se reconocen de forma vinculante y se articulan garantías para hacerlos valer y defenderse frente a los ataques que puedan sufrir. Algo que la Carta, por sí sola, no hace. Entonces, ¿por qué una Carta de Derechos Digitales?

Decir que la innovación tecnológica trae consigo inimaginables avances para la sociedad pero que al mismo tiempo genera riesgos difíciles o imposibles de predecir es algo ya muy manido, pero cierto. También suele decirse que el derecho es incapaz de enfrentarse de antemano a tales riesgos, respecto de los que siempre parece ir a la zaga. Seguramente algo de cierto hay también en ello, pero esta situación no debería generarnos sensaciones de zozobra. El derecho se ha enfrentado a situaciones tan complejas, intensas, disruptivas, como las que ahora trae consigo el reto de la transformación digital. Y lo ha hecho con éxito. Basta pensar en lo que supuso el descubrimiento de América, la Revolución francesa o la caída del Muro de Berlín. O las revoluciones industriales que se han producido antes de la que ahora llamamos cuarta. Lo que ocurre es que ahora parece que los cambios son más rápidos, los escenarios más inciertos, el entorno muy diferente al que hasta ahora conocía la sociedad. Y el derecho se resiente. Pero no se rinde. Así como evoluciona la ciencia, también el derecho busca nuevas soluciones y se adapta al nuevo entorno. La regulación, las garantías y la efectividad de las normas deben reinventarse para conseguir el objetivo final, que no es otro que el pleno respeto a los derechos fundamentales de todas las personas.

Y en este contexto la Carta de Derechos Digitales encuentra su justificación, pues de entrada se presenta como marco imprescindible para futuras leyes. El compromiso asumido por el presidente del Gobierno al presentar la Carta debe traducirse en que cualquier iniciativa legislativa debería superar el juicio de compatibilidad en relación con el compromiso que supone la Carta. Compromiso que debe entenderse exigible no solo al actual Gobierno, pues la Carta tuvo ya un precedente en la iniciativa que se puso en marcha por el anterior en 2017 y que por cuestiones de calendarios electorales no llegó a ver la luz. Es algo que no debe olvidarse porque de este modo la Carta —en cuya elaboración, por cierto, se han tenido en cuenta las aportaciones de la sociedad civil— puede ser considerada como hoja de ruta para la gran mayoría de los grupos políticos con representación parlamentaria. Estamos, pues, ante un texto que debe entenderse como una conquista en favor de los ciudadanos, a la que deben sentirse políticamente vinculados quienes tienen en sus manos la llave de la iniciativa legislativa.

Esta conclusión es de enorme trascendencia porque al aprobarse la Carta se han puesto las bases de lo que debe ser el respeto a los derechos fundamentales en el desarrollo actual y futuro de la sociedad digital.

Cierto que la Constitución de 1978 puede ser interpretada de modo que permite entender reconocidos y tutelados los derechos fundamentales tanto en el entorno físico como en el digital. Pero era necesario resaltar la importancia de los derechos digitales sobre todo si se tiene en cuenta que, especialmente los jóvenes, cada vez más, no es que vivan «con» Internet, sino que viven también «en» Internet. La red —lo digital— se ha convertido en un espacio vital cotidiano, en el que las personas nos relacionamos e interactuamos. Es un espacio en el que, además, se dan al menos dos circunstancias que no debemos olvidar.

Por un lado, y esto es esencial, la violación de los derechos en el entorno digital puede llegar a pasar totalmente desapercibida para quien la padece. Si sufrimos cualquier ataque a nuestros derechos en la vida física, de inmediato somos conscientes de ello y podemos reaccionar. Si nos impiden ejercer la libertad de expresión, manifestarnos, si nos privan de la libertad o de la propiedad, por modesto que sea el bien que nos sustraigan, de inmediato podemos caer en la cuenta de ello.

Pero si en el entorno digital nos acechan, nos vigilan, nos roban los datos o la identidad entera, nos manipulan o perfilan ilícitamente, quizá nunca lleguemos a ser conscientes de ello, o lo seamos sólo cuando se produzcan las consecuencias nocivas para nosotros derivadas de esa violación de los derechos: cuando no contraten a alguien porque han estado escudriñando sus redes sociales, cuando no podamos utilizar nuestra tarjeta de crédito porque nos han robado los datos, cuando se hacen públicas unas imágenes comprometedoras que pueden suponer la muerte civil o incluso la real de las personas. No sería la primera vez que una persona se suicida tras hacerse públicas imágenes sobre ella captadas —o difundidas— sin su consentimiento. Zygmunt Bauman y David Lyon han hablado con razón de la «vigilancia líquida» a la que estamos sometidos, y las graves consecuencias que ello tiene.

Por otro lado, y quizá como consecuencia de la falta de conciencia sobre la posible y nefasta violación de nuestros derechos, las cautelas que se toman en el entorno digital son muy inferiores a las que tomamos en la vida física. En la sociedad digital no cerramos las puertas con llave ni usamos cinturón de seguridad o airbag. Byung-Chul Han ha advertido que con frecuencia son las propias personas las que divulgan de un modo «cuasi pornográfico» su propia información.

Ya sólo lo anterior justifica la aprobación de una Carta de Derechos Digitales, pese a carecer de valor normativo. En efecto, España se sitúa a la cabeza de la reflexión y el compromiso público con los derechos digitales. El debate generado con este motivo permite colocar en el centro de atención la necesidad de respetar los derechos digitales. Con propuestas sin duda pioneras, como el reconocimiento de la identidad digital, de los neuroderechos (en lo que tanto tiene que ver a nivel mundial el científico español Rafael Yuste), el derecho de acceso a Internet, el derecho al teletrabajo y a la desconexión (ya propuesto en la Ley Orgánica 3/2018), o la exigencia de que los sistemas de inteligencia artificial respeten en todo momento los derechos fundamentales. Y todo ello centrado en la persona y su dignidad. Stefano Rodotà ha advertido que

«la dignidad… evita que la persona sea considerada como una especie de explotación a cielo abierto en la que cualquiera puede recoger información y construir perfiles… que convierten a la persona en objeto de poderes externos, que pueden falsificarla, construirla de formas coherentes con las necesidades de una sociedad vigilada, de la selección social, del cálculo económico»

Para ello es imprescindible exigir que en el entorno digital los derechos sean plenamente respetados. Ninguna innovación tecnológica es posible sin derechos fundamentales. No se trata de poner puertas al campo, sino de recordar que la ciencia y el derecho, sobre todo en la sociedad digital, han de ir siempre de la mano. Y en ese recorrido común la Carta de Derechos Digitales puede y debe asumir un papel capital. No lo olvidemos.

El 10 de marzo de 2021 tuvo lugar de forma virtual la reunión de lanzamiento del proyecto PROLIFIC, PROmoting digital rights LIteracy For Including Citizens coordinado por el instituto Polibienestar de la Universidad de Valencia y los socios Fundación Instituto Hermes para el empoderamiento de la ciudadanía (España), Margherita Societa’ Cooperativa Sociale Onlus (Italia), Senior Europa Sociedad Limitada – Kveloce (España) y Fundação Dr. José Lourenço Júnior (Portugal).

Todos los socios participaron en el evento para debatir y planificar la puesta en marcha del proyecto que tiene como objetivo empoderar a los grupos de personas vulnerables (ancianos, inmigrantes y personas con discapacidad) sobre sus derechos digitales a través de la capacitación de los profesionales que trabajan con ellos en ONG, asociaciones, servicios sociales, etc. y la creación y validación de herramientas específicas.

Se trata de un paso importante para empezar a generar conciencia y crear herramientas para proteger a los grupos vulnerables de la estafa o la usurpación de identidad, el acoso y el grooming, la suplantación de identidad o el abuso de poder de las empresas, y para luchar contra la difusión de mensajes extremistas, discriminatorios, racistas, xenófobos, antisemitas, homófobos o sexistas.

Imagen: Gerarlt

El papel de los socios

  • La Universitat de Valencia – Instituto Polibienestar (España) es el socio principal del proyecto y será quien promueva la coordinación del consorcio. Además, está a cargo del desarrollo del marco de evaluación para medir los impactos del proyecto y las actividades relacionadas.
  • La Fundación Instituto Hermes para el empoderamiento de la ciudadanía (España) lidera el desarrollo de la creación de un software (plataforma web) que personaliza un currículo de formación para que los profesionales que trabajan con grupos vulnerables tengan las competencias adecuadas para promover los derechos digitales y prevenir su vulneración.
  • Margherita Societa’ Cooperativa Sociale Onlus (Italia) se encarga de las actividades de comunicación y difusión, pero también participará en la prueba de las nuevas herramientas de formación en el ámbito de la discapacidad.
  • Senior Europa Sociedad Limitada – Kveloce (España) es responsable del control de calidad de las actividades y los resultados.
  • La Fundação Dr. José Lourenço Júnior (Portugal) se encarga de realizar actividades piloto con personas mayores y con profesionales que trabajan con este grupo vulnerable.
Imagen: Gerarlt

Próximos pasos


Los socios, durante la reunión, debatieron sobre la gestión del proyecto y acordaron comenzar con el desarrollo del primer resultado: un software (plataforma web) que personaliza un currículo de formación para profesionales, educadores y voluntarios para favorecer el empoderamiento de los derechos digitales de los grupos vulnerables.

Todo el trabajo se basará en la comprensión común de lo importante que es hoy en día apoyar a los grupos vulnerables para que puedan utilizar la tecnología e Internet como oportunidades de formación, información, desarrollo, expresión social y participación ciudadana, evitando ser engañados, acosados o discriminados.

El proyecto, financiado por la Comisión Europea en el marco del programa Erasmus plus, está diseñado para empoderar a los grupos de personas vulnerables sobre sus derechos digitales a través de la capacitación de los profesionales que trabajan con ellos en ONG, asociaciones, servicios sociales, etc. y la creación y validación de herramientas específicas.

Internet genera múltiples oportunidades de formación, información, desarrollo, expresión social e incluso participación ciudadana. Sin embargo, dentro de Internet se han desarrollado comportamientos negativos como el acoso virtual, la violencia verbal y simbólica, la discriminación e incluso comportamientos delictivos. Hasta el momento, existen importantes iniciativas que muestran la creciente preocupación por el reconocimiento y regulación de los derechos de la ciudadanía en el entorno digital.

El proyecto PROLIFIC tiene como objetivo generar conciencia y crear herramientas para proteger a los grupos vulnerables de la estafa o la usurpación de identidad, el acoso y el grooming, la suplantación de identidad o el abuso de poder por parte de las empresas, así como combatir la difusión de mensajes extremistas, discriminatorios, racistas, xenófobos, antisemitas, homófobos o sexistas.

Estos grupos vulnerables son los inmigrantes, las personas mayores y las personas con discapacidad. Estos grupos tienen diferentes características, pero tienen en común una mayor vulnerabilidad a las consecuencias negativas del rápido desarrollo de la digitalización y las TIC, debido también a un menor nivel de competencias digitales.

Por estas razones, PROLIFIC formará a los profesionales, voluntarios y educadores que trabajan con estos grupos vulnerables mediante el desarrollo y la oferta de un software (plataforma web) que personaliza un currículo de formación para que desarrollen las competencias adecuadas para responder mejor a los problemas específicos antes mencionados relacionados con la violación de los derechos digitales de los ciudadanos, según las características de cada grupo objetivo específico. Además, se proporcionará una herramienta de evaluación para medir el impacto de la promoción de los derechos digitales entre los grupos vulnerables.

Imagen: Mohamed Hassan

Gracias a esto, PROLOFIC permitirá

  • Empoderar a los grupos vulnerables en sus derechos digitales mediante el desarrollo de la capacidad de los profesionales que trabajan con ellos.
  • Aumentar la conciencia de los grupos vulnerables y sus cuidadores sobre sus derechos digitales
  • Difundir y transferir los contenidos y herramientas de formación en diferentes comunidades de Europa.

Los grupos destinatarios del proyecto serán los usuarios finales (inmigrantes, personas mayores y discapacitados), los profesionales que trabajan con grupos vulnerables (trabajadores sociales, voluntarios, educadores, etc.), los expertos (por ejemplo, abogados, educación, informática) y otras partes interesadas (ONG, asociaciones).

¡Sigue conectado con nosotros para crear un entorno digital más inclusivo y seguro!

Socios del proyecto

Socio principal: Universitat de Valencia – Instituto Polibienestar (España)

Otros socios:

Digitalización de la empresa

La digitalización de las organizaciones y las empresas ha pasado de objetivo estratégico a urgencia inmediata en toda Europa. La recuperación económica del continente tendrá en ella uno de sus dos pilares fundamentales. Digitalización significa hoy un futuro apremiante y una esperanza.

El peligro es que cuando una palabra pasa ser el vehículo de todas las aspiraciones sociales, inevitablemente se vacía en cierto grado de contenido. El problema es que la reflexión previa sobre su significado real, material, era tan escueta, que podría convertirse en fetiche. Por eso es más importante que nunca escuchar a los críticos.

El siguiente documento recoge citas de dos artículos de opinión, firmados por David Justino y Eduardo Manchón publicados en medios de comunicación de Portugal y España durante la última semana.

Ideas centrales

  • Lo que nos puede salvar es la producción de conocimiento innovador, incorporado o no a la tecnología, que puede movilizarse para agregar valor a los bienes que producimos. Digitalizar sin un cambio previo de procesos es reproducir los (malos) servicios existentes. Automatizar sistemas industriales obsoletos es darles un nuevo aspecto, sin cambiar su naturaleza real. David Justino
  • La digitalización es un aprendizaje y los aprendizajes no se pueden delegar. Al igual que la alfabetización tiene consecuencias mayores que el mero hecho de saber juntar letras, la digitalización es mucho más que crear una web o una ‘app’, es un aprendizaje que implica cambios profundos en las personas y en el funcionamiento de las organizaciones. Subcontratar la digitalización significa pagar para que ese capital intelectual, literalmente, se pierda en un tercero cuyo negocio no es acumular conocimiento, sino vendernos el máximo número de horas. Contratar a un zorro para que nos vigile las gallinas. Eduardo Manchón.

David Justino: «El fetichismo de la tecnología»

David Justino(1953) Político y sociólogo portugués del partido social demócrata (PSD) del que actualmente es vicepresidente. Fue Ministro de Educación (2002-2004) con el gobierno de Durão Barroso y asesor para asuntos sociales del Presidente Cavaco Silva, entre otros cargos. Es Catedrático de Sociología en la Universidade Nova de Lisboa.

David Justino ha iniciado la publicación de una serie de 10 artículos en el diario portugués Público sobre los retos a los que nos enfrentamos actualmente en diversas áreas, en Portugal y en el mundo. En su artículo dice así:

La tensión entre individualismo y masificación se ha formulado, al menos, desde John Stuart Mill y Alexis de Tocqueville y se centra en la libertad y diversidad de una sociedad de individuos y ciudadanos ante lo que se temía como el riesgo de la «tiranía de las masas» o , si queremos, del despotismo de las mayorías. Ambos convergieron en la necesidad de crear instituciones políticas que garantizasen un equilibrio indispensable entre los derechos fundamentales de las personas, su libertad y poder de diferenciación, y el respeto a la voluntad de las mayorías, por irracional y anacrónica que sea.

Las nuevas tecnologías, en concreto las de la información y la comunicación, aumentan esta tensión e introducen nuevos motivos de preocupación por el acceso masivo a la información, la opinión y el poder que tienen los pequeños grupos para inducir ideas, conceptos y comportamientos de la enorme masa humana de usuarios. y consumidores. La visión orwelliana sigue flotando sobre el futuro de nuestras sociedades, aunque en una escala ampliada, más descentralizada pero también más fragmentada.

El fetichismo de la tecnología

Recuerdo un episodio sucedido en 1996 y repetido en 1997. Por primera vez un ordenador ganó una partida de ajedrez al que en ese momento se consideraba el mejor jugador de todos los tiempos, Garry Kasparov. En 1997, el equipo creado por IBM volvió a ganar dos juegos, lo que le permitió ganar el partido de 6 (tres empates y una derrota). Muchos de los lectores recordarán el nombre del campeón de ajedrez. Otros recordarán el nombre de la computadora, ‘Deep Blue’. Pero pregunto: ¿cuántos recuerdan los nombres de los programadores que desarrollaron el software? Cinco ingenieros y un joven maestro de ajedrez: Chung-Jen Tan, Murray Cambell, Feng-hsiung Hsu, Joseph Hoane Jr., Jerry Brody y Joel Benjamin.

Lo que quedó para la historia fueron Kasparov y Deep Blue, el hombre derrotado por la máquina. Todo el conocimiento que se tuvo que movilizar desde el registro de 700 mil partidas que involucraron a los grandes maestros del ajedrez, así como el complejo proceso de programación, quedó en segundo plano.

Nuestra relación con la tecnología desde entonces no ha cambiado significativamente. La fascinación por la tecnología nos hace olvidar el valor del conocimiento y la acción humana que la conciben y desarrollan. A la tecnología se le atribuyen poderes mágicos, a veces sobrehumanos, cuando no hay nada mágico en ella y la capacidad humana para producir estas tecnologías está lejos de su límite.

El concepto de fetichismo fue pionero en Marx, cuando, respecto al concepto de alienación, habló del «fetichismo de la mercancía». David Harvey, un geógrafo inglés de orientación marxista, transpone la idea de hablar del fetichismo de la tecnología, entendiéndola como la propensión humana a «dotar a los objetos o entidades, reales o imaginarios, de poderes autónomos, misteriosos e incluso mágicos para moverse y dar forma el mundo de diferentes maneras» (El fetiche de la tecnología: causas y consecuencias ).

La acción y el discurso políticos, particularmente entre nosotros, reflejan este fetichismo de la tecnología. La gran moda de la digitalización abarca todos los ámbitos de la vida social, está presente en el vocabulario del discurso «innovador» y «vanguardista», como si fuera la solución mágica para solucionar los problemas del país. ¡Puro engaño! En el mejor de los casos, seremos mejores consumidores de la tecnología que otros diseñan, producen y comercializan, meros agentes pasivos de un proceso cuyo valor agregado es bajo.

Lo que nos puede salvar es la producción de conocimiento innovador, incorporado o no a la tecnología, que puede movilizarse para agregar valor a los bienes que producimos. Digitalizar sin un cambio previo de procesos es reproducir los (malos) servicios existentes. Automatizar sistemas industriales obsoletos es darles un nuevo aspecto, sin cambiar su naturaleza real.

Eduardo Manchón: «Las consultoras están matando la industria»

Eduardo Manchón(1977) Fundador de Panoramio y Mailcheck, es el primer español que vendió su empresa a Google. Publica columnas de opinión en el diaro El Confidencial. Hacemos referencia a uno de sus artículos en el que plantea y analiza el error que muchas empresas españolas han cometido al dejar su digitalización en manos de consultoras.

Las pifias de la web de Renfe son el hazmerreír nacional, todos hemos sufrido en carne propia sus fallos. Lo sorprendente, sin embargo, no es que alguien cometa errores, lo verdaderamente chocante es que después de muchos años esos errores continúen allí. Solo quien conozca cómo funciona la consultoría de software será capaz de entender esta situación delirante.

La web de Renfe es solo la punta del iceberg. Buscadores que no encuentran, webs lentas, procesos incomprensibles… No hace falta ser un experto, cualquier usuario sabe que la calidad de la mayoría de las ‘apps’ y webs ‘made in Spain’ deja mucho que desear. Y sí, casi todo ese ‘software’ ha sido creado por consultoras.

La digitalización por fin ha llegado a España, toda empresa o Administración que se precie tiene una web y una ‘app’ pero, como los señores feudales que renunciaban a aprender a leer y a escribir delegando esa tarea en sus escribanos, las empresas españolas han cometido el error de delegar su digitalización y dejarla en manos de consultoras.

El problema es que la digitalización es un aprendizaje y los aprendizajes no se pueden delegar. Al igual que la alfabetización tiene consecuencias mayores que el mero hecho de saber juntar letras, la digitalización es mucho más que crear una web o una ‘app’, es un aprendizaje que implica cambios profundos en las personas y en el funcionamiento de las organizaciones.

No aprender significa quedar a expensas de decisiones interesadas de terceros. Solo a un negocio interesado en facturar horas le conviene que los bancos sigan usando una tecnología obsoleta como Cobol. Gracias a decisiones como esa, los bancos han acumulado cantidades ingentes de lo que en el sector se llama ‘deuda técnica’, y eso convierte en un infierno cualquier intento de implementar mejoras. Una organización suficientemente competente hubiera tomado la muy difícil decisión de reescribir el código desde cero hace años, pero a las consultoras les va mejor seguir remendando viejos sistemas. Las consecuencias las sufren el banco y especialmente sus clientes en forma de fallos, lentitud y deficiencias en sus maltrechas ‘apps’. Como Unamuno, los bancos han dicho «que digitalicen ellos».

La digitalización produce una acumulación de un valioso capital intelectual en la organización, un ‘asset’ digno de aparecer entre sus activos. Subcontratar la digitalización significa pagar para que ese capital intelectual, literalmente, se pierda en un tercero cuyo negocio no es acumular conocimiento, sino vendernos el máximo número de horas. Contratar a un zorro para que nos vigile las gallinas.

En consultoría, se trata de evitar ese conflicto de interés cerrando precios, fechas de entrega y definiendo exactamente el producto a entregar, pero ese corsé no funciona y se entregan productos deficientes o inacabados para acabar terminando el producto facturando infinitas horas adicionales de ‘mantenimiento’. El grillete perfecto: el zorro se nos está merendando las gallinas y ni siquiera podemos cambiar de zorro.

Crear ‘software’ es un proceso con características muy particulares, tan particulares que en la industria se ha llegado al consenso de que es imposible ejecutar con éxito un producto planificado de antemano. Todos se han rendido a la realidad de un proceso artesanal de mejora paso a paso que nunca acaba. Las nuevas metodologías, en lugar de intentar poner orden, son capaces de tolerar el caos y la incertidumbre que supone no poder predecir el siguiente paso. En consecuencia, nadie, excepto las consultoras, trabaja ya ni con fechas de entrega ni con las especificaciones detalladas de antaño. Un proceso poco predecible y caótico que requiere horas infinitas no es algo que quieras hacer con una consultora externa.

En román paladino, por muy bien que creas que hayas planificado, a las primeras de cambio surgirán imprevistos y toda la planificación saltará por los aires. Por eso, trabajando con una consultora siempre llega el día en que no le sale a cuenta echar más horas (o las echa con cuentagotas arrastrando los pies). Ese día raramente coincide con el momento en que un producto está listo para ser usado.

Ajenas a las modernas prácticas, las consultoras son auténticas fábricas de facturar horas y se vanaglorian de abrir ‘software factories’ intensivas en mano de obra en las localizaciones con salarios más bajos. En las antípodas de este modelo están las modernas empresas de ‘software’, organizaciones posindustriales donde la calidad del resultado se basa en el conocimiento tácito acumulado en los cerebros de sus trabajadores, el auténtico medio de producción, lo que los hace difícilmente sustituibles e inevitablemente conlleva excelentes condiciones laborales.

¿Hay solución? Sí, y aunque es difícil, tenemos referentes que han dado un golpe de timón. Juan Roig, en la presentación de resultados en 2017, dijo literalmente «la web de Mercadona es una mierda» y apostó por crear una división interna de la empresa llamada Mercadona Tech para empezar desde cero y hacer viable el negocio ‘online’. Contrató a un equipo de grandes profesionales con el objetivo de repensar absolutamente todo, un proceso artesanal que no acabará nunca y que inevitablemente debe hacerse en casa. Eso es digitalización de verdad y, por cierto, la única manera de que Amazon no te deje algún día en los huesos.

California Consumer Privacy Act 2018

La Ley de Privacidad del Consumidor de California (CCPA por sus siglas en inglés) es una ley estatal destinada a mejorar los derechos de privacidad y la protección del consumidor para los residentes en California, Estados Unidos.

Su impulsor, Alastair Mactaggart, es un magnate inmobiliario, Fundador de la asociación «Californians for Consumer Privacy» y Presidente de su Junta; La asociación ha sido la entidad impulsora del referéndum de la Ley de Privacidad del Consumidor de California (CCPA).

Mactaggart y la Ley de Privacidad del Consumidor de California (CCPA)

Presentada a referendum en 2016, obtuvo el respaldo de 690 mil ciudadanos, siendo el mínimo para iniciar un procedimiento legislativo de 500 mil. La Ley de Privacidad fue aprobada en 2018 por la Legislatura del Estado de California y por el gobernador de California, Jerry Brown. El CCPA otorga a casi 40 millones de personas en California los derechos de privacidad de datos más sólidos del país y ha entrado en vigor en enero de 2020.

Los californianos ahora tienen derecho a saber qué datos se recopilan sobre ellos, a prohibir la venta de sus datos a terceros, a demandar a las empresas que recopilan sus datos y sufren una violación de seguridad, y a eliminar los datos recopilados sobre ellos. El CCPA también prohibirá la discriminación contra los consumidores que opten por no participar en la recopilación de datos.

  • Saber si una empresa recolecta tus datos.
  • Conocer qué datos han sido recopilados sobre ti en los últimos 12 meses.
  • Expresar tu rechazo a la recolección de datos.
  • Prohibir que los datos recopilados sean cedidos o vendidos a terceros.

Para ello, toda página web o aplicación debe contar con un «botón» que de forma clara permita al usuario ejercer estos derechos.

Se trata de un éxito sin precedentes, que abre la puerta a una legislación a nivel federal sobre los derechos de privacidad en Internet, pero también ha provocado la respuesta inmediata de la industria tecnológica de Silicon Valley. A través de diferentes cauces ya ha presentado una serie de enmiendas a la CCPA de cara a diluir su efecto real en el tratamiento y gestión de datos de los usuarios.

Google además advierte del daño a las pequeñas empresas y emprendedores que acarreará la implementación de la CCPA, alega que se trata de matizar el lenguaje de la ley para permitir la subsistencia de los actuales modelos de negocio basados en los datos de sus usuarios. Por ejemplo, el texto de la ley limita y lista actividades específicas en las que se permite la cesión de los dados tratados, entre ellos «auditoría y seguridad» y propone que sea sustituido por «negocios cuyos propósitos incluyan» abriendo la puerta a mantener el actual status quo.

Por ello, Mactaggart ha anunciado que se encuentra trabajando en la elaboración de un nuevo texto base para conseguir ampliar las garantías de la CCPA. La CCPA, señala, se centra en la venta de datos personales, pero no aborda directamente el uso de esos datos por la fuente que los recogió originalmente. Su nueva propuesta busca proteger la «información personal confidencial». Los datos que estarían cubiertos por esa definición incluyen información de geolocalización, números de Seguro Social, números de pasaporte y datos sobre raza, religión, afiliación sindical, y orientación sexual, entre otras categorías». Propone además la creación de una nueva agencia de protección de datos independiente, inspirada en el organismo regulador de la Unión Europea.

Derechos recogidos en la CCPA

La Ley de Privacidad del Consumidor de California (CCPA), promulgada en 2018, crea nuevos derechos de los consumidores relacionados con el acceso, la eliminación, y la cesión de información personal, que se recaba por las empresas.

Es decir, la CCPA recoge el derecho de los consumidores a saber qué información recopilan las empresas sobre ellos, para qué propósito y con quién la comparten. Los usuarios podrán solicitar a las empresas la eliminación de sus datos personales, y manifestar su deseo de no permitir su venta o divulgación a terceros.

Por su parte, las empresas deberán mostrar en un lugar visible de su página web o aplicación un enlace con el texto «Do Not Sell My Personal Information», para que los consumidores puedan ejercer estos derechos.

La CCPA se aplica sobre las empresas que, con independencia de su domicilio social, traten con datos de residentes en el estado de California y cumplan los siguientes requisitos:

  • Contar con un beneficio anual bruto superior a 25 millones de dólares;
  • Tratar con información de un mínimo de 50.000 usuarios, dispositivos u hogares, o;
  • Obtener como mínimo el 50 por ciento de sus ganancias de la venta de información personal.

Toda actividad comercial que se incluya en las condiciones establecidas por la CCPA deberá cumplir con una serie de obligaciones para aumentar la transparencia en el tratamiento que hacen de los datos, entre los que se encuentran:

  • Informar a los consumidores si tienen intención de vender sus datos. Además, tienen prohibida la venta de datos de menores de 16 años a menos que se autorice.
  • Incluir una política de privacidad en la web donde se especifique la información recogida y el propósito.
  • Proporcionar mecanismos para que los consumidores puedan solicitar información acerca de sus datos y responder a las solicitudes sin coste.
  • No discriminar a aquellos consumidores que deciden eliminar sus datos, impedir su venta o ejercer algún otro derecho. No obstante, las empresas sí pueden ofrecer incentivos financieros a los consumidores por el tratamiento de sus datos.

Información personal

La información personal bajo la CCPA incluye:

  1. Identificadores directos (tales como el nombre real, alias, dirección postal, números de la seguridad social);
  2. Identificadores únicos (cookies, dirección de IP y nombres de usuario);
  3. Datos biométricos (como el rostro y las grabaciones de voz);
  4. Datos de geolocalización (tales como el historial de localización);
  5. Actividad internauta (historial de navegación, búsquedas realizadas, interacción de datos con una web o una aplicación);
  6. Información sensible (datos sobre salud, características personales, comportamiento, religión, convicciones políticas, preferencias sexuales, empleo o datos educativos, historial médico o información financiera).

La información personal también incluye datos que por deducción pueda desembocar en la identificación de un individuo o una unidad familiar, además de datos que pueda ser de cualquier modo re-identificable. Esto significa que datos que por sí mismos no son información personal pueden serlo bajo la CCPA si pueden ser usados -por deducción o combinación con otros datos- para identificar un individuo o una unidad familiar.

Incumplimiento y sanciones

El incumplimiento de la CCPA puede desembocar en multas para las empresas de 7.500$ por infracción y 750$ por usuario afectado en concepto de daños y perjuicios civiles.

El poder para hacer cumplir la CCPA recae en la oficina del Fiscal general de California, quien, hasta julio de 2020 tiene que especificar la regulación de dicha aplicación. Sin embargo, el periodo provisional entre enero y julio de 2020 no se convierte en un periodo de gracia y las empresas están sujetas a demandas civiles por la recogida y venta de datos desde el 1 de enero de 2020.

Enmiendas a la CCPA

El Procurador General de California ha preparado el siguiente título y resumen del propósito y los puntos de la medida propuesta: Modifica las leyes de privacidad del consumidor. Estatuto de la iniciativa. Permite a los consumidores:

  1. Evitar que las empresas compartan información personal;
  2. Corregir la información personal inexacta;
  3. Limitar el uso de «información personal sensible» por parte de las empresas, como por ejemplo geolocalización; raza; etnia; religión; datos genéticos; afiliación sindical; comunicaciones privadas; y cierta orientación sexual, salud e información biométrica.

Además,

  • Cambia los criterios para los cuales los negocios deben cumplir con estas leyes.
  • Prohíbe la retención de información personal por parte de las empresas durante más tiempo del razonablemente necesario.
  • Triplica las penas máximas para las violaciones relativas a consumidores menores de 16 años.
  • Establece la Agencia de Protección de la Privacidad de California para hacer cumplir y implementar las leyes de privacidad del consumidor, e imponer multas administrativas.
  • Requiere la adopción de reglamentos sustantivos.

En cuanto a la estimación del impacto fiscal en los gobiernos estatales y locales, la fiscalía apunta a:

  • Aumento de los costos estatales anuales de aproximadamente $10 millones de dólares para una nueva agencia estatal que supervise el cumplimiento y la aplicación de la privacidad del consumidor leyes.
  • El aumento de los costos estatales, que potencialmente alcanzarían los millones de dólares anuales, por el aumento de la carga de trabajo administrativo y de los tribunales estatales, que se compensaría en parte o en su totalidad con ingresos por multas.
  • Imposibilidad de establecer el impacto en los ingresos tributarios estatales y locales causados por los efectos económicos resultantes de los nuevos requisitos de las empresas para proteger la información de los consumidores.

Palacio sede del Consejo de Estado - Italia

Recientemente el Consejo de Estado (Consiglio di Stato), el principal órgano judicial-administrativo y consultivo italiano, emitió una interesante decisión relativa a la posibilidad y la legalidad de que la administración pública se base en procedimientos y decisiones basados en algoritmos.

En el caso en cuestión, la controversia se refería al resultado de un procedimiento de contratación extraordinaria de maestros de escuela, llevado a cabo por el Ministerio de Educación italiano: en el contexto de ese procedimiento, se asignaron geográficamente diferentes lugares de trabajo a los maestros contratados.

Este procedimiento -basado únicamente en un algoritmo que, en opinión de los profesores, no funcionaba correctamente- organizaba los traslados sin tener debidamente en cuenta las preferencias expresadas por los profesores, incluso en presencia de plazas disponibles en las zonas geográficas preferidas. En esencia, el mecanismo de movilidad extraordinaria resultó perjudicial para los profesores que fueron trasladados a provincias alejadas de la de su residencia o de la elegida con prioridad en el momento de su solicitud de empleo.

Aunque consideró ilegítimo el algoritmo utilizado en el caso concreto, el Consejo no excluyó en absoluto la posibilidad de que la administración pública adoptara algoritmos: más bien señaló que la administración pública podrá explotar el importante potencial de la llamada «revolución digital», utilizando también algoritmos, pero sólo en determinadas condiciones. Según el Consejo, la utilización de algoritmos informáticos para la adopción de decisiones que afectan a la esfera pública y privada debe evaluarse siempre en términos de eficacia y neutralidad: esto significa que la utilidad de los algoritmos para la gestión del interés público puede ser particularmente útil en lo que respecta a procedimientos, como el que nos ocupa, que son seriados o normalizados, que implican la tramitación de grandes cantidades de solicitudes, y que se caracterizan por el acopio de determinados elementos objetivamente demostrables y por la ausencia de toda apreciación discrecional.

En opinión del Consejo de Estado italiano, la plena admisibilidad de esos instrumentos podría responder a los criterios de eficiencia y eficacia en función de los costos de la acción administrativa, que, de conformidad con el principio constitucional de buena ejecución de la acción administrativa (artículo 97 de la Constitución italiana), exigen que la administración alcance sus objetivos con el menor gasto de recursos y mediante la racionalización y aceleración del procedimiento público.

El uso del algoritmo debe estar correctamente enmarcado en términos de medidas organizativas, medios procesales y de investigación, sujeto a los requisitos, comprobaciones y controles típicos de cualquier procedimiento administrativo, asegurando que la elección autorizada se lleve a cabo sobre la base de la ley que atribuye el poder y los propósitos a la autoridad pública. El Consejo destacó tres principios interesantes, relativos a los algoritmos potencialmente adoptados por la administración pública.

  • En primer lugar, el «principio de conocimiento», en virtud del cual toda persona tiene derecho a conocer la existencia de los procesos automatizados de adopción de decisiones que le conciernen y a recibir información significativa sobre su lógica. Esta norma constituye una aplicación específica directa del arte. 41 de la Carta de Derechos Fundamentales de la Unión Europea, en el que se establece que cuando la Administración Pública se proponga adoptar una decisión que pueda tener efectos adversos para una persona, tiene la obligación de «motivar su decisión» y la persona interesada tiene derecho a ser oída y a tener acceso a sus archivos y documentos. El Consejo subrayó que el derecho a saber debe ir acompañado de mecanismos capaces de descifrar la lógica del algoritmo. En esta perspectiva, el principio de la conocibilidad se completa con el principio de la comprensibilidad, es decir, la posibilidad de recibir información significativa sobre la lógica en cuestión, así como sobre el significado y las consecuencias previstas de ese tratamiento para el interesado. Sin embargo, al leer la decisión, parece que el Consejo de Estado no consideró esencial y obligatoria la divulgación completa y exhaustiva del código algorítmico.
  • En segundo lugar, el Consejo identificó el «principio de no exclusividad» de la decisión algorítmica, que se deriva del Artículo 22 Reg. UE 2016/679 (GDPR). Una persona tendrá derecho a no ser objeto de una decisión basada únicamente en un tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos que le conciernan o que le afecten de forma similar y significativa, teniendo derecho a obtener, al menos, una intervención humana por parte del responsable del tratamiento (la administración pública, el Ministerio de Educación en el caso concreto), a expresar su punto de vista y a impugnar la decisión.

El proyecto para la España despoblada del Instituto Hermes en colaboración con las empresas vertebradoras del territorio

La Fundación Instituto Hermes se encuentra en la recta final de uno de sus proyectos más importantes: el grupo de trabajo «Interconectividad, logística y ciudadanía digital» que parte de la premisa de que si igualamos los derechos digitales, igualamos las oportunidades. Así, podemos utilizar la identificación, difusión y defensa de los derechos digitales como motor para revertir la despoblación en las zonas rurales.

Para llevar a cabo este reto, contamos con la colaboración de Correos como socio principal y coordinador de los trabajos, y la participación de Red Eléctrica Española y Renfe.

Contexto

Correos
Oficina de Correos en Torrejón de Velasco

La convergencia del despliegue de una estrategia de digitalización basada en derechos y de los planes de transición ecológica, es la clave fundamental para enfrentar y revertir el declive de la España interior.

Toda estrategia debe tomar como ariete el desarrollo conjunto de conectividad, movilidad y logística. Hay una transformación en marcha de las infraestructuras y sobre todo, una nueva forma de entender las infraestructuras, que aparece ligada al desarrollo de derechos ciudadanos. Ellas son las nuevas claves del desarrollo.

Estas infraestructuras, que representan la materialidad de los nuevos derechos ciudadanos, están vinculadas a un tipo particular de sujetos: empresas de servicio público cuya historia ha estado tradicionalmente ligada a la ampliación de derechos ante cambios tecnológicos profundos (transportes, comunicaciones, electrificación, etc.).

En 2020, el año de la pandemia, la experiencia de los confinamientos -especialmente en el mundo PYME- hizo evidente que la logística es los pies y las manos de la digitalización. Mientras, el arranque del Pacto Verde abría la oportunidad de impulsar el marco de la transición energética.

Renfe
Bustio

La nueva manera de mirar el territorio que surgió de los debates entre el Instituto Hermes y Correos evidenció la oportunidad de pensar en una lógica de colaboración entre ciudades, superadora de cualquier dialéctica de confrontación entre territorios.

El vínculo entre infraestructuras de transporte, digitalización y derechos nos permitió, por ejemplo, imaginar la red de ciudades del AVE como columna vertebral de la digitalización, detonante de una repoblación sustentada en una reindustrialización distribuida, digital y verde. Al mismo tiempo que se expandían de forma efectiva los derechos de ciudadanía digital.

De esta reflexión estratégica surgió la propuesta de Zonas de Urgente Digitalización y como consecuencia suya la necesidad de medir el impacto en derechos digitales de los proyectos estratégicos ligados a la digitalización.

A lo largo de este año, hemos llevado a cabo una nueva fase de trabajos con el objetivo de presentar a las Administraciones Públicas 10 propuestas aplicables para combatir la despoblación partiendo del poder transformador y de desarrollo de la materialización de los nuevos derechos digitales.

Esta fase fue dividida en cinco sesiones de debate:

  1. Derecho a la conectividad y la asequibilidad universal
  2. Derecho al Trabajo digital y a la Asociación y desarrollo social por medios digitales
  3. Derecho a la Alfabetización y el desarrollo cultural económico
  4. La logística y el desarrollo de políticas activas para el desarrollo cultural y económico digital
  5. Discusión del resumen de propuestas y aprobación del documento final de conclusiones

1. Derecho a la conectividad y la asequibilidad universal

Es el punto de partida: para responder al reto demográfico es necesario garantizar una conexión universal con anchos de banda que permitan la digitalización efectiva del trabajo y los consumos culturales. Además, el acceso a la conexión de los ciudadanos tiene que ofrecerse en las mismas condiciones económicas en todo el territorio. Todo lo demás significaría discriminación.

En esta sesión se debatieron posibles propuestas de reforma legislativa e iniciativas políticas concurrentes a hacer efectivo este derecho, y la aplicabilidad y oportunidad de fórmulas y conceptos como el «servicio universal» o los servicios de «interés económico general», así como las vías de impulso de la «iluminación» y ampliación de las redes de fibra en manos de las Administraciones públicas para llegar a la población rural.

2. Derecho al Trabajo digital y a la Asociación y desarrollo social por medios digitales

El derecho al trabajo digital es hoy un horizonte en espera de la ampliación y el desarrollo de un mercado del trabajo digital -no solo del teletrabajo- que en España apenas existe fuera de las grandes ciudades. Desde nuestro punto de vista el desarrollo de este derecho y este mercado es la clave fundamental para una nueva industrialización sostenible en la España rural.

Según nuestros cálculos más de un millón de personas que se desarrollan profesionalmente en el ámbito de los servicios avanzados consideran o han considerado la posibilidad de instalarse en zonas rurales ante las nuevas posibilidades de teletrabajo. Otros ámbitos, desde el emprendimiento digital al telemarketing, desde el periodismo a la administración de negocios o los servicios educativos digitalizados, esperan todavía su oportunidad.

Red Eléctrica de España

Tanto la transición ecológica como la transición digital requieren de un fuerte pilar de participación ciudadana. El éxito de las cooperativas de energía, hoy en transición hacia Comunidades Energéticas Locales (CEL), nos da un modelo de desarrollo para la digitalización «desde abajo». Es fundamental este impulso ciudadano en cuestiones básicas como la creación de un mercado de trabajo digital y el desarrollo de la alfabetización y la cultura digital.

En esta sesión debatimos propuestas presentadas con anterioridad como las Cooperativas de Trabajo Digital o el Estatuto del Trabajador Digital.

3. Derecho a la Alfabetización y el desarrollo cultural económico

La alfabetización digital ha de ir mucho más allá del manejo de herramientas básicas (tal y como se entendió generalmente hasta ahora en España). Es necesario dar la oportunidad de desarrollar competencias de todo tipo a través de la formación en «cultura digital» más que alfabetización digital: desde los conocimientos para digitalizar la actividad laboral y profesional hasta la posibilidad de defender la integridad personal frente abusos y agresiones.

Las propuestas previas a debatir en este punto son la creación de un programa de «Misiones pedagógicas digitales» y la creación de «Zonas de Urgente Digitalización» (ZUD) como zonas prioritarias para la inversión pública, la RSE (Responsabilidad Social Empresarial) y la acción social.

4. La logística y el desarrollo de políticas activas para el desarrollo cultural y económico digital

En esta última sesión sobre medidas, debatiremos políticas y programas tendentes a dotar de piernas a la digitalización mediante el desarrollo logístico verde de la España menos poblada y el desarrollo de la industria digital. Como punto de partida, una «red de ciudades del AVE» puede ser el gran conector de las ZUD en un rango de 80km a la redonda de cada uno de sus integrantes, sirviendo a la transversalización de políticas activas, la dinamización cultural y social y las políticas de emprendimiento, y sirviendo de paso para comprometer a los grandes centros urbanos y sus elementos más dinámicos en la nueva industrialización digital y sostenible.

ALICEM

Según el Ministerio del Interior, ALICEM es la primera solución segura de identidad digital soberana. Esta aplicación ha sido desarrollada por el Ministerio del Interior y la Agencia Nacional de Títulos Garantizados (ANTS). ALICEM es una aplicación para móviles diseñada para permitir a las personas autenticar su identidad en servicios online públicos y privadas y las transacciones digitales que realicen.

El usuario debe disponer de un teléfono inteligente y de pasaporte o tarjeta de residencia con chip. La aplicación reemplaza así la tarjeta de identidad que utilizan los ciudadanos en la vida cotidiana y permite el uso de servicios online ya sean públicos o privados. No se trata sin embargo de una aplicación de uso obligatorio, todo el mundo es libre de utilizar o no la aplicación.

¿Cómo funciona?

Una vez instalada ALICEM en el móvil, el usuario registra su pasaporte o tarjeta de residencia.

  1. La aplicación realiza la lectura del chip del documento oficial de identidad mediante el protocolo NFC (tecnología inalámbrica de corto alcance), es decir, sin contacto.
  2. A continuación se procede a efectuar el reconocimiento facial del individuo comparando la foto del documento con identidad con su rostro para autenticar que el usuario es titular del documento de identidad oficial que porta.

¿Qué supone?

La aplicación forma parte del reglamento europeo «elDAS» aprobado el 23 de julio de 2014 y relativo a la identificación electrónica y los servicios de confianza para las transacciones electrónicas en el mercado interior. Un reglamento con el objetivo de garantizar las interacciones electrónicas en la Unión Europea (UE) entre empresas, ciudadanos y autoridades públicas. «elDAS» define 3 niveles de garantía: baja, sustancial y alta; ALICEM apunta a los dos niveles superiores y antecede a identidad electrónica que se prevé entre en funcionamiento en Francia en agosto de 2021.

La aplicación ALICEM fue validada mediante un decreto aprobado en mayo de 2019 que autoriza la creación de un medio de identificación electrónica denominado «Autenticación online certificada en el móvil» . El artículo 3-2 del reglamento eIDAS define, por un lado, la «identificación personal para medios electrónicos» que contiene datos de identificación personal y que se utilizan para autenticarse para un servicio en línea y, por otro lado, «identificación electrónica» que consiste en utilizar datos de identificación personal en formato electrónico que representen de manera inequívoca a una persona física o jurídica, o una persona física que represente a una persona jurídica (art. 3-1).

Por su parte, la «autenticación» es un proceso electrónico que permite confirmar la identificación electrónica de una persona física o jurídica, o el origen e integridad de los datos en formato electrónico. La protección de datos está garantizada de acuerdo con la ley modificada de 1978 y el RGPD, por ejemplo: no hay almacenamiento de datos extraídos del documento de identidad y los datos no se procesan.

La biometría, en este caso el reconocimiento facial con fines de autenticación segura, impone obligaciones especiales cuando da lugar al procesamiento de datos (como la evaluación del impacto en la privacidad). Este aspecto está contemplado por ALICEM. Sin embargo, la aplicación ha suscitado inquietudes con respecto a las posibilidades que ofrece a los Estados o empresas en términos de trazabilidad de personas.

La asociación La Quadrature du Net solicitó al Consejo de Estado la anulación del decreto por extralimitación de poder y, subsidiariamente, plantear cuestiones preliminares al Tribunal de Justicia de las Comunidades Europeas.

El Consejo de Estado rechazó el recurso de la asociación que se oponía a la fase de reconocimiento facial al abrir la cuenta del usuario, alegando que la solución debía ofrecer una alternativa a este proceso de verificación de identidad biométrica. Su respuesta advierte en primer lugar que el usuario móvil no tiene la obligación de registrarse en el servicio ya que, como subraya el Consejo de Estado, siempre tiene la posibilidad de utilizar otros dispositivos de identificación online de France Connect. Conecte «cuyo uso no presupone el consentimiento para el procesamiento del reconocimiento facial».

Además, el Consejo de Estado recuerda que la ley modificada de 1978 (art. 8) y el RGPD (art. 9) prohíben el tratamiento de datos biométricos, a menos que el interesado haya dado su consentimiento explícito y que, en el procesamiento por razones de interés público importante, dicho procesamiento es proporcionado. Sin embargo, el consentimiento debe haberse otorgado libremente.

¿Podríamos prescindir del reconocimiento facial? ¿Había otras formas de acceder al servicio ALICEM?

Según el Consejo de Estado:

No se desprende de los documentos del expediente que, para la creación de identificadores electrónicos, a la fecha del decreto impugnado existieran otros medios para autenticar la identidad del usuario de forma totalmente desmaterializada presentando el mismo nivel de garantía que el sistema de reconocimiento facial.

Así, el uso de biometría autorizado por el decreto «debe ser considerado como requerido por el propósito de este procesamiento». Es evidente que la asociación no había proporcionado pruebas de que existieran tales medios.

Y además:

De los documentos del expediente se desprende que los servicios accesibles a través de la aplicación Alicem también eran accesibles, en la fecha del decreto impugnado, a través de FranceConnect, cuyo uso no presupone el consentimiento para el tratamiento de reconocimiento facial.

Por tanto, de ello se desprende que el consentimiento de los usuarios de ALICEM se otorga libremente. Por último, se deja de lado la cuestión de la recogida de datos adecuados, relevantes y no excesivos en relación con el objeto y finalidades del tratamiento.

Esta decisión del Consejo de Estado es una buena noticia para la seguridad y la confianza digital; aunque solo sea para luchar contra el fraude y el robo de identidad.

Hubertus Heil - Ministro Federal de Trabajo de Alemania

El antecedente alemán

El Ministro de Trabajo Hubertus Heil (SPD) quiere reconocer el derecho a trabajar desde casa después de la crisis del coronavirus. Los sindicatos y las empresas le apoyan, pero la respuesta obedece a una demanda más general.

El porcentaje de trabajadores que realizan su trabajo desde casa ha aumentado en Alemania del 12 al 25% del total de asalariados durante la pandemia. Heil declaró al periódico «Bild am Sonntag»

Estamos trabajando en una nueva ley para el derecho a «la oficina en casa» [nombre popular del teletrabajo en Alemania], que presentaremos en otoño. Todo aquel cuyo lugar de trabajo lo permita, debería poder trabajar si lo desea en remoto. La idea es que los trabajadores puedan mudar su puesto de trabajo a casa, bien de forma permanente, bien uno o dos días a la semana. Con la pandemia, estamos dándonos cuenta de la cantidad de trabajo que actualmente puede ser realizado en remoto.

Con «reglas justas» Heil quiere evitar que «el trabajo se meta demasiado en la esfera privada». También debe haber una hora de cierre en la oficina en casa – «y esta hora no puede ser las 10 de la noche». El trabajo a domicilio debería ser una opción voluntaria para los empleados. «Queremos hacer posible más tele-trabajo, pero no forzarlo», dijo Heil.

El partido social-demócrata (SPD) que integra la coalición liderada por la canciller Angela Merkel, ya había defendido en diciembre de 2019 –mucho antes de que la pandemia obligara al confinamiento en Alemania y en gran parte del mundo– el establecimiento del derecho a trabajar desde casa.

El vicecanciller y ministro federal de finanzas, Olaf Scholz, también elogió en público las ventajas del tele-trabajo. «Las últimas semanas han demostrado lo mucho que se puede hacer trabajando desde casa»; «Es un verdadero logro, del que no debemos quedarnos atrás», añadió el Ministro de Hacienda al periódico «Bild am Sonntag».

La iniciativa tiene el apoyo de los sindicatos, entre otras organizaciones. El miembro de la junta de Ver.di (Vereinte Dienstleistungsgewerkschaft – en español, Sindicato Unido de Servicios), Christoph Schmitz, declaró que desde el sindicato:

«Exigimos el derecho a una oficina en casa» y añadió que deben seguir cumpliéndose ciertas condiciones, «por un lado, las cuestiones operativas y la voluntad de los clientes han de tener un papel central, y por otro, la salud y la seguridad en el trabajo deben garantizarse de forma integral, lo que abarca desde los equipos de trabajo ergonómicos hasta el registro del tiempo de trabajo».

¿Por qué la medida genera consenso social CDU-SPD, empresariado-sindicatos?

La medida podría afectar a un 20% de la fuerza de trabajo alemana. La experiencia de lo que en Alemania llaman la «oficina en casa» ha sido muy positiva durante el confinamiento… tanto para empresarios como para trabajadores. Y algo muy similar ha ocurrido en Francia.

Las empresas han visto la oportunidad de reducir gastos fijos en oficinas y servicios ligados. En no pocos casos especulan incluso con la posibilidad de vender plantas o edificios, sin perder capacidad de crecimiento. Porque el hecho es que tener un cierto porcentaje de la plantilla en remoto permite tener una fuerza de trabajo más flexible y capaz de crecer según las necesidades de la demanda.

Por otro lado, en países como Alemania hace mucho que las metodologías online de gestión de proyectos y organización de equipos ya estaban muy implantadas dentro de las oficinas más allá de los sectores originales (finanzas, software, etc.). Esto ha convertido el paso al teletrabajo en una ganancia real de productividad que los trabajadores han percibido sin embargo como una ganancia en su capacidad de conciliación laboral-familiar… y un ahorro en tiempos y gastos de transporte.

¿Qué significa regular el teletrabajo como un derecho?

El teletrabajo es un espacio social propio en el que se solapan los derechos laborales y los digitales.

Es muy significativa la experiencia durante la pandemia en Portutal. Este país instauró la modalidad de teletrabajo en todas las actividades susceptibles de ser trasladadas a los domicilios de los empleados. Sin embargo, las medidas de control establecidas por las empresas hicieron necesaria la intervención de la Comisión Nacional de Protección de Datos. La Comisión estableció los límites al empleador, y, entre otros, asentaba la imposibilidad de obligar al trabajador a mantener la cámara permanentemente activa, la prohibición de grabar videoconferencias, así como de someter a control remoto su actividad mediante softwares específicos (TimeDoctor, Hubstaff, Timing, ManicTime, TimeCamp, Toggl o Harvest).

El problema portugués no puede interpretarse como un conflicto por el control de los trabajadores en el tiempo de trabajo, sino como el producto de una desincronización cultural. La pandemia impuso el teletrabajo en entornos empresariales que no habían implantado todavía la revolución digital en lo que toca a los servicios empresariales. A diferencia de Alemania, en buena parte del aparato administrativo de las empresas portuguesas las metodologías de trabajo por metas y objetivos se consideran todavía exclusivas de los servicios avanzados y la digitalización de la gestión de equipos -presenciales o no- no es todavía hegemónica en el paisaje organizacional.

El teletrabajo supone ganancias de productividad cuando se organiza con metodologías modernas de gestión de equipos en torno a tiempos, metas y objetivos. El mercado hace ya mucho que ofrece decenas de soluciones con diversos enfoques de planificación y gestión de proyectos online (BaseCamp, Asana, etc.). Este tipo de organización del trabajo ha demostrado aumentar de manera efectiva la productividad de los servicios avanzados sin necesidad de cronometraje.

La forma de dar el salto de una situación similar a la de Portugal a una como la de Alemania, e incrementar con ello la productividad de los servicios dentro de las empresas, es impulsar mediante regulación la concepción del teletrabajo que es hegemónica en EEUU, Gran Bretaña, Alemania o los países escandinavos.

Brecha Digital - Conectividad a Internet

Un reciente estudio publicado hace unas semanas en EE.UU estima que 42 millones de personas carecen de Internet de banda ancha. Un miembro de la Comisión de Comunicaciones advierte de la importancia de frenar la brecha digital y dar acceso a Internet de banda ancha a toda la población como medida de garantía social.

Una propuesta para el gobierno federal de Geoffrey Starks, miembro de la Comisión Federal de Comunicaciones.

Una medida clara y consistente durante la pandemia del Coronavirus está siendo quedarse en casa. Para muchas personas eso significa llevar el grueso de las actividades diarias -trabajo, colegio de los niños, atención médica, relaciones con los seres queridos- a través de Internet. Sin embargo, esto no es algo posible para todos.

Durante las próximas semanas se pondrá al descubierto, la cruda realidad de la brecha digital: decenas de millones de estadounidenses no pueden acceder a Internet o no pueden permitirse las conexiones de banda ancha en casa que necesitan para teletrabajar, acceder a la información médica o ayudar a los jóvenes a seguir un programa educativo cuando los colegios están cerrados. En un momento en el que la salud pública requiere distanciamiento social e incluso cuarentena, cerrar la brecha digital se convierte en algo central para nuestra propia seguridad, incluida la económica.

Eliminar la brecha digital de forma permanente es un problema a largo plazo que requiere recursos y compromisos sostenidos. El gobierno federal y el sector de la tecnología y las comunicaciones deben trabajar juntos para tomar medidas inmediatas y de emergencia para hacer llegar la banda ancha de calidad a los hogares de las zonas afectadas por el coronavirus. Esto es lo que debería incluir un plan de estímulo de conectividad:

Cada año, la Comisión Federal de Comunicaciones gasta unos 8.000 millones de dólares para llevar los servicios de comunicaciones a zonas rurales y a estadounidenses de bajos ingresos. Durante esta crisis, debemos utilizar rápidamente estos fondos para aumentar el número de accesos gratuitos disponibles en escuelas y bibliotecas públicas, ampliar el alcance de la telemedicina y mejorar el programa Lifeline, único programa federal con la única misión de llevar conexiones asequibles a los estadounidenses de bajos ingresos, un aspecto crítico en estos tiempos de turbulencia económica. Esta no sería la primera vez que la Comisión ha ampliado el programa Lifeline ante una crisis; en la etapa de George W. Bush lo reforzó a raía del huracán Katrina. Esto además tendría el beneficio añadido de inyectar dinero a la economía nacional mientras el Congreso analiza otras medidas de estímulo.

También deberíamos eliminar los trámites burocráticos y ampliar la flexibilidad normativa cuando ello permita a los proveedores de banda ancha ampliar rápidamente el acceso a Internet. La Comisión podría, por ejemplo, acelerar las decisiones sobre exenciones y licencias experimentales que permitirían a los proveedores desplegar el espectro inalámbrico no utilizado o utilizado de manera ineficientes, así como nuevas tecnologías para aumentar su capacidad y alcance.

A menudo pensamos que la brecha digital es un problema rural, pero las encuestas del censo muestran que el número de hogares que no están conectados en zonas urbanas es tres veces mayor que en las rurales. El coste, es en distritos urbanos la razón más frecuente. Basándose en los datos de Pew y en la Encuesta de la Comunidad Americana, el investigador John Horrigan estima que más de 18 millones de hogares carecen de banda ancha porque es demasiado cara. Para satisfacer las necesidades de las personas de bajos ingresos, algunos proveedores de banda ancha ya ofrecen una tarifa social. En tiempos de emergencia, ningún estadounidense debería quedarse sin conexión debido a su coste.

Deberíamos alentar a todos los proveedores de banda ancha a que se unan al esfuerzo de respuesta al coronavirus creando o ampliando las opciones de bajo precio para las conexiones básicas a Internet. Algunos ya lo han hecho, no obstante debemos hacer más por las familias con bajos ingresos, que ya soportan demasiadas cargas además de esta crisis de salud y sus consecuencias económicas.

Por último, en vista del número de estadounidenses que trabajarán a distancia, utilizarán la telemedicina, asistirán a clases online y en general utilizarán más Internet, los proveedores deben renunciar a los topes de datos en las zonas afectadas durante los próximos 60 días. Esta medida sin duda supondrá un coste para las empresas de telecomunicaciones, pero reconoce la urgencia del momento. También deberíamos alentar a los proveedores de servicios inalámbricos a que utilicen las herramientas de que disponen para desastres naturales y otras emergencias, como centro móviles de conectividad para dar servicio a las zonas que carecen de banda ancha.

Primera sentencia Europea contra el uso de algoritmos

El tribunal distrito de La Haya ha dictado sentencia en contra de un sistema algorítmico utilizado por el Gobierno de los los Países Bajos para evaluar el riesgo de fraude a la seguridad social o a hacienda.

El tribunal encuentra que el algoritmo:

  • No cumple con el «equilibrio justo» que debe existir entre el interés social al que sirve la normativa cuestionada y la violación de la vida privada
  • Tiene un efecto significativo en la vida privada de la persona a la que se refiere.
  • Considera que el gobierno holandés no ha hecho público el tipo de algoritmos utilizados en el modelo de riesgo, ni proporcionado información sobre el método de análisis de riesgos utilizado.
  • No prevé ninguna obligación de información a las personas cuyos datos se tratan.
  • Tampoco prevé ninguna obligación de informar a los interesados individualmente, cuando proceda, del hecho de que se su evaluación de riesgo ha sido positiva.

Como consecuencia, el tribunal concluye que:

  • Es imposible verificar cómo está diseñado el árbol de decisión que utiliza el algoritmo y en qué pasos consiste.
  • Circunstancia que dificulta que una persona afectada por el mismo pueda defenderse contra el hecho de que se haya realizado un informe de riesgos con respecto a él o ella.

Comentarios a la sentencia del Diario La Ley

El tribunal distrito de La Haya declara que el sistema establecido por el gobierno holandés para valorar el nivel de riesgo de defraudación de los ciudadanos, no cumple las exigencias de proporcionalidad, carece de transparencia y vulnera las previsiones sobre respeto a la vida privada que reconoce el artículo 8 del Convenio Europeo de Derechos Humanos.

El tribunal distrito de La Haya (Rechtbank Den Haag), ha dictado una sentencia, de fecha 5 de febrero de 2020, por la que establece que un sistema algorítmico utilizado por el Gobierno de los Países Bajos para evaluar el riesgo de fraude a la seguridad social o a hacienda, no cumple las exigencias de proporcionalidad y transparencia necesarias y vulnera las previsiones sobre respeto a la vida privada que reconoce el artículo 8 del Convenio Europeo de Derechos Humanos, por lo que es contrario a la ley.

Se trata de la primera sentencia conocida en Europa por la se declara ilegal un algoritmo sobre evaluación de características personales de los ciudadanos. Su difusión ha coincidido, además, con el anuncio de la Comisión de que en breves fechas va a presentar una propuesta de regulación de la IA en la Unión, y con una recientísima decisión del Parlamento Europeo por la que solicita a la Comisión que apruebe una normativa sobre los procesos automatizados de toma de decisiones, a fin de garantizar la protección de los consumidores y la libre circulación de bienes y servicios. Y, a nivel nacional, con el anuncio de la publicación por la AEPD de la Guía de Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial.

Los Hechos

Según la sentencia, cuyo texto está disponible en neerlandés, el denominado Sistema de Indicación de Riesgos (Systeem Risico Indicatie, SyRI, nada que ver con el asistente de voz de Apple) es un instrumento legal que el gobierno neerlandés utiliza para prevenir y combatir el fraude en el campo de la seguridad social y los esquemas relacionados con los ingresos, las contribuciones fiscales y de la seguridad social y las leyes laborales.

El sistema se basa en la asignación del nivel de riesgo de que una determinada persona cometa fraude a los ingresos públicos, en función de una serie de parámetros analizados y relacionados entre sí.

Esta medida, instaurada a solicitud de determinadas agencias y organismos públicos, a la vista del elevado volumen de fraude detectado en el país, se basa en la denominada Ley de Organización de Implementación y Estructura de Ingresos (Wet structuur uitvoeringsorganisatie en inkomen, SUWI), cuyo artículo 65.2 permite la elaboración de informes de riesgos para evaluar el riesgo de que una persona física o jurídica haga un uso ilegal de fondos gubernamentales en el campo de la seguridad social y los esquemas relacionados con los ingresos públicos.

De acuerdo con el Reglamento de desarrollo de la Ley, el sistema utiliza un algoritmo que procesa datos como nombre, dirección, lugar de residencia, dirección postal, fecha de nacimiento, género y características administrativas de las personas; sobre su trabajo; sobre medidas y sanciones administrativas aplicadas a la misma; sus datos fiscales, incluida información sobre bienes muebles e inmuebles; datos sobre motivos de exclusión de asistencia o beneficios; datos comerciales; datos de integración, que son datos que pueden usarse para determinar si se han impuesto obligaciones de integración a una persona; historial de cumplimiento de las leyes y reglamentos; datos sobre becas recibidas; sobre pensiones; sobre la obligación de reintegro de prestaciones públicas; sobre endeudamiento; sobre beneficios, ayudas y subsidios recibidos; sobre permisos y exenciones recibidos para la realización de actividades y datos del seguro de salud, entendidos exclusivamente como aquellos que se pueden usar para determinar si una persona está asegurada en virtud de la Ley de seguro de salud.

El procesamiento de estos datos se realiza en dos fases. En la primera se recogen y pseudonimizan, reemplazando el nombre personal, los números de seguridad social y las direcciones por un código (seudónimo). A continuación se comparan los datos con el modelo de riesgos y se identifican los posibles factores de riesgo. Si una persona, física o jurídica, o una dirección, es clasificada como de riesgo elevado, sus datos se descifran nuevamente utilizando el archivo de clave y transferidos a una segunda fase del análisis de riesgos por una unidad de análisis específica. En la segunda fase, los datos descifrados son analizados por esta unidad de análisis, que asigna un nivel de riesgo definitivo.

La decisión del tribunal

Esa normativa fue impugnada por diversas organizaciones de defensa de los derechos humanos y civiles holandesas y según la sentencia del tribunal local de La Haya, la legislación que sustenta la aplicación de este algoritmo, no cumple con el requisito establecido en el Artículo 8, párrafo 2 del CEDH, de que la interferencia con el ejercicio del derecho al respeto de la vida privada resulte necesaria en una sociedad democrática. Es decir, que sea necesaria y proporcional en relación para el propósito previsto.

En particular, estima que esta legislación no cumple con el «equilibrio justo» (fair balance, en el original) que de acuerdo con el CEDH debe existir entre el interés social al que sirve la normativa cuestionada y la violación de la vida privada que supone, para poder estimar suficientemente justificada esta intromisión.

En su evaluación, el tribunal ha tenido en cuenta los principios fundamentales en los que se basa la protección de datos en virtud del Derecho de la Unión (la CEDH y el RGPD), en particular en los principios de transparencia, de limitación del tratamiento de minimización de datos, y concluye que la normativa que regula el uso de SyRI es insuficientemente clara y verificable, por lo que la declara contraria a la ley.

Efectos del informe de riesgos sobre la vida privada de las personas

En opinión del tribunal, aunque el informe de riesgos generado por el algoritmo no tiene en sí mismo una consecuencia legal directa, civil, administrativa o penal, sí que tiene un efecto significativo en la vida privada de la persona a la que se refiere.

El tribunal también deriva esa conclusión de las directrices del Grupo de Trabajo del artículo 29 del de Protección de Datos de 4 de diciembre de 2008, según las cuales debe entenderse que el procesamiento de datos afecta significativamente a una persona cuando sus efectos sean lo suficientemente grandes o importantes como para afectar significativamente al comportamiento o a las decisiones de las personas involucradas; tener un efecto a largo plazo o duradero en la persona interesada; o en el caso más extremo, conducir a su exclusión o discriminación.

Una finalidad legítima, perseguida por unos medios desproporcionados

El tribunal estima que el volumen del fraude al sistema de la seguridad social en los Países Bajos justifica la aplicación de mecanismos de control y supervisión que limiten o eliminen sus efectos. En concreto, el desarrollo de nuevas tecnologías proporciona al gobierno, entre otras cosas, opciones digitales para vincular archivos y analizar datos con la ayuda de algoritmos y, por lo tanto, ejercer una supervisión más efectiva.

Pero, añade, en este desarrollo, el derecho a la protección de datos es cada vez más importante, en parte debido a la propia velocidad de ese desarrollo, ya que la recopilación y el análisis de datos con la ayuda de estas nuevas tecnologías puede afectar profundamente a la vida privada de aquellos con quienes se relacionan esos datos.

Falta de transparencia del algoritmo

El principio de transparencia es el principio rector de la protección de datos que subyace y está consagrado en la CEDH y en el RGPD (arts. 5.1 a) y 12).

El tribunal considera que el gobierno holandés no ha hecho público el tipo de algoritmos utilizados en el modelo de riesgo, ni proporcionado información sobre el método de análisis de riesgos utilizado, con la excusa de evitar que los ciudadanos pudiesen ajustar su comportamiento en consecuencia.

Además, aprecia que la normativa reguladora del algoritmo no prevé ninguna obligación de información a las personas cuyos datos se tratan, de modo que no cabe esperar razonablemente que esas personas sepan que sus datos se utilizan o se han utilizado para esa finalidad. Adicionalmente, esta normativa tampoco prevé ninguna obligación de informar a los interesados individualmente, cuando proceda, del hecho de que se su evaluación de riesgo ha sido positiva.

Relevancia de la falta de transparencia

Como resultado de lo anterior, concluye el tribunal, es imposible verificar cómo está diseñado el árbol de decisión que utiliza el algoritmo y en qué pasos consiste. Una circunstancia que dificulta que una persona afectada por el mismo pueda defenderse contra el hecho de que se haya realizado un informe de riesgos con respecto a él o ella.

Derechos de Ciudadanía Digital