Blog

Por Juan Manuel Serrano | Presidente de Correos y Miembro del Consejo Asesor de Instituto Hermes

Solo garantizando servicios b√°sicos digitales y log√≠sticos podremos enfrentar y revertir el declive de la Espa√Īa despoblada.

La intensificaci√≥n de la digitalizaci√≥n de nuestras sociedades y su conexi√≥n con el Pacto Verde, est√°n dando forma ya a nuestras vidas. Esto es evidente. Pero lo que quiz√° no sea tan obvio es que la digitalizaci√≥n, unida a derechos digitales, es un motor de lucha contra el declive de la Espa√Īa menos poblada.

Cuando o√≠mos o leemos ¬ęderechos digitales¬Ľ pensamos en libertad de expresi√≥n, en protecci√≥n de datos, en cookies, en Cambridge Analytica o ciberataques. Pero los derechos digitales tambi√©n son la conectividad universal, el teletrabajo, la formaci√≥n en cultura digital o la log√≠stica, porque sin ella ni la digitalizaci√≥n de las empresas est√° garantizada ni las necesidades de los ciudadanos completamente satisfechas.

Durante la pandemia descubrimos que muchos empleos pod√≠an ser desempe√Īados con la misma eficacia desde los domicilios de los trabajadores y trabajadoras. Descubrimos que ahorr√°bamos mucho tiempo en desplazamientos (lo que incid√≠a, adem√°s, en la cantidad de CO2 emitida a la atm√≥sfera) y que lugares mucho m√°s agradables que nuestras atestadas e inc√≥modas grandes ciudades pod√≠an convertirse, por fin, en hogares estables.

Pero sin una conectividad suficiente para mantener una videoconferencia sin cortes, sin oferta formativa para nuestros hijos y ante la posibilidad de quedar descolgado del mercado laboral ante la pérdida de un trabajo, el ideal de la vida en el campo se fue desinflando y las mudanzas no llegaron más allá de 70 kilómetros de las grandes capitales.

Ah√≠ es donde la Fundaci√≥n Instituto Hermes, en colaboraci√≥n con Correos, se propuso llevar a cabo un proceso de an√°lisis, reflexi√≥n y debate con la colaboraci√≥n de otras dos empresas p√ļblicas, tambi√©n presentes en todo el territorio: Renfe y Red El√©ctrica Espa√Īola, con el objetivo de ofrecer al Gobierno y las CC.AA. propuestas realistas y aplicables para revertir la despoblaci√≥n a trav√©s de la identificaci√≥n, promoci√≥n y difusi√≥n de los derechos digitales.

Así, planteamos los debates en 4 ejes, relacionados con otros tantos derechos: Conectividad, Trabajo digital, Alfabetización y desarrollo cultural, y Logística.

Seg√ļn los mapas oficiales del Ministerio de Transici√≥n Ecol√≥gica y Reto Demogr√°fico hay seis millones de personas en Espa√Īa que no cuentan con una conectividad decente. La conectividad no lo es todo. La brecha digital tambi√©n tiene que ver con el acceso a dispositivos, con la formaci√≥n y con la cultura digital pero es preciso solucionar el tema de la conectividad para avanzar en todo lo dem√°s. Sin una conectividad m√≠nima universal y asequible para todos, los m√°s avanzados programas de inclusi√≥n y capacitaci√≥n ser√°n insuficientes.

Otras condiciones han de cumplirse tambi√©n para que teletrabajar desde cualquier punto del territorio sea una realidad para una cantidad relevante de poblaci√≥n. El caso de Renfe y la distribuci√≥n en el territorio de sus Centros de Competencias Digitales (Teruel, Miranda de Ebro, Alc√°zar de San Juan, Linares y M√©rida, por ahora) es un ejemplo de acci√≥n desde las empresas p√ļblicas. Pero para que el sector privado haga lo mismo, es necesario crear incentivos, tambi√©n de tipo fiscal, para que empresas, aut√≥nomos y trabajadores tomen una decisi√≥n que ahora mismo ni se plantean.

Al mismo tiempo, la formación en competencias digitales debe cambiar su lógica y su naturaleza. Debe dejar de ser una formación puntual en herramientas concretas que muchas veces quedan obsoletas para pasar a ser una formación en cultura digital, que cada trabajador y cada empresario pueda aplicar para digitalizar su actividad aumentando productividad y reduciendo ineficiencias.

La formación digital de los grupos vulnerables dirigida a garantizar su inclusión también debe ser revisada y adaptada a las condiciones particulares de colectivos vulnerables específicos, incidiendo especialmente en la protección de sus derechos de ciudadanía digital, al ser mayor el riesgo y los peligros que enfrentan estos grupos poblacionales.

Y tampoco podemos olvidarnos de la log√≠stica, que da materialidad a un mundo digitalizado. Espa√Īa es ya una potencia log√≠stica y con el Pacto Verde tenemos una oportunidad hist√≥rica para poner en valor lo invertido desde lo p√ļblico en infraestructuras ferroviarias, aprovechando, por ejemplo, las franja horaria nocturna de la alta velocidad para el transporte de paqueter√≠a, electrificando el transporte de mercanc√≠as o conectando los puertos con la red ferroviaria.

Hay mucho por hacer, pero ya tenemos parte del camino hecho. La digitalización y la logística unidas pueden marcar realmente la diferencia para alcanzar la igualdad real, la cohesión social y territorial y un tejido productivo potente y distribuido. Tenemos un país con demasiado potencial como para desperdiciar sus posibilidades.

Por Esteban Morr√°s, miembro del Consejo Asesor del Instituto Hermes y Consejero de Veridas

Sin identidad, sin ser reconocible y reconocido por los demás, el ser humano se ve privado de un elemento esencial para su dignidad y plenitud. El derecho a la propia identidad en el entorno digital, reconocido expresamente en la Carta de Derechos Digitales, constituye una garantía fundamental para la ciudadanía y un presupuesto necesario para la plena efectividad de los restantes derechos digitales.

Tabla de contenidos

El derecho a la propia identidad entendido como el conjunto de atributos y características que hace que cada cual sea uno mismo y no otro constituye un derecho fundamental y básico para toda persona desde su nacimiento. Para ser sujeto jurídico, titular de derechos y obligaciones, para que se nos atribuyan responsabilidades y consecuencias de nuestras actuaciones es necesario que previamente se nos reconozca como la persona irrepetible que somos.

El derecho a la identidad se proyecta con especial intensidad en el mundo digital, en el que no interactuamos directamente, en el que no se puede comprobar con inmediación física si somos los que decimos ser, en el que no podemos entregar nuestro documento de identidad para que se comprueben la coincidencia de nuestros rasgos, pero que se ha constituido en el gran espacio de comunicación, opinión e intercambio comercial de nuestro tiempo. Por eso la necesidad de reconocimiento seguro de la identidad real en el entorno digital es tan o más importante que en el mundo físico para que los ciudadanos accedan a los servicios y prestaciones, se les atribuyan sus derechos y obligaciones de modo similar o mejorado con respecto a lo que ocurre en el mundo físico.

El estado actual de reconocimiento de la identidad en el entorno digital es todavía deficiente y lo ha convertido en un lugar proclive a la desapropiación de identidad, en una grave amenaza para los derechos fundamentales debido a la proliferación del anonimato, de las identidades suplantadas o robadas. Pero, como también se explica a continuación, los avances tecnológicos y las iniciativas que se fundan en ellos permiten albergar la esperanza de que es posible devolver a los ciudadanos el derecho a ser identificados con su identidad real de manera segura, fiable y respetuosa con sus derechos fundamentales.

Es necesario que la acreditación gire como factor principal en torno a la persona, a sus atributos, y no en torno a los dispositivos o las tarjetas

La experiencia cotidiana de un usuario medio acerca de claves olvidadas, perdidas, sustra√≠das o equivocadas es suficientemente representativa de la p√©sima gesti√≥n actual de la identidad y resulta en un permanente temor a ser objeto de un ciberataque. De acuerdo con el 2021 Data Breach Investigation Report publicado por Verizon, el 60% de los data breach que ponen en peligro la privacidad y la seguridad de nuestros datos afectan al uso de credenciales o contrase√Īas. Cabe preguntarse a qui√©n beneficia una red en la que las identidades son fragmentadas, presuntas, no seguras e interoperables. A nuestro entender, la persona privada de su derecho a la identidad es m√°s vulnerable en el entorno digital y se le dificulta el pleno ejercicio de sus derechos. Es necesario que la acreditaci√≥n gire como factor principal en torno a la persona, a sus atributos, y no en torno a los dispositivos o las tarjetas.

El derecho a la identidad digital incluye también el derecho de toda persona a que, si lo desea y así lo consiente, se le facilite un medio de acreditación de su identidad en el entorno digital, basado en elementos que le son inherentes y que no pueden ser sustraídos. Este derecho también implica que la acreditación de la identidad digital ha de proporcionarse con la mayor seguridad posible y con una facilidad de acceso que lo extienda a la mayoría de la población, sin crear barreras que acrecienten la brecha digital.

Si ante una actuación en el entorno digital podemos saber que detrás hay una persona identificable (quizás no por todos los internautas, pero sí por las autoridades competentes si fuera necesario) y por tanto responsable de sus actos, habremos dado un paso sustancial en la protección de los derechos digitales

Otro gran riesgo para los derechos fundamentales en el espacio digital deriva de las identidades falsas o inventadas, del anonimato. No es necesario recordar cómo las redes sociales se han convertido en un semillero impune de odio, de vulneración del honor y la dignidad, de desinformación y polarización.

Ese anonimato propicia un espacio para la desconfianza y para la alteraci√≥n de la realidad. Es notorio c√≥mo los resultados de supuestas encuestas virtuales o de procesos pretendidamente p√ļblicos y participativos para decidir sobre cualquier materia se ven alterados por la intervenci√≥n masiva de identidades fake.

Con el uso voluntario de sistemas de reconocimiento de la identidad real se puede generar confianza. Si ante una actuación en el entorno digital podemos saber que detrás hay una persona identificable (quizás no por todos los internautas, pero sí por las autoridades competentes si fuera necesario) y por tanto responsable de sus actos, habremos dado un paso sustancial en la protección de los derechos digitales

Mientras otros sistemas de identificación nos permiten presumir que alguien es supuestamente quien dice ser, los sistemas biométricos acreditan con certeza que efectivamente lo es

Tecnología de reconocimiento biométrico a través de inteligencia artificial

La biometr√≠a es el ¬ęreconocimiento autom√°tico de los individuos en funci√≥n de sus caracter√≠sticas biol√≥gicas y de comportamiento¬Ľ. Permite reconocer a las personas por elementos inherentes a su personalidad, propios e irrepetibles. Mientras otros sistemas de identificaci√≥n nos permiten presumir que alguien es supuestamente quien dice ser, los sistemas biom√©tricos acreditan con certeza que efectivamente lo es.

Podemos decir que el reconocimiento biom√©trico es el √ļnico sistema que permite acreditar con certeza la identidad digital real de una persona. Y as√≠ formular que, en el entorno digital, la √ļnica identidad real o cierta es la identidad biom√©trica.

El Instituto Hermes ha examinado los avances tecnológicos en reconocimiento biométrico. Nuestro estudio nos permite concluir que, con el uso de redes neuronales e inteligencia artificial avanzada, la biometría facial se ha convertido en la tecnología de reconocimiento biométrico de referencia.

Los sistemas utilizados han avanzado para dejar atr√°s los primeros desarrollos basados en sistemas de puntos a partir de una imagen, que como se ha demostrado son m√°s proclives al error y susceptibles de ser sustra√≠das por terceros. La incorporaci√≥n de redes neuronales a los sistemas de identificaci√≥n biom√©trica ha supuesto una revoluci√≥n industrial en este campo, aportando notables mejoras en precisi√≥n, acierto y seguridad. De tal modo que, si el proceso de captura de datos, dise√Īo y entrenamiento del motor biom√©trico y el procesamiento del vector resultante se realizan con las tecnolog√≠as m√°s avanzadas, convenientemente certificadas, los sistemas de reconocimiento no constituyen por s√≠ mismos un riesgo para la privacidad y la seguridad de las personas que los utilizan.

Los riesgos no derivan de la biometría como tecnología, sino de sus posibles usos. El reconocimiento biométrico en sí mismo no representa una actividad invasiva o limitatitva de derechos fundamentales y no parece apropiado someterla a prevenciones o trabas que impidan que la ciudadanía se beneficie de sus innegables ventajas en aquellos usos que se ajusten a la ley y a los derechos fundamentales.

No es adecuado partir de una presunción de que la biometría perjudica los derechos fundamentales. Al contrario, la inmensa mayoría de los usos son de riesgo bajo y si se siguen los requisitos normativos y se usan los estándares tecnológicos adecuados su incidencia negativa en la esfera de derechos ciudadanos es nula.

Seguridad


Uno de los temores más comunes es el de que una vez los datos biométricos están cedidos a terceros, la vulnerabilidad del ser humano sería extrema si alguien los sustrae, ya que, a diferencia de unas claves, no pueden cambiarse.

Evidentemente, en la biometría la ciberseguridad es un pilar básico. Y no se puede descartar que terceros, vulnerando los sistemas de defensa, consigan acceder a los vectores de los motores de identificación. Si éstos están basados en líneas de puntos característicos o landmarks, la vulnerabilidad es mayor porque a partir de ellos se puede llegar a reconstruir una cara.

Sin embargo, en los sistemas de inteligencia artificial m√°s avanzados, basados en redes neuronales, esos vectores resultan in√ļtiles para la identificaci√≥n de personas fuera del sistema para el que est√°n concebidos. Ni siquiera la persona que dise√Ī√≥ el motor biom√©trico podr√≠a obtener la informaci√≥n contando solo con el vector. Por este motivo, es esencial que se promueva la aplicaci√≥n estricta de est√°ndares t√©cnicos eficaces contra posibles ataques de ciberseguridad. Estos est√°ndares han de exigir:

  • La aplicaci√≥n de motores biom√©tricos modernos de alta calidad basados en redes neuronales que est√©n validados por terceros (por ejemplo el NIST).
  • La capacidad de neutralizar las t√©cnicas de hacking utilizadas de forma maliciosa para suplantar la identidad (spoofing), tambi√©n validada por terceros independientes.

Es preciso a√Īadir que existen ya est√°ndares internacionales, como la norma ISO/IEC 30107, que establecen medidas de seguridad que deben cumplir los motores biom√©tricos para repeler este tipo de ataques y garantizar su efectividad en dicha acci√≥n.

No obstante, habiendo quedado acreditado que la operativa de los nuevos motores biométricos es segura, no podemos obviar que el obtener una foto de casi cualquier persona en Internet resulta extremadamente fácil hoy en día.

Asumida esta premisa, la confianza en los sistemas biométricos se basa en la potencia de los sistemas anti-spoofing certificados que hay detrás de los mismos. Es por ello que los fabricantes de sistemas biométricos han de seguir el ejemplo de los fabricantes de papel moneda, que a base de desarrollar y usar constantemente nuevas
tecnologías, han conseguido mantener la confianza en su producto a pesar de los ilimitados intentos de falsificación.

Sesgo y discriminación


En cuanto a la posible incidencia del reconocimiento biom√©trico en posibles sesgos o discriminaciones a las personas en raz√≥n de su raza, orientaci√≥n o grupo social al que pertenezcan, ha de se√Īalarse en primer lugar que el uso de la tecnolog√≠a biom√©trica de reconocimiento facial de una persona para verificar su identidad, para determinar con su conocimiento y consentimiento si se encuentra entre las personas de un grupo o si es quien dice ser, no debe tener la capacidad de inferir otras caracter√≠sticas del usuario como origen √©tnico o racial, estados de √°nimo, datos relativos a la salud‚Ķ etc. Nuestro ordenamiento no permite tratamientos de los datos con esta finalidad. El uso discriminatorio ocurre y puede ocurrir, con y sin tecnolog√≠a biom√©trica, pero no es inherente a esta.

El problema no es tanto la tecnología sino la inclusión de elementos de comparación suficientemente amplios para eliminar este potencial efecto indirecto. Cabe diferenciar entre los efectos que se producen en los casos de reconocimiento uno a uno (verificación o autenticación de identidad), y los de uno a varios (1:N, conocido como identificación).

Un informe elaborado por el NIST (National Institute of Standards and Technology) en 2019 manifiesta que, para procesos 1:N los sistemas que introducen un mayor n√ļmero de variables en el entrenamiento de algoritmos consiguen eliminar falsos positivos o negativos por raz√≥n de raza. En casos 1:1 encontraron que los errores apenas tienen incidencia y esta ser√≠a menor que la que resultar√≠a atribuible al ojo humano. La conclusi√≥n es, por tanto, que el problema de los sesgos proviene de usar bases de datos incompletas en el entrenamiento de los motores de
reconocimiento biométrico.

El uso discriminatorio ocurre y puede ocurrir, con y sin tecnología biométrica, pero no es inherente a esta

Privacidad


La acreditación de la identidad mediante reconocimiento biométrico está sujeta como todas las actividades al respeto de los derechos fundamentales, a la privacidad y a la protección de datos personales.

Con carácter general, los sistemas de reconocimiento 1:1 consistentes en la comprobación de los datos biométricos de una persona contra los de la identidad que dice tener son de muy bajo riesgo y debe promoverse su uso para acreditar la identidad real de la ciudadanía en entornos digitales y físicos, bien con fundamento en el consentimiento de la persona o en un interés legítimo debidamente reconocido.

Los sistemas de reconocimiento 1:N, consistentes en la comprobación de los datos biométricos con una base de datos para comprobar si el sujeto es uno de ellos, no representan problemas si son consentidos y responden a una finalidad legítima. Sería el caso, por ejemplo, de los socios de un club para acceder a su local o el acceso a instalaciones laborales.

Es vital que se aplique con rigor la normativa de protección de datos europea y que las tecnologías que no cumplan los estándares exigibles de garantía de privacidad o los casos de uso que representen un riesgo cierto sean limitados o impedidos.

Iniciativas para propiciar una identidad


La necesidad de una identidad digital segura, accesible y confiable es globalmente compartida y existen m√ļltiples iniciativas que promueven soluciones para conseguirla. Es el caso del sistema ALICEM promovido por el gobierno franc√©s y que constituye un precedente significativo en el entorno europeo. En Argentina, tambi√©n se ha puesto en marcha un sistema de verificaci√≥n de identidad biom√©trica que da acceso a los servicios p√ļblicos agrupados bajo el t√≠tulo ¬ęMi Argentina¬Ľ.

En el seno de la UE, la Comisi√≥n Europea trabaja en la definici√≥n de un marco para una Identidad Digital Europea. Esta iniciativa promueve un modelo de wallet que posibilita que el ciudadano sea √ļnico propietario de su identidad digital. La determinaci√≥n de los est√°ndares tecnol√≥gicos y requerimientos de este wallet europeo de identidad se est√° debatiendo en grupos de trabajo. Estos requerimientos deber√≠an articular distintos niveles de seguridad para que sea el usuario quien decida hasta d√≥nde quiere llegar en el uso de su identidad.

Es muy relevante el compaginar el uso del wallet en el espacio de Internet, con sus usos en el espacio físico y en las interaciones hombre-máquina que va a propiciar el desarrollo del ecosistema de la inteligencia artificial. Dentro de las opciones existentes para optimizar esa conexión, debería analizarse con especial detenimiento el uso de un sistema opcional de QR Biométrico en el wallet que permita acreditar la identidad real de una forma rápida y segura.

Sin identidad, sin ser reconocible y reconocido por los demás, el ser humano se ve privado de un elemento esencial para su dignidad y plenitud. El derecho a la propia identidad en el entorno digital, reconocido expresamente en la Carta de Derechos Digitales, constituye una garantía fundamental para la ciudadanía y un presupuesto necesario para la plena efectividad de los restantes derechos digitales.

El grupo de trabajo del Instituto Hermes sobre Identidad digital y Biometr√≠a ha analizado los retos que plantea la identificaci√≥n de personas en el mundo digital desde la perspectiva de sus derechos digitales. Ha analizado igualmente las soluciones tecnol√≥gicas que el reconocimiento biom√©trico basado en inteligencia artificial avanzada ofrece en este terreno, las diferentes regulaciones e iniciativas legislativas en marcha sobre el particular, las resoluciones y actuaciones de las autoridades p√ļblicas en Espa√Īa, Europa y otros pa√≠ses, as√≠ como los casos de uso m√°s relevantes.

Jos√© Luis Pi√Īar Ma√Īas. Catedr√°tico de Derecho Administrativo. Patrono de la Fundaci√≥n Instituto Hermes

El pasado 14 de julio, el presidente del Gobierno present√≥ en la Moncloa la Carta de Derechos Digitales y afirm√≥ que con ello ¬ęEspa√Īa se sit√ļa a la vanguardia internacional en la protecci√≥n de derechos de la ciudadan√≠a¬Ľ. ¬ŅEs realmente as√≠, teniendo en cuenta que la Carta carece de valor normativo, que tan s√≥lo es un documento program√°tico que pretende recoger en un texto los derechos fundamentales que deber√≠an en todo caso ser reconocidos en la sociedad digital?

Desde luego, la protecci√≥n efectiva de los derechos s√≥lo se alcanza cuando se reconocen de forma vinculante y se articulan garant√≠as para hacerlos valer y defenderse frente a los ataques que puedan sufrir. Algo que la Carta, por s√≠ sola, no hace. Entonces, ¬Ņpor qu√© una Carta de Derechos Digitales?

Decir que la innovación tecnológica trae consigo inimaginables avances para la sociedad pero que al mismo tiempo genera riesgos difíciles o imposibles de predecir es algo ya muy manido, pero cierto. También suele decirse que el derecho es incapaz de enfrentarse de antemano a tales riesgos, respecto de los que siempre parece ir a la zaga. Seguramente algo de cierto hay también en ello, pero esta situación no debería generarnos sensaciones de zozobra. El derecho se ha enfrentado a situaciones tan complejas, intensas, disruptivas, como las que ahora trae consigo el reto de la transformación digital. Y lo ha hecho con éxito. Basta pensar en lo que supuso el descubrimiento de América, la Revolución francesa o la caída del Muro de Berlín. O las revoluciones industriales que se han producido antes de la que ahora llamamos cuarta. Lo que ocurre es que ahora parece que los cambios son más rápidos, los escenarios más inciertos, el entorno muy diferente al que hasta ahora conocía la sociedad. Y el derecho se resiente. Pero no se rinde. Así como evoluciona la ciencia, también el derecho busca nuevas soluciones y se adapta al nuevo entorno. La regulación, las garantías y la efectividad de las normas deben reinventarse para conseguir el objetivo final, que no es otro que el pleno respeto a los derechos fundamentales de todas las personas.

Y en este contexto la Carta de Derechos Digitales encuentra su justificaci√≥n, pues de entrada se presenta como marco imprescindible para futuras leyes. El compromiso asumido por el presidente del Gobierno al presentar la Carta debe traducirse en que cualquier iniciativa legislativa deber√≠a superar el juicio de compatibilidad en relaci√≥n con el compromiso que supone la Carta. Compromiso que debe entenderse exigible no solo al actual Gobierno, pues la Carta tuvo ya un precedente en la iniciativa que se puso en marcha por el anterior en 2017 y que por cuestiones de calendarios electorales no lleg√≥ a ver la luz. Es algo que no debe olvidarse porque de este modo la Carta ‚ÄĒen cuya elaboraci√≥n, por cierto, se han tenido en cuenta las aportaciones de la sociedad civil‚ÄĒ puede ser considerada como hoja de ruta para la gran mayor√≠a de los grupos pol√≠ticos con representaci√≥n parlamentaria. Estamos, pues, ante un texto que debe entenderse como una conquista en favor de los ciudadanos, a la que deben sentirse pol√≠ticamente vinculados quienes tienen en sus manos la llave de la iniciativa legislativa.

Esta conclusión es de enorme trascendencia porque al aprobarse la Carta se han puesto las bases de lo que debe ser el respeto a los derechos fundamentales en el desarrollo actual y futuro de la sociedad digital.

Cierto que la Constituci√≥n de 1978 puede ser interpretada de modo que permite entender reconocidos y tutelados los derechos fundamentales tanto en el entorno f√≠sico como en el digital. Pero era necesario resaltar la importancia de los derechos digitales sobre todo si se tiene en cuenta que, especialmente los j√≥venes, cada vez m√°s, no es que vivan ¬ęcon¬Ľ Internet, sino que viven tambi√©n ¬ęen¬Ľ Internet. La red ‚ÄĒlo digital‚ÄĒ se ha convertido en un espacio vital cotidiano, en el que las personas nos relacionamos e interactuamos. Es un espacio en el que, adem√°s, se dan al menos dos circunstancias que no debemos olvidar.

Por un lado, y esto es esencial, la violación de los derechos en el entorno digital puede llegar a pasar totalmente desapercibida para quien la padece. Si sufrimos cualquier ataque a nuestros derechos en la vida física, de inmediato somos conscientes de ello y podemos reaccionar. Si nos impiden ejercer la libertad de expresión, manifestarnos, si nos privan de la libertad o de la propiedad, por modesto que sea el bien que nos sustraigan, de inmediato podemos caer en la cuenta de ello.

Pero si en el entorno digital nos acechan, nos vigilan, nos roban los datos o la identidad entera, nos manipulan o perfilan il√≠citamente, quiz√° nunca lleguemos a ser conscientes de ello, o lo seamos s√≥lo cuando se produzcan las consecuencias nocivas para nosotros derivadas de esa violaci√≥n de los derechos: cuando no contraten a alguien porque han estado escudri√Īando sus redes sociales, cuando no podamos utilizar nuestra tarjeta de cr√©dito porque nos han robado los datos, cuando se hacen p√ļblicas unas im√°genes comprometedoras que pueden suponer la muerte civil o incluso la real de las personas. No ser√≠a la primera vez que una persona se suicida tras hacerse p√ļblicas im√°genes sobre ella captadas ‚ÄĒo difundidas‚ÄĒ sin su consentimiento. Zygmunt Bauman y David Lyon han hablado con raz√≥n de la ¬ęvigilancia l√≠quida¬Ľ a la que estamos sometidos, y las graves consecuencias que ello tiene.

Por otro lado, y quiz√° como consecuencia de la falta de conciencia sobre la posible y nefasta violaci√≥n de nuestros derechos, las cautelas que se toman en el entorno digital son muy inferiores a las que tomamos en la vida f√≠sica. En la sociedad digital no cerramos las puertas con llave ni usamos cintur√≥n de seguridad o airbag. Byung-Chul Han ha advertido que con frecuencia son las propias personas las que divulgan de un modo ¬ęcuasi pornogr√°fico¬Ľ su propia informaci√≥n.

Ya s√≥lo lo anterior justifica la aprobaci√≥n de una Carta de Derechos Digitales, pese a carecer de valor normativo. En efecto, Espa√Īa se sit√ļa a la cabeza de la reflexi√≥n y el compromiso p√ļblico con los derechos digitales. El debate generado con este motivo permite colocar en el centro de atenci√≥n la necesidad de respetar los derechos digitales. Con propuestas sin duda pioneras, como el reconocimiento de la identidad digital, de los neuroderechos (en lo que tanto tiene que ver a nivel mundial el cient√≠fico espa√Īol Rafael Yuste), el derecho de acceso a Internet, el derecho al teletrabajo y a la desconexi√≥n (ya propuesto en la Ley Org√°nica 3/2018), o la exigencia de que los sistemas de inteligencia artificial respeten en todo momento los derechos fundamentales. Y todo ello centrado en la persona y su dignidad. Stefano Rodot√† ha advertido que

¬ęla dignidad‚Ķ evita que la persona sea considerada como una especie de explotaci√≥n a cielo abierto en la que cualquiera puede recoger informaci√≥n y construir perfiles‚Ķ que convierten a la persona en objeto de poderes externos, que pueden falsificarla, construirla de formas coherentes con las necesidades de una sociedad vigilada, de la selecci√≥n social, del c√°lculo econ√≥mico¬Ľ

Para ello es imprescindible exigir que en el entorno digital los derechos sean plenamente respetados. Ninguna innovaci√≥n tecnol√≥gica es posible sin derechos fundamentales. No se trata de poner puertas al campo, sino de recordar que la ciencia y el derecho, sobre todo en la sociedad digital, han de ir siempre de la mano. Y en ese recorrido com√ļn la Carta de Derechos Digitales puede y debe asumir un papel capital. No lo olvidemos.

El 10 de marzo de 2021 tuvo lugar de forma virtual la reuni√≥n de lanzamiento del proyecto PROLIFIC, PROmoting digital rights LIteracy For Including Citizens coordinado por el instituto Polibienestar de la Universidad de Valencia y los socios Fundaci√≥n Instituto Hermes para el empoderamiento de la ciudadan√≠a (Espa√Īa), Margherita Societa’ Cooperativa Sociale Onlus (Italia), Senior Europa Sociedad Limitada – Kveloce (Espa√Īa) y Funda√ß√£o Dr. Jos√© Louren√ßo J√ļnior (Portugal).

Todos los socios participaron en el evento para debatir y planificar la puesta en marcha del proyecto que tiene como objetivo empoderar a los grupos de personas vulnerables (ancianos, inmigrantes y personas con discapacidad) sobre sus derechos digitales a través de la capacitación de los profesionales que trabajan con ellos en ONG, asociaciones, servicios sociales, etc. y la creación y validación de herramientas específicas.

Se trata de un paso importante para empezar a generar conciencia y crear herramientas para proteger a los grupos vulnerables de la estafa o la usurpación de identidad, el acoso y el grooming, la suplantación de identidad o el abuso de poder de las empresas, y para luchar contra la difusión de mensajes extremistas, discriminatorios, racistas, xenófobos, antisemitas, homófobos o sexistas.

Imagen: Gerarlt

El papel de los socios

  • La Universitat de Valencia – Instituto Polibienestar (Espa√Īa) es el socio principal del proyecto y ser√° quien promueva la coordinaci√≥n del consorcio. Adem√°s, est√° a cargo del desarrollo del marco de evaluaci√≥n para medir los impactos del proyecto y las actividades relacionadas.
  • La Fundaci√≥n Instituto Hermes para el empoderamiento de la ciudadan√≠a (Espa√Īa) lidera el desarrollo de la creaci√≥n de un software (plataforma web) que personaliza un curr√≠culo de formaci√≥n para que los profesionales que trabajan con grupos vulnerables tengan las competencias adecuadas para promover los derechos digitales y prevenir su vulneraci√≥n.
  • Margherita Societa’ Cooperativa Sociale Onlus (Italia) se encarga de las actividades de comunicaci√≥n y difusi√≥n, pero tambi√©n participar√° en la prueba de las nuevas herramientas de formaci√≥n en el √°mbito de la discapacidad.
  • Senior Europa Sociedad Limitada – Kveloce (Espa√Īa) es responsable del control de calidad de las actividades y los resultados.
  • La Funda√ß√£o Dr. Jos√© Louren√ßo J√ļnior (Portugal) se encarga de realizar actividades piloto con personas mayores y con profesionales que trabajan con este grupo vulnerable.
Imagen: Gerarlt

Próximos pasos


Los socios, durante la reunión, debatieron sobre la gestión del proyecto y acordaron comenzar con el desarrollo del primer resultado: un software (plataforma web) que personaliza un currículo de formación para profesionales, educadores y voluntarios para favorecer el empoderamiento de los derechos digitales de los grupos vulnerables.

Todo el trabajo se basar√° en la comprensi√≥n com√ļn de lo importante que es hoy en d√≠a apoyar a los grupos vulnerables para que puedan utilizar la tecnolog√≠a e Internet como oportunidades de formaci√≥n, informaci√≥n, desarrollo, expresi√≥n social y participaci√≥n ciudadana, evitando ser enga√Īados, acosados o discriminados.

El proyecto, financiado por la Comisi√≥n Europea en el marco del programa Erasmus plus, est√° dise√Īado para empoderar a los grupos de personas vulnerables sobre sus derechos digitales a trav√©s de la capacitaci√≥n de los profesionales que trabajan con ellos en ONG, asociaciones, servicios sociales, etc. y la creaci√≥n y validaci√≥n de herramientas espec√≠ficas.

Internet genera m√ļltiples oportunidades de formaci√≥n, informaci√≥n, desarrollo, expresi√≥n social e incluso participaci√≥n ciudadana. Sin embargo, dentro de Internet se han desarrollado comportamientos negativos como el acoso virtual, la violencia verbal y simb√≥lica, la discriminaci√≥n e incluso comportamientos delictivos. Hasta el momento, existen importantes iniciativas que muestran la creciente preocupaci√≥n por el reconocimiento y regulaci√≥n de los derechos de la ciudadan√≠a en el entorno digital.

El proyecto PROLIFIC tiene como objetivo generar conciencia y crear herramientas para proteger a los grupos vulnerables de la estafa o la usurpación de identidad, el acoso y el grooming, la suplantación de identidad o el abuso de poder por parte de las empresas, así como combatir la difusión de mensajes extremistas, discriminatorios, racistas, xenófobos, antisemitas, homófobos o sexistas.

Estos grupos vulnerables son los inmigrantes, las personas mayores y las personas con discapacidad. Estos grupos tienen diferentes caracter√≠sticas, pero tienen en com√ļn una mayor vulnerabilidad a las consecuencias negativas del r√°pido desarrollo de la digitalizaci√≥n y las TIC, debido tambi√©n a un menor nivel de competencias digitales.

Por estas razones, PROLIFIC formar√° a los profesionales, voluntarios y educadores que trabajan con estos grupos vulnerables mediante el desarrollo y la oferta de un software (plataforma web) que personaliza un curr√≠culo de formaci√≥n para que desarrollen las competencias adecuadas para responder mejor a los problemas espec√≠ficos antes mencionados relacionados con la violaci√≥n de los derechos digitales de los ciudadanos, seg√ļn las caracter√≠sticas de cada grupo objetivo espec√≠fico. Adem√°s, se proporcionar√° una herramienta de evaluaci√≥n para medir el impacto de la promoci√≥n de los derechos digitales entre los grupos vulnerables.

Imagen: Mohamed Hassan

Gracias a esto, PROLOFIC permitir√°

  • Empoderar a los grupos vulnerables en sus derechos digitales mediante el desarrollo de la capacidad de los profesionales que trabajan con ellos.
  • Aumentar la conciencia de los grupos vulnerables y sus cuidadores sobre sus derechos digitales
  • Difundir y transferir los contenidos y herramientas de formaci√≥n en diferentes comunidades de Europa.

Los grupos destinatarios del proyecto serán los usuarios finales (inmigrantes, personas mayores y discapacitados), los profesionales que trabajan con grupos vulnerables (trabajadores sociales, voluntarios, educadores, etc.), los expertos (por ejemplo, abogados, educación, informática) y otras partes interesadas (ONG, asociaciones).

¬°Sigue conectado con nosotros para crear un entorno digital m√°s inclusivo y seguro!

Socios del proyecto

Socio principal: Universitat de Valencia – Instituto Polibienestar (Espa√Īa)

Otros socios:

Digitalización de la empresa

La digitalización de las organizaciones y las empresas ha pasado de objetivo estratégico a urgencia inmediata en toda Europa. La recuperación económica del continente tendrá en ella uno de sus dos pilares fundamentales. Digitalización significa hoy un futuro apremiante y una esperanza.

El peligro es que cuando una palabra pasa ser el vehículo de todas las aspiraciones sociales, inevitablemente se vacía en cierto grado de contenido. El problema es que la reflexión previa sobre su significado real, material, era tan escueta, que podría convertirse en fetiche. Por eso es más importante que nunca escuchar a los críticos.

El siguiente documento recoge citas de dos art√≠culos de opini√≥n, firmados por David Justino y Eduardo Manch√≥n publicados en medios de comunicaci√≥n de Portugal y Espa√Īa durante la √ļltima semana.

Ideas centrales

  • Lo que nos puede salvar es la producci√≥n de conocimiento innovador, incorporado o no a la tecnolog√≠a, que puede movilizarse para agregar valor a los bienes que producimos. Digitalizar sin un cambio previo de procesos es reproducir los (malos) servicios existentes. Automatizar sistemas industriales obsoletos es darles un nuevo aspecto, sin cambiar su naturaleza real. David Justino
  • La digitalizaci√≥n es un aprendizaje y los aprendizajes no se pueden delegar. Al igual que la alfabetizaci√≥n tiene consecuencias mayores que el mero hecho de saber juntar letras, la digitalizaci√≥n es mucho m√°s que crear una web o una ‘app’, es un aprendizaje que implica cambios profundos en las personas y en el funcionamiento de las organizaciones. Subcontratar la digitalizaci√≥n significa pagar para que ese capital intelectual, literalmente, se pierda en un tercero cuyo negocio no es acumular conocimiento, sino vendernos el m√°ximo n√ļmero de horas. Contratar a un zorro para que nos vigile las gallinas. Eduardo Manch√≥n.

David Justino: ¬ęEl fetichismo de la tecnolog√≠a¬Ľ

David Justino(1953) Político y sociólogo portugués del partido social demócrata (PSD) del que actualmente es vicepresidente. Fue Ministro de Educación (2002-2004) con el gobierno de Durão Barroso y asesor para asuntos sociales del Presidente Cavaco Silva, entre otros cargos. Es Catedrático de Sociología en la Universidade Nova de Lisboa.

David Justino ha iniciado la publicaci√≥n de una serie de 10 art√≠culos en el diario portugu√©s P√ļblico sobre los retos a los que nos enfrentamos actualmente en diversas √°reas, en Portugal y en el mundo. En su art√≠culo dice as√≠:

La tensi√≥n entre individualismo y masificaci√≥n se ha formulado, al menos, desde John Stuart Mill y Alexis de Tocqueville y se centra en la libertad y diversidad de una sociedad de individuos y ciudadanos ante lo que se tem√≠a como el riesgo de la ¬ętiran√≠a de las masas¬Ľ o , si queremos, del despotismo de las mayor√≠as. Ambos convergieron en la necesidad de crear instituciones pol√≠ticas que garantizasen un equilibrio indispensable entre los derechos fundamentales de las personas, su libertad y poder de diferenciaci√≥n, y el respeto a la voluntad de las mayor√≠as, por irracional y anacr√≥nica que sea.

Las nuevas tecnolog√≠as, en concreto las de la informaci√≥n y la comunicaci√≥n, aumentan esta tensi√≥n e introducen nuevos motivos de preocupaci√≥n por el acceso masivo a la informaci√≥n, la opini√≥n y el poder que tienen los peque√Īos grupos para inducir ideas, conceptos y comportamientos de la enorme masa humana de usuarios. y consumidores. La visi√≥n orwelliana sigue flotando sobre el futuro de nuestras sociedades, aunque en una escala ampliada, m√°s descentralizada pero tambi√©n m√°s fragmentada.

El fetichismo de la tecnología

Recuerdo un episodio sucedido en 1996 y repetido en 1997. Por primera vez un ordenador gan√≥ una partida de ajedrez al que en ese momento se consideraba el mejor jugador de todos los tiempos, Garry Kasparov. En 1997, el equipo creado por IBM volvi√≥ a ganar dos juegos, lo que le permiti√≥ ganar el partido de 6 (tres empates y una derrota). Muchos de los lectores recordar√°n el nombre del campe√≥n de ajedrez. Otros recordar√°n el nombre de la computadora, ‘Deep Blue’. Pero pregunto: ¬Ņcu√°ntos recuerdan los nombres de los programadores que desarrollaron el software? Cinco ingenieros y un joven maestro de ajedrez: Chung-Jen Tan, Murray Cambell, Feng-hsiung Hsu, Joseph Hoane Jr., Jerry Brody y Joel Benjamin.

Lo que quedó para la historia fueron Kasparov y Deep Blue, el hombre derrotado por la máquina. Todo el conocimiento que se tuvo que movilizar desde el registro de 700 mil partidas que involucraron a los grandes maestros del ajedrez, así como el complejo proceso de programación, quedó en segundo plano.

Nuestra relación con la tecnología desde entonces no ha cambiado significativamente. La fascinación por la tecnología nos hace olvidar el valor del conocimiento y la acción humana que la conciben y desarrollan. A la tecnología se le atribuyen poderes mágicos, a veces sobrehumanos, cuando no hay nada mágico en ella y la capacidad humana para producir estas tecnologías está lejos de su límite.

El concepto de fetichismo fue pionero en Marx, cuando, respecto al concepto de alienaci√≥n, habl√≥ del ¬ęfetichismo de la mercanc√≠a¬Ľ. David Harvey, un ge√≥grafo ingl√©s de orientaci√≥n marxista, transpone la idea de hablar del fetichismo de la tecnolog√≠a, entendi√©ndola como la propensi√≥n humana a ¬ędotar a los objetos o entidades, reales o imaginarios, de poderes aut√≥nomos, misteriosos e incluso m√°gicos para moverse y dar forma el mundo de diferentes maneras¬Ľ (El fetiche de la tecnolog√≠a: causas y consecuencias ).

La acci√≥n y el discurso pol√≠ticos, particularmente entre nosotros, reflejan este fetichismo de la tecnolog√≠a. La gran moda de la digitalizaci√≥n abarca todos los √°mbitos de la vida social, est√° presente en el vocabulario del discurso ¬ęinnovador¬Ľ y ¬ęvanguardista¬Ľ, como si fuera la soluci√≥n m√°gica para solucionar los problemas del pa√≠s. ¬°Puro enga√Īo! En el mejor de los casos, seremos mejores consumidores de la tecnolog√≠a que otros dise√Īan, producen y comercializan, meros agentes pasivos de un proceso cuyo valor agregado es bajo.

Lo que nos puede salvar es la producción de conocimiento innovador, incorporado o no a la tecnología, que puede movilizarse para agregar valor a los bienes que producimos. Digitalizar sin un cambio previo de procesos es reproducir los (malos) servicios existentes. Automatizar sistemas industriales obsoletos es darles un nuevo aspecto, sin cambiar su naturaleza real.

Eduardo Manch√≥n: ¬ęLas consultoras est√°n matando la industria¬Ľ

Eduardo Manch√≥n(1977) Fundador de Panoramio y Mailcheck, es el primer espa√Īol que vendi√≥ su empresa a Google. Publica columnas de opini√≥n en el diaro El Confidencial. Hacemos referencia a uno de sus art√≠culos en el que plantea y analiza el error que muchas empresas espa√Īolas han cometido al dejar su digitalizaci√≥n en manos de consultoras.

Las pifias de la web de Renfe son el hazmerre√≠r nacional, todos hemos sufrido en carne propia sus fallos. Lo sorprendente, sin embargo, no es que alguien cometa errores, lo verdaderamente chocante es que despu√©s de muchos a√Īos esos errores contin√ļen all√≠. Solo quien conozca c√≥mo funciona la consultor√≠a de software ser√° capaz de entender esta situaci√≥n delirante.

La web de Renfe es solo la punta del iceberg. Buscadores que no encuentran, webs lentas, procesos incomprensibles‚Ķ No hace falta ser un experto, cualquier usuario sabe que la calidad de la mayor√≠a de las ‘apps’ y webs ‘made in Spain’ deja mucho que desear. Y s√≠, casi todo ese ‘software’ ha sido creado por consultoras.

La digitalizaci√≥n por fin ha llegado a Espa√Īa, toda empresa o Administraci√≥n que se precie tiene una web y una ‘app’ pero, como los se√Īores feudales que renunciaban a aprender a leer y a escribir delegando esa tarea en sus escribanos, las empresas espa√Īolas han cometido el error de delegar su digitalizaci√≥n y dejarla en manos de consultoras.

El problema es que la digitalizaci√≥n es un aprendizaje y los aprendizajes no se pueden delegar. Al igual que la alfabetizaci√≥n tiene consecuencias mayores que el mero hecho de saber juntar letras, la digitalizaci√≥n es mucho m√°s que crear una web o una ‘app’, es un aprendizaje que implica cambios profundos en las personas y en el funcionamiento de las organizaciones.

No aprender significa quedar a expensas de decisiones interesadas de terceros. Solo a un negocio interesado en facturar horas le conviene que los bancos sigan usando una tecnolog√≠a obsoleta como Cobol. Gracias a decisiones como esa, los bancos han acumulado cantidades ingentes de lo que en el sector se llama ‘deuda t√©cnica’, y eso convierte en un infierno cualquier intento de implementar mejoras. Una organizaci√≥n suficientemente competente hubiera tomado la muy dif√≠cil decisi√≥n de reescribir el c√≥digo desde cero hace a√Īos, pero a las consultoras les va mejor seguir remendando viejos sistemas. Las consecuencias las sufren el banco y especialmente sus clientes en forma de fallos, lentitud y deficiencias en sus maltrechas ‘apps’. Como Unamuno, los bancos han dicho ¬ęque digitalicen ellos¬Ľ.

La digitalizaci√≥n produce una acumulaci√≥n de un valioso capital intelectual en la organizaci√≥n, un ‘asset’ digno de aparecer entre sus activos. Subcontratar la digitalizaci√≥n significa pagar para que ese capital intelectual, literalmente, se pierda en un tercero cuyo negocio no es acumular conocimiento, sino vendernos el m√°ximo n√ļmero de horas. Contratar a un zorro para que nos vigile las gallinas.

En consultor√≠a, se trata de evitar ese conflicto de inter√©s cerrando precios, fechas de entrega y definiendo exactamente el producto a entregar, pero ese cors√© no funciona y se entregan productos deficientes o inacabados para acabar terminando el producto facturando infinitas horas adicionales de ‘mantenimiento’. El grillete perfecto: el zorro se nos est√° merendando las gallinas y ni siquiera podemos cambiar de zorro.

Crear ‘software’ es un proceso con caracter√≠sticas muy particulares, tan particulares que en la industria se ha llegado al consenso de que es imposible ejecutar con √©xito un producto planificado de antemano. Todos se han rendido a la realidad de un proceso artesanal de mejora paso a paso que nunca acaba. Las nuevas metodolog√≠as, en lugar de intentar poner orden, son capaces de tolerar el caos y la incertidumbre que supone no poder predecir el siguiente paso. En consecuencia, nadie, excepto las consultoras, trabaja ya ni con fechas de entrega ni con las especificaciones detalladas de anta√Īo. Un proceso poco predecible y ca√≥tico que requiere horas infinitas no es algo que quieras hacer con una consultora externa.

En román paladino, por muy bien que creas que hayas planificado, a las primeras de cambio surgirán imprevistos y toda la planificación saltará por los aires. Por eso, trabajando con una consultora siempre llega el día en que no le sale a cuenta echar más horas (o las echa con cuentagotas arrastrando los pies). Ese día raramente coincide con el momento en que un producto está listo para ser usado.

Ajenas a las modernas pr√°cticas, las consultoras son aut√©nticas f√°bricas de facturar horas y se vanaglorian de abrir ‘software factories’ intensivas en mano de obra en las localizaciones con salarios m√°s bajos. En las ant√≠podas de este modelo est√°n las modernas empresas de ‘software’, organizaciones posindustriales donde la calidad del resultado se basa en el conocimiento t√°cito acumulado en los cerebros de sus trabajadores, el aut√©ntico medio de producci√≥n, lo que los hace dif√≠cilmente sustituibles e inevitablemente conlleva excelentes condiciones laborales.

¬ŅHay soluci√≥n? S√≠, y aunque es dif√≠cil, tenemos referentes que han dado un golpe de tim√≥n. Juan Roig, en la presentaci√≥n de resultados en 2017, dijo literalmente ¬ęla web de Mercadona es una mierda¬Ľ y apost√≥ por crear una divisi√≥n interna de la empresa llamada Mercadona Tech para empezar desde cero y hacer viable el negocio ‘online’. Contrat√≥ a un equipo de grandes profesionales con el objetivo de repensar absolutamente todo, un proceso artesanal que no acabar√° nunca y que inevitablemente debe hacerse en casa. Eso es digitalizaci√≥n de verdad y, por cierto, la √ļnica manera de que Amazon no te deje alg√ļn d√≠a en los huesos.

California Consumer Privacy Act 2018

La Ley de Privacidad del Consumidor de California (CCPA por sus siglas en inglés) es una ley estatal destinada a mejorar los derechos de privacidad y la protección del consumidor para los residentes en California, Estados Unidos.

Su impulsor, Alastair Mactaggart, es un magnate inmobiliario, Fundador de la asociaci√≥n ¬ęCalifornians for Consumer Privacy¬Ľ y Presidente de su Junta; La asociaci√≥n ha sido la entidad impulsora del refer√©ndum de la Ley de Privacidad del Consumidor de California (CCPA).

Mactaggart y la Ley de Privacidad del Consumidor de California (CCPA)

Presentada a referendum en 2016, obtuvo el respaldo de 690 mil ciudadanos, siendo el mínimo para iniciar un procedimiento legislativo de 500 mil. La Ley de Privacidad fue aprobada en 2018 por la Legislatura del Estado de California y por el gobernador de California, Jerry Brown. El CCPA otorga a casi 40 millones de personas en California los derechos de privacidad de datos más sólidos del país y ha entrado en vigor en enero de 2020.

Los californianos ahora tienen derecho a saber qué datos se recopilan sobre ellos, a prohibir la venta de sus datos a terceros, a demandar a las empresas que recopilan sus datos y sufren una violación de seguridad, y a eliminar los datos recopilados sobre ellos. El CCPA también prohibirá la discriminación contra los consumidores que opten por no participar en la recopilación de datos.

  • Saber si una empresa recolecta tus datos.
  • Conocer qu√© datos han sido recopilados sobre ti en los √ļltimos 12 meses.
  • Expresar tu rechazo a la recolecci√≥n de datos.
  • Prohibir que los datos recopilados sean cedidos o vendidos a terceros.

Para ello, toda p√°gina web o aplicaci√≥n debe contar con un ¬ębot√≥n¬Ľ que de forma clara permita al usuario ejercer estos derechos.

Se trata de un éxito sin precedentes, que abre la puerta a una legislación a nivel federal sobre los derechos de privacidad en Internet, pero también ha provocado la respuesta inmediata de la industria tecnológica de Silicon Valley. A través de diferentes cauces ya ha presentado una serie de enmiendas a la CCPA de cara a diluir su efecto real en el tratamiento y gestión de datos de los usuarios.

Google adem√°s advierte del da√Īo a las peque√Īas empresas y emprendedores que acarrear√° la implementaci√≥n de la CCPA, alega que se trata de matizar el lenguaje de la ley para permitir la subsistencia de los actuales modelos de negocio basados en los datos de sus usuarios. Por ejemplo, el texto de la ley limita y lista actividades espec√≠ficas en las que se permite la cesi√≥n de los dados tratados, entre ellos ¬ęauditor√≠a y seguridad¬Ľ y propone que sea sustituido por ¬ęnegocios cuyos prop√≥sitos incluyan¬Ľ abriendo la puerta a mantener el actual status quo.

Por ello, Mactaggart ha anunciado que se encuentra trabajando en la elaboraci√≥n de un nuevo texto base para conseguir ampliar las garant√≠as de la CCPA. La CCPA, se√Īala, se centra en la venta de datos personales, pero no aborda directamente el uso de esos datos por la fuente que los recogi√≥ originalmente. Su nueva propuesta busca proteger la ¬ęinformaci√≥n personal confidencial¬Ľ. Los datos que estar√≠an cubiertos por esa definici√≥n incluyen informaci√≥n de geolocalizaci√≥n, n√ļmeros de Seguro Social, n√ļmeros de pasaporte y datos sobre raza, religi√≥n, afiliaci√≥n sindical, y orientaci√≥n sexual, entre otras categor√≠as¬Ľ. Propone adem√°s la creaci√≥n de una nueva agencia de protecci√≥n de datos independiente, inspirada en el organismo regulador de la Uni√≥n Europea.

Derechos recogidos en la CCPA

La Ley de Privacidad del Consumidor de California (CCPA), promulgada en 2018, crea nuevos derechos de los consumidores relacionados con el acceso, la eliminación, y la cesión de información personal, que se recaba por las empresas.

Es decir, la CCPA recoge el derecho de los consumidores a saber qué información recopilan las empresas sobre ellos, para qué propósito y con quién la comparten. Los usuarios podrán solicitar a las empresas la eliminación de sus datos personales, y manifestar su deseo de no permitir su venta o divulgación a terceros.

Por su parte, las empresas deber√°n mostrar en un lugar visible de su p√°gina web o aplicaci√≥n un enlace con el texto ¬ęDo Not Sell My Personal Information¬Ľ, para que los consumidores puedan ejercer estos derechos.

La CCPA se aplica sobre las empresas que, con independencia de su domicilio social, traten con datos de residentes en el estado de California y cumplan los siguientes requisitos:

  • Contar con un beneficio anual bruto superior a 25 millones de d√≥lares;
  • Tratar con informaci√≥n de un m√≠nimo de 50.000 usuarios, dispositivos u hogares, o;
  • Obtener como m√≠nimo el 50 por ciento de sus ganancias de la venta de informaci√≥n personal.

Toda actividad comercial que se incluya en las condiciones establecidas por la CCPA deber√° cumplir con una serie de obligaciones para aumentar la transparencia en el tratamiento que hacen de los datos, entre los que se encuentran:

  • Informar a los consumidores si tienen intenci√≥n de vender sus datos. Adem√°s, tienen prohibida la venta de datos de menores de 16 a√Īos a menos que se autorice.
  • Incluir una pol√≠tica de privacidad en la web donde se especifique la informaci√≥n recogida y el prop√≥sito.
  • Proporcionar mecanismos para que los consumidores puedan solicitar informaci√≥n acerca de sus datos y responder a las solicitudes sin coste.
  • No discriminar a aquellos consumidores que deciden eliminar sus datos, impedir su venta o ejercer alg√ļn otro derecho. No obstante, las empresas s√≠ pueden ofrecer incentivos financieros a los consumidores por el tratamiento de sus datos.

Información personal

La información personal bajo la CCPA incluye:

  1. Identificadores directos (tales como el nombre real, alias, direcci√≥n postal, n√ļmeros de la seguridad social);
  2. Identificadores √ļnicos (cookies, direcci√≥n de IP y nombres de usuario);
  3. Datos biométricos (como el rostro y las grabaciones de voz);
  4. Datos de geolocalización (tales como el historial de localización);
  5. Actividad internauta (historial de navegaci√≥n, b√ļsquedas realizadas, interacci√≥n de datos con una web o una aplicaci√≥n);
  6. Información sensible (datos sobre salud, características personales, comportamiento, religión, convicciones políticas, preferencias sexuales, empleo o datos educativos, historial médico o información financiera).

La información personal también incluye datos que por deducción pueda desembocar en la identificación de un individuo o una unidad familiar, además de datos que pueda ser de cualquier modo re-identificable. Esto significa que datos que por sí mismos no son información personal pueden serlo bajo la CCPA si pueden ser usados -por deducción o combinación con otros datos- para identificar un individuo o una unidad familiar.

Incumplimiento y sanciones

El incumplimiento de la CCPA puede desembocar en multas para las empresas de 7.500$ por infracci√≥n y 750$ por usuario afectado en concepto de da√Īos y perjuicios civiles.

El poder para hacer cumplir la CCPA recae en la oficina del Fiscal general de California, quien, hasta julio de 2020 tiene que especificar la regulación de dicha aplicación. Sin embargo, el periodo provisional entre enero y julio de 2020 no se convierte en un periodo de gracia y las empresas están sujetas a demandas civiles por la recogida y venta de datos desde el 1 de enero de 2020.

Enmiendas a la CCPA

El Procurador General de California ha preparado el siguiente título y resumen del propósito y los puntos de la medida propuesta: Modifica las leyes de privacidad del consumidor. Estatuto de la iniciativa. Permite a los consumidores:

  1. Evitar que las empresas compartan información personal;
  2. Corregir la información personal inexacta;
  3. Limitar el uso de ¬ęinformaci√≥n personal sensible¬Ľ por parte de las empresas, como por ejemplo geolocalizaci√≥n; raza; etnia; religi√≥n; datos gen√©ticos; afiliaci√≥n sindical; comunicaciones privadas; y cierta orientaci√≥n sexual, salud e informaci√≥n biom√©trica.

Adem√°s,

  • Cambia los criterios para los cuales los negocios deben cumplir con estas leyes.
  • Proh√≠be la retenci√≥n de informaci√≥n personal por parte de las empresas durante m√°s tiempo del razonablemente necesario.
  • Triplica las penas m√°ximas para las violaciones relativas a consumidores menores de 16 a√Īos.
  • Establece la Agencia de Protecci√≥n de la Privacidad de California para hacer cumplir y implementar las leyes de privacidad del consumidor, e imponer multas administrativas.
  • Requiere la adopci√≥n de reglamentos sustantivos.

En cuanto a la estimación del impacto fiscal en los gobiernos estatales y locales, la fiscalía apunta a:

  • Aumento de los costos estatales anuales de aproximadamente $10 millones de d√≥lares para una nueva agencia estatal que supervise el cumplimiento y la aplicaci√≥n de la privacidad del consumidor leyes.
  • El aumento de los costos estatales, que potencialmente alcanzar√≠an los millones de d√≥lares anuales, por el aumento de la carga de trabajo administrativo y de los tribunales estatales, que se compensar√≠a en parte o en su totalidad con ingresos por multas.
  • Imposibilidad de establecer el impacto en los ingresos tributarios estatales y locales causados por los efectos econ√≥micos resultantes de los nuevos requisitos de las empresas para proteger la informaci√≥n de los consumidores.

Palacio sede del Consejo de Estado - Italia

Recientemente el Consejo de Estado (Consiglio di Stato), el principal √≥rgano judicial-administrativo y consultivo italiano, emiti√≥ una interesante decisi√≥n relativa a la posibilidad y la legalidad de que la administraci√≥n p√ļblica se base en procedimientos y decisiones basados en algoritmos.

En el caso en cuestión, la controversia se refería al resultado de un procedimiento de contratación extraordinaria de maestros de escuela, llevado a cabo por el Ministerio de Educación italiano: en el contexto de ese procedimiento, se asignaron geográficamente diferentes lugares de trabajo a los maestros contratados.

Este procedimiento -basado √ļnicamente en un algoritmo que, en opini√≥n de los profesores, no funcionaba correctamente- organizaba los traslados sin tener debidamente en cuenta las preferencias expresadas por los profesores, incluso en presencia de plazas disponibles en las zonas geogr√°ficas preferidas. En esencia, el mecanismo de movilidad extraordinaria result√≥ perjudicial para los profesores que fueron trasladados a provincias alejadas de la de su residencia o de la elegida con prioridad en el momento de su solicitud de empleo.

Aunque consider√≥ ileg√≠timo el algoritmo utilizado en el caso concreto, el Consejo no excluy√≥ en absoluto la posibilidad de que la administraci√≥n p√ļblica adoptara algoritmos: m√°s bien se√Īal√≥ que la administraci√≥n p√ļblica podr√° explotar el importante potencial de la llamada ¬ęrevoluci√≥n digital¬Ľ, utilizando tambi√©n algoritmos, pero s√≥lo en determinadas condiciones. Seg√ļn el Consejo, la utilizaci√≥n de algoritmos inform√°ticos para la adopci√≥n de decisiones que afectan a la esfera p√ļblica y privada debe evaluarse siempre en t√©rminos de eficacia y neutralidad: esto significa que la utilidad de los algoritmos para la gesti√≥n del inter√©s p√ļblico puede ser particularmente √ļtil en lo que respecta a procedimientos, como el que nos ocupa, que son seriados o normalizados, que implican la tramitaci√≥n de grandes cantidades de solicitudes, y que se caracterizan por el acopio de determinados elementos objetivamente demostrables y por la ausencia de toda apreciaci√≥n discrecional.

En opini√≥n del Consejo de Estado italiano, la plena admisibilidad de esos instrumentos podr√≠a responder a los criterios de eficiencia y eficacia en funci√≥n de los costos de la acci√≥n administrativa, que, de conformidad con el principio constitucional de buena ejecuci√≥n de la acci√≥n administrativa (art√≠culo 97 de la Constituci√≥n italiana), exigen que la administraci√≥n alcance sus objetivos con el menor gasto de recursos y mediante la racionalizaci√≥n y aceleraci√≥n del procedimiento p√ļblico.

El uso del algoritmo debe estar correctamente enmarcado en t√©rminos de medidas organizativas, medios procesales y de investigaci√≥n, sujeto a los requisitos, comprobaciones y controles t√≠picos de cualquier procedimiento administrativo, asegurando que la elecci√≥n autorizada se lleve a cabo sobre la base de la ley que atribuye el poder y los prop√≥sitos a la autoridad p√ļblica. El Consejo destac√≥ tres principios interesantes, relativos a los algoritmos potencialmente adoptados por la administraci√≥n p√ļblica.

  • En primer lugar, el ¬ęprincipio de conocimiento¬Ľ, en virtud del cual toda persona tiene derecho a conocer la existencia de los procesos automatizados de adopci√≥n de decisiones que le conciernen y a recibir informaci√≥n significativa sobre su l√≥gica. Esta norma constituye una aplicaci√≥n espec√≠fica directa del arte. 41 de la Carta de Derechos Fundamentales de la Uni√≥n Europea, en el que se establece que cuando la Administraci√≥n P√ļblica se proponga adoptar una decisi√≥n que pueda tener efectos adversos para una persona, tiene la obligaci√≥n de ¬ęmotivar su decisi√≥n¬Ľ y la persona interesada tiene derecho a ser o√≠da y a tener acceso a sus archivos y documentos. El Consejo subray√≥ que el derecho a saber debe ir acompa√Īado de mecanismos capaces de descifrar la l√≥gica del algoritmo. En esta perspectiva, el principio de la conocibilidad se completa con el principio de la comprensibilidad, es decir, la posibilidad de recibir informaci√≥n significativa sobre la l√≥gica en cuesti√≥n, as√≠ como sobre el significado y las consecuencias previstas de ese tratamiento para el interesado. Sin embargo, al leer la decisi√≥n, parece que el Consejo de Estado no consider√≥ esencial y obligatoria la divulgaci√≥n completa y exhaustiva del c√≥digo algor√≠tmico.
  • En segundo lugar, el Consejo identific√≥ el ¬ęprincipio de no exclusividad¬Ľ de la decisi√≥n algor√≠tmica, que se deriva del Art√≠culo 22 Reg. UE 2016/679 (GDPR). Una persona tendr√° derecho a no ser objeto de una decisi√≥n basada √ļnicamente en un tratamiento automatizado, incluida la elaboraci√≥n de perfiles, que produzca efectos jur√≠dicos que le conciernan o que le afecten de forma similar y significativa, teniendo derecho a obtener, al menos, una intervenci√≥n humana por parte del responsable del tratamiento (la administraci√≥n p√ļblica, el Ministerio de Educaci√≥n en el caso concreto), a expresar su punto de vista y a impugnar la decisi√≥n.

La tecnolog√≠a no solo otorga poder: lo redistribuye. Dentro y entre los Estados. Genera perdedores y ganadores, altera los equilibrios de fuerzas entre los pa√≠ses, permite a unos dominar a otros. Los europeos parecen haberlo olvidado, pero si pudieron dominar el mundo durante siglos fue gracias a su supremac√≠a tecnol√≥gica. Quien seguro no lo ha olvidado es China, que, como Jap√≥n y muchos otros pa√≠ses, despreciaron la tecnolog√≠a o pensaron que pod√≠an aislarse y dejar que innovaran otros. Como consecuencia, fueron subyugados por Occidente debido a su inferioridad tecnol√≥gica. De ah√≠ que Beijing se haya dotado de una estrategia tecnol√≥gica destinada no solo a garantizar su soberan√≠a tecnol√≥gica sino a extender su influencia por todo el mundo apoy√°ndose en el peso combinado de su diplomacia y sus empresas tecnol√≥gicas. En √Āfrica, en Am√©rica Latina, en el Indo-Pac√≠fico, en los Balcanes, pero tambi√©n en el coraz√≥n de Europa, China posiciona estrat√©gicamente sus empresas y tecnolog√≠as de comunicaciones acrecentando su poder e influencia.

Mientras tanto, EEUU, una superpotencia tecnol√≥gica, sabe que su disputa por la hegemon√≠a con China, la gran cuesti√≥n del siglo XXI, se dirimir√° en el campo de la tecnolog√≠a. Y act√ļa en consecuencia. Activa su complejo militar-industrial para que las grandes compa√Ī√≠as tecnol√≥gicas trabajen junto con sus militares en el desarrollo de capacidades que marquen la diferencia con otros ej√©rcitos. Considera la Inteligencia Artificial un campo de batalla. Cierra el acceso a China a capacidades cr√≠ticas, como los semiconductores, para ralentizar su crecimiento. E impone sanciones tecnol√≥gicas a Rusia para debilitar su esfuerzo de guerra. Es una nueva guerra fr√≠a tecnol√≥gica.

Mosc√ļ, por su parte, intenta, con poco √©xito, generar sus propios desarrollos tecnol√≥gicos, pero compensa ese fracaso aprovechando el car√°cter abierto de plataformas y redes sociales para manipular a la opini√≥n p√ļblica de los pa√≠ses democr√°ticos, desestabilizar sus elecciones y gobiernos y difundir sus narrativas sobre la invasi√≥n de Ucrania en el Sur Global, debilitando las sanciones impuestas por EEUU y la UE. Gracias a sus habilidades en ciberseguridad y desinformaci√≥n, y ante la impotencia de EEUU y la UE, Rusia se ha convertido en el gran spoiler digital global. En el √ļltimo lustro, adem√°s de en EEUU, ha interferido sistem√°ticamente en las elecciones celebradas en las democracias. Las redes sociales, anta√Īo esperanza de los activistas en favor de la democracia en todo el mundo, se han convertido hoy en una vulnerabilidad para las democracias, que ven sus espacios p√ļblicos llenarse de desconfianza y polarizaci√≥n. A su vez, mientras la cantidad y calidad de las democracias retrocede, los reg√≠menes autoritarios utilizan las nuevas tecnolog√≠as de la comunicaci√≥n para ahondar en el control de sus ciudadanos y reprimir a los disidentes.

Cada tecnolog√≠a crea su propio orden geopol√≠tico. El papel central de Oriente Medio en la pol√≠tica internacional est√° estrechamente vinculado a un modelo de desarrollo basado en los combustibles f√≥siles y en el control de su acceso y transporte. Hoy, est√° emergiendo un nuevo geopol√≠tico asociado a la tecnolog√≠a. Lo vemos en c√≥mo la pugna se ha trasladado al campo de los datos y las tecnolog√≠as que los manejan y explotan: los nuevos Estrechos de Ormuz, Suez o Malaca son las f√°bricas de semiconductores taiwanesas, las tierras raras necesarias para construir nuestros equipos o los cables submarinos por los que transitan los datos. Un mundo en pugna por la hegemon√≠a tecnol√≥gica es un mundo muy complicado para la UE. Para prosperar, la UE necesita un mundo basado en reglas, no en la fuerza. Pero esa globalizaci√≥n ‚Äúfeliz‚ÄĚ en la que daba igual d√≥nde se fabricaran las cosas y qui√©n las hiciera ya no est√° aqu√≠. Y no va a volver. La interdependencia es ahora una vulnerabilidad que los estados explotan para coaccionarse los unos a los otros. Despu√©s de Ucrania, la bipolaridad tecnol√≥gica se va a reforzar a√ļn m√°s: mientras EEUU y China ya est√°n inmersos en una guerra fr√≠a tecnol√≥gica global, la UE y Rusia recrean esas tensiones en el √°mbito regional. En este nuevo mundo, Europa va a sufrir: por partida doble. Quiere regular su mercado de acuerdo con unos exigentes baremos √©ticos, pero carece de empresas que lideren globalmente los nuevos desarrollos tecnol√≥gicos. Al mismo tiempo, sus regulaciones chocan con los intereses de otros actores, como EEUU, preocupado porque los est√°ndares europeos limiten el crecimiento o debiliten a sus grandes compa√Ī√≠as tecnol√≥gicas, vitales en su pugna con China. Europa tambi√©n sufre porque le cuesta actuar estrat√©gicamente en el exterior: hasta ahora no ha sido capaz de contrarrestar el papel de China o de Rusia ni de ofrecer al Sur Global una alternativa de desarrollo econ√≥mico basada en el humanismo tecnol√≥gico. Europa, que en el pasado fue l√≠der tecnol√≥gico global corre hoy el riesgo de convertirse en una colonia digital de otros si no es capaz de competir con China o EEUU en el desarrollo de nuevas tecnolog√≠as y capacidades digitales. Por eso necesita una estrategia tecnol√≥gica que le proporcione los instrumentos para actuar globalmente en defensa de sus principios e intereses, forjando alianzas tecnol√≥gicas por todo el mundo, abriendo mercados (tambi√©n su mercado), ayudando a aliados y like-minded a contrarrestar la penetraci√≥n china y rusa, ofreciendo capacidades de ciberseguridad a quienes carecen de ella, colaborando en la protecci√≥n de las democracias y sus elecciones frente a la injerencia extranjera. Todo ello lo tiene que hacer en colaboraci√≥n con EEUU, pero no desde una posici√≥n de subordinaci√≥n, lo que requiere no solo una visi√≥n, sino una inversi√≥n masiva en capacidades tecnol√≥gicas de las que ahora carece y, en paralelo, la activaci√≥n de una diplomacia tecnol√≥gica m√°s eficaz y coordinada que la practicada hasta ahora.


¬ŅQuieres estar al d√≠a del mundo que viene?

Por Josep Santacreu

Internet genera m√ļltiples oportunidades de formaci√≥n, informaci√≥n, desarrollo, expresi√≥n social e incluso participaci√≥n ciudadana. Sin embargo, dentro de Internet se han desarrollado comportamientos negativos como el acoso virtual, la violencia verbal y simb√≥lica, la discriminaci√≥n y, cada vez m√°s, el robo o el abuso sexual. Personas con discapacidad ps√≠quica, personas mayores o migrantes enfrentan mayores dificultad para acceder de forma segura a los servicios digitales.

El proyecto PROLIFIC, PROmoting digital rights LIteracy For Including Citizens, tiene como objetivo empoderar a los grupos vulnerables (en concreto ancianos, inmigrantes y personas con discapacidad) sobre sus derechos digitales a través de la capacitación de los profesionales que trabajan con ellos en ONG, asociaciones o servicios sociales a través de la creación de contenidos y herramientas específicas.

Estos grupos tienen diferentes caracter√≠sticas, pero tienen en com√ļn una mayor vulnerabilidad a las consecuencias negativas del r√°pido desarrollo de la digitalizaci√≥n y las TIC, debido tambi√©n a un menor nivel de competencias digitales. Aunque la renuncia voluntaria a la digitalizaci√≥n tiene que ser tambi√©n un derecho, este proyecto parte de la convicci√≥n de que la tecnolog√≠a puede ayudar a estos grupos vulnerables a vivir mejor, ser m√°s aut√≥nomos y tener m√°s y mejores oportunidades de proyecci√≥n profesional, integraci√≥n social, bienestar y aprendizaje.

Precisamente porque la tecnolog√≠a es tan √ļtil para estos colectivos tenemos que asegurarnos de que su inmersi√≥n ‚Äďvoluntaria- en el mundo digital debe cumplir todas las garant√≠as respecto a la protecci√≥n de sus derechos digitales. La soluci√≥n, de nuevo, se encuentra en la formaci√≥n y en la utilizaci√≥n de herramientas digitales adecuadas. Con este proyecto, tratamos de un paso importante para empezar a generar conciencia a escala europea, y crear herramientas para proteger a los grupos vulnerables de la
estafa o la usurpación de identidad, el acoso y el grooming o el abuso de poder de las empresas, y para luchar contra la difusión de mensajes extremistas, discriminatorios, racistas, xenófobos, antisemitas, homófobos o sexistas. Para ello, estamos desarrollando una plataforma tecnológica que permitirá personalizar itinerarios y materiales formativos en base al idioma de los destinatarios, sus habilidades
previas en el mundo digital y las vulnerabilidades propias de su condición.

La creaci√≥n del consorcio europeo que lleva a cabo este proyecto se basa en la comprensi√≥n com√ļn de lo importante que es hoy en d√≠a apoyar a los grupos vulnerables para que puedan utilizar la tecnolog√≠a e Internet como oportunidades de formaci√≥n, informaci√≥n, desarrollo, expresi√≥n social y participaci√≥n ciudadana, evitando ser enga√Īados, acosados o discriminados.

¬ęLas personas con discapacidad ps√≠quica se convierten
fácilmente en víctimas de acoso, delitos de odio e incluso
abuso sexual en Internet¬Ľ

Ignacio Torreblanca

Los resultados de un estudio de diagnóstico de las necesidades y carencias de los grupos vulnerables muestra, por ejemplo, que las personas con discapacidad psíquica, que obtienen grandes beneficios de las facilidades que Internet ofrece para el ocio y la socialización, se convierten fácilmente en víctimas de acoso, delitos de odio e incluso abuso sexual en Internet.

Las personas mayores son habitualmente excluidas de servicios básicos, como la banca, por su falta de competencias digitales y también son víctimas fáciles para ciberestafadores de distinto tipo.

Los inmigrantes, por su parte, caen fácilmente en ciberestafas relacionadas con falsas ofertas de trabajo y tiendas falsas así como en la desinformación.

El proyecto PROLIFIC, PROmoting digital rights LIteracy For Including Citizens coordinado por el instituto Polibienestar de la Universidad de Valencia, tiene como socios a la Fundaci√≥n Instituto Hermes (Espa√Īa), Margherita Societa‚Äô Cooperativa Sociale Onlus (Italia), Senior Europa Sociedad Limitada ‚Äď Kveloce (Espa√Īa) y Funda√ß√£o Dr. Jos√© Louren√ßo J√ļnior (Portugal).

PROLIFIC Está financiado por la Comisión Europea a través del Programa Erasmus+.

Artículo de Carme Artigas para el Instituto Hermes

La perspectiva √©tica y humanista es la piedra angular de una digitalizaci√≥n democr√°tica, sostenible y al servicio del progreso y la justicia social. El nuevo paradigma econ√≥mico, pol√≠tico, social y cultural que la revoluci√≥n tecnol√≥gica ha impulsado de manera determinante conlleva enormes implicaciones a todos los niveles que ya est√°n impactando de forma decisiva en nuestras vidas. Un escenario √ļnico, en el que los cambios generados a partir de un desarrollo tecnol√≥gico sin precedentes est√°n abriendo a gran velocidad procesos transformadores esenciales para nuestro futuro a corto, medio y largo plazo.

Un desafío clave que exige una respuesta a la altura por parte de todos que nos permita avanzar hacia una evolución de la transformación digital orientada a poner la tecnología al servicio del bienestar social y el respeto a los derechos fundamentales de las personas.

Carme Artigas, Secretaria de Estado de Digitalizaci√≥n e Inteligencia Artificial del Gobierno de Espa√Īa

Un desaf√≠o clave que exige una respuesta a la altura por parte de todos que nos permita avanzar hacia una evoluci√≥n de la transformaci√≥n digital orientada a poner la tecnolog√≠a al servicio del bienestar social y el respeto a los derechos fundamentales de las personas. A trav√©s de un enfoque global que entienda el desarrollo tecnol√≥gico como una oportunidad para profundizar en el dise√Īo de un modelo m√°s inclusivo, sostenible e igualitario aprovechando las enormes posibilidades de progreso econ√≥mico y social de tecnolog√≠as disruptivas con potencial para proyectar un sistema m√°s justo y mejor.

Desde la Secretar√≠a de Estado de Digitalizaci√≥n e Inteligencia Artificial entendemos el humanismo tecnol√≥gico como una piedra angular de la transformaci√≥n digital y del proyecto de pa√≠s que queremos para Espa√Īa. Una prioridad que impregna todos y cada uno de los planes y medidas puestas en marcha como parte del despliegue de la agenda Espa√Īa Digital 2025, la hoja de ruta de nuestro pa√≠s para la digitalizaci√≥n, as√≠ como del Plan de Recuperaci√≥n, Transformaci√≥n y Resiliencia.

Tenemos una visi√≥n clara sobre hacia d√≥nde queremos dirigir las trascendentales reformas que estamos afrontando para la construcci√≥n durante la pr√≥xima d√©cada de la Espa√Īa verde y digital que vertebra nuestro proyecto de recuperaci√≥n. Y que parte de una m√°xima: la tecnolog√≠a la hacemos las personas, y somos cada uno de nosotros los que estamos dise√Īando el mundo digital que est√° marcando el presente y construir√° el futuro m√°s inmediato de nuestra sociedad.

El impacto de la pandemia ha supuesto un factor cat√°rtico decisivo en el impulso definitivo de muchos procesos vinculados a la digitalizaci√≥n que se han visto acelerados de una manera totalmente impensable hasta hace tan solo unos a√Īos. La revoluci√≥n digital es hoy m√°s que nunca una realidad con implicaciones clave en cualquier proyecto con vocaci√≥n de generar transformaciones permanentes y verdaderamente relevantes en el devenir de un progreso digital para la mayor√≠a.

Estamos tan solo al inicio de una nueva era digital a raíz de la que ya estamos comenzando a ver cambios absolutamente decisivos desde el prisma del progreso social, cultural y económico, que sin duda van a ser clave en el desarrollo de esta década a nivel político y geoestratégico. Las reglas han cambiado, y con ello la necesidad de establecer nuevos equilibrios de poder y de avanzar hacia un modelo de soberanía acorde a las exigencias de un escenario global que ya nunca volverá a ser el mismo.

Espa√Īa contempla entre sus grandes objetivos a medio y largo plazo el ser un actor principal en avance hacia una soberan√≠a digital europea que consolide la posici√≥n de Europa como eje clave en el nuevo escenario global. Una soberan√≠a a la que queremos seguir contribuyendo como pa√≠s desde nuestra perspectiva nacional a trav√©s del desarrollo de una soberan√≠a de datos a nivel europeo.

Desde el Gobierno de Espa√Īa tenemos la firme disposici√≥n de trabajar en la generaci√≥n de nuevos espacios de datos, garantizando que sean interoperables, seguros y orientados a la privacidad.  Todo ello con el objetivo de avanzar hacia una soberan√≠a digital que nos permita establecer una regulaci√≥n acorde con los valores y principios europeos, y en l√≠nea con la perspectiva √©tica y humanista que propone Espa√Īa.

La digitalizaci√≥n humanista supone as√≠ una l√≠nea de actuaci√≥n vertebral y estrat√©gica a la hora de afrontar las complejidades de este nuevo contexto global. Una perspectiva innovadora que entendemos como un factor diferencial del proyecto de transformaci√≥n digital a nivel europeo. Y que, asimismo, tenemos el compromiso de trasladar en nuestra relaci√≥n con Iberoam√©rica y al trabajo conjunto que se viene realizando por continuar fortaleciendo los lazos que nos unen a los dos lados del Atl√°ntico, fundamentalmente a trav√©s del impulso del potencial de la lengua espa√Īola en √°mbitos disruptivos como la IA.

La ambici√≥n por alcanzar estos objetivos de soberan√≠a marca una l√≠nea estrat√©gica que los Gobiernos tenemos la responsabilidad de desarrollar garantizando el respeto a los derechos fundamentales de los ciudadanos y los valores democr√°ticos que gu√≠an nuestras sociedades. Una senda que desde el Gobierno de Espa√Īa tenemos el objetivo de encabezar, con la puesta en marcha de un proyecto pionero e innovador como es la elaboraci√≥n de la Carta de Derechos Digitales.

Esta iniciativa, clave en para el desarrollo de una digitalizaci√≥n humanista y con perspectiva social que queremos para Espa√Īa, aspira a ofrecer un marco normativo para abordar los retos que en materia √©tica, social y legislativa implican estas transformaciones. Un paso adelante en la creaci√≥n de un entorno seguro, confiable y garantista con los derechos y valores democr√°ticos de nuestra sociedad que apuesta por una digitalizaci√≥n que anteponga los derechos digitales de los ciudadanos como forma de entender el progreso tecnol√≥gico.

Gracias a la elaboraci√≥n de esta Carta de Derechos Digitales, Espa√Īa se posiciona a la cabeza a nivel global en la actualizaci√≥n de derechos. En el reto de trasladar los importantes derechos que tanto nos ha costado conquistar en el mundo anal√≥gico a las nuevas circunstancias de la realidad digital que est√° transformando nuestras vidas y la forma de entender el mundo que nos rodea e interactuar con √©l.

Para ello, esta carta, de car√°cter eminentemente descriptivo y prospectivo, identifica seis principales categor√≠as de derechos. Entre ellos, hemos querido destacar los derechos de libertad, derechos de igualdad, de participaci√≥n y conformaci√≥n del espacio p√ļblico, derechos en el entorno laboral y empresarial, derechos digitales en entornos espec√≠ficos y derechos de garant√≠as y eficacia.

Una serie de √°mbitos en los que una regulaci√≥n integral y garantista va a ser determinante en el devenir de sociedades digitales m√°s justas e inclusivas. Y cuyo reconocimiento, gracias a la gran labor de un Grupo de Expertos y Expertas constituido para la ocasi√≥n y de las aportaciones de los ciudadanos, nos sit√ļan como pa√≠s en una posici√≥n pionera de liderazgo y compromiso con el desarrollo humanista de la tecnolog√≠a.

Actualizando derechos e incluyendo nuevas categorías necesarias en la nueva realidad digital en la que vivimos. Una Carta que, además de su plena vinculación con la Declaración de Derechos de la Ciudadanía, se convierte en un elemento clave para la consecución de los Objetivos de Desarrollo Sostenible (ODS). Concordancias y sinergias que son dos caras de la misma moneda: la de orientar todo el potencial de lo digital al servicio del progreso, la sostenibilidad, la igualdad y el bienestar de la sociedad.

Un futuro ilusionante que afrontamos con la ambición de abordar una transformación digital de referencia y con impacto en la realidad social y económica de nuestro país. De orientar todo el potencial del desarrollo tecnológico hacia la construcción de estructuras y dinámicas favorables al progreso social, la sostenibilidad y la igualdad de oportunidades.

Un desafío histórico por situar los enormes avances de la tecnología y la ciencia en un plano humano y de desarrollo social, que entienda la digitalización como un vector de transformación que nos permita encauzar las oportunidades de un contexto sin precedentes que tenemos el compromiso de poner al servicio de la mayoría social.

El Estado del Bienestar del siglo XXI se escribe en clave digital. La reforma de las estructuras de nuestro modelo productivo, educativo, económico y social deben de encaminarse a un objetivo prioritario: acabar con las brechas digitales que lastran nuestra competitividad y nos convierten en un país más injusto y peor.

La perspectiva √©tica y human√≠stica de esta Carta debe ser la base para el avance hacia una digitalizaci√≥n destinada a poner la tecnolog√≠a al servicio de los colectivos m√°s vulnerables y expuestos a los riesgos e incertidumbre del desarrollo de la tecnolog√≠a. Una digitalizaci√≥n de ahonde en los derechos y libertades sobre los que queremos construir una sociedad digital dise√Īada por y para todos y todas.

Los datos agregados se han convertido en una materia prima m√°s de la nueva econom√≠a y en una materia valiosa social y empresarialmente. La Comisi√≥n Europea estima que los datos generados por los europeos podr√≠an producir un aumento del PIB de 500 mil millones de euros. Para que esta previsi√≥n se haga realidad necesitamos grandes proyectos de Inteligencia Artificial y Big Data, pero sobre todo necesitamos que la extracci√≥n de la materia prima, los datos, se realice con las m√°ximas garant√≠as y transparencia para los ciudadanos. 

La Unión Europea quiere ser competitiva en este mercado y trabaja por ello, pero también tiene claro que si vamos a utilizar datos generados por los ciudadanos masivamente se debe hacer bajo un cumplimiento estricto de las leyes de protección de datos y de la privacidad del usuario.

El Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo fue traspuesto en Espa√Īa en la Ley Org√°nica 3/2018, del 5 de diciembre, de Protecci√≥n de Datos Personales y garant√≠a de los derechos digitales. Todos los expertos afirman que se trata de una ley exigente que protege adecuadamente los derechos de los ciudadanos y que es mayoritariamente respetada.

Sin embargo, el uso de los datos por parte de las empresas se ha convertido en un tema espinoso en los √ļltimos a√Īos. Los esc√°ndalos protagonizados por las grandes tecnol√≥gicas norteamericanas, entre las que m√°s datos explotan del mundo, han hecho crecer como la espuma la desconfianza ciudadana hacia las pr√°cticas empresariales.

Todos hemos recibido llamadas comerciales de empresas que no tendr√≠an que tener nuestro n√ļmero; muchos hemos abierto una nueva cuenta bancaria y hemos descubierto que la entidad ya tiene nuestros datos, porque hab√≠amos sido clientes a√Īos atr√°s y esa informaci√≥n no fue eliminada; peri√≥dicamente, vemos en la prensa c√≥mo miles de datos personales son robados porque una empresa no ten√≠a el software actualizado o no tom√≥ las medidas de seguridad necesarias.

Pero tambi√©n somos conscientes de que gracias al uso de los datos cada d√≠a los consumidores accedemos a nuevos productos y  servicios, mejores y m√°s personalizados, la investigaci√≥n en medicina, en energ√≠a y sostenibilidad avanza a mayor velocidad y muchos procesos en la administraci√≥n, en nuestra compras y viajes son m√°s r√°pidos y eficaces.

Hasta ahora la respuesta suele ser ¬ęm√°s regulaci√≥n¬Ľ, lo que significa tambi√©n m√°s restricciones a la innovaci√≥n y a la competencia, m√°s vigilancia y m√°s burocracia.

Pero si hay algo que ha demostrado poder transformar y mejorar el comportamiento empresarial es el consumo informado y la transparencia  dejando al ciudadano decidir. Si el ciudadano sabe que una empresa hace las cosas mejor que otra respecto a un tema sensible, la tendencia de consumo se mover√° hacia aquellas empresas que lo hagan mejor, y el sector como un todo comenzar√° a competir por satisfacer a unos clientes que responden al esfuerzo. As√≠ ha ocurrido produciendo importantes avances en temas como la sostenibilidad o la diversidad en las empresas.  

Partiendo de esta reflexi√≥n y conscientes de la importancia estrat√©gica que tienen los datos para el desarrollo de nuevos servicios, el Instituto Hermes promueve que las empresas hagan p√ļblico un Manifiesto que resuma de forma comprensible y comparable su estrategia en el uso que hacen de los datos de sus clientes, proveedores y usuarios. 

Se trata de un formato digital estándar en el que las empresas podrán declarar y detallar su política de datos más allá del cumplimiento esperable de la Ley. El formato, igual para todas, nos permitirá compararlas de manera automatizada, dando herramientas gráficas y sencillas al consumidor para informarse de un vistazo sobre aquellos temas relacionados con sus datos que le preocupen.

De esta forma, el conocimiento del consumidor, el paciente o el ciudadano (la administraci√≥n es un gran consumidor de  datos) sobre los compromisos de las organizaciones con las que se relacione, sobre lo que har√°n o no har√°n con los datos que de nosotros manejan, podr√° tomar decisiones m√°s informadas como ya lo hace al conocer la informaci√≥n financiera, de sostenibilidad o de diversidad. El simple acto de transparentar lo que las empresas hacen con los datos supondr√° una importante mejora para toda la sociedad.

Esta herramienta est√° concebida como un servicio de divulgaci√≥n para explicar la filosof√≠a, pol√≠ticas y compromisos de las empresas. Estas colgar√°n en su sitio web o en repositorios p√ļblicos un archivo ‚ÄĒque podr√°n generar online‚ÄĒ en el que detallar√°n su estrategia de datos, declarando aquello a lo que se comprometen a hacer o a no hacer con los datos que recopilan de sus clientes. La informaci√≥n incluir√° detalles sobre operativa, seguridad, comunicaci√≥n y procesos. Las empresas podr√°n, adem√°s, actualizar la informaci√≥n cuando introduzcan alguna mejora sin tener que comunic√°rselo ni pedir permiso a nadie, porque al sistema de comparaci√≥n y an√°lisis automatizado le basta con saber d√≥nde reside el manifiesto de cada empresa.

El Instituto Hermes, verificar√° y homologar√° la informaci√≥n facilitada  para asegurar que re√ļne las condiciones y requisitos suficientes para cumplir con los objetivos marcados de transparencia y divulgaci√≥n,  mantendr√° las herramientas de an√°lisis y cada usuario podr√° utilizarlas de manera intuitiva en tiempo real en una webapp espec√≠fica, trabajando siempre con la informaci√≥n actualizada al minuto.

De ese modo puede acceder en tiempo real a las políticas, estrategias y compromisos de la empresa y en base a ello tomar decisiones de consumo. El Manifiesto Hermes es una herramienta viva, y de actualización periódica que facilita a los consumidores y stakeholders conocer, entender y monitorizar cómo gestiona y utiliza una organización los datos que recaba a través de su actividad. El objetivo es convertir la política y estrategia en el uso del dato en un arma de diferenciación y posicionamiento para las empresas para dar transparencia al mercado sobre el uso de los datos, acabar con la desconfianza infundada y promover que las empresas compitan entre sí por desarrollar los derechos digitales de los ciudadanos.

El proyecto para la Espa√Īa despoblada del Instituto Hermes en colaboraci√≥n con las empresas vertebradoras del territorio

La Fundaci√≥n Instituto Hermes se encuentra en la recta final de uno de sus proyectos m√°s importantes: el grupo de trabajo ¬ęInterconectividad, log√≠stica y ciudadan√≠a digital¬Ľ que parte de la premisa de que si igualamos los derechos digitales, igualamos las oportunidades. As√≠, podemos utilizar la identificaci√≥n, difusi√≥n y defensa de los derechos digitales como motor para revertir la despoblaci√≥n en las zonas rurales.

Para llevar a cabo este reto, contamos con la colaboraci√≥n de Correos como socio principal y coordinador de los trabajos, y la participaci√≥n de Red El√©ctrica Espa√Īola y Renfe.

Contexto

Correos
Oficina de Correos en Torrejón de Velasco

La convergencia del despliegue de una estrategia de digitalizaci√≥n basada en derechos y de los planes de transici√≥n ecol√≥gica, es la clave fundamental para enfrentar y revertir el declive de la Espa√Īa interior.

Toda estrategia debe tomar como ariete el desarrollo conjunto de conectividad, movilidad y logística. Hay una transformación en marcha de las infraestructuras y sobre todo, una nueva forma de entender las infraestructuras, que aparece ligada al desarrollo de derechos ciudadanos. Ellas son las nuevas claves del desarrollo.

Estas infraestructuras, que representan la materialidad de los nuevos derechos ciudadanos, est√°n vinculadas a un tipo particular de sujetos: empresas de servicio p√ļblico cuya historia ha estado tradicionalmente ligada a la ampliaci√≥n de derechos ante cambios tecnol√≥gicos profundos (transportes, comunicaciones, electrificaci√≥n, etc.).

En 2020, el a√Īo de la pandemia, la experiencia de los confinamientos -especialmente en el mundo PYME- hizo evidente que la log√≠stica es los pies y las manos de la digitalizaci√≥n. Mientras, el arranque del Pacto Verde abr√≠a la oportunidad de impulsar el marco de la transici√≥n energ√©tica.

Renfe
Bustio

La nueva manera de mirar el territorio que surgió de los debates entre el Instituto Hermes y Correos evidenció la oportunidad de pensar en una lógica de colaboración entre ciudades, superadora de cualquier dialéctica de confrontación entre territorios.

El vínculo entre infraestructuras de transporte, digitalización y derechos nos permitió, por ejemplo, imaginar la red de ciudades del AVE como columna vertebral de la digitalización, detonante de una repoblación sustentada en una reindustrialización distribuida, digital y verde. Al mismo tiempo que se expandían de forma efectiva los derechos de ciudadanía digital.

De esta reflexión estratégica surgió la propuesta de Zonas de Urgente Digitalización y como consecuencia suya la necesidad de medir el impacto en derechos digitales de los proyectos estratégicos ligados a la digitalización.

A lo largo de este a√Īo, hemos llevado a cabo una nueva fase de trabajos con el objetivo de presentar a las Administraciones P√ļblicas 10 propuestas aplicables para combatir la despoblaci√≥n partiendo del poder transformador y de desarrollo de la materializaci√≥n de los nuevos derechos digitales.

Esta fase fue dividida en cinco sesiones de debate:

  1. Derecho a la conectividad y la asequibilidad universal
  2. Derecho al Trabajo digital y a la Asociación y desarrollo social por medios digitales
  3. Derecho a la Alfabetización y el desarrollo cultural económico
  4. La logística y el desarrollo de políticas activas para el desarrollo cultural y económico digital
  5. Discusión del resumen de propuestas y aprobación del documento final de conclusiones

1. Derecho a la conectividad y la asequibilidad universal

Es el punto de partida: para responder al reto demográfico es necesario garantizar una conexión universal con anchos de banda que permitan la digitalización efectiva del trabajo y los consumos culturales. Además, el acceso a la conexión de los ciudadanos tiene que ofrecerse en las mismas condiciones económicas en todo el territorio. Todo lo demás significaría discriminación.

En esta sesi√≥n se debatieron posibles propuestas de reforma legislativa e iniciativas pol√≠ticas concurrentes a hacer efectivo este derecho, y la aplicabilidad y oportunidad de f√≥rmulas y conceptos como el ¬ęservicio universal¬Ľ o los servicios de ¬ęinter√©s econ√≥mico general¬Ľ, as√≠ como las v√≠as de impulso de la ¬ęiluminaci√≥n¬Ľ y ampliaci√≥n de las redes de fibra en manos de las Administraciones p√ļblicas para llegar a la poblaci√≥n rural.

2. Derecho al Trabajo digital y a la Asociación y desarrollo social por medios digitales

El derecho al trabajo digital es hoy un horizonte en espera de la ampliaci√≥n y el desarrollo de un mercado del trabajo digital -no solo del teletrabajo- que en Espa√Īa apenas existe fuera de las grandes ciudades. Desde nuestro punto de vista el desarrollo de este derecho y este mercado es la clave fundamental para una nueva industrializaci√≥n sostenible en la Espa√Īa rural.

Seg√ļn nuestros c√°lculos m√°s de un mill√≥n de personas que se desarrollan profesionalmente en el √°mbito de los servicios avanzados consideran o han considerado la posibilidad de instalarse en zonas rurales ante las nuevas posibilidades de teletrabajo. Otros √°mbitos, desde el emprendimiento digital al telemarketing, desde el periodismo a la administraci√≥n de negocios o los servicios educativos digitalizados, esperan todav√≠a su oportunidad.

Red El√©ctrica de Espa√Īa

Tanto la transici√≥n ecol√≥gica como la transici√≥n digital requieren de un fuerte pilar de participaci√≥n ciudadana. El √©xito de las cooperativas de energ√≠a, hoy en transici√≥n hacia Comunidades Energ√©ticas Locales (CEL), nos da un modelo de desarrollo para la digitalizaci√≥n ¬ędesde abajo¬Ľ. Es fundamental este impulso ciudadano en cuestiones b√°sicas como la creaci√≥n de un mercado de trabajo digital y el desarrollo de la alfabetizaci√≥n y la cultura digital.

En esta sesión debatimos propuestas presentadas con anterioridad como las Cooperativas de Trabajo Digital o el Estatuto del Trabajador Digital.

3. Derecho a la Alfabetización y el desarrollo cultural económico

La alfabetizaci√≥n digital ha de ir mucho m√°s all√° del manejo de herramientas b√°sicas (tal y como se entendi√≥ generalmente hasta ahora en Espa√Īa). Es necesario dar la oportunidad de desarrollar competencias de todo tipo a trav√©s de la formaci√≥n en ¬ęcultura digital¬Ľ m√°s que alfabetizaci√≥n digital: desde los conocimientos para digitalizar la actividad laboral y profesional hasta la posibilidad de defender la integridad personal frente abusos y agresiones.

Las propuestas previas a debatir en este punto son la creaci√≥n de un programa de ¬ęMisiones pedag√≥gicas digitales¬Ľ y la creaci√≥n de ¬ęZonas de Urgente Digitalizaci√≥n¬Ľ (ZUD) como zonas prioritarias para la inversi√≥n p√ļblica, la RSE (Responsabilidad Social Empresarial) y la acci√≥n social.

4. La logística y el desarrollo de políticas activas para el desarrollo cultural y económico digital

En esta √ļltima sesi√≥n sobre medidas, debatiremos pol√≠ticas y programas tendentes a dotar de piernas a la digitalizaci√≥n mediante el desarrollo log√≠stico verde de la Espa√Īa menos poblada y el desarrollo de la industria digital. Como punto de partida, una ¬ęred de ciudades del AVE¬Ľ puede ser el gran conector de las ZUD en un rango de 80km a la redonda de cada uno de sus integrantes, sirviendo a la transversalizaci√≥n de pol√≠ticas activas, la dinamizaci√≥n cultural y social y las pol√≠ticas de emprendimiento, y sirviendo de paso para comprometer a los grandes centros urbanos y sus elementos m√°s din√°micos en la nueva industrializaci√≥n digital y sostenible.

Internet ha mejorado indudablemente nuestras opciones de formación, información, desarrollo económico y expresión social. Sin embargo, Internet también ha traído consigo comportamientos antisociales, acoso virtual, violencia verbal y simbólica, intoxicación informativa, abuso de poder y conductas delictivas que han contribuido a sacudir la sociedad y legitimar los extremismos antidemocráticos.

Las respuestas, por ahora, son todavía aisladas y muy incipientes. Nuestra mejor baza es la formación y la sensibilización sobre los derechos de ciudadanía digital.

Con este objetivo, PROLIFIC se propone empoderar a los colectivos más vulnerables a través de la concienciación sobre sus derechos de ciudadanía digital dotando de herramientas a los profesionales que trabajan con ellos en ONG, asociaciones, servicios sociales, etc.

Algunos de los temas que aborda PROLIFIC son: Qué comportamientos adoptar en la red para evitar ser estafado o que nuestra identidad sea robada, cómo actuar ante calumnias sistemáticas lanzadas desde el anonimato, cómo protegernos del acoso, el bullyin y el grooming o el phishing, cómo luchar contra la propagación de mensajes extremistas o discriminatorios, qué hacer en el caso de sufrir uno, cómo actuar en caso de abuso de poder por parte de una empresa o cómo impedir que las fake news envenenen nuestras sociedades.

Hemos elegido a los colectivos m√°s vulnerables como destinatarios del programa porque ellos tienen a√ļn menos herramientas para enfrentarse a este tipo de amenazas, ya sea por aislamiento social, nivel formativo, nivel de conocimiento del idioma o la falta de un entorno familiar y comunitario de soporte.

El Instituto Hermes, en asociaci√≥n con el Instituto de Investigaci√≥n Polibienestar de la Universidad de Valencia, con la Margherita Societa‚Äô Cooperativa Sociale Onlus (Italia), la Funda√ß√£o Dr. Jos√© Louren√ßo J√ļnior (Portugal) y Senior Europa S.L. ‚Äď Kveloce (Espa√Īa) estamos trabajando en un proyecto de formaci√≥n para profesionales que trabajan con estos colectivos vulnerables para aumentar la conciencia sobre los derechos digitales de todos pero en especial de los m√°s desprotegidos.

Para Hermes, el éxito en esta convocatoria supone, por un lado, un reconocimiento a su labor y, por otro, elevar nuestra misión a escala europea, algo esencial cuando hablamos de un ámbito sin fronteras como el digital.

PROLIFIC, PROmoting digital rights LIteracy For Including Citizens, Erasmus Plus KA2 Р2020-1-ES01-KA204-082419) es un proyecto con financiación del programa Europeo Erasmus +.

Derechos de Ciudadanía Digital