Blog

Palacio sede del Consejo de Estado - Italia

Recientemente el Consejo de Estado (Consiglio di Stato), el principal órgano judicial-administrativo y consultivo italiano, emitió una interesante decisión relativa a la posibilidad y la legalidad de que la administración pública se base en procedimientos y decisiones basados en algoritmos.

En el caso en cuestión, la controversia se refería al resultado de un procedimiento de contratación extraordinaria de maestros de escuela, llevado a cabo por el Ministerio de Educación italiano: en el contexto de ese procedimiento, se asignaron geográficamente diferentes lugares de trabajo a los maestros contratados.

Este procedimiento -basado únicamente en un algoritmo que, en opinión de los profesores, no funcionaba correctamente- organizaba los traslados sin tener debidamente en cuenta las preferencias expresadas por los profesores, incluso en presencia de plazas disponibles en las zonas geográficas preferidas. En esencia, el mecanismo de movilidad extraordinaria resultó perjudicial para los profesores que fueron trasladados a provincias alejadas de la de su residencia o de la elegida con prioridad en el momento de su solicitud de empleo.

Aunque consideró ilegítimo el algoritmo utilizado en el caso concreto, el Consejo no excluyó en absoluto la posibilidad de que la administración pública adoptara algoritmos: más bien señaló que la administración pública podrá explotar el importante potencial de la llamada «revolución digital», utilizando también algoritmos, pero sólo en determinadas condiciones. Según el Consejo, la utilización de algoritmos informáticos para la adopción de decisiones que afectan a la esfera pública y privada debe evaluarse siempre en términos de eficacia y neutralidad: esto significa que la utilidad de los algoritmos para la gestión del interés público puede ser particularmente útil en lo que respecta a procedimientos, como el que nos ocupa, que son seriados o normalizados, que implican la tramitación de grandes cantidades de solicitudes, y que se caracterizan por el acopio de determinados elementos objetivamente demostrables y por la ausencia de toda apreciación discrecional.

En opinión del Consejo de Estado italiano, la plena admisibilidad de esos instrumentos podría responder a los criterios de eficiencia y eficacia en función de los costos de la acción administrativa, que, de conformidad con el principio constitucional de buena ejecución de la acción administrativa (artículo 97 de la Constitución italiana), exigen que la administración alcance sus objetivos con el menor gasto de recursos y mediante la racionalización y aceleración del procedimiento público.

El uso del algoritmo debe estar correctamente enmarcado en términos de medidas organizativas, medios procesales y de investigación, sujeto a los requisitos, comprobaciones y controles típicos de cualquier procedimiento administrativo, asegurando que la elección autorizada se lleve a cabo sobre la base de la ley que atribuye el poder y los propósitos a la autoridad pública. El Consejo destacó tres principios interesantes, relativos a los algoritmos potencialmente adoptados por la administración pública.

  • En primer lugar, el «principio de conocimiento», en virtud del cual toda persona tiene derecho a conocer la existencia de los procesos automatizados de adopción de decisiones que le conciernen y a recibir información significativa sobre su lógica. Esta norma constituye una aplicación específica directa del arte. 41 de la Carta de Derechos Fundamentales de la Unión Europea, en el que se establece que cuando la Administración Pública se proponga adoptar una decisión que pueda tener efectos adversos para una persona, tiene la obligación de «motivar su decisión» y la persona interesada tiene derecho a ser oída y a tener acceso a sus archivos y documentos. El Consejo subrayó que el derecho a saber debe ir acompañado de mecanismos capaces de descifrar la lógica del algoritmo. En esta perspectiva, el principio de la conocibilidad se completa con el principio de la comprensibilidad, es decir, la posibilidad de recibir información significativa sobre la lógica en cuestión, así como sobre el significado y las consecuencias previstas de ese tratamiento para el interesado. Sin embargo, al leer la decisión, parece que el Consejo de Estado no consideró esencial y obligatoria la divulgación completa y exhaustiva del código algorítmico.
  • En segundo lugar, el Consejo identificó el «principio de no exclusividad» de la decisión algorítmica, que se deriva del Artículo 22 Reg. UE 2016/679 (GDPR). Una persona tendrá derecho a no ser objeto de una decisión basada únicamente en un tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos que le conciernan o que le afecten de forma similar y significativa, teniendo derecho a obtener, al menos, una intervención humana por parte del responsable del tratamiento (la administración pública, el Ministerio de Educación en el caso concreto), a expresar su punto de vista y a impugnar la decisión.

Primera sentencia Europea contra el uso de algoritmos

El tribunal distrito de La Haya ha dictado sentencia en contra de un sistema algorítmico utilizado por el Gobierno de los los Países Bajos para evaluar el riesgo de fraude a la seguridad social o a hacienda.

El tribunal encuentra que el algoritmo:

  • No cumple con el «equilibrio justo» que debe existir entre el interés social al que sirve la normativa cuestionada y la violación de la vida privada
  • Tiene un efecto significativo en la vida privada de la persona a la que se refiere.
  • Considera que el gobierno holandés no ha hecho público el tipo de algoritmos utilizados en el modelo de riesgo, ni proporcionado información sobre el método de análisis de riesgos utilizado.
  • No prevé ninguna obligación de información a las personas cuyos datos se tratan.
  • Tampoco prevé ninguna obligación de informar a los interesados individualmente, cuando proceda, del hecho de que se su evaluación de riesgo ha sido positiva.

Como consecuencia, el tribunal concluye que:

  • Es imposible verificar cómo está diseñado el árbol de decisión que utiliza el algoritmo y en qué pasos consiste.
  • Circunstancia que dificulta que una persona afectada por el mismo pueda defenderse contra el hecho de que se haya realizado un informe de riesgos con respecto a él o ella.

Comentarios a la sentencia del Diario La Ley

El tribunal distrito de La Haya declara que el sistema establecido por el gobierno holandés para valorar el nivel de riesgo de defraudación de los ciudadanos, no cumple las exigencias de proporcionalidad, carece de transparencia y vulnera las previsiones sobre respeto a la vida privada que reconoce el artículo 8 del Convenio Europeo de Derechos Humanos.

El tribunal distrito de La Haya (Rechtbank Den Haag), ha dictado una sentencia, de fecha 5 de febrero de 2020, por la que establece que un sistema algorítmico utilizado por el Gobierno de los Países Bajos para evaluar el riesgo de fraude a la seguridad social o a hacienda, no cumple las exigencias de proporcionalidad y transparencia necesarias y vulnera las previsiones sobre respeto a la vida privada que reconoce el artículo 8 del Convenio Europeo de Derechos Humanos, por lo que es contrario a la ley.

Se trata de la primera sentencia conocida en Europa por la se declara ilegal un algoritmo sobre evaluación de características personales de los ciudadanos. Su difusión ha coincidido, además, con el anuncio de la Comisión de que en breves fechas va a presentar una propuesta de regulación de la IA en la Unión, y con una recientísima decisión del Parlamento Europeo por la que solicita a la Comisión que apruebe una normativa sobre los procesos automatizados de toma de decisiones, a fin de garantizar la protección de los consumidores y la libre circulación de bienes y servicios. Y, a nivel nacional, con el anuncio de la publicación por la AEPD de la Guía de Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial.

Los Hechos

Según la sentencia, cuyo texto está disponible en neerlandés, el denominado Sistema de Indicación de Riesgos (Systeem Risico Indicatie, SyRI, nada que ver con el asistente de voz de Apple) es un instrumento legal que el gobierno neerlandés utiliza para prevenir y combatir el fraude en el campo de la seguridad social y los esquemas relacionados con los ingresos, las contribuciones fiscales y de la seguridad social y las leyes laborales.

El sistema se basa en la asignación del nivel de riesgo de que una determinada persona cometa fraude a los ingresos públicos, en función de una serie de parámetros analizados y relacionados entre sí.

Esta medida, instaurada a solicitud de determinadas agencias y organismos públicos, a la vista del elevado volumen de fraude detectado en el país, se basa en la denominada Ley de Organización de Implementación y Estructura de Ingresos (Wet structuur uitvoeringsorganisatie en inkomen, SUWI), cuyo artículo 65.2 permite la elaboración de informes de riesgos para evaluar el riesgo de que una persona física o jurídica haga un uso ilegal de fondos gubernamentales en el campo de la seguridad social y los esquemas relacionados con los ingresos públicos.

De acuerdo con el Reglamento de desarrollo de la Ley, el sistema utiliza un algoritmo que procesa datos como nombre, dirección, lugar de residencia, dirección postal, fecha de nacimiento, género y características administrativas de las personas; sobre su trabajo; sobre medidas y sanciones administrativas aplicadas a la misma; sus datos fiscales, incluida información sobre bienes muebles e inmuebles; datos sobre motivos de exclusión de asistencia o beneficios; datos comerciales; datos de integración, que son datos que pueden usarse para determinar si se han impuesto obligaciones de integración a una persona; historial de cumplimiento de las leyes y reglamentos; datos sobre becas recibidas; sobre pensiones; sobre la obligación de reintegro de prestaciones públicas; sobre endeudamiento; sobre beneficios, ayudas y subsidios recibidos; sobre permisos y exenciones recibidos para la realización de actividades y datos del seguro de salud, entendidos exclusivamente como aquellos que se pueden usar para determinar si una persona está asegurada en virtud de la Ley de seguro de salud.

El procesamiento de estos datos se realiza en dos fases. En la primera se recogen y pseudonimizan, reemplazando el nombre personal, los números de seguridad social y las direcciones por un código (seudónimo). A continuación se comparan los datos con el modelo de riesgos y se identifican los posibles factores de riesgo. Si una persona, física o jurídica, o una dirección, es clasificada como de riesgo elevado, sus datos se descifran nuevamente utilizando el archivo de clave y transferidos a una segunda fase del análisis de riesgos por una unidad de análisis específica. En la segunda fase, los datos descifrados son analizados por esta unidad de análisis, que asigna un nivel de riesgo definitivo.

La decisión del tribunal

Esa normativa fue impugnada por diversas organizaciones de defensa de los derechos humanos y civiles holandesas y según la sentencia del tribunal local de La Haya, la legislación que sustenta la aplicación de este algoritmo, no cumple con el requisito establecido en el Artículo 8, párrafo 2 del CEDH, de que la interferencia con el ejercicio del derecho al respeto de la vida privada resulte necesaria en una sociedad democrática. Es decir, que sea necesaria y proporcional en relación para el propósito previsto.

En particular, estima que esta legislación no cumple con el «equilibrio justo» (fair balance, en el original) que de acuerdo con el CEDH debe existir entre el interés social al que sirve la normativa cuestionada y la violación de la vida privada que supone, para poder estimar suficientemente justificada esta intromisión.

En su evaluación, el tribunal ha tenido en cuenta los principios fundamentales en los que se basa la protección de datos en virtud del Derecho de la Unión (la CEDH y el RGPD), en particular en los principios de transparencia, de limitación del tratamiento de minimización de datos, y concluye que la normativa que regula el uso de SyRI es insuficientemente clara y verificable, por lo que la declara contraria a la ley.

Efectos del informe de riesgos sobre la vida privada de las personas

En opinión del tribunal, aunque el informe de riesgos generado por el algoritmo no tiene en sí mismo una consecuencia legal directa, civil, administrativa o penal, sí que tiene un efecto significativo en la vida privada de la persona a la que se refiere.

El tribunal también deriva esa conclusión de las directrices del Grupo de Trabajo del artículo 29 del de Protección de Datos de 4 de diciembre de 2008, según las cuales debe entenderse que el procesamiento de datos afecta significativamente a una persona cuando sus efectos sean lo suficientemente grandes o importantes como para afectar significativamente al comportamiento o a las decisiones de las personas involucradas; tener un efecto a largo plazo o duradero en la persona interesada; o en el caso más extremo, conducir a su exclusión o discriminación.

Una finalidad legítima, perseguida por unos medios desproporcionados

El tribunal estima que el volumen del fraude al sistema de la seguridad social en los Países Bajos justifica la aplicación de mecanismos de control y supervisión que limiten o eliminen sus efectos. En concreto, el desarrollo de nuevas tecnologías proporciona al gobierno, entre otras cosas, opciones digitales para vincular archivos y analizar datos con la ayuda de algoritmos y, por lo tanto, ejercer una supervisión más efectiva.

Pero, añade, en este desarrollo, el derecho a la protección de datos es cada vez más importante, en parte debido a la propia velocidad de ese desarrollo, ya que la recopilación y el análisis de datos con la ayuda de estas nuevas tecnologías puede afectar profundamente a la vida privada de aquellos con quienes se relacionan esos datos.

Falta de transparencia del algoritmo

El principio de transparencia es el principio rector de la protección de datos que subyace y está consagrado en la CEDH y en el RGPD (arts. 5.1 a) y 12).

El tribunal considera que el gobierno holandés no ha hecho público el tipo de algoritmos utilizados en el modelo de riesgo, ni proporcionado información sobre el método de análisis de riesgos utilizado, con la excusa de evitar que los ciudadanos pudiesen ajustar su comportamiento en consecuencia.

Además, aprecia que la normativa reguladora del algoritmo no prevé ninguna obligación de información a las personas cuyos datos se tratan, de modo que no cabe esperar razonablemente que esas personas sepan que sus datos se utilizan o se han utilizado para esa finalidad. Adicionalmente, esta normativa tampoco prevé ninguna obligación de informar a los interesados individualmente, cuando proceda, del hecho de que se su evaluación de riesgo ha sido positiva.

Relevancia de la falta de transparencia

Como resultado de lo anterior, concluye el tribunal, es imposible verificar cómo está diseñado el árbol de decisión que utiliza el algoritmo y en qué pasos consiste. Una circunstancia que dificulta que una persona afectada por el mismo pueda defenderse contra el hecho de que se haya realizado un informe de riesgos con respecto a él o ella.

Macron durante discuros sobre IA y redes digitaless

El día 7 de febrero, el presidente Emmanuel Macron dio un discurso en la «École de Guerre». Era la primera vez desde De Gaulle que un presidente francés, sentaba, en tanto que comandante de los ejércitos nacionales, la doctrina militar frente a los mandos y cuadros de las fuerzas armadas y de seguridad.

La razón era establecer y responder a una serie de rupturas, que hemos visto emerger y ahora consolidarse, durante los últimos cinco años, que en conjunto producen un cambio global de la profundidad e importancia equivalentes a las de la caída del bloque soviético en 1989-92. Estas tres rupturas son de orden estratégico (competencia entre EEUU y China), jurídico (crisis del multilateralismo y el orden legal internacional) y finalmente, tecnológico.

La tecnología es, de hecho, un problema, un perturbador y un árbitro de los equilibrios estratégicos al mismo tiempo. El despliegue de 5G, la nube para el almacenamiento de datos, así como los sistemas operativos son ahora infraestructuras estratégicas en el mundo de hoy. En los últimos años, sin duda hemos considerado con demasiada frecuencia que se trata de soluciones comerciales, simplemente industriales o comerciales, mientras que estamos hablando de infraestructuras estratégicas para nuestras economías, obviamente, y para nuestros ejércitos.

La aparición de nuevas tecnologías, como la inteligencia artificial, las aplicaciones de la física cuántica y la biología sintética, ofrece muchas oportunidades, pero también una fuente de inestabilidad futura.

La tecnología digital es una fuente de innovación sin límites, e inspira todos los entornos físicos. Al convertirse en un campo de confrontación por derecho propio, su dominio exacerba las rivalidades entre las potencias, que lo ven como un medio para adquirir superioridad estratégica. También ofrece posibilidades sin precedentes para la vigilancia masiva de las poblaciones y el ejercicio del autoritarismo digital.

En tiempos de crisis, estos avances tecnológicos pondrán más énfasis en nuestras capacidades analíticas y de toma de decisiones, que se encuentran divididas entre la exhaustividad, la veracidad y la capacidad de respuesta. En este sentido, aumentan los riesgos de deslizamiento y exigen la aplicación de mecanismos sólidos y transparentes de desconexión.

No solo la referencia al riesgo de deslizamiento por soluciones creativas de las IAs -en el manejo del arsenal nuclear, por ejemplo- apunta a preocupaciones mucho más sofisticadas de las habitualmente recogidas en la prensa. Existe una preocupación franca por la relación entre soberanía y tecnología. El Presidente no podía ser más claro al afirmar que:

Para construir la Europa del mañana, nuestros estándares no pueden estar bajo el control americano, nuestras infraestructuras, nuestros puertos y aeropuertos bajo el capital chino y nuestras redes digitales bajo la presión rusa.

Es decir, las estructuras tecnológicas no son meros soportes a la actividad comercial. Son elementos estratégicos centrales de cualquier política de seguridad nacional en nuestro siglo.

Este es el caso de las infraestructuras 5G, la nube, que es decisiva para el almacenamiento de datos, los sistemas operativos, las redes de cable submarino, que son el centro neurálgico de nuestra economía globalizada. A nivel europeo, también necesitamos controlar nuestro acceso al espacio y decidir por nosotros mismos las normas que se imponen a nuestras empresas.

Esta política de normas, esta política de infraestructuras estratégicas, es esencial. Y es esencial para nuestra seguridad colectiva y nuestra capacidad de actuar. Vivimos en un mundo de interoperabilidad, con equipos cada vez más digitales. Gastar lo que estamos gastando para tener un equipo perfecto y entregar la infraestructura de conexión, entre nuestro equipo y nuestros países, a otros, sin ninguna garantía, seguiría siendo extrañamente ingenuo. Disculpen sin no deseo participar.

Tablero de Go

A continuación reproducimos dos artículos en los que la comunidad científica alertan sobre la imposibilidad de comprender cómo aprenden los sistemas de inteligencia artificial, y por lo tanto, las limitaciones para replicar resultados positivos.

Investigadores de Inteligencia artificial afirman que el aprendizaje automático es alquimia

Matthew Hutson, Revista Science- 3 de mayo de 2018

Ali Rahimi, uno de los investigadores en inteligencia artificial de Google lanzó un directo a la comunidad científica el pasado diciembre y recibió una ovación de 40 segundos por ello. Hablando en una conferencia sobre IA, Rahimi denunció que los algoritmos de aprendizaje automático, con los que las computadoras aprenden a través del ensayo y el error, se han convertido en una forma de «alquimia». Los investigadores, dijo, no saben por qué algunos algoritmos funcionan y otros no, ni tienen criterios rigurosos para elegir una arquitectura de IA en lugar de otra. Ahora, en un documento presentado el 30 de abril en la Conferencia Internacional sobre Representaciones del Aprendizaje en Vancouver, Rahimi y sus colaboradores documentan ejemplos de lo que consideran el problema de la alquimia y ofrecen recetas para reforzar el rigor de la IA.

«Hay angustia en el sector», dice Rahimi. «Muchos de nosotros sentimos que estamos operando con tecnología alienígena».

El problema es distinto del de la reproducibilidad del IA, en el que los investigadores no pueden replicar los resultados de los demás debido a la inconsistencia de las prácticas experimentales y de publicación. También difiere del problema de la «caja negra» o «interpretabilidad» en el aprendizaje automático. El problema es: la dificultad de explicar cómo ha llegado a sus conclusiones una determinada IA. Como dice Rahimi, «quiero diferenciar entre un sistema de aprendizaje automático que es una caja negra y un campo entero que se ha convertido en una caja negra».

Sin un conocimiento profundo de las herramientas básicas necesarias para construir y entrenar nuevos algoritmos, dice, los investigadores que crean IAs recurren a los rumores, como los alquimistas medievales. «La gente gravita en torno a las prácticas de culto cargo», basándose en «el folclore y los hechizos mágicos», añade François Chollet, un informático de Google en Mountain View. Por ejemplo, dice, adoptan métodos conductistas de entrenamiento para ajustar los «ritmos de aprendizaje» de sus IAs -cuánto se corrige un algoritmo después de cada error- sin entender por qué uno es mejor que otro. En otros casos, los investigadores que entrenan sus algoritmos simplemente tropiezan en la oscuridad. Por ejemplo, implementan lo que se denomina «descenso estocástico por gradiente» con el fin de optimizar los parámetros de un algoritmo para obtener la tasa de fallo más baja posible. Sin embargo, a pesar de los miles de trabajos académicos sobre el tema y de las innumerables maneras de aplicar el método, el proceso sigue basándose en el ensayo y el error.

El artículo de Rahimi destaca el esfuerzo desperdiciado y el rendimiento subóptimo que este problema produce. Por ejemplo, observa que cuando otros investigadores quitaron la mayor parte de los elementos más complejos de un algoritmo de traducción de idiomas de última generación, en realidad tradujo del inglés al alemán o al francés mejor y de manera más eficiente, lo que demuestra que sus creadores no entendían plenamente para qué servían esas partes adicionales. Por el contrario, a veces la parafernalia añadida a un algoritmo es la única parte buena, dice Ferenc Huszár, un investigador de aprendizaje de máquinas de Twitter. En algunos casos, dice, el núcleo de un algoritmo es técnicamente defectuoso, lo que implica que sus buenos resultados son «atribuibles totalmente a otros trucos puestos encima».

Rahimi ofrece varias sugerencias para averiguar qué algoritmos funcionan mejor y cuándo. Para empezar, dice, los investigadores deberían realizar «estudios de ablación» como los realizados con el algoritmo de traducción: borrar partes de un algoritmo una por una para ver la función de cada componente. Pide un «análisis por partes», en el que se analice detalladamente el rendimiento de un algoritmo para ver cómo las mejoras en algunas áreas pueden tener un coste en otras. Y dice que los investigadores deberían probar sus algoritmos con muchas condiciones y ajustes diferentes, y deberían reportar el desempeño de todos ellos.

Ben Recht, un científico informático de la Universidad de California, Berkeley, y coautor de la charla principal de Rahimi sobre la alquimia, dice que la IA necesita imitar a la física, donde los investigadores a menudo reducen un problema a un pequeño «problema de juguete». «Los físicos son increíbles en idear experimentos sencillos para conseguir explicar fenómenos», dice. Algunos investigadores de IA ya están adoptando ese enfoque, probando algoritmos de reconocimiento de imágenes en pequeños caracteres escritos a mano en blanco y negro antes de abordar grandes fotografías en color, para comprender mejor la mecánica interna de los algoritmos.

Csaba Szepesvári, un científico informático de DeepMind en Londres, dice que el campo también necesita reducir su énfasis en las pruebas competitivas. En la actualidad, es más probable que se publique un artículo si el algoritmo reportado supera algún punto de referencia que si el artículo arroja luz sobre el funcionamiento interno del software, dice. Así es como el algoritmo de traducción de fantasía llegó a través de la revisión por pares. «El propósito de la ciencia es generar conocimiento», dice. «Quieres producir algo que otras personas puedan utilizar y construir».

No todos están de acuerdo con la crítica de Rahimi y Recht. A Yann LeCun, científico jefe de AI en Facebook, le preocupa que el hecho de apartar demasiado esfuerzo de las técnicas de vanguardia hacia la comprensión básica podría frenar la innovación y desalentar la adopción de la IA en el mundo real. «No es alquimia, es ingeniería», dice. «La ingeniería es un lío».

Recht ve un lugar para la investigación metódica y aventurera por igual. «Necesitamos ambas cosas», dice.

«Necesitamos entender dónde están los puntos de fallo para poder construir sistemas confiables, y tenemos que llevar más allá los límites para poder tener sistemas aún más impresionantes en el futuro».

La Inteligencia artificial se enfrenta a una crisis de reproducibilidad

Gregory Barber, Revista Wired – 16 de septiembre de 2019

Hace unos años, Joelle Pineau, profesora de informática en McGill, ayudaba a sus estudiantes a diseñar un nuevo algoritmo cuando éstos tropezaron con obstáculo en apariencia, imposible de salvar. Su laboratorio estudia el aprendizaje de refuerzo, un tipo de inteligencia artificial que se utiliza, entre otras cosas, para ayudar a los personajes virtuales a aprender a moverse en los mundos virtuales. Es un requisito previo para construir robots y coches autónomos. Los estudiantes de Pineau esperaban mejorar el sistema de otro laboratorio. Pero primero tuvieron que reconstruirlo, y su diseño, por razones desconocidas, no alcanzaba los resultados prometidos. Hasta que los estudiantes probaron algunas «manipulaciones creativas» que no aparecían en el trabajo del otro laboratorio.

Y he aquí que el sistema comenzó a funcionar como se anunciaba. El golpe de suerte fue un síntoma de una tendencia preocupante, según Pineau. Las redes neuronales, la técnica que nos han dado los robots Go-mastering y los generadores de texto que crean la poesía clásica china, a menudo se llaman cajas negras debido a los misterios de cómo funcionan. Lograr que se desempeñen bien puede ser como un arte, que involucra ajustes sutiles que no se reportan en las publicaciones. Las redes también son cada vez más grandes y complejas, con enormes conjuntos de datos y arreglos informáticos masivos que encarecen la posibilidad de réplica y el estudio de esos modelos, haciendo su reproducción imposible, excepto para los laboratorios mejor financiados.

Anna Rogers, investigadora de machine learning de la Universidad de Massachusetts, se pregunta si eso sigue siendo acaso investigación.

«No está claro si estás demostrando la superioridad de tu modelo o tu presupuesto».

Pineau está tratando de cambiar los estándares. Es la presidenta de reproducibilidad de NeurIPS, un congreso de inteligencia artificial de primer nivel. Bajo su supervisión, el congreso pide ahora a los investigadores que presenten una «lista de comprobación – o checklist- de la reproducibilidad» que incluya elementos que a menudo se omiten en las ponencias, como el número de modelos entrenados antes de que se seleccionara «el mejor», la potencia de cálculo utilizada y los enlaces al código y a los conjuntos de datos. Es todo un cambio para un campo donde el prestigio se basa en clasificaciones que determinan qué sistema es el «estado del arte» para una tarea en particular, y ofrece un gran incentivo para pasar por alto las tribulaciones que llevaron a esos resultados espectaculares.

La idea, dice Pineau, es animar a los investigadores a ofrecer una hoja de ruta para que otros repliquen su trabajo. Una cosa es maravillarse de la elocuencia de un nuevo generador de texto o de la agilidad sobrehumana de un robot de videojuegos. Pero incluso los investigadores más sofisticados tienen una idea muy vaga de cómo funcionan. Replicar esos modelos de IA es importante para identificar nuevas vías de investigación, y además supone una manera de investigar algoritmos a medida que aumentan, y en algunos casos suplantan, la toma de decisiones humanas -desde quién ingresa en prisión y por cuánto tiempo hasta quién recibe una hipoteca.

No son los únicos que están denunciando el problema. Los investigadores de Google han propuesto las llamadas «tarjetas modelo» para detallar cómo se han sido testados los sistemas de machine learning, incluyendo resultados que señalan posibles sesgos. Otros han intentado mostrar lo frágil que es el término «estado del arte» cuando los sistemas, optimizados para los conjuntos de datos utilizados en las clasificaciones, se aplican en otros contextos. La semana pasada, investigadores del Instituto Allen de Inteligencia Artificial, o AI2, publicaron un artículo que pretende ampliar la lista de control de reproducibilidad de Pineau a otras partes del proceso experimental. Lo llaman «Show your work».

«Empezar donde alguien lo dejó es un dolor porque nunca describimos completamente el montaje experimental», dice Jesse Dodge, un investigador de AI2 que fue coautor de la investigación. «Otros investigadores no podrán reproducir lo que hicimos si no contamos lo que hicimos». Lo raro, añade, es que un equipo reporte detalles básicos sobre cómo fue construido un determinado sistema. Un estudio sobre los documentos de aprendizaje de refuerzo realizada el año pasado concluyó que sólo la mitad de ellos incluía código.

A veces, falta información básica porque es propietaria, un problema especialmente recurrente en los laboratorios de empresas. Pero es más a menudo una señal de la incapacidad del campo para mantenerse al día con los cambios de métodos, dice Dodge. Hace una década, era más sencillo ver lo que un investigador cambiaba para mejorar sus resultados. Las redes neuronales, en comparación, son quisquillosas; obtener los mejores resultados a menudo implica afinar miles de pequeñas palancas, lo que Dodge llama una forma de «magia negra». Elegir el mejor modelo a menudo requiere un gran número de experimentos. La magia se vuelve cara muy rápidamente.

Incluso los grandes laboratorios corporativos, que disponen de los recursos para diseñar los sistemas más grandes y complejos, se han dado cuenta del problema. Cuando Facebook intentó replicar AlphaGo, el sistema desarrollado por Alphabet’s DeepMind para dominar el antiguo juego del Go, los investigadores parecían agotados por la tarea. Los enormes requerimientos computacionales -millones de experimentos ejecutados en miles de dispositivos durante días- combinados con código no disponible, hicieron que el sistema fuera «muy difícil, si no imposible, de reproducir, estudiar, mejorar y ampliar», escribieron en un artículo publicado en mayo. (El equipo de Facebook finalmente tuvo éxito.)

La investigación AI2 propone una solución a este problema. La idea es proporcionar más datos sobre los experimentos que se llevan a cabo. Cualquiera puede reportar el mejor modelo que obtuvo después de, digamos, 100 experimentos -el resultado que podría ser declarado «estado del arte»- pero también debería reportar el rango de rendimiento esperado si sólo tuviera el presupuesto para probarlo 10 veces, o sólo una vez.

El punto de reproducibilidad, según Dodge, no es replicar los resultados exactamente. Eso sería casi imposible dada la aleatoriedad natural de las redes neuronales y las variaciones en el hardware y el código. En su lugar, la idea es ofrecer una hoja de ruta para llegar a las mismas conclusiones que la investigación original, especialmente cuando esto implica decidir qué sistema de aprendizaje por máquina es el mejor para una tarea en particular.

Eso podría ayudar a que la investigación sea más eficiente, explica Dodge. Cuando su equipo reconstruyó algunos sistemas populares de aprendizaje de máquinas, descubrieron que para algunos presupuestos, los métodos más anticuados tenían más sentido que los que estaban a la última. La idea es ayudar a los laboratorios académicos más pequeños esbozando cómo obtener el mejor beneficio dadas sus limitaciones financieras. Un beneficio secundario, añade, es que el enfoque podría fomentar una investigación más ecológica, dado que la formación de modelos de gran escala puede requerir tanta energía como las emisiones de un coche durante su vida útil.

Pineau asegura sentirse alentada al ver a otros tratando de «abrir modelos», pero no puede asegurar que la mayoría de laboratorios se beneficien del ahorro de costos. Muchos investigadores seguirán bajo la presión de utilizar cuanta mayor capacidad de computación sea posible. Y por otro lado están las dificultades para informar sobre los resultados de la investigación. Es posible que el enfoque de AI2 de «show your work» pueda enmascarar complejidades; estas variaciones en los métodos son en parte la razón por la cual la lista de control de reproducibilidad de NeurIPS es voluntaria. Un obstáculo, especialmente para los laboratorios corporativos, es el código propietario y la confidencialidad de los datos. Si, por ejemplo, Facebook está investigando con sus fotos de Instagram, hay un problema para compartir esos datos públicamente. La investigación clínica con datos de salud es otro punto conflictivo.

En otras palabras, es difícil desarrollar estándares de reproducibilidad que funcionen sin limitar a los investigadores, especialmente a medida que los métodos evolucionan rápidamente.

Partida entre DeepBlue y Kasparov

En 1997, Deep Blue, un superordenador de IBM derrotó al campeón mundial de ajedrez Gary Kasparov por cuatro juegos a dos en una serie de seis juegos. La victoria de Deep Blue cambió el ajedrez, pero no en la forma en que la gente esperaba y se predijo.

La metodología soviética bajo la que se había formado Kasparov era realmente maquinal, tenía la misma lógica que luego utilizó Deep Blue.

El ajedrez revolucionario napoleónico había exaltado al peón y el romántico la belleza de la sucesión de movimientos, la era de Capablanca había sido pragmática como el positivismo filosófico de la época y el ultraísmo había llevado al ajedrez el atrevimiento geométrico bolchevique, descubriendo líneas de fuerza y proyecciones insospechadas en la lucha por el poder. El ajedrez stalinista fue otra cosa completamente distinta. No pretendía cambiar la lógica del juego, ni siquiera ser coherente, ni bello. Solo pretendía ganar. Para ello inauguró una extraña forma de aprender, que exaltaba tanto la sistemática como se complacía en la falta de imaginación.

Durante la guerra fría, la asociación soviética de ajedrez era un verdadero bunker. Su arma secreta: el registro en fichas de cartón de miles y miles de partidas que los elegidos para la alta competición podían estudiar y utilizar.

Se entrenaba a los jugadores para memorizar gigantescos árboles de decisión y a partir de ahí, aprender a reconocer heurísticamente por dónde continuar la partida con más probabilidades de victoria, por contraintuitivo que fuese y aunque el tiempo y la capacidad no les dieran para calcular la sucesión de jugadas.

Calcular los árboles de decisión más completos posibles a base de fuerza bruta, es decir, de pura capacidad de cálculo y recursos, fue el estirón de la IA de la época de Deepblue. Añadirle a eso heurística (mediante Montecarlo) fue el camino de la siguiente generación, la primera que intentó asaltar el Go/Baduk/Weiqi… sin éxito.

Pero no adelantemos. Lo interesante de 1997 es que DeepBlue y Kasparov tenían ya una misma lógica de juego y aprendizaje. Es más en 1997 se vendían ya CDs con todas las partidas del archivo secreto del bunker ruso. Fue ese CD el que había cambiado el juego. No una IA que todavía tardaría unos años en resultar accesible.

De hecho la democratización de las IAs de ajedrez, que fue el verdadero cambio, solo radicalizó la mirada stalinista sobre el juego. Emocionalidad fuera. Defensas blindadas. Pragmatismo para ocupar el centro del tablero. Paciencia inmisericorde hasta encontrar el error en el contrario. Si el ajedrez ruso de la guerra fría fabricaba blindados, el ajedrez influido por IA los hacía mejores. Nadie parece echar de menos a la caballería ligera.

Hoy los chicos memorizan y reviven jugadas, y sus maestros repasan sus partidas con software basado en IA. Nuevas jugadas y soluciones creadas por máquinas, em>inhumanas pero efectivas, son la señal de buen entrenamiento. No es que ya no haya revistas y libros. De hecho ahora son, posiblemente, mejores que nunca. Pero ya no son la base de la formación ajedrecística. Son entretenimiento, reflexión. Literatura comunitaria.

Un detalle importante. Los libros y las fichas de papel han desaparecido. Los entrenadores no. ¿Por qué? Porque el software te puede decir cuándo te equivocaste, qué camino tendrías que haber seguido a partir de una jugada determinada. Pero eso no te ayuda a pensar mejor en términos estratégicos, a crear esas reglas difusas que llamamos estilo de juego. El entrenador sí. El entrenador es ése que sabe los porqués, que te da reglas de pensamiento, filosofía de juego, el que te enseña que hay algo que demostrar que solo puede demostrarse ganando. El que te ayuda a darle trascendencia al juego. Algunos de los grandes maestros de Go -y no pocos escritores que quedaron capturados por el juego, de Leibniz a Thomas Mann pasando por Kabawata- le llamaban encontrar la verdad o descubrir el lenguaje de las piedras. La IA no sabe de eso. La IA solo sabe ganar.

Tal vez por eso el ajedrez ha generado una variante mixta: humanos y máquinas juegan formando equipo. Fue el propio Kasparov quién más hizo por tornarlo popular. El «ajedrez centauro» en un deporte extremo que mide los nervios de los contrincantes: ¿cuándo he de dejar de seguir lo que la máquina sugiere? ¿cuándo tengo algo realmente diferente delante de mi que la máquina no sabe ver? ¿qué me está diciendo el humano al otro lado con esa jugada? ¿o es su máquina que está llevándole a un lugar que no se ver? Conforme la IA es mejor, mejores tienen que ser sus jinetes… aunque solo sea para dejarles hacer.

Automatizacion del trabajo

El desarrollo de las tecnologías digitales hacia sistemas de inteligencia artificial y la introducción de robots de nueva generación, ha despertado inquietud y dado paso a una serie de preguntas sobre las formas que en un futuro próximo adoptará el trabajo, la relación trabajo-hombre como definitoria de identidades y la responsabilidad de todos los estamentos sociales, incluidos los propios trabajadores para prepararse.

Tanto la Organización del Trabajo (OIT), como el gobierno de Francia han coincidido al remarcar que gobierno, empresa y sindicatos tienen un papel fundamental en el acompañamiento y asesoramiento de las personas. Distinguiendo entre estrategias a implementar para trabajadores en activo y para futuros empleadores, en ambos casos el énfasis recae en la educación. Sugieren modificaciones no sólo curriculares sino de desarrollo de capacidades (primando las habilidades sociales) para los jóvenes, y formaciones y asesoramientos específicos para trabajadores.

El Consejo de Orientación para el Empleo de Francia, COE, sugiere así la creación de una nueva figura, el asesor de carreras profesionales, para, de manera homogénea y personalizada facilitar la adaptación a nuevos puestos de trabajo.

¿Qué va a cambiar?

  1. Profesiones: Según el informe del COE, una treintena de oficios son especialmente susceptibles de cambio: el del técnico de mantenimiento es el primero, seguido de conductores de vehículos, asistentes domiciliarios, cuidadores, vendedores, jefes de almacén, personal de hostelería…. Los oficios manuales dominan, pero no son los únicos afectados. Profesores, oficiales administrativos, contables y financieros están incluidos en la lista, al igual que las secretarias.
  2. Competencias: Competencias técnicas, sociales y tradicionales.
  3. Tiempo: La previsión de jornadas laborales más cortas liberará tiempo de ocio para las personas.

Efectos

El Consejo de Política de Empleo también subraya sus efectos ambivalentes o incluso opuestos. Dependiendo del uso de las nuevas tecnologías por parte de la empresa, pueden enriquecer el trabajo, empobrecerlo, aumentar la autonomía o, por el contrario, reforzar las limitaciones de control y ritmo.

Por último, apuntan a la capacidad de influir en la diversificar los horarios y los lugares de trabajo y, también a este respecto, pueden resultar o no ser beneficiosos para el bienestar en el trabajo. Algunos estudios sobre los efectos del teletrabajo apuntan que al eliminar las restricciones espaciales y temporales, las herramientas móviles pueden generar tecno-estrés, dependencia, trastornos del sueño y agotamiento en los trabajadores.

En 2017, el sistema de inteligencia artificial IBM Watson Explorer sustituyó a 34 empleados (25% de la plantilla) de una empresa japonesa que trabaja en el sector de los seguros.

En Francia, BPCE Assurances ha adoptado un robot, creado por la start-up francesa Owi, capaz de leer e-mails y analizar el campo semántico. Este último asigna un nivel de prioridad y es responsable de formular una respuesta, enviada bajo el control de un agente humano al asegurado. El Crédit Mutuel-CIC utiliza también la IA IBM Watson como un asistente virtual de ahorro y seguro, que ofrece respuestas inmediatas a las preguntas recurrentes de los clientes. Société Générale ha informado de su deseo de automatizar el 80% de los procesos internos.

Estos avances no son en absoluto insignificantes porque, por primera vez, la tecnología está sustituyendo a un cuello blanco, es decir, a un empleado cualificado.

La Federación Internacional de Robótica, IFR por sus siglas en inglés, tiene más de 12 millones de robots en todo el mundo. Una gran mayoría opera en el sector industrial, especialmente en el sector de la automoción. Contra todo pronóstico, las tasas de desempleo en los países más robóticos están entre las más bajas o más reguladas (Alemania ha logrado una disminución del 4% entre 2013 y 2014). Pero la disminución del desempleo no significa una disminución de la precariedad.

En 2017, en la apertura de una reunión sobre el desarrollo sostenible en una era de rápidos cambios tecnológicos, la Presidenta del Consejo Económico y Social de las Naciones Unidas (ECOSOC), Maria Chatardova, aseguró que,

debemos aprovechar estas nuevas tecnologías sin dejar a nadie fuera en el contexto del desarrollo sostenible, pero que no conocemos el impacto global a largo plazo de la inteligencia artificial.

Según Erik Brynjolfsson, Director de la Iniciativa de Economía Digital del Instituto Tecnológico de Massachusetts en Cambridge,

se perderán millones de puestos de trabajo, se crearán y necesitarán millones de nuevos puestos de trabajo y se transformarán muchos más. Hay una gran necesidad, una gran oportunidad para estudiar los cambios. Los investigadores están empezando a hacerlo, y la evidencia emergente se resiste a los escenarios simples. Es probable que los avances en las tecnologías digitales cambien el trabajo de forma compleja y matizada, creando tanto oportunidades como riesgos para los trabajadores.

En las próximas décadas, estas tecnologías transformarán casi todos los sectores de actividad: agricultura, medicina, manufactura, ventas, finanzas y transporte, redefiniendo la naturaleza del trabajo.

En 2013, los investigadores del programa Oxford Martin sobre tecnología y empleo destacaron que el trabajo en grupo o la interacción cara a cara sigue siendo difícil de automatizar. Esto sugiere que incluso si todo puede ser automatizado, algunas características humanas permanecen no duplicables.

Recomendaciones

El COE aboga por la apertura de un nuevo diálogo social que acompañe la difusión de nuevas tecnologías en empresas y entornos laborales.

La OIT recoge en su informe Trabajar para un futuro más prometedor la necesidad de invertir en las capacidades de las personas, en las instituciones del trabajo y de invertir en trabajo decente y sostenible.

  1. El derecho a un aprendizaje a lo largo de la vida que permita a las personas adquirir competencias, perfeccionarlas y reciclarse profesionalmente.
  2. Incrementar las inversiones en las instituciones, las políticas y las estrategias que presten apoyo a las personas a lo largo de las transiciones que entraña el futuro del trabajo. Los jóvenes necesitarán ayuda para navegar por las cada vez mayores dificultades que entraña la transición de la escuela al trabajo. Habrá que aumentar las posibilidades de los trabajadores de edad avanzada para que puedan seguir siendo económicamente activos mientras lo deseen.
  3. Establecer una Garantía Laboral Universal.
  4. Ampliar la soberanía sobre el tiempo
  5. Garantizar la representación colectiva de los trabajadores y los empleadores.
  6. Encauzar y administrar la tecnología en favor del trabajo decente. Esto significa que los trabajadores y directivos han de diseñar la concepción del puesto de trabajo. Significa también que se adopte un enfoque de la inteligencia artificial bajo control humano que garantice que las decisiones definitivas que afectan al trabajo sean tomadas por personas. Debería establecerse un sistema de gobernanza internacional de las plataformas digitales del trabajo que exija a estas plataformas (y a sus clientes) que respeten determinados derechos y protecciones mínimas. Los avances tecnológicos requieren también de la reglamentación del uso de datos y de la responsabilidad sobre el control de los algoritmos en el mundo del trabajo.

Las preocupaciones del la OIT ante el impacto de los avances tecnológicos en el mundo del trabajo son:

  • La pérdida de puestos de trabajo que sin duda afectará de forma más grave a las personas que estén peor preparadas.
  • Ensanchamiento de las brechas digitales y de género.
  • Reaparición y extensión de formas laborales del siglo XIX unidas a plataformas laborales digitales de microtareas y trabajo mediante aplicaciones; los jornaleros digitales.

Estimaciones de las futuras transformaciones del mercado de trabajo generadas por la tecnología:

  • Frey y Osborne, 2015. El 47 por ciento de los trabajadores de los Estados Unidos corren el riesgo de verse sustituidos en sus puestos de trabajo por la automatización.
  • Chang y Phu, 2016 ASEAN-5: el 56 por ciento de los puestos de trabajo corren riesgo de automatizarse en los próximos veinte años.
  • OCDE, 2016. Un promedio del 9 por ciento de los puestos de trabajo de los países de la OCDE corre un alto riesgo de automatizarse. Una proporción considerable de puestos de trabajo (entre el 50 por ciento y el 70 por ciento) no será sustituido por completo, pero se automatizará una gran parte de las tareas, transformando la forma en que se ejercen estos trabajos.
  • Banco Mundial, 2016. Dos tercios de los puestos de trabajo de los países en desarrollo podrían ser automatizados.
  • Foro Económico Mundial, 2018. Casi el 50 por ciento de las empresas esperan que la automatización lleve a una reducción de su fuerza de trabajo a tiempo completo en 2022.

El COE, Consejo de Orientación para el Empleo, llevó a cabo en 2017 un estudio para identificar mejor las cualificaciones que pueden ser objeto de una demanda frecuente en una economía cada vez más digital y automatizada y evaluar el estado actual de las cualificaciones de la mano de obra francesa a la luz de estas nuevas necesidades.

El Consejo analizó la literatura económica y movilizó las diversas encuestas disponibles. De sus análisis se desprende que en una economía digital deberían movilizarse mucho más tres grupos de cualificaciones:

  • Cualificaciones de expertos en nuevas tecnologías, en el propio sector tecnológico, pero también en todos los sectores económicos que utilizan estas tecnologías;
  • Nuevas cualificaciones técnicas en relación con la recomposición prevista de aproximadamente el 50 % de los puestos de trabajo; y,
  • Para todos los trabajadores, un aumento de la necesidad de las denominadas competencias transversales, que abarcan las competencias digitales generales, las competencias cognitivas (alfabetización, aritmética) y las competencias sociales y situacionales.

El COE prevé en Francia una creciente escasez de expertos en nuevas tecnologías, estimada en 80.000 puestos de trabajo para 2020 sólo para las tecnologías de la información y la comunicación. Y una necesidad muy importante de nuevas competencias técnicas.

Nuevas competencias técnicas no digitales, que añaden o sustituyen a las competencias clásicas de cada oficio. Estas nuevas competencias técnicas son muy diversas: las tecnologías tienen consecuencias muy diferentes porque pueden, en algunos casos, reducir la demanda de intervención humana, en otros, apoyar la actividad y permitir el desarrollo de tareas con mayor valor añadido, o incluso una diversificación de la actividad. En todos los casos, cambian las tareas realmente realizadas, ya sea eliminando o reduciendo algunas de ellas, o añadiendo nuevas -a menudo más complejas.

Por ejemplo, en las ocupaciones agrícolas, la automatización de los cultivos en invernaderos requiere de conocimientos agrónomos más avanzados por parte de los empleados. En el sector del comercio, se espera que los vendedores proporcionen un nuevo nivel de experiencia a unos consumidores cada vez más informados y con capacidad de actuación.

Por lo tanto, según el COE, una proporción significativa de la mano de obra tendrá que adquirir o mejorar rápidamente sus competencias digitales generales, cognitivas, sociales y situacionales.

Inteligencia Artificial

El desarrollo de la inteligencia artificial y su incorporación a cada vez más espacios de la vida social ha dado lugar a profundas discusiones en el seno de instituciones de gobierno y espacios de investigación científica. Recogemos a continuación las propuestas de tres organismos que nos permiten entrever hacia dónde se orientarán las futuras regulaciones.

1. Comisión Europea: Directrices éticas para el desarrollo de una IA confiable

En sus Comunicaciones de 25 de abril de 2018 y 7 de diciembre de 2018, la Comisión Europea expuso su visión de la inteligencia artificial (IA), que apoya «una IA ética, segura y vanguardista hecha en Europa». La visión de la Comisión se basa en tres pilares: (i) el aumento de las inversiones públicas y privadas en AI para impulsar su asimilación; (ii) la preparación para los cambios socioeconómicos; y (iii) la garantía de un marco ético y jurídico adecuado para reforzar los valores europeos.

La confiabilidad de la IA es un requisito previo para que las personas y las sociedades desarrollen, desplieguen y utilicen sistemas de IA. Sin que los sistemas de IA -y los seres humanos que los respaldan- sean demostrablemente dignos de confianza, se pueden producir consecuencias no deseadas y se puede obstaculizar su asimilación, impidiendo la realización de los enormes beneficios sociales y económicos que pueden aportar.

Una IA digna de confianza tiene tres componentes, que deben cumplirse a lo largo de todo el ciclo de vida del sistema:

  1. Debe ser legal, cumpliendo con todas las leyes y regulaciones aplicables;
  2. Debe ser ética, asegurando la adhesión a los principios y valores éticos;
  3. Debe ser robusta, tanto desde el punto de vista técnico como social, ya que, incluso con buenas intenciones, los sistemas de IA pueden causar daños no intencionales.

Idealmente, los tres trabajan en armonía y se superponen en su operación. En la práctica, sin embargo, puede haber tensiones entre estos elementos (por ejemplo, a veces el alcance y el contenido de la legislación vigente pueden no estar en consonancia con las normas éticas). Es nuestra responsabilidad individual y colectiva como sociedad trabajar para asegurar que los tres componentes ayuden a asegurar una IA digna de confianza.

2. OCDE: Principios éticos sobre Inteligencia Artificial

  1. La IA debe beneficiar a las personas y al planeta impulsando el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
  2. Los sistemas de IA deben diseñarse de manera que respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad, y deben incluir las salvaguardias adecuadas -por ejemplo, permitiendo la intervención humana cuando sea necesario- para garantizar una sociedad justa y equitativa.
  3. Debe haber transparencia y divulgación responsable en torno a los sistemas de IA para asegurar que las personas entiendan los resultados basados en la IA y puedan cuestionarlos.
  4. Los sistemas de IA deben funcionar de forma robusta, segura y protegida a lo largo de su ciclo de vida y los riesgos potenciales deben ser evaluados y gestionados continuamente.
  5. Las organizaciones y los individuos que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de acuerdo con los principios mencionados anteriormente.

Principios éticos de la Academia de Pequín de Inteligencia Artificial (BAAI)

El desarrollo de la Inteligencia Artificial (IA) se refiere al futuro de toda la sociedad, de toda la humanidad y del medio ambiente. Los principios que se exponen a continuación se proponen como una iniciativa para la investigación, el desarrollo, el uso, la gobernanza y la planificación a largo plazo de la IA, que exige su desarrollo saludable para apoyar la construcción de una comunidad humana con un futuro compartido, y la realización de una IA beneficiosa para la humanidad y la naturaleza.

Categorías

  1. Investigación y Desarrollo
    1. Haz el bien
    2. Para la Humanidad
    3. Sé responsable
    4. Control de riesgos
    5. Sé ético
    6. Sé diverso e inclusivo
    7. Abre y comparte
  2. Usos
    1. Usar sabia y apropiadamente
    2. Consentimiento informado
    3. Educación y formación
  3. Gobernanza
    1. Optimización del empleo
    2. Armonía y cooperación
    3. Adaptación y moderación
    4. Subdivisión e implementación
    5. Planificación a largo plazo

Derechos de Ciudadanía Digital