Blog

Principios éticos de la Inteligencia Artificial

Inteligencia Artificial

El desarrollo de la inteligencia artificial y su incorporación a cada vez más espacios de la vida social ha dado lugar a profundas discusiones en el seno de instituciones de gobierno y espacios de investigación científica. Recogemos a continuación las propuestas de tres organismos que nos permiten entrever hacia dónde se orientarán las futuras regulaciones.

1. Comisión Europea: Directrices éticas para el desarrollo de una IA confiable

En sus Comunicaciones de 25 de abril de 2018 y 7 de diciembre de 2018, la Comisión Europea expuso su visión de la inteligencia artificial (IA), que apoya «una IA ética, segura y vanguardista hecha en Europa». La visión de la Comisión se basa en tres pilares: (i) el aumento de las inversiones públicas y privadas en AI para impulsar su asimilación; (ii) la preparación para los cambios socioeconómicos; y (iii) la garantía de un marco ético y jurídico adecuado para reforzar los valores europeos.

La confiabilidad de la IA es un requisito previo para que las personas y las sociedades desarrollen, desplieguen y utilicen sistemas de IA. Sin que los sistemas de IA -y los seres humanos que los respaldan- sean demostrablemente dignos de confianza, se pueden producir consecuencias no deseadas y se puede obstaculizar su asimilación, impidiendo la realización de los enormes beneficios sociales y económicos que pueden aportar.

Una IA digna de confianza tiene tres componentes, que deben cumplirse a lo largo de todo el ciclo de vida del sistema:

  1. Debe ser legal, cumpliendo con todas las leyes y regulaciones aplicables;
  2. Debe ser ética, asegurando la adhesión a los principios y valores éticos;
  3. Debe ser robusta, tanto desde el punto de vista técnico como social, ya que, incluso con buenas intenciones, los sistemas de IA pueden causar daños no intencionales.

Idealmente, los tres trabajan en armonía y se superponen en su operación. En la práctica, sin embargo, puede haber tensiones entre estos elementos (por ejemplo, a veces el alcance y el contenido de la legislación vigente pueden no estar en consonancia con las normas éticas). Es nuestra responsabilidad individual y colectiva como sociedad trabajar para asegurar que los tres componentes ayuden a asegurar una IA digna de confianza.

2. OCDE: Principios éticos sobre Inteligencia Artificial

  1. La IA debe beneficiar a las personas y al planeta impulsando el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
  2. Los sistemas de IA deben diseñarse de manera que respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad, y deben incluir las salvaguardias adecuadas -por ejemplo, permitiendo la intervención humana cuando sea necesario- para garantizar una sociedad justa y equitativa.
  3. Debe haber transparencia y divulgación responsable en torno a los sistemas de IA para asegurar que las personas entiendan los resultados basados en la IA y puedan cuestionarlos.
  4. Los sistemas de IA deben funcionar de forma robusta, segura y protegida a lo largo de su ciclo de vida y los riesgos potenciales deben ser evaluados y gestionados continuamente.
  5. Las organizaciones y los individuos que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de acuerdo con los principios mencionados anteriormente.

Principios éticos de la Academia de Pequín de Inteligencia Artificial (BAAI)

El desarrollo de la Inteligencia Artificial (IA) se refiere al futuro de toda la sociedad, de toda la humanidad y del medio ambiente. Los principios que se exponen a continuación se proponen como una iniciativa para la investigación, el desarrollo, el uso, la gobernanza y la planificación a largo plazo de la IA, que exige su desarrollo saludable para apoyar la construcción de una comunidad humana con un futuro compartido, y la realización de una IA beneficiosa para la humanidad y la naturaleza.

Categorías

  1. Investigación y Desarrollo
    1. Haz el bien
    2. Para la Humanidad
    3. Sé responsable
    4. Control de riesgos
    5. Sé ético
    6. Sé diverso e inclusivo
    7. Abre y comparte
  2. Usos
    1. Usar sabia y apropiadamente
    2. Consentimiento informado
    3. Educación y formación
  3. Gobernanza
    1. Optimización del empleo
    2. Armonía y cooperación
    3. Adaptación y moderación
    4. Subdivisión e implementación
    5. Planificación a largo plazo
Share it on

Derechos de Ciudadanía Digital