Blog

Principios 茅ticos de la Inteligencia Artificial

Inteligencia Artificial

El desarrollo de la inteligencia artificial y su incorporaci贸n a cada vez m谩s espacios de la vida social ha dado lugar a profundas discusiones en el seno de instituciones de gobierno y espacios de investigaci贸n cient铆fica. Recogemos a continuaci贸n las propuestas de tres organismos que nos permiten entrever hacia d贸nde se orientar谩n las futuras regulaciones.

1. Comisi贸n Europea: Directrices 茅ticas para el desarrollo de una IA confiable

En sus Comunicaciones de 25 de abril de 2018 y 7 de diciembre de 2018, la Comisi贸n Europea expuso su visi贸n de la inteligencia artificial (IA), que apoya 芦una IA 茅tica, segura y vanguardista hecha en Europa禄. La visi贸n de la Comisi贸n se basa en tres pilares: (i) el aumento de las inversiones p煤blicas y privadas en AI para impulsar su asimilaci贸n; (ii) la preparaci贸n para los cambios socioecon贸micos; y (iii) la garant铆a de un marco 茅tico y jur铆dico adecuado para reforzar los valores europeos.

La confiabilidad de la IA es un requisito previo para que las personas y las sociedades desarrollen, desplieguen y utilicen sistemas de IA. Sin que los sistemas de IA -y los seres humanos que los respaldan- sean demostrablemente dignos de confianza, se pueden producir consecuencias no deseadas y se puede obstaculizar su asimilaci贸n, impidiendo la realizaci贸n de los enormes beneficios sociales y econ贸micos que pueden aportar.

Una IA digna de confianza tiene tres componentes, que deben cumplirse a lo largo de todo el ciclo de vida del sistema:

  1. Debe ser legal, cumpliendo con todas las leyes y regulaciones aplicables;
  2. Debe ser 茅tica, asegurando la adhesi贸n a los principios y valores 茅ticos;
  3. Debe ser robusta, tanto desde el punto de vista t茅cnico como social, ya que, incluso con buenas intenciones, los sistemas de IA pueden causar da帽os no intencionales.

Idealmente, los tres trabajan en armon铆a y se superponen en su operaci贸n. En la pr谩ctica, sin embargo, puede haber tensiones entre estos elementos (por ejemplo, a veces el alcance y el contenido de la legislaci贸n vigente pueden no estar en consonancia con las normas 茅ticas). Es nuestra responsabilidad individual y colectiva como sociedad trabajar para asegurar que los tres componentes ayuden a asegurar una IA digna de confianza.

2. OCDE: Principios 茅ticos sobre Inteligencia Artificial

  1. La IA debe beneficiar a las personas y al planeta impulsando el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
  2. Los sistemas de IA deben dise帽arse de manera que respeten el Estado de derecho, los derechos humanos, los valores democr谩ticos y la diversidad, y deben incluir las salvaguardias adecuadas -por ejemplo, permitiendo la intervenci贸n humana cuando sea necesario- para garantizar una sociedad justa y equitativa.
  3. Debe haber transparencia y divulgaci贸n responsable en torno a los sistemas de IA para asegurar que las personas entiendan los resultados basados en la IA y puedan cuestionarlos.
  4. Los sistemas de IA deben funcionar de forma robusta, segura y protegida a lo largo de su ciclo de vida y los riesgos potenciales deben ser evaluados y gestionados continuamente.
  5. Las organizaciones y los individuos que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de acuerdo con los principios mencionados anteriormente.

Principios 茅ticos de la Academia de Pequ铆n de Inteligencia Artificial (BAAI)

El desarrollo de la Inteligencia Artificial (IA) se refiere al futuro de toda la sociedad, de toda la humanidad y del medio ambiente. Los principios que se exponen a continuaci贸n se proponen como una iniciativa para la investigaci贸n, el desarrollo, el uso, la gobernanza y la planificaci贸n a largo plazo de la IA, que exige su desarrollo saludable para apoyar la construcci贸n de una comunidad humana con un futuro compartido, y la realizaci贸n de una IA beneficiosa para la humanidad y la naturaleza.

Categor铆as

  1. Investigaci贸n y Desarrollo
    1. Haz el bien
    2. Para la Humanidad
    3. S茅 responsable
    4. Control de riesgos
    5. S茅 茅tico
    6. S茅 diverso e inclusivo
    7. Abre y comparte
  2. Usos
    1. Usar sabia y apropiadamente
    2. Consentimiento informado
    3. Educaci贸n y formaci贸n
  3. Gobernanza
    1. Optimizaci贸n del empleo
    2. Armon铆a y cooperaci贸n
    3. Adaptaci贸n y moderaci贸n
    4. Subdivisi贸n e implementaci贸n
    5. Planificaci贸n a largo plazo
Share it on

Leave a Comment

Your email address will not be published. Required fields are marked *

Derechos de Ciudadan铆a Digital