La Comisión Europea ha fijado los 7 requisitos esenciales para lograr una inteligencia artificial (IA) fiable.

A partir del trabajo del grupo de expertos independientes nombrados en junio de 2018, la Comisión Europea ha puesto en marcha una fase piloto (actualmente en desarrollo) con el fin de garantizar que las directrices éticas para el desarrollo y el uso de la inteligencia artificial puedan aplicarse en la práctica.

Tras la fase piloto, a principios de 2020, el Grupo de expertos en inteligencia artificial revisará las listas de evaluación para los requisitos clave, basándose en la información recibida. Partiendo de esta revisión, la Comisión evaluará los resultados y propondrá las próximas etapas.

Además, para garantizar el desarrollo ético de la inteligencia artificial, la Comisión Europea, de forma inminente (la previsión es en otoño de este año 2019):

.Pondrá en marcha un conjunto de redes de centros de excelencia especializados en investigación sobre inteligencia artificial

.Empezará a crear redes de polos de innovación digital

.Junto con los Estados miembros y las partes interesadas, entablará debates para desarrollar y aplicar un modelo para el intercambio de datos y para hacer el mejor uso de los espacios comunes de datos.

Los 7 requisitos

La inteligencia artificial fiable debe respetar todas las leyes y reglamentos aplicables, así como una serie de requisitos: las listas de evaluación específicas tienen por objeto facilitar la verificación del cumplimiento de cada uno de esos requisitos fundamentales:

  1. Intervención y supervisión humanas: Los sistemas de inteligencia artificial deben facilitar sociedades equitativas, apoyando la intervención humana y los derechos fundamentales, y no disminuir, limitar o desorientar la autonomía humana.
  2. Robustez y seguridad: La fiabilidad de la inteligencia artificial requiere que los algoritmos sean suficientemente seguros, fiables y sólidos para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los sistemas de inteligencia artificial.
  3. Privacidad y gestión de datos: Los ciudadanos deben tener pleno control sobre sus propios datos, al tiempo que los datos que les conciernen no deben utilizarse para perjudicarles o discriminarles.
  4. Transparencia: Debe garantizarse la trazabilidad de los sistemas de inteligencia artificial.
  5. Diversidad, no discriminación y equidad: Los sistemas de inteligencia artificial deben tener en cuenta el conjunto de capacidades, competencias y necesidades humanas, y garantizar la accesibilidad.
  6. Bienestar social y medioambiental: Los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y aumentar la sostenibilidad y la responsabilidad ecológicas.
  7. Rendición de cuentas: Deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de inteligencia artificial y de sus resultados.

Subscribe To Receive The Latest News

Curabitur ac leo nunc. Vestibulum et mauris vel ante finibus maximus.

    Add notice about your Privacy Policy here.