web-enzyme-v2-logo-white
logo-enzyme-2-blog

Europa: cuatro niveles para alcanzar una Inteligencia Artificial confiable

La Comisión Europea ha lanzado una iniciativa pionera para favorecer la excelencia y confianza en la inteligencia artificial. Esta busca salvaguardar la privacidad de las personas y sus derechos fundamentales, como ya ha hecho a través del Reglamento General de Protección de Datos de Carácter Personal (GDPR), ha formalizado el pasado abril una iniciativa para que en Europa se adapte la innovación y la digitalización de los negocios a estos objetivos.

La Comisión Europea hace así frente al nuevo panorama y los cambios que en los procesos empresariales y las relaciones está suponiendo la digitalización, que aumenta la capacidad para recoger y almacenar datos y con la Inteligencia Artificial y la robótica como herramientas que facilitan la actuación y toma de decisiones desasistida - las máquinas decidiendo por nosotros - con el impacto ético que esto supone. Así, persigue que la Inteligencia artificial (IA) sea una tecnología ética, digna de confianza, centrada en el ser humano, sostenible, segura, inclusiva y fiable.

Esta iniciativa tiene muchos elementos comunes con la directiva de tratamiento de los datos de carácter personal que  se ocupa de riesgos relacionados al reconocimiento facial, o la discriminación de las personas a partir de sus datos personales. Pero su alcance es más amplio ya que abarca las posibles amenazas que para los derechos fundamentales pueda haber en aspectos que hasta ahora no habían sido cubiertos, como sistemas automáticos que puedan condicionar el acceso de los ciudadanos a infraestructuras o servicios, su funcionamiento o cuestiones relacionadas con la seguridad.

 

Regulación para cuatro grados de riesgo

La propuesta mantiene el criterio de la ponderación de derechos y la no obstrucción a la iniciativa y la innovación, de tal manera que propone una escala de cuatro grados de intervención diferentes.

  •         Riesgo inadmisible: Se prohibirán los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Puede cubrir desde evitar que se manipule el comportamiento humano hasta sistemas que permitan la «puntuación social» por parte de los Gobiernos.
  •         Alto riesgo: Los sistemas de IA considerados de alto riesgo abarcan actividades susceptibles de automatización y que afectan directamente a los derechos de las personas, su seguridad o salud. Por ejemplo, el derecho al acceso a la educación, un puesto de trabajo o recibir un servicio, como un crédito, de forma no discriminatoria o la cirugía asistida por robots. En este grupo se incluye toda actividad que utilice la identificación biométrica remota. Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan comercializarse, como la transparencia, trazabilidad, supervisión, sistemas de evaluación y mitigación de riesgos o una muy alta exigencia en cuanto a los datos que utilice y la robustez de sus procesos.
  •         Riesgo limitado. Este grupo recoge a la gran mayoría de usos de chatbots o robots conversacionales en los cuáles, utilizando el principio de transparencia, los usuarios deberán ser conscientes de que están interactuando con una máquina.
  •         Riesgo mínimo o nulo: Situaciones en las que hay un riesgo nulo para los derechos y seguridad de los ciudadanos. Serán sistemas en los que las posibles decisiones que puedan tomar no van a afectar ni a condicionar a las personas que las utilizan.

De forma paralela a la directiva de RGPD, tendremos ámbitos de negocio, como salud, recursos humanos o aplicación de un credit scoring en el que aumentaran las exigencias de transparencia, ponderación de uso y trazabilidad, pero también habrá otras muchas situaciones, en las que combinar estos principios con la anonimización permitirán seguir desarrollando nuevas oportunidades.

Todavía queda un largo camino hasta que la normativa sea aprobada e implementada, y ya se enfrenta a críticas de los que más o menos restricciones exigen, por lo cual es de esperar ajustes al texto actual.

Enzyme trabaja con los actores clave del mercado en materia de IA, que deberán adaptarse a esta nueva normativa. Pero como vemos esta Directiva no limitará la implementación de soluciones de IA. Al contrario, al propiciar un entorno mucho más confiable para todos los usuarios aumentará el respaldo para seguir con la estrategia digital, crecerán los casos de uso, las oportunidades y con ello la rentabilidad de nuestras empresas.

Posts relacionados
¡Comparte con tus contactos!
   

Comenta este artículo...

ebook blockchain

Suscríbete y no te pierdas ninguna novedad

New call-to-action

¡Comparte con tus contactos!

   
New call-to-action