Portada » Europa apuesta en firme por la Inteligencia Artificial

Europa apuesta en firme por la Inteligencia Artificial

Por Redacción
europa inteligencia artificial

La Comisión Europea ha aprobado una serie de normas y medidas que tienen por objetivo convertir a la Unión Europea en uno de los grandes polos mundiales en desarrollo fiable de Inteligencia Artificial. La combinación del primer marco jurídico sobre la IA de la historia y de un nuevo plan coordinado con los Estados miembros tiene por objetivo garantizar la seguridad de ciudadanos y empresas.

Margrethe Vestager, vicepresidenta ejecutiva responsable de la cartera de una Europa Adaptada a la Era Digital, ha declarado: «En cuanto a la inteligencia artificial, la confianza es una obligación, no un adorno. Mediante estas reglas de referencia, la UE lidera la formulación de nuevas normas mundiales para que garanticen que se pueda confiar en la IA. Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva. Nuestras normas, que son a prueba de futuro y propicias a la innovación, intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE».

El nuevo Reglamento sobre la IA garantizará que los europeos puedan confiar en lo que la IA puede ofrecer. Unas normas proporcionadas y flexibles abordarán los riesgos específicos que plantean los sistemas de IA y fijarán los estándares más altos del mundo. El plan coordinado expone los cambios de política y las inversiones necesarios en los Estados miembros para reforzar el liderazgo de Europa en el fomento de una IA centrada en el ser humano, sostenible, segura, inclusiva y fiable.

El planteamiento europeo sobre una Inteligencia Artificial fiable

Las nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros sobre la base de una definición de IA a prueba de futuro. Siguen un planteamiento basado en el riesgo, como se explica a continuación.

Riesgo inadmisible: Se prohibirán los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Esto abarca los sistemas o las aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios (por ejemplo, juguetes que utilicen asistencia vocal para incitar a comportamientos peligrosos a los menores) y sistemas que permitan la «puntuación social» por parte de los Gobiernos.

Alto riesgo: Los sistemas de IA considerados de alto riesgo abarcan las tecnologías de IA empleadas en:

  • infraestructuras críticas (por ejemplo, transportes), que pueden poner en peligro la vida y la salud de los ciudadanos;
  • formación educativa o profesional, que pueden determinar el acceso a la educación y la carrera profesional de una persona (por ejemplo, puntuación en exámenes);
  • componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robots);
  • empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, programas informáticos de clasificación de CV para procedimientos de contratación);
  • servicios públicos y privados esenciales (por ejemplo, sistemas de calificación crediticia que priven a los ciudadanos de la oportunidad de obtener un prestamo);
  • aplicación de las leyes, que pueden interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas);
  • gestión de la migración, el asilo y el control de las fronteras (por ejemplo, comprobación de la autenticidad de los documentos de viaje);
  • administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos).

En especial, se consideran de alto riesgo y estarán sujetos a requisitos estrictos todos los sistemas de identificación biométrica remota. Su uso en directo en espacios de acceso público con fines policiales está prohibido en principio. Se definen y regulan estrictamente excepciones estrictas (por ejemplo, cuando sea estrictamente necesario para la búsqueda de un menor desaparecido, para prevenir una amenaza terrorista concreta e inminente, o para detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave). Su uso estará sujeto a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas.

Riesgo limitado, es decir, sistemas de IA con obligaciones específicas de transparencia: Al utilizar sistemas de IA como robots conversacionales, los usuarios deberán ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no.

Riesgo mínimo o nulo: La propuesta permite el uso gratuito de aplicaciones tales como videojuegos basados en la IA o filtros de correo basura. La inmensa mayoría de los sistemas de IA entra en esta categoría. El proyecto de Reglamento no interviene aquí, ya que estos sistemas de IA solo representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos.

En términos de gobernanza, la Comisión propone que las autoridades nacionales de vigilancia del mercado controlen las nuevas normas, mientras que la creación de un Comité Europeo de Inteligencia Artificial facilitará su aplicación e impulsará la creación de normas en materia de IA. Además, se proponen códigos de conducta voluntarios para la IA que no entrañe un alto riesgo, así como espacios controlados de pruebas para facilitar la innovación responsable.

Más información

Nuevas normas sobre la inteligencia artificial: preguntas y respuestas

Nuevas normas sobre la inteligencia artificial: página de datos

Comunicación sobre un planteamiento europeo en materia de inteligencia artificial

Related Articles

Deja tu comentario