La Unión Europea decide regular la Inteligencia Artificial

38

En un día histórico a nivel mundial, Europa da el primer paso para restringir la libre expansión de la Inteligencia Artificial.

Ante lo que parecía un avance imparable de la Inteligencia Artificial en el mundo, la Unión Europea ha levantado la mano para comenzar a poner frenos a un esfuerzo que, de acuerdo a los especialistas, si no es controlado podría llevar a la humanidad hacia una catástrofe.

Por ello, el Parlamento Europeo se opuso este miércoles a la vigilancia biométrica en tiempo real e impuso condiciones para los nuevos sistemas como ChatGPT, al aprobar la ley de inteligencia artificial que se está negociando en Bruselas para fomentar su desarrollo, pero, limitando a su vez los posibles riesgos.

Con 499 votos a favor, 28 en contra y 93 abstenciones, la Eurocámara fijó así su posición de cara a las negociaciones que empezarán hoy con la Comisión Europea y el Consejo de la UE para pactar el texto definitivo de la ley y que continuarán bajo la presidencia rotatoria que España asumirá el 1 de julio.

Inteligencia Artificial: ¿Qué se aprobó en el Parlamento Europeo?

Entre las demandas del Parlamento Europeo está la de prohibir la vigilancia biométrica en tiempo real en espacios públicos, en contra de lo que han defendido el Ejecutivo comunitario y los países de la Unión Europea, que apuestan por permitirla si la autoriza un juez, en casos muy específicos.

En pleno debate sobre la necesidad de regular los sistemas que son capaces de generar texto y material audiovisual, el Parlamento quiere que sus desarrolladores demuestren que han reducido los riesgos que la tecnología pueda generar a la salud, a los derechos fundamentales y al sistema democrático.

Los eurodiputados también quieren que los usuarios que utilicen esta tecnología para generar imágenes falsas (‘deep fakes’) especifiquen que el contenido se ha manipulado mediante inteligencia artificial. También piden que los desarrolladores de estos sistemas expliquen de forma “suficientemente detallada” qué datos protegidos por derechos de autor han utilizado para entrenar a la inteligencia artificial.

El debate sobre la identificación biométrica

El Parlamento Europeo se mostró en contra del uso de los sistemas de identificación biométrica en tiempo real en espacios públicos. Los eurodiputados, no obstante, sí abrieron la puerta a poderlos utilizar en el futuro, siempre con autorización judicial, para perseguir “delitos graves”.

La Eurocámara rechazó así la enmienda del Partido Popular Europeo, más laxa con la protección de los derechos fundamentales. El PPE se mostró a favor de poder utilizar estos sistemas, con permiso de un juez, para buscar a personas desaparecidas (incluidos los menores), para prevenir un atentado terrorista y para localizar a quienes hayan cometido un delito que acarree al menos tres años de prisión.

“Si se produce un atentado terrorista en la calle ahora mismo o si la policía ha recibido un aviso de que se ha perdido un niño, ya se pueden obtener imágenes de las cámaras de vigilancia, de acuerdo con las leyes actuales y con autorización judicial, se puede utilizar la identificación biométrica”, recordó uno de los ponentes de la ley, el eurodiputado liberal Dragos Tudorache.

La amenaza de la Inteligencia Artificial

La normativa califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la Unión Europea.

Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.

 

Tras un voto que la vicepresidenta de la Comisión Europea para la Era Digital, Margrethe Vestager, calificó de “histórico” al tratarse de una norma pionera en el mundo, empezarán las negociaciones entre las tres instituciones europeas para pactar el texto definitivo de la ley.

En caso de que las negociaciones concluyan este año, la norma no se empezaría a aplicar hasta 2026 -aunque la intención de es poder reducir los plazos- por lo que Bruselas ha propuesto un pacto entre las grandes tecnológicas para que etiquetar de forma inmediata todo el contenido falso que se genere con inteligencia artificial.

La directora general de Asociación de Consumidores Europeos (BEUC), Ursula Pachl, aseguró que “las prohibiciones que hoy ha propuesto el Parlamento Europeo sobre el reconocimiento facial en espacios públicos o de categorización social por parte de las empresas son esenciales para proteger los derechos fundamentales”.

¿Qué pasa en Estados Unidos?

Apenas hace unas semanas, el director ejecutivo y cofundador de Open AI, desarrolladora del programa de generación de texto ChatGPT, Sam Altman, pidió al Congreso de Estados Unidos que regule el desarrollo y los usos de la inteligencia artificial (IA).

En una comparecencia ante un subcomité del Senado, Altman hizo un listado de las aplicaciones beneficiosas de la tecnología, desde la medicina hasta la lucha contra la crisis climática, y confió en que la IA puede ser utilizada para el beneficio de la humanidad.

La mente detrás de ChatGPT advierte sobre la Inteligencia Artificial 

Pese a las cosas buenas que podría traer la IA, Altman señaló que es necesaria la intervención de los gobiernos del mundo para asegurar que estas herramientas se desarrollen de manera que protejan y respeten los derechos y las libertades de los ciudadanos.

“Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan ampliamente los riesgos. Mi mayor miedo es que causemos un daño significativo al mundo. Si esta tecnología va mal, puede ir bastante mal. Eso podría suceder de muchas maneras. Es por lo que iniciamos la compañía”, dijo, añadiendo que su empresa quiere trabajar con el gobierno para evitar que esto ocurra.

¿Por qué preocupa la IA al creador de ChatGPT?

El testimonio de Altman se produce en medio de la preocupación por parte de las autoridades estadounidenses por la posibilidad de que el rápido avance de las tecnologías de IA tenga efectos inesperados sobre la sociedad. Los legisladores citaron riesgos como la pérdida de empleos o el uso de herramientas de creación de contenidos para generar información falsa por parte de actores extranjeros.

Para ilustrar sus preocupaciones, el senador Richard Blumenthal, presidente del subcomité de Privacidad, Tecnología y la Ley e impulsor de la audiencia, emitió una grabación realizada con inteligencia artificial que había sido escrita por ChatGPT, imitando el estilo y los principales focos de interés del congresista.

“Citando a ChatGPT, este no es necesariamente el futuro que queremos”, bromeó Blumenthal al inicio del evento. Altman admitió que probablemente la IA afectará al mercado laboral, pero se mostró optimista en que a la larga, la tecnología generará mas empleos nuevos de los que destruirá. “Somos tremendamente creativos”, dijo el empresario.

¿Cómo regular la Inteligencia Artificial?

Los congresistas de Estados Unidos defendieron que si bien es cierto que se necesita regulación pública, las empresas de IA como OpenAI no tienen que esperar al Congreso para instaurar mecanismos que permitan controlar el desarrollo de la tecnología para mitigar los daños.

A comienzos de mes, el gobierno de Estados Unidos anunció que invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación de la inteligencia artificial que impulsarán la innovación responsable y asegurarán que los avances en la tecnología sirven al bien común.

Los centros se unirán a los 18 institutos de investigación sobre IA que ya están en funcionamiento en el país. Además, la Casa Blanca anunció que las grandes empresas de IA han aceptado someterse a una evaluación pública de sus sistemas durante el evento de “hackers” DEF CON 31, que se celebrará en Las Vegas a comienzos de agosto.

Durante la convención, miles de participantes analizarán si estos sistemas están alineados con la Carta de Derechos de la IA que ha propuesto el gobierno estadounidense, y que incluye principios como la privacidad de los datos de los usuarios o la protección contra los algoritmos discriminatorios.

Con información de EFE / Foto de portada: EFE