Leer Noticia
La primera ley europea sobre inteligencia artificial se amplía para incluir a ChatGPT y entra en su recta final
El Parlamento Europeo aprueba la regulación modificando el borrador que elaboró la Comisión Europea para aumentar el control sobre la IA generativa y prohibir los sistemas de vigilancia biométricos.
La primera ley europea sobre inteligencia artificial entra en la recta final para ser aprobada por las autoridades comunitarias, previsiblemente, a finales de este año. Este miércoles, el Parlamento Europeo ha dado luz verde a esta legislación con 499 votos a favor, 28 en contra y 93 abstenciones. Ahora, deberá pasar por el Consejo Europeo para atender las diferentes consideraciones de los países miembro. El documento aprobado por la cámara es una versión más dura de la propuesta inicial que esbozó la Comisión Europea en 2021 e incluye bajo vigilancia a los sistemas de IA generativa como ChatGPT. Además, manteniendo la clasificación de distintos niveles de peligro en los usos de esta tecnología que ya incluía la propuesta inicial, los europarlamentarios han impulsado una prohibición adicional sobre el uso de la IA para sistemas de vigilancia biométrica.
La norma distingue principalmente tres niveles de riesgo. Según
especificaba el borrador de la Comisión, de un lado estarían las IAs que
por cuyo uso no representan una gran amenaza para los ciudadanos. En este
grupo, los responsables de la IA estarían sometidos a unas obligaciones
generales de transparencia.
En segundo lugar, están las IAs de riesgo alto para los derechos
fundamentales o para la seguridad, entrando en este grupo, por ejemplo, las
asociadas con la conducción autónoma o los sistemas que empleen las entidades
financieras para evaluar la solvencia y establecer la calificación crediticia
de una persona. También se cataloga de alto riesgo los que emplee la policía de
control de fronteras para controlar, vigilar o procesar datos para predicción
de movimientos migratorios. Estos sistemas estarán sometidos a una mayor
vigilancia que garantice la seguridad e integridad en su uso.
En un tercer grupo, se encuentran las IAs de riesgo inaceptable, que
pasarán a estar prohibidas en el territorio de la Unión Europea una vez la
norma entre en vigor. Es en esta última categoría donde ahora se ha incluido
oficialmente a los sistemas biométricos de vigilancia.
“Los sistemas de inteligencia artificial con un nivel inaceptable de
riesgo para la seguridad ciudadana estarán prohibidos, así como los que tengan
potencial de impulsar la creación de una escala de comportamiento de buen
ciudadano. El Parlamento ha expandido la lista de usos prohibidos a aquellos
intrusivos y discriminatorios, como por ejemplo, los sistemas de identificación
biométrica en tiempo real, identificación biométrica en diferido si no media
una orden judicial, bases de datos biométricas que clasifiquen basándose en
características sensibles como el género, la raza, la religión o la orientación
políticas”, detalla el Parlamento Europeo en el comunicado de prensa
oficial. Los parlamentarios también han incluido en la lista de prohibiciones
el uso de sistemas de seguridad predictivos o los de reconocimiento de
emociones.
Así mismo, el Parlamento ha incluido cláusulas para establecer una
vigilancia sobre las IAs de uso general o generativas como ChatGPT,
actualizando así la propuesta regulatoria con la tecnología más en auge en
estos momentos. “Los proveedores deberán identificar y mitigar los potenciales
riesgos (para la salud, la seguridad, los derechos fundamentales, el entorno,
la democracia o el Estado de derecho) y registrar sus modelos en la base de
datos de la Unión antes de lanzarlos en el mercado comunitario. Los modelos de
IA generativa como ChatGPT tendrán que cumplir con requisitos de transparencia
(avisando de que el contenido fue generado por IA, además de ayudar a
distinguir las imágenes deep fake de las reales) y asegurar
que cuentan con salvaguardas contra la generación de contenido ilegal.
Información detallada sobre los datos con copyright empleados para el
entrenamiento de la IA se deberán hacer públicos”, escribe el Parlamento
Europeo.
Brando Benifei, cointegrante del comité del Parlamento que estudia esta
normativa, ha sostenido que mientras las propias grandes tecnológicas dan la
voz de alarma sobre el peligro de sus propias creaciones, Europa ha dado un
paso adelante ahora que la propuesta concreta que servirá de respuesta a la IA
empieza a asentarse. “Queremos aprovechar el impacto positivo que tendrá la IA
en la creatividad y la productividad, pero a la vez queremos combatir para defender
nuestra posición ante el Consejo Europeo y contrarrestar los peligros que esta
tecnología puede llegar a representar para nuestras democracias y libertades”,
ha afirmado.
En declaraciones a Reuters, un portavoz de Microsoft valoró
positivamente la propuesta de normativa. “Creemos que la IA requiere de la
implementación de guardarraíles legislativos, coordinación y esfuerzos a nivel
internacional, así como acciones voluntarias impulsadas por las propias
compañías que desarrollen o utilicen la IA”, ha comentado al respecto.
En caso de que las negociaciones entre Comisión, Parlamento y Consejo concluyesen finalmente este año, la norma no se empezaría a aplicar hasta 2026 -aunque la intención es, según refiere EFE, la de poder reducir los plazos- por lo que Bruselas ha propuesto además un pacto entre las grandes tecnológicas para proceder a etiquetar de forma inmediata el contenido falso que se genere con inteligencia artificial.
Más información...
Compártelo en las redes sociales