Un grupo multisectorial de 40 eurodiputados del Parlamento Europeo pidió a la Comisión que refuerce una nueva propuesta legislativa sobre inteligencia artificial para incluir una prohibición absoluta del uso del reconocimiento facial y otras formas de vigilancia biométrica en lugares públicos.

También instaron a los legisladores de la UE a prohibir el reconocimiento automatizado de características sensibles de las personas (como género, sexualidad, raza / etnia, estado de salud y discapacidad), advirtiendo que estas prácticas impulsadas por la IA representan un riesgo demasiado grande para los derechos y pueden alimentar la discriminación. .

Se espera que la Comisión presente su propuesta de un marco para regular las aplicaciones de IA de ‘alto riesgo’ la próxima semana, pero esta semana se filtró una copia del borrador (a través de Politico). Y, como informamos anteriormente, este borrador de filtración no incluye la prohibición del uso de reconocimiento facial o tecnologías de identificación biométrica remota similares en lugares públicos, a pesar del reconocimiento de la fuerza de la preocupación pública sobre el tema.

“La tecnología de vigilancia masiva biométrica en espacios de acceso público es ampliamente criticada por denunciar falsamente a un gran número de ciudadanos inocentes, discriminar sistemáticamente a grupos subrepresentados y tener un efecto paralizador en una sociedad libre y diversa. Por eso es necesaria una prohibición ”, escriben los eurodiputados en una carta a la Comisión que también han hecho pública.

LEER  El acuerdo de Zoom-Five9 es una gran apuesta para la empresa de videoconferencias - TechCrunch

Advierten de los riesgos de discriminación a través de la inferencia automatizada de características sensibles de las personas, como en aplicaciones como vigilancia policial predictiva o vigilancia indiscriminada y seguimiento de poblaciones a través de sus características biométricas.

“Esto puede provocar daños, incluida la violación de los derechos de privacidad y protección de datos; suprimir la libertad de expresión; haciendo más difícil revelar la corrupción; y tienen un efecto paralizante en la autonomía, dignidad y autoexpresión individual, lo que en particular puede dañar gravemente a las comunidades LGBTQI +, las personas de color y otros grupos discriminados ”, escriben los parlamentarios, pidiendo a la Comisión que modifique la propuesta de AI para prohibir esta práctica con el fin de proteger los derechos de los ciudadanos de la UE y los derechos de las comunidades que enfrentan un mayor riesgo de discriminación (y, por lo tanto, un mayor riesgo de herramientas discriminatorias sobrecargadas de AI).

“La propuesta de AI ofrece una buena oportunidad para prohibir el reconocimiento automático de género, sexualidad, raza / etnia, discapacidad y cualquier otra característica sensible y protegida”, añaden.

El proyecto de propuesta de la Comisión filtrado aborda la vigilancia masiva indiscriminada, proponiendo prohibir la práctica, así como prohibir los sistemas de calificación crediticia social de propósito general.

LEER  Battery Ventures lidera la ronda de $ 19 millones de Arize AI para la observabilidad de ML - TechCrunch

Sin embargo, los eurodiputados quieren que los legisladores vayan más allá, advirtiendo de las deficiencias en la redacción del proyecto filtrado y sugiriendo cambios para garantizar que la prohibición propuesta cubra «toda la vigilancia masiva indiscriminada y sin objetivos, independientemente del número de personas expuestas al sistema».

También expresan preocupación por la propuesta de exención de la prohibición de vigilancia masiva para las autoridades públicas (o las entidades comerciales que trabajan para ellas), advirtiendo que esto corre el riesgo de desviarse de la legislación y las interpretaciones de la UE existentes del más alto tribunal de la Unión en este campo.

«Protestamos enérgicamente contra el segundo párrafo propuesto de este artículo 4 que eximiría a las autoridades públicas e incluso a los actores privados que actúen en su nombre» para salvaguardar la seguridad pública «, escriben. «La seguridad pública es precisamente lo que justifica la vigilancia masiva, aquí es donde es prácticamente relevante, y aquí es donde los tribunales han derogado sistemáticamente la legislación sobre el procesamiento masivo indiscriminado de datos personales (por ejemplo). Ejemplo, la Directiva de Retención de Datos). Esta exclusión debe eliminarse. «

LEER  Protección de la privacidad del correo y el crecimiento del marketing más allá de las tácticas - TechCrunch

«Este segundo párrafo podría incluso interpretarse como una desviación de otras leyes secundarias que el Tribunal de Justicia ha interpretado hasta ahora como una prohibición de la vigilancia masiva», prosiguen. “El reglamento de IA propuesto debe dejar muy claro que sus requisitos se aplican además de los resultantes del acervo de protección de datos y no lo reemplazan. No hay tal claridad en el borrador filtrado. «

Se ha contactado a la Comisión para comentar sobre las llamadas de los eurodiputados, pero es poco probable que lo haga antes de la revelación oficial del proyecto de reglamento de IA, que se espera para mediados de la próxima semana.

Queda por ver si la propuesta de Amnistía Internacional estará sujeta a modificaciones importantes para entonces. Pero los eurodiputados han hecho un rápido llamado de atención de que los derechos fundamentales deben ser y serán una característica clave del debate colegislativo, y que las demandas de los legisladores de un marco para garantizar una inteligencia artificial « confiable » fracasarán. no lo hagas. abordar las tecnologías poco éticas de frente.

¡Haz clic para puntuar esta entrada!
(Votos: Promedio: )