El gobierno del Reino Unido ha nombrado cinco proyectos que han asegurado fondos públicos como parte de un desafío de ‘seguridad tecnológica’ anunciado en septiembre, cuando el Ministerio del Interior dijo que quería alentar a la industria tecnológica y las universidades a desarrollar nuevas tecnologías de inteligencia artificial / digitalización que podrían implementarse. en el final. – servicios cifrados de extremo a extremo (e2ee) para detectar pornografía infantil (CSAM).

Varios servicios de mensajería convencionales ya utilizan e2ee, como WhatsApp, propiedad de Facebook, e iMessage de Apple.

El Ministerio del Interior ha dicho que está buscando un término medio que no obligue a los proveedores de servicios digitales a abandonar el uso del cifrado de extremo a extremo, pero que aún permita que el material sea detectado y transmitido. CSAM a la policía, también sin seguridad . para ser robado. Al menos eso es lo que afirman.

El Safety Tech Challenge Fund es administrado por el Departamento de Cultura Digital, Medios y Deportes (DCMS), y tras el anuncio de las asignaciones de fondos ayer, el ministro digital Chris Philp dijo en un comunicado: “Es totalmente posible que las plataformas de medios utilicen cifrado de extremo a extremo sin obstaculizar los esfuerzos para poner fin al abuso infantil “. Pero no han tomado medidas para abordar este problema, por lo que estamos interviniendo para ayudar a desarrollar las soluciones necesarias. No es aceptable implementar E2EE sin asegurarse de que se sigan aplicando las medidas de aplicación y de protección infantil.

Los cinco proyectos que recibieron una cantidad inicial de £ 85,000 cada uno por parte del gobierno del Reino Unido, con £ 130,000 adicionales potencialmente disponibles para dividirse entre los proyectos ‘más fuertes’ (lo que eleva el fondo total de financiación a £ 555,000), son los siguientes:

  • Cyan Forensics, una firma forense digital con sede en Edimburgo y Crisp Thinking centrada en la inteligencia de riesgos en tiempo real, en asociación con la Universidad de Edimburgo y la organización sin fines de lucro Internet Watch Foundation, que desarrollará un complemento para integrarse en redes sociales cifradas. plataformas para “detectar CSAM comparando contenido con material ilegal conocido”
  • El fabricante de aplicaciones de control parental SafeToNet y la Universidad Anglia Ruskin que desarrollarán un conjunto de tecnologías de inteligencia artificial de moderación de video en vivo que pueden funcionar en cualquier dispositivo inteligente y tienen como objetivo “evitar la filmación de desnudez, violencia en tiempo real, pornografía y CSAM según se produzcan”
  • GalaxKey, firma de seguridad corporativa con sede en St Albans, que trabajará con el fabricante de software de moderación de contenido basado en Poole Image Analyzer y la firma de aseguramiento de identidad digital y edad Yoti para “desarrollar un software centrado en la privacidad del usuario, detección y prevención de CSAM y comportamiento depredador, y verificación de edad para detectar el abuso sexual infantil antes de que lleguen a un entorno E2EE, evitando su descarga y carga compartida “
  • DragonflAI, una startup de moderación de contenido con sede en Edimburgo, que también trabajará con Yoti para combinar su tecnología de detección de desnudez AI en el dispositivo con las tecnologías de aseguramiento de la edad de esta última, para “detectar nuevas imágenes indecentes en entornos E2EE”
  • La empresa austriaca de análisis forense digital T3K-Forensics también ha obtenido fondos del gobierno del Reino Unido para implementar su tecnología de detección de abuso sexual infantil basada en inteligencia artificial en teléfonos inteligentes para detectar material recién creado, proporcionando lo que el gobierno presenta como “una caja de herramientas que las plataformas sociales pueden integrar en su Servicios E2EE “
LEER  Las nuevas pautas de la App Store de Apple tienen como objetivo abordar el fraude y las estafas - TechCrunch

Les projets gagnants seront évalués à la fin d’une phase de livraison de cinq mois par un évaluateur externe – qui, selon le gouvernement, examinera les critères de réussite, notamment “la viabilité commerciale pour déterminer la déployabilité sur le marché et l’impact a largo plazo”.

En una declaración conjunta, DCMS y el Ministerio del Interior también promocionaron el próximo proyecto de ley de seguridad en línea, que según dicen transformará la forma en que se maneja el contenido en línea ilegal y dañino al imponer un nuevo deber. usuarios. .

“Esto significa que habrá menos contenido ilegal, como el abuso y la explotación sexual infantil en línea, y cuando aparezca, se eliminará más rápido. El deber de diligencia siempre se aplicará a las empresas que opten por utilizar el cifrado de extremo a extremo ”, agregaron.

Las pautas anteriores publicadas por DCMS este verano instaban a las empresas de mensajería y redes sociales a “prevenir” el uso de la encriptación e2e en las cuentas de los niños. Por lo tanto, el gobierno parece evolucionar su enfoque (o su mensajería) y confiar en las herramientas de detección de CSAM integradas en el cifrado e2e y capaces de realizar la detección de contenido.

LEER  Polestar construirá su primer SUV totalmente eléctrico en los EE. UU. - TechCrunch

Suponiendo, por supuesto, que uno de los proyectos antes mencionados proporcione la funcionalidad de detección / prevención de CSAM reclamada a niveles aceptables de precisión (es decir, evitando cualquier falso positivo ruinoso).

Otro punto destacado es si las nuevas tecnologías de inteligencia artificial / análisis podrían generar vulnerabilidades o incluso puertas traseras en los sistemas cifrados e2e, comprometiendo la seguridad de todos.

También está la cuestión de si los ciudadanos británicos estarán contentos con la digitalización ordenada por el estado de sus dispositivos electrónicos, dadas todas las preocupaciones de privacidad y libertad que esto conlleva.

Si bien el público del Reino Unido en general se ha mostrado feliz de apoyar la idea de mejorar la seguridad de los niños en línea, podría ser un poco menos feliz descubrir que esto significa un escaneo holístico de los dispositivos, especialmente si las nuevas tecnologías terminan saliendo a la luz. enviar alertas a las fuerzas del orden sobre las vacaciones / baños inocentes de las personas. el tiempo no se detiene.

LEER  El bucle de Elon Musk obtiene piloto automático y un intruso - tecnoticias, tu portal de información

La reacción política en torno a las fallas de la tecnología de “seguridad” podría ser rápida y significativa.

El fabricante de iPhone Apple suspendió el despliegue de su propia tecnología de escaneo CSAM en el dispositivo, “NeuralHash”, este otoño después de una reacción violenta de privacidad.

¡Haz clic para puntuar esta entrada!
(Votos: Promedio: )