Creará capacidades para la vigilancia, el control y la censura: polémica con la regulación que obliga a revisar mensajes privados para combatir la pedofilia
En 2022 la Comisión Europea anunció su intención de aprobar un reglamento que obligaría a los proveedores de servicios de mensajería cifrada a bloquear la transmisión de material de abuso sexual infantil (CSAM). La medida busca interceptar este tipo de contenido antes de que sea enviado de un dispositivo a otro a través de aplicaciones como WhatsApp, Telegram o Signal. Para lograrlo, sería necesario escanear todos los mensajes que circulen en territorio europeo, lo que implicaría vulnerar la encriptación de extremo a extremo que garantiza que sólo el emisor y el receptor pueden leer el contenido.
Esta propuesta ha generado una fuerte oposición de parte de la comunidad académica y de organizaciones defensoras de los derechos digitales. Más de 600 investigadores de 34 países firmaron esta semana una carta abierta dirigida a la Presidencia de la UE, en la que explican que el proyecto no solo no alcanzará sus objetivos, sino que también representa una amenaza para la privacidad de los ciudadanos.
Principales objeciones de la comunidad científica
Los firmantes, en su mayoría ingenieros y expertos en criptografía, advierten que el texto “creará capacidades sin precedentes para la vigilancia, el control y la censura, y conlleva un riesgo inherente de desviación de funciones y abuso por parte de regímenes menos democráticos”. Señalan que los últimos años han supuesto décadas de esfuerzo para alcanzar el nivel actual de seguridad y privacidad en las comunicaciones digitales, y que la propuesta socavaría esas protecciones fundamentales.
La presidencia danesa del Consejo de la UE ha reactivado el debate sobre el denominado “Chat Control”. El Consejo se reúne en Copenhague para definir la posición de sus miembros respecto a una nueva versión del reglamento, que será negociada posteriormente con la Comisión y el Parlamento. Hasta la fecha, seis Estados (Austria, Bélgica, Finlandia, Países Bajos, República Checa y Polonia) se han manifestado en contra, otros seis están indecisos, y el resto, incluido España, muestra apoyo.
El texto del reglamento obliga a los proveedores de mensajería cifrada a garantizar que no se envíe material CSAM a través de sus plataformas. Para cumplir con esta obligación, las empresas tendrían que escanear las comunicaciones en busca de archivos que coincidan con listas de material previamente identificado como ilícito. No se revisaría cada vídeo o página de forma individual, sino que se compararía el contenido con los hashes de material ya catalogado.
Los expertos sostienen que, técnicamente, la detección masiva de CSAM con un nivel aceptable de precisión es inviable. Además, cualquier forma de análisis en el dispositivo compromete la protección que brinda la encriptación de extremo a extremo, pues introduce un punto de acceso externo que podría ser reorientado para censurar otro tipo de contenido, como memes políticos, o para crear nuevas vulnerabilidades explotables por ciberdelincuentes.
En la última versión del reglamento se limita el alcance al análisis de imágenes y enlaces web, excluyendo por el momento textos y audios. Sin embargo, los investigadores advierten que el mecanismo sigue siendo fácilmente eludible: pequeñas alteraciones en una imagen —por ejemplo, añadir píxeles negros en áreas poco visibles— pueden impedir que los algoritmos la reconozcan como material prohibido. De igual forma, modificar una URL basta para que una página de contenido ilícito pase inadvertida.
La propuesta menciona la posibilidad de utilizar inteligencia artificial y aprendizaje automático para detectar imágenes de CSAM, pero los académicos indican que no existen algoritmos que logren una detección fiable sin generar un elevado número de falsos positivos. Los errores de clasificación obligarían a las autoridades a intervenir en los dispositivos de los usuarios, vulnerando su privacidad y exponiendo datos personales hasta que se esclarezca la sospecha.
Ante estas limitaciones, los investigadores reiteran que la lucha contra el abuso sexual infantil debería centrarse en medidas preventivas y de apoyo, como la educación sobre consentimiento y seguridad digital, líneas de denuncia sensibles al trauma y la colaboración con organizaciones internacionales como la ONU. Argumentan que la tecnología de detección de CSAM, tal como se plantea en el reglamento, tiene un potencial limitado para reducir el abuso y, al mismo tiempo, compromete la seguridad de las comunicaciones y los derechos fundamentales de los ciudadanos.
Deja una respuesta