Las redes sociales utilizan sistemas automatizados para detectar explotación sexual infantil entre otros delitos, enfrentando el desafío de monitorear ingentes cantidades de contenido diariamente. Especialistas en EE.UU. indican que la cantidad de alertas recibidas de plataformas como Meta ha aumentado, pero muchas no proporcionan información útil. Durante un juicio en Nuevo México, se acusó a Meta de no informar adecuadamente sobre los peligros que enfrentan los menores en sus plataformas, lo que va en contra de las leyes de protección al consumidor. Meta defiende que ha divulgado los riesgos inherentes y ha implementado herramientas para combatir el contenido dañino.
En primera línea, la red Internet Crimes Against Children (ICAC) colabora con el Departamento de Justicia en investigaciones de explotación infantil digital. Agentes de esta red señalan que muchos avisos de Meta son irrelevantes para las investigaciones, describiendo un aumento en la cantidad pero no en la calidad de las alertas, lo que dificulta la identificación de sospechosos o la solicitud de diligencias adicionales.
La ley en EE.UU. obliga a las empresas tecnológicas a reportar cualquier material de abuso sexual infantil al National Center for Missing & Exploited Children (NCMEC). Cambios legales recientes, como el Report Act, podrían haber incrementado esta tendencia para evitar infracciones. Meta sostiene que colabora eficazmente con las autoridades, enfatizando la rapidez de su respuesta a solicitudes de emergencia y el trabajo conjunto con el NCMEC para priorizar avisos urgentes.
El desafío reside en la capacidad de identificar y actuar sobre contenidos ilícitos de manera efectiva, balanceando la vasta cantidad de datos generados en plataformas digitales con la necesidad de recursos útiles para las investigaciones. Este caso refleja la complejidad de abordar delitos en línea a escala global y la tensión entre el volumen de reportes generados por sistemas automatizados y su utilidad práctica en la protección contra la explotación infantil.
