Un nuevo documento judicial importante afirma que Meta, propietario de Facebook e Instagram, tenía una política “17x” que permitía a los traficantes sexuales publicar contenido relacionado con publicidad sexual o prostitución 16 veces antes de que sus cuentas fueran suspendidas en la “huelga” número 17. La acusación es una de muchas en la demanda, que alega que Meta prioriza las ganancias y la participación de los usuarios sobre la seguridad y el bienestar de los niños.
La descripción de la supuesta política de contenido sexual de Instagram está contenida en una nueva presentación judicial de los demandantes en una demanda en curso contra Meta, YouTube de Google, Snap, propietario de Snapchat y TikTok, presentada por niños y padres, distritos escolares y estados, incluido California. Acusan a las empresas de hacer intencionalmente a los niños adictos a productos que sabían que les harían daño.
La presentación hace las mismas acusaciones generales contra las cuatro empresas (que apuntaron a niños y escuelas y tergiversaron sus productos de redes sociales), así como acusaciones específicas de la empresa.
“Aunque Meta generaba miles de millones de dólares en ingresos anuales –y su líder era una de las personas más ricas del mundo– Meta simplemente se negó a invertir recursos en la seguridad de los niños”, dice la demanda presentada el viernes en el Tribunal de Distrito de Estados Unidos en Oakland. La demanda también apunta a productos de Facebook, YouTube, Snapchat y TikTok que la empresa considera dañinos. Los demandantes buscan daños y perjuicios no especificados y una orden judicial que obligue a las empresas a detener la supuesta “conducta nociva” y advertir a los usuarios menores de edad y a los padres que sus productos son adictivos y peligrosos.
La nueva presentación también afirma que las “mentiras descaradas” de Meta sobre los daños de sus productos han impedido que “incluso los administradores, maestros, padres y estudiantes más vigilantes comprendan y mitiguen los peligros asociados con Instagram y Facebook”.
Un portavoz de Meta negó las acusaciones: “Estamos totalmente en desacuerdo con estas acusaciones, que se basan en citas cuidadosamente seleccionadas y opiniones mal informadas para presentar una imagen intencionalmente engañosa”. Durante más de una década, Meta ha “escuchado a los padres, examinado los temas que más importan y realizado cambios reales para proteger a los adolescentes, como introducir cuentas para adolescentes con protecciones integradas y proporcionar controles para que los padres administren las experiencias de sus adolescentes”, dijo el portavoz.
Snap criticó las acusaciones por tergiversar su plataforma, que, a diferencia de otras redes sociales, no tiene me gusta públicos ni métricas de comparación. “Hemos desarrollado protecciones, lanzado tutoriales de seguridad, colaborado con expertos y continuamos invirtiendo en funciones y herramientas que respaldan la seguridad, la privacidad y el bienestar de todos los Snapchatters”, dijo un portavoz de Snap en un comunicado enviado por correo electrónico el martes.
Google y TikTok no respondieron de inmediato a las solicitudes de comentarios.
Los demandantes citaron lo que describieron como comunicaciones internas de la empresa e informes de investigación, así como declaraciones juradas de empleados actuales y anteriores. Los registros están en gran parte sellados por el tribunal y esta organización de noticias no pudo revisarlos.
La nueva presentación alega que una función de recomendación de cuentas en Instagram recomendó a casi 2 millones de menores a adultos que buscaban preparar sexualmente a niños en 2023. Según la presentación, más de un millón de adultos potencialmente inapropiados fueron recomendados a usuarios adolescentes en un solo día en 2022, según encontró una auditoría interna.
Según un empleado de Meta, la función de recomendación de Facebook fue “responsable del 80% de las violaciones de conexión entre adultos y menores”, según el documento.
En marzo de 2020, el director ejecutivo de Meta, Mark Zuckerberg, dijo a los periodistas que su empresa de Menlo Park estaba “en realidad inflando el número de personas que trabajaban en contenido sensible, incluida la ‘explotación infantil'”, pero las comunicaciones internas citadas en el expediente judicial sugerían que eso no era cierto, y la empresa sólo contaba con alrededor del 30% del personal que necesitaba para revisar imágenes de explotación infantil.
La presentación establece que en marzo de 2020, Instagram no tenía forma de informar la presencia de material de abuso sexual infantil. Cuando Vaishnavi Jayakumar, jefa de seguridad de Instagram de 2020 a 2023, comenzó en la empresa, le dijeron que crear un proceso de informes requeriría demasiado trabajo e incluso más esfuerzo para revisar los informes, según el documento.
Incluso cuando las herramientas de inteligencia artificial de Meta identificaron pornografía infantil y material de sexualización infantil con un 100 por ciento de certeza, la compañía no los eliminó automáticamente, según el documento. La compañía, que obtuvo 62.400 millones de dólares en beneficios el año pasado, rechazó una aplicación más estricta por temor a “falsos positivos”, pero podría haber resuelto el problema contratando más personal, según el documento.
Jayakumar testificó en una declaración jurada que si todos los cambios propuestos que podrían reducir la participación de los usuarios fueran enviados a Zuckerberg para su revisión, el resultado sería una decisión de “priorizar el sistema de participación existente sobre otras consideraciones de seguridad”, según el documento.
En lugar de simplemente hacer que las cuentas de los niños sean privadas de forma predeterminada para protegerlos de los depredadores adultos, Meta “dudó durante años antes de realizar el cambio, lo que permitió literalmente miles de millones de interacciones no deseadas entre adultos y menores”, según el documento. Según el documento, la fuerza impulsora del retraso fue la previsión interna de que el cambio reduciría el número de usuarios diarios en un 2,2%.
La compañía sólo aplicó protecciones de privacidad estándar a todas las cuentas de adolescentes a fines del año pasado, según el documento.
La demanda, que aún se encuentra en la fase de descubrimiento, también apunta al enfoque de Meta sobre la salud mental de los niños y las supuestas consecuencias dañinas para las escuelas, donde, según la demanda, las redes sociales han creado “un ambiente educativo comprometido” y han obligado a los distritos escolares a gastar dinero y recursos “para abordar las distracciones de los estudiantes y los problemas de salud mental”.
Internamente, los metainvestigadores dijeron de Instagram: “Básicamente somos traficantes” y “los adolescentes son adictos sin importar cómo les haga sentir”, decía el documento.
Meta “permitió que sus productos invadieran las aulas, perturbaran los entornos de aprendizaje y contribuyeran directamente a la crisis de salud mental juvenil que ahora abruma las escuelas de todo el país”, decía el documento, que acusaba a Zuckerberg y Meta de mentirle al Congreso.
Zuckerberg testificó tres veces ante el Congreso que no había fijado objetivos para que sus equipos aumentaran el tiempo que los usuarios pasaban en las plataformas Meta. Pero varios mensajes internos hacían referencia a objetivos de tiempo dedicados por los adolescentes, y el propio Zuckerberg dijo sobre las métricas de crecimiento: “Lo que más me preocupa es la cantidad de tiempo que pasan los adolescentes”, decía el documento.
A finales de 2019, cuando Meta descubrió en un estudio interno llamado “Proyecto Mercury” que las personas que dejaban de usar Facebook durante una semana reportaban sentirse menos deprimidas, ansiosas, solitarias y socialmente juzgadas, la compañía canceló el proyecto, según el documento. Pero en una audiencia en el Senado de Estados Unidos, se le preguntó a un representante de la compañía (que no fue nombrado en el documento) si Facebook podía identificar si el mayor uso de su plataforma por parte de adolescentes estaba relacionado con mayores signos de ansiedad y respondió “no”, dice el documento.
Meta ha dicho públicamente que un máximo de medio por ciento de los usuarios estuvieron expuestos a material suicida y de autolesión, pero su propio estudio encontró que el número era alrededor del 7%, según el documento.
Brian Boland, quien ascendió a vicepresidente de Meta durante 11 años y dejó la compañía en 2020, testificó en una declaración jurada: “Mi sensación entonces y ahora es que realmente no les importa la seguridad de los usuarios”.
Cuando un empleado de Meta criticó la decisión de la compañía de ocultar los Me gusta en publicaciones destinadas a proteger la salud mental de los niños, pero solo a los usuarios que optaron por participar, un miembro del “equipo de crecimiento” de Meta respondió. “Es una aplicación de comparación social”, dijo el miembro, “(improperio) acostúmbrate a ella”, afirma el documento.
















