Imagen de archivo de Mark Zuckerberg.
Un expediente judicial presentado en el Distrito Norte de California, Estados Unidos, reveló este viernes graves acusaciones sobre Meta y la forma en que la compañía habría manejado riesgos para niños y adolescentes en Facebook e Instagram. Los documentos, que forman parte de una amplia demanda que involucra a más de 1.800 denunciantes, aseguran que la empresa conocía los problemas de seguridad, pero optó por minimizar su alcance y evitar medidas que pudieran afectar el uso de menores, una de sus audiencias más estratégicas.
El archivo incluye testimonios bajo juramento de ejecutivos actuales y antiguos, investigaciones internas, comunicaciones confidenciales y presentaciones corporativas obtenidas durante el proceso de descubrimiento judicial. Entre ellas destaca la declaración de Vaishnavi Jayakumar, exdirectora de seguridad y bienestar de Instagram, quien aseguró que la plataforma tenía una política de sanciones “17x” para cuentas vinculadas presuntamente con la trata sexual: “Podrías incurrir en 16 infracciones por prostitución y solicitación sexual, y con la 17.ª tu cuenta sería suspendida”, registró el portal de Perfil.
Los demandantes sostienen que Meta conocía desde hace años que millones de adultos desconocidos contactaban a menores, que el contenido sobre autolesiones, trastornos alimentarios y abuso sexual infantil circulaba sin ser removido y que sus productos incrementaban problemas de salud mental entre adolescentes. Sin embargo, afirman que la empresa ocultó estos daños al público y al Congreso, y bloqueó internamente propuestas para mejorar la seguridad.
Según la presentación, Meta habría “perseguido una estrategia de crecimiento a toda costa”, especialmente enfocada en atraer y retener usuarios jóvenes, incluso cuando la investigación interna sugería que sus plataformas podían resultar adictivas y dañinas para los menores. “Meta ha diseñado productos que sabe que son adictivos para los niños”, aseguró a la revista TIME el abogado de los demandantes Previn Warren. Y añadió: “Lo hicieron porque un mayor uso significaba mayores beneficios”.
La política de sanciones, la trata sexual y la falta de mecanismos de denuncia en Meta
Los demandantes afirmaron que Meta mantenía un umbral “excepcionalmente alto” para actuar frente a cuentas vinculadas con trata sexual, incluso cuando su discurso público defendía políticas de tolerancia cero. Jayakumar declaró que, al ingresar a la compañía en 2020, descubrió la existencia de una regla “17x”. “Según cualquier medición en la industria, es un umbral de sanción muy, muy alto”, declaró.
Además, sostienen que Instagram no ofrecía mecanismos claros para denunciar material de abuso sexual infantil, pese a que sí facilitaba reportar faltas menores como spam, infracciones de propiedad intelectual o promoción de armas de fuego. Jayakumar habría solicitado reiteradamente que se incorporara un canal para denunciar contenido sexual infantil, pero le contestaron que era “demasiado difícil de solucionar”, consignó el portal de Perfil.
Asimismo, en el escrito, los demandantes advierten: “Meta nunca les dijo a los padres, al público o a los Distritos que no elimina cuentas que hayan participado más de quince veces en tráfico sexual”. En este sentido, afirman que esa política permitió que perfiles vinculados a explotación continuaran activos durante períodos prolongados.
El documento sostiene además que estas fallas eran conocidas internamente y habían sido señaladas por equipos de seguridad y bienestar. Sin embargo, los altos ejecutivos habrían bloqueado soluciones propuestas por temor a que afectaran la interacción con adolescentes o redujeran el crecimiento.
También señalan que el problema se agravó con el crecimiento de funciones como Reels, que facilitan la difusión masiva de contenido a audiencias desconocidas. Las interacciones inapropiadas entre adultos y menores se volvieron tan frecuentes que la compañía creó un acrónimo interno para denominarlas: “IIC”, Interacciones Inapropiadas con Niños.
En paralelo, una auditoría interna de 2022 habría detectado casos masivos de recomendaciones inapropiadas con la función “Cuentas que Podrías Seguir”, ya que habría sugerido 1,4 millones de adultos potencialmente inapropiados a adolescentes en un solo día. Pese a estas señales, las configuraciones de privacidad por defecto no se modificaron hasta 2024, cuatro años después de que múltiples equipos comenzaran a recomendar el cambio.
“Meta mintió al Congreso”: el supuesto ocultamiento de evidencia
Otro eje central del expediente apunta a que Meta habría ocultado evidencia interna sobre el impacto de Facebook e Instagram en la salud mental adolescente. Según el escrito, desde 2017 la empresa manejaba investigaciones que mostraban tasas más altas de ansiedad, depresión y soledad entre usuarios jóvenes con alto tiempo de uso.
A fines de 2019, los investigadores desarrollaron un “estudio de desactivación” en el que un grupo de usuarios dejó de utilizar Facebook e Instagram durante una semana. Los resultados demostraron que quienes se desconectaron reportaron menos ansiedad y depresión. Sin embargo, Meta suspendió el estudio y no divulgó sus conclusiones, argumentando que podía interpretarse como sesgado por “narrativas mediáticas existentes”.
Sin embargo, un empleado expresó su preocupación en un mensaje interno citado en el expediente: “Si los resultados son malos y no los publicamos y se filtran, ¿parecerá que las tabacaleras hicieron investigaciones y sabían que los cigarrillos eran malos y luego se guardaron esa información para sí mismas?”.
Pese a esos datos, en diciembre de 2020 la empresa respondió “No” al Comité Judicial del Senado cuando se le preguntó si podía determinar si un mayor uso entre adolescentes se correlacionaba con más signos de ansiedad o depresión. Según los demandantes, esa respuesta fue deliberada: “La empresa nunca divulgó públicamente los resultados de su estudio de desactivación. En cambio, Meta mintió al Congreso sobre lo que sabía”, resaltó el portal de Perfil.
Además, el expediente sostiene que la compañía decidió no eliminar automáticamente contenido dañino, incluido material de abuso sexual infantil, aun cuando sus sistemas de IA identificaban con 100% de certeza que violaba las políticas. Para contenido vinculante a autolesiones, el umbral para activar la eliminación automática era del 94%, lo cual dejaba gran parte de las publicaciones activas y accesibles para adolescentes.
La estrategia para captar adolescentes: crecimiento, datos y falta de medidas de seguridad
El documento también revela esfuerzos explícitos de Meta para retener y atraer adolescentes, incluso preadolescentes a sus plataformas. Según el expediente, el propio Mark Zuckerberg habría propuesto en 2017 que el “tiempo dedicado por los adolescentes” fuera una métrica principal de la empresa. Documentos internos de 2024 señalaban que “captar nuevos usuarios adolescentes es fundamental para el éxito de Instagram”.
La compañía habría desplegado iniciativas para ingresar en escuelas, trabajar con asociaciones de padres y maestros, y desarrollar campañas dirigidas a estudiantes. También habría utilizado datos de ubicación para enviar notificaciones masivas en horarios escolares, en lo que empleados describieron como “bombardeos escolares”. Uno de ellos escribió: “Una de las cosas que necesitamos optimizar es evitar que miren tu teléfono debajo del escritorio en medio de la clase de Química :)”.
Los demandantes sostienen que Meta sabía que millones de menores de 13 años utilizaban sus plataformas, pese a que su política lo prohíbe y la ley estadounidense exige protecciones especiales para esa franja etaria. Investigaciones internas citadas en el archivo señalaban que en 2015 había 4 millones de usuarios menores de 13 años en Instagram, y que para 2018 el 40 % de los niños de 9 a 12 años afirmaban usar la aplicación diariamente, consignó el portal de Perfil.
Esa estrategia sería deliberada, ya que, según el expediente, Meta analizó el comportamiento digital de niños de 5 a 10 años y evaluó productos diseñados para captar a preadolescentes. Internamente, algunos empleados compararon estas prácticas con las tabacaleras. “Zuck lleva tiempo hablando de eso... dirigirse a niños de 11 años parece propio de las tabacaleras”, escribió uno.
En cuanto a medidas de seguridad que podrían haber reducido la exposición a daños, la empresa habría archivado o postergado repetidamente proyectos presentados por empleados. Uno de ellos fue Proyecto Daisy, destinado a ocultar los “me gusta” para reducir la comparación social negativa. Aunque los investigadores demostraron su efecto positivo, Meta retrasó el proyecto durante años porque era “bastante negativo para las métricas de Facebook”, según el testimonio citado.



