Los documentos judiciales subrayan la ‘renuencia histórica’ de Meta a proteger a los niños en Instagram
Documentos recientemente no redactados de la demanda de Nuevo México contra Meta subrayan la “renuencia histórica” de la compañía a mantener seguros a los niños en sus plataformas, dice la denuncia.
El fiscal general de Nuevo México, Raúl Torrez, demandó al propietario de Facebook e Instagram, Meta, en diciembre, diciendo que la compañía no protegió a los usuarios jóvenes de la exposición a material de abuso sexual infantil y permitió a los adultos solicitarles imágenes explícitas.
En los pasajes recién redactados de la demanda del miércoles, mensajes internos de empleados y presentaciones de 2020 y 2021 muestran que Meta estaba al tanto de problemas como que adultos extraños pudieran contactar a niños en Instagram, la sexualización de menores en esa plataforma y los peligros de su Función «personas que quizás conozcas» que recomienda conexiones entre adultos y niños. Pero Meta se mostró reticente a la hora de abordar los problemas, como muestran los pasajes.
Instagram, por ejemplo, comenzó a restringir la capacidad de los adultos para enviar mensajes a menores en 2021. Un documento interno al que se hace referencia en la demanda muestra a Meta “luchando en 2020 para dirigirse a un ejecutivo de Apple cuyo hijo de 12 años fue solicitado en la plataforma, señalando ‘esto es el tipo de cosas que enoja a Apple hasta el punto de amenazarnos con eliminarnos de la App Store’”. Según la denuncia, Meta “sabía que los adultos que solicitaban menores era un problema en la plataforma y estaba dispuesto a tratarlo como un problema”. problema urgente cuando era necesario”.
En un documento de julio de 2020 titulado “Seguridad infantil: situación actual (7/20)”, Meta enumeró “vulnerabilidades inmediatas del producto” que podrían dañar a los niños, incluida la dificultad para informar videos que desaparecen, y confirmó que las salvaguardas disponibles en Facebook no siempre estaban presentes en Instagram. En ese momento, el razonamiento de Meta fue que no quería impedir que los padres y parientes mayores en Facebook se comunicaran con sus parientes más jóvenes, según la denuncia. El autor del informe calificó el razonamiento como «poco convincente» y dijo que Meta sacrificó la seguridad de los niños por una «gran apuesta de crecimiento». Sin embargo, en marzo de 2021, Instagram anunció que prohibiría a las personas mayores de 19 años enviar mensajes a menores.
Mientras tanto, en un chat interno de julio de 2020, un empleado preguntó: «¿Qué estamos haciendo específicamente para el cuidado infantil (algo de lo que acabo de enterarme que está sucediendo mucho en TikTok)?» La respuesta de otro empleado fue: “En algún lugar entre cero y insignificante. La seguridad infantil no es un objetivo explícito en esta mitad” (probablemente significa mitad de año), según la demanda.
Instagram tampoco abordó el problema de los comentarios inapropiados en publicaciones de menores, dice la denuncia. Esto es algo sobre lo que testificó recientemente el ex director de ingeniería de Meta, Arturo Béjar . Béjar, conocido por su experiencia en frenar el acoso en línea, contó las preocupantes experiencias de su propia hija con Instagram.
“Hoy comparezco ante ustedes como un padre con experiencia de primera mano de un niño que recibió insinuaciones sexuales no deseadas en Instagram”, dijo a un panel de senadores estadounidenses en noviembre. «Ella y sus amigos comenzaron a tener experiencias horribles, incluidas repetidas insinuaciones sexuales no deseadas y acoso».
Una presentación sobre seguridad infantil de marzo de 2021 señaló que Meta “no invierte lo suficiente en la sexualización de menores en (Instagram), lo que se destaca en los comentarios sexualizados sobre contenido publicado por menores. Esta no sólo es una experiencia terrible para los creadores y espectadores, sino que también es un vector para que los malos actores se identifiquen y conecten entre sí”. Los documentos subrayan la «renuencia histórica del gigante de las redes sociales a instituir salvaguardias apropiadas en Instagram», dice la demanda, incluso cuando esas salvaguardas estaban disponibles en Facebook.
Meta, que se encuentra en Menlo Park, California, ha estado actualizando sus protecciones y herramientas para usuarios más jóvenes a medida que los legisladores lo presionan en materia de seguridad infantil, aunque los críticos dicen que no ha hecho lo suficiente. La semana pasada, la compañía anunció que comenzará a ocultar contenido inapropiado de las cuentas de adolescentes en Instagram y Facebook, incluidas publicaciones sobre suicidio, autolesiones y trastornos alimentarios.
La denuncia de Nuevo México sigue a la demanda presentada en octubre por 33 estados que afirman que Meta está dañando a los jóvenes y contribuyendo a la crisis de salud mental juvenil al diseñar de manera consciente y deliberada funciones en Instagram y Facebook que hacen que los niños sean adictos a sus plataformas.
El director ejecutivo de Meta, Mark Zuckerberg, junto con los directores ejecutivos de Snap, Discord, TikTok y X, anteriormente Twitter, testificarán ante el Senado de Estados Unidos sobre seguridad infantil a finales de enero.