Meta refuerza la seguridad para adolescentes y elimina más de 635,000 cuentas por conductas inapropiadas hacia menores

4 Min Read

Meta intensifica medidas de protección para adolescentes y elimina más de 635,000 cuentas por conductas inapropiadas

La compañía tecnológica Meta, propietaria de plataformas como Facebook e Instagram, ha implementado nuevas medidas de seguridad para proteger a los adolescentes en sus espacios digitales. Como parte de esta ofensiva, la empresa informó la eliminación de más de 635,000 cuentas de usuarios por comportamiento inapropiado hacia menores de edad solo en el último trimestre de 2023.

Esta decisión forma parte de un esfuerzo continuo de Meta por reforzar las barreras de seguridad ante crecientes preocupaciones sobre la exposición de menores a interacciones riesgosas en redes sociales. La empresa ha sido objeto de numerosas críticas en los últimos años, tanto por parte de legisladores como de grupos de protección infantil, quienes han exigido respuestas más contundentes frente al acoso y la explotación digital.

Entre las acciones más destacadas se encuentra la actualización de los controles de privacidad predeterminados para usuarios adolescentes. A partir de ahora, todas las cuentas creadas por menores empezarán con configuraciones más restrictivas, limitando quién puede ver sus publicaciones o enviarles mensajes directos. Todos los usuarios adolescentes, sin importar si es una cuenta nueva o existente, tendrán opciones de seguridad más avanzadas activadas automáticamente.

Además, Meta ha ampliado el uso de tecnología de inteligencia artificial para identificar posibles casos de conducta sospechosa. Según la firma, estas herramientas detectaron patrones de comportamiento considerados inadecuados o potencialmente peligrosos, tales como intentos reiterados de contacto por parte de adultos con adolescentes que no los conocen. Estas detecciones llevaron a la eliminación de más de 635,000 perfiles que violaban las políticas de uso.

La compañía también limitará las interacciones entre adultos y menores en sus plataformas. Por ejemplo, los adultos que hayan mostrado conductas cuestionables no podrán enviar mensajes a adolescentes que no los sigan. También se han mejorado las alertas dentro de las aplicaciones para advertir a los adolescentes sobre interacciones potencialmente riesgosas y recordarles que siempre pueden bloquear o reportar usuarios.

Por otra parte, Meta informó estar trabajando en coordinación con expertos en protección infantil, incluyendo organizaciones no gubernamentales, académicos y autoridades del sector público, para afinar sus políticas y herramientas de detección.

El impacto de estas medidas se espera que sea significativo en el entorno digital que utilizan millones de adolescentes en todo el mundo. Al establecer un entorno más seguro desde el primer uso, Meta busca no solo prevenir casos de acoso o explotación, sino también fomentar una experiencia más saludable dentro de sus redes.

Sin embargo, algunos críticos afirman que, aunque las nuevas políticas representan un avance positivo, las compañías tecnológicas todavía deben ser más transparentes en cuanto a los indicadores que utilizan para detectar comportamientos inapropiados y el nivel real de efectividad de sus sistemas automatizados.

Meta reiteró su compromiso con la seguridad de los menores en línea. “Nuestros equipos siguen trabajando para garantizar que nuestras aplicaciones sean espacios seguros para los adolescentes”, señaló la empresa en un comunicado. La compañía aseguró que seguirá ajustando sus políticas y herramientas conforme evoluciona el uso de sus plataformas, manteniendo como prioridad la protección de los usuarios jóvenes.

avatar de autor
StayTV Reporter
Share This Article