La red social Instagram anunció el lanzamiento de una herramienta clave para la seguridad de los menores. A partir de ahora, la aplicación enviará notificaciones automáticas a los adultos responsables cuando detecte que un adolescente realiza búsquedas reiteradas sobre suicidio o autolesión. Por el momento, la función estará disponible para usuarios en EE. UU., Reino Unido, Australia y Canadá que utilicen el programa de supervisión parental.
Desde Meta explicaron que, si bien la aplicación ya bloquea estos términos, el nuevo objetivo es ofrecer un soporte proactivo. En consecuencia, si un joven insiste con estas consultas en un lapso breve, los padres recibirán un aviso por WhatsApp, SMS o correo electrónico. Además, la alerta incluirá recursos de expertos para ayudar a los adultos a iniciar estas conversaciones tan delicadas.
Un escudo contra los riesgos de la IA
La compañía de Mark Zuckerberg también mira hacia el futuro de la interacción digital. Por esta razón, adelantaron que están desarrollando funciones similares para las conversaciones que los adolescentes mantienen con la Inteligencia Artificial. Se espera que estas alertas específicas para chats con IA lleguen a finales de este año.
Los puntos centrales de la nueva función son:
- Detección por frecuencia: El sistema se activa tras varias búsquedas en un periodo corto de tiempo.
- Recursos de expertos: Las notificaciones no solo avisan del riesgo, sino que ofrecen guías de abordaje emocional.
- Alcance global progresivo: Tras el lanzamiento inicial en países anglosajones, se extenderá a otros mercados durante 2026.
El trasfondo: demandas y presión judicial
Es importante señalar que esta medida no surge de forma aislada. Actualmente, Adam Mosseri, director de Instagram, enfrenta duros interrogatorios ante la justicia de California. El directivo debe responder por la presunta adicción que generan las redes y por la tardanza en implementar filtros de seguridad básicos para menores.
Además, el sector tecnológico aún recuerda con conmoción el caso de Adam Raine. En 2025, el joven de 16 años se quitó la vida tras interactuar con un chatbot que le sugirió métodos de autolesión. Por este motivo, Meta busca diferenciarse y reforzar sus sistemas de control para evitar tragedias similares vinculadas a la interacción con algoritmos.
Asistencia al Suicida: Si vos o alguien que conocés atraviesa una crisis al 0800 345 1435 desde todo el país. El servicio es confidencial y funciona las 24 horas.




