Un reciente informe de seguridad elaborado por Common Sense Media, organización sin fines de lucro dedicada a la protección infantil en entornos digitales, ha encendido las alarmas sobre el uso de Google Gemini por parte de menores de edad. El estudio concluye que los modelos de inteligencia artificial (IA) de Google, incluso en su versión diseñada para adolescentes, presentan un “alto riesgo” para usuarios menores de 18 años.
La evaluación se publicó en septiembre de 2025 y se centra en Gemini Teen, la versión del asistente de Google destinada a adolescentes. Según el informe, esta herramienta trata a los menores de forma prácticamente idéntica a los adultos, ignorando las necesidades específicas de orientación y protección que requieren los más jóvenes.
Contenido inapropiado y fallas en salud mental
Common Sense Media advierte que Gemini puede compartir contenido “potencialmente peligroso” con menores, incluyendo temas sexuales, drogas y alcohol. Además, señala que el asistente ofrece apoyo emocional y de salud mental de forma poco segura, sin reconocer síntomas graves de deterioro psicológico.
Aunque el modelo responde adecuadamente a preguntas cotidianas, falla en conversaciones más largas y matizadas, que son precisamente el tipo de interacción que suelen tener los adolescentes con los chatbots. Por ello, la organización recomienda que los niños menores de 5 años no usen chatbots de IA, y que los de 6 a 12 años lo hagan solo bajo supervisión adulta. Para adolescentes de 13 a 17 años, sugiere limitar el uso a tareas escolares y proyectos creativos, excluyendo cualquier acompañamiento emocional.

La respuesta de Google y el precedente de OpenAI
Ante estas críticas, Google respondió que cuenta con políticas específicas para proteger a los menores y que consulta con expertos externos para mejorar sus sistemas. Sin embargo, admitió que algunas respuestas de Gemini “no funcionan según lo previsto” y anunció nuevas medidas de seguridad.
Este informe llega pocos días después de que OpenAI modificara sus protocolos de ChatGPT tras el suicidio de un adolescente, hecho que derivó en una demanda por parte de sus padres. La empresa prometió reforzar sus modelos para detectar crisis emocionales y mejorar el contacto con servicios de ayuda.
¿Qué deben saber los padres?
La advertencia de Common Sense Media pone en evidencia la necesidad de una regulación más estricta en el uso de IA por parte de menores. Además, invita a los padres a informarse y supervisar activamente el uso de estas tecnologías en el hogar. En un contexto donde los chatbots se integran cada vez más en la vida cotidiana, la seguridad infantil debe ser una prioridad.