
OpenAI ha comenzado a implementar un sistema de predicción de edad en ChatGPT para identificar cuentas que puedan pertenecer a usuarios menores de 18 años. La medida aplica salvaguardas automáticas y amplía la protección de los adolescentes, al tiempo que mantiene menos restricciones para los adultos dentro de los límites de seguridad.
Según la empresa, la novedad se basa en el conjunto de políticas ya existentes para la seguridad juvenil. El objetivo es ofrecer una experiencia más adecuada a la edad, reduciendo la exposición a contenido sensible sin comprometer el uso responsable por parte de adultos.
ChatGPT utiliza un modelo de predicción de edad que estima si es probable que una cuenta sea operada por alguien menor de 18 años. El análisis considera señales de comportamiento y datos de la cuenta, como el tiempo de existencia del perfil, los horarios habituales de uso, los patrones a lo largo del tiempo y la edad informada por el propio usuario.
Cuando el sistema identifica un posible uso por parte de un menor, ChatGPT activa automáticamente protecciones adicionales. Entre las restricciones se encuentran contenidos con violencia gráfica, desafíos virales que fomenten comportamientos arriesgados, escenificaciones de carácter sexual, romántico o violento, representaciones de automutilación y materiales que promuevan estándares corporales irreales, prácticas alimentarias nocivas o humillación por la apariencia.
En caso de no haber suficiente información para determinar la edad, la plataforma adopta por defecto una experiencia más segura. Los usuarios clasificados incorrectamente como menores pueden recuperar el acceso completo confirmando su edad. La verificación se realiza a través de una selfie, utilizando el servicio de verificación de identidad Persona, accesible en Configuración y Cuenta.
Además de las protecciones automáticas, los padres pueden personalizar la experiencia de los adolescentes con controles parentales. Las opciones incluyen establecer horarios de silencio, gestionar recursos como la memoria y el entrenamiento de modelos, y recibir alertas cuando los patrones indiquen riesgo emocional inmediato.
OpenAI afirma que está monitoreando de cerca la fase inicial de lanzamiento para mejorar la precisión del sistema. En la Unión Europea, la funcionalidad debería llegar en las próximas semanas para satisfacer las exigencias regionales. La empresa también afirma mantener una colaboración continua con expertos externos en seguridad y bienestar juvenil.
NGM Forward 5.5
Samsung Galaxy S5
LG K4 Lite
Asus Zenfone 2 Laser
Alcatel 1S
Samsung Galaxy A2 Core 

