ChatGPT adaptará sus funciones según la edad

ChatGPT adaptará sus funciones según la edad

OpenAI, la compañía liderada por Sam Altman, está trabajando en un nuevo sistema que permitirá a ChatGPT identificar automáticamente si está interactuando con un menor de edad, con el fin de activar una experiencia adecuada a su perfil y bloquear el acceso a contenidos no aptos. La medida forma parte del refuerzo de las políticas de seguridad que la empresa tecnológica está implementando para proteger a los adolescentes y garantizar un uso responsable de la Inteligencia Artificial.

Según ha detallado OpenAI en un comunicado, cuando el sistema determine que el usuario es menor de 18 años, se le redirigirá a una versión del chatbot con políticas adaptadas a su edad. Entre las medidas previstas se encuentra el bloqueo de contenido sexual explícito y la aplicación de restricciones adicionales para evitar el acceso a información sensible. En situaciones excepcionales de angustia extrema, el sistema podría incluso facilitar la intervención de las autoridades para salvaguardar la integridad del menor.

En los casos en que no se pueda determinar con certeza la edad del usuario, el sistema optará por aplicar por defecto la experiencia destinada a menores, con el objetivo de garantizar la máxima protección. Solo los adultos que así lo deseen podrán verificar su edad para acceder a la versión completa del modelo. Esta política preventiva busca reducir el riesgo de exposición de los menores a contenidos perjudiciales o inapropiados.

A partir de finales de septiembre, los padres podrán vincular su cuenta de OpenAI con la de sus hijos adolescentes y configurar controles personalizados sobre el uso de ChatGPT. Entre las funciones disponibles se incluirá la posibilidad de desactivar la memoria del sistema, restringir el historial de conversaciones y establecer horarios de uso. Asimismo, el sistema enviará notificaciones si detecta signos graves de angustia emocional en el menor.

Estas medidas se suman a las salvaguardias implementadas a finales de agosto, cuando OpenAI introdujo mejoras para que sus modelos detecten con mayor precisión señales de crisis mental o emocional en las conversaciones. El cambio responde, en parte, al caso de un adolescente de 16 años en Estados Unidos que se suicidó tras mantener durante meses conversaciones con ChatGPT. Aunque el sistema ofreció inicialmente recursos de ayuda, las protecciones fallaron y la conversación derivó hacia el suicidio, lo que ha dado lugar a una demanda por parte de sus padres.

Publish the Menu module to "offcanvas" position. Here you can publish other modules as well.
Learn More.