OpenAI incorpora controles parentales en ChatGPT tras crecientes preocupaciones por la seguridad de los adolescentes

OpenAI anunció este lunes la incorporación de controles parentales en ChatGPT, una medida largamente esperada destinada a ofrecer una experiencia más segura y adecuada para los usuarios adolescentes. La compañía detalló que las nuevas funciones permitirán a los padres supervisar la actividad de sus hijos y ajustar distintos parámetros de uso dentro de la plataforma.

El anuncio llega en medio de un creciente debate sobre la seguridad de los chatbots de inteligencia artificial y su impacto en los jóvenes, tras varios casos mediáticos de adolescentes que se quitaron la vida después de interactuar con sistemas de IA conversacional.

Según explicó OpenAI en una publicación en su blog oficial, los controles parentales estarán disponibles para todos los usuarios, pero requerirán que tanto el padre como el adolescente tengan cuentas propias. El proceso inicia con una invitación: los padres pueden enviar un correo electrónico o mensaje de texto para conectar sus cuentas con las de sus hijos, o viceversa.

Una vez vinculadas, la cuenta del adolescente activará de forma automática protecciones de contenido reforzadas, que reducen la exposición a material gráfico, retos virales, juegos de rol sexuales o violentos, e ideales de belleza extremos. Estos filtros pueden ser desactivados solo por los padres, mientras que los adolescentes no tendrán la opción de modificarlos.

OpenAI aclara que, aunque las medidas buscan hacer la experiencia más segura, “no son infalibles” y podrían eludirse si el usuario lo intenta deliberadamente. Por ello, la empresa recomienda que los padres mantengan un diálogo abierto sobre el uso responsable de la IA.

Además, los adultos contarán con un panel de control para personalizar diversos ajustes: establecer horarios de silencio (para impedir el uso de ChatGPT durante la noche), desactivar la memoria del chatbot para que no guarde conversaciones, bloquear la generación o edición de imágenes, desactivar el modo de voz y evitar que las charlas se utilicen para entrenar futuros modelos de IA.

Una de las novedades más relevantes es la implementación de notificaciones de emergencia. OpenAI introdujo un sistema que alertará a los padres en casos en los que un adolescente muestre señales de angustia o pensamientos autodestructivos. En esas circunstancias, un equipo especializado evaluará la situación y, si detecta riesgo grave, enviará alertas por correo electrónico, mensaje de texto y notificación directa.

La empresa aseguró que protegerá la privacidad de los menores, compartiendo únicamente la información necesaria para que los padres o los servicios de emergencia puedan intervenir.

“Ningún sistema es perfecto, y sabemos que a veces podemos dar la alarma sin que haya peligro real, pero creemos que es mejor actuar y alertar a los padres que permanecer en silencio”, señaló OpenAI en su comunicado.

Con estas medidas, la compañía busca responder a las críticas sobre la falta de herramientas de supervisión para familias y reforzar su compromiso con la seguridad digital y el bienestar emocional de los adolescentes en el uso de tecnologías basadas en inteligencia artificial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *