La creciente preocupación por la seguridad de los jóvenes en el entorno digital ha llevado a OpenAI a implementar nuevas medidas para salvaguardar a los usuarios de ChatGPT. Sin embargo, especialistas en seguridad y privacidad advierten que estas acciones pueden no ser suficientes y que, en muchos casos, la seguridad es solo una ilusión.
OpenAI implementa controles para proteger a los jóvenes usuarios
Recientemente, OpenAI anunció la incorporación de un sistema de verificación de edad y nuevos controles parentales en ChatGPT. Esta decisión surge en medio de una presión legal considerable, tras una demanda por homicidio culposo relacionada con el suicidio de un menor de 16 años que había compartido pensamientos autodestructivos con el chatbot. La empresa busca redirigir a los usuarios menores de 18 años hacia una versión más segura de la aplicación, equipándola con filtros para contenido sensible y herramientas de intervención ante crisis emocionales.
Expertos cuestionan la efectividad de las nuevas medidas
A pesar de las buenas intenciones de OpenAI, muchas voces expertas se alzan en contra de estas medidas. La investigadora Riana Pfefferkorn, del Instituto HAI de Stanford, resalta que los métodos de verificación de edad pueden comprometer la privacidad. La recolección de datos, a menudo, es poco transparente y puede resultar en errores al identificar a los usuarios. Esto plantea una grave preocupación sobre cómo se maneja la información personal y qué derechos de privacidad tienen los menores en el mundo digital.
Desafíos en la implementación de controles parentales
Los nuevos controles parentales de OpenAI permiten a los adultos bloquear el uso de datos para entrenar modelos, desactivar procesos de memoria en el chatbot y establecer «horas de silencio». Sin embargo, el abogado Borja Adsuara argumenta que la responsabilidad de proteger a los menores recae en parte sobre los padres, quienes no pueden delegar completamente esta tarea a las plataformas digitales. “Las plataformas no pueden ser vistas como las únicas responsables”, afirma Adsuara, sugiriendo que es esencial que los padres también tomen un papel activo en la supervisión del uso de estas herramientas.
Un entorno digital lleno de riesgos
El impacto de las tecnologías de inteligencia artificial en la salud mental de los adolescentes no debe ser subestimado. Expertos como Alejandro de la Torre Luque advierten que estas herramientas pueden influir en decisiones críticas y, en casos de crisis emocional, proporcionar orientaciones equivocadas. Aunque Sam Altman, CEO de OpenAI, ha indicado que ChatGPT está diseñado para manejar temas de salud mental con precaución, la realidad demuestra que los jóvenes pueden manipular la inteligencia artificial para buscar información autodestructiva.
Broadcom y OpenAI sellan una alianza para la creación de aceleradores de inteligencia artificial a medida
Reflexiones finales sobre la seguridad y la privacidad
Con la llegada de nuevas tecnologías y aplicaciones, la frontera entre seguridad y privacidad se vuelve cada vez más difusa. Aunque OpenAI intenta dar un paso hacia la protección de sus usuarios más jóvenes, los especialistas recalcan que estas medidas pueden no ser suficientes y que siempre hay un riesgo inherente. Como se indica, “desde Facebook hasta TikTok, se sacrifica la privacidad a cambio de la seguridad, pero ¿realmente se protege a los menores?”, se preguntan los expertos.








