Noticias IA

OpenAI anuncia controles parentales en ChatGPT tras la tragedia de un menor en California

La compañía tecnológica implementará nuevas funciones para supervisar el uso de la inteligencia artificial por parte de adolescentes, después de un caso que ha conmocionado a la comunidad digital y reavivado el debate sobre los riesgos de la IA.

Publicado el 03 de September, 2025

Compartir:
OpenAI anuncia controles parentales en ChatGPT tras la tragedia de un menor en California
OpenAI, la empresa detrás de ChatGPT, ha anunciado la introducción de controles parentales en su plataforma tras el trágico suicidio de un joven de 16 años en California que, según la investigación, habría mantenido conversaciones prolongadas con la inteligencia artificial antes de quitarse la vida.

La medida busca ofrecer a padres y tutores un mayor control sobre las interacciones que los adolescentes mantienen con la IA, estableciendo mecanismos de supervisión como reportes de uso, alertas ante posibles señales de riesgo y la posibilidad de restringir horarios o temáticas de conversación. Estos controles comenzarán a implementarse a partir de octubre de 2025 y estarán disponibles en varios países de manera progresiva.

El caso ha generado un intenso debate internacional sobre la seguridad y responsabilidad de las empresas tecnológicas en el desarrollo y despliegue de la inteligencia artificial. Expertos en salud mental advierten que, aunque la IA puede ser una herramienta valiosa en educación y acompañamiento, también representa un riesgo si no se establece un marco de protección adecuado para los usuarios más vulnerables.

Sam Altman, CEO de OpenAI, declaró que la empresa “tiene la responsabilidad de crear entornos digitales más seguros, especialmente para los menores”, y aseguró que estos controles serán solo el primer paso dentro de una estrategia más amplia de seguridad digital.

Con esta iniciativa, OpenAI busca mitigar los riesgos asociados al uso de la inteligencia artificial por parte de adolescentes, reforzando al mismo tiempo su compromiso con un desarrollo ético de la tecnología. No obstante, organizaciones de derechos digitales y asociaciones de padres insisten en que se requiere una regulación más estricta y un mayor nivel de transparencia para garantizar que los mecanismos de seguridad funcionen de manera efectiva.

Este caso ha encendido nuevamente las alarmas en torno al impacto psicológico de la IA en menores de edad y plantea la necesidad urgente de equilibrar innovación tecnológica con protección humana.