De Veracruz al mundo
OpenAI redirigirá chats sensibles a GPT-5 e introduce controles parentales.
OpenAI anuncia que usará GPT-5 para manejar conversaciones sensibles y lanzará controles parentales en ChatGPT tras casos de suicidio vinculados al chatbot
Martes 02 de Septiembre de 2025
Por: Excelsior
Foto: .
Ciudad de México.- OpenAI anunció que comenzará a redirigir conversaciones sensibles hacia modelos de razonamiento como GPT-5 y que, en el próximo mes, habilitará controles parentales para ChatGPT.

Estas medidas llegan tras una serie de incidentes en los que el sistema no logró detectar angustia mental en usuarios que terminaron en situaciones fatales.

El caso de Adam Raine y la demanda contra OpenAI


La decisión de la compañía se produce después del suicidio del adolescente Adam Raine, quien utilizó ChatGPT para hablar sobre autolesiones y métodos específicos de suicidio.

Sus padres han presentado una demanda por homicidio culposo contra OpenAI, alegando que el sistema no activó alertas ni desvió la conversación hacia ayuda profesional.


En una publicación de blog, la empresa reconoció deficiencias en sus mecanismos de seguridad, sobre todo en mantener las “barreras protectoras” durante conversaciones prolongadas.

Expertos señalan que estos fallos están ligados al propio diseño de los modelos: tienden a validar lo que dice el usuario y a seguir la lógica de predicción de la siguiente palabra, en lugar de interrumpir o reconducir interacciones peligrosas.


Otro caso trágico: Stein-Erik Soelberg
La preocupación se intensificó con el caso de Stein-Erik Soelberg, reportado por The Wall Street Journal. Soelberg, quien tenía antecedentes de enfermedad mental, utilizó ChatGPT para reforzar la idea de que era víctima de una conspiración. La herramienta alimentó su paranoia hasta que terminó suicidándose y quitándole la vida a su madre.


Estos episodios expusieron cómo la validación automática del chatbot puede agravar pensamientos delirantes en usuarios vulnerables.

La estrategia: modelos de razonamiento como GPT-5
OpenAI afirma que está desarrollando un enrutador en tiempo real que selecciona entre modelos más rápidos y modelos de razonamiento según el contexto de la conversación.

Cuando detecte signos de angustia aguda, redirigirá la conversación hacia GPT-5 u o3, modelos que dedican más tiempo a procesar la información y razonar antes de responder.

Estos modelos son descritos como “más resistentes a las indicaciones adversarias”, ya que priorizan el contexto sobre la velocidad.

“Pronto comenzaremos a enrutar algunas conversaciones sensibles, como cuando nuestro sistema detecta signos de angustia aguda, a un modelo de razonamiento como GPT-5, para que pueda proporcionar respuestas más útiles y beneficiosas”, señaló la compañía en su blog.

Controles parentales: nueva capa de protección
Otra de las novedades será la incorporación de controles parentales en ChatGPT. Estos permitirán a los padres vincular sus cuentas con la de sus hijos adolescentes mediante una invitación por correo electrónico.

Entre las funciones destacadas:

Reglas de comportamiento por edad activadas por defecto.
Desactivar memoria e historial de chat, para reducir la dependencia y evitar que se refuercen patrones de pensamiento dañinos.
Notificaciones en tiempo real cuando el sistema detecte signos de “angustia aguda” en un adolescente.
OpenAI ya había introducido el “Modo de Estudio” en julio para fomentar el pensamiento crítico en los estudiantes. Ahora, el objetivo es que los padres también tengan herramientas de supervisión directa.

Críticas y dudas pendientes
Aunque las medidas han sido recibidas como un paso hacia adelante, especialistas y medios han cuestionado su alcance. TechCrunch solicitó a OpenAI aclarar:

Cómo determinará el sistema un estado de angustia en tiempo real.
Cuánto tiempo han estado activadas las reglas por defecto.
Si planean implementar límites de tiempo para adolescentes.
Además, Jay Edelson, abogado de la familia Raine, calificó la respuesta de la empresa como “inadecuada” frente a los riesgos que se han evidenciado.

Una iniciativa de 120 días
OpenAI explicó que estas medidas forman parte de una estrategia de 120 días para reforzar la seguridad de ChatGPT.

La empresa trabaja con su Red Global de Médicos y el Consejo de Expertos en Bienestar e IA, donde participan especialistas en salud adolescente, trastornos alimentarios y consumo de sustancias, con el objetivo de definir estándares de bienestar y priorizar nuevas medidas.

La compañía aún no ha revelado cuántos profesionales participan en este consejo ni qué recomendaciones específicas han sido tomadas en cuenta.

Nos interesa tu opinión

  Más noticias
18:48:04 - Promete Sheinbaum tren a Querétaro y más apoyos sociales en gira de rendición de cuentas
18:31:08 - BUAP da ejemplo de legalidad ante controversia en la UVElección de Lilia Cedillo reafirma autonomía universitaria y cumplimiento estricto de la ley
18:22:57 - SRE condena muerte de mexicano en Chicago y exige esclarecer su deceso
17:28:03 - SNTE pide mayor presupuesto educativo y salarios dignos para Maestros: Cepeda
17:24:37 - Dispuesto a comparecer Adán Augusto tras detención de su ex secretario de Seguridad, presunto líder de la Barredora
17:22:01 - Ingenieros Civiles piden a diputados certeza jurídica y ‘blindaje técnico’ en ley de infraestructura para el Bienestar
16:56:54 - Pobladores de Veracruz, exigen cierre de granja avícola por generar contaminación
16:55:15 - Incendio en tienda departamental de Veracruz deja seis lesionados; dos están graves
ver todas las noticias

  Lo más visto
> Directorio     > Quiénes somos
® Gobernantes.com Derechos Reservados 2016