
participan en conversaciones sobre suicidio cada semana, marcando la primera vez que la compañía de inteligencia artificial ha cuantificado la crisis de salud mental que afecta a su masiva base de usuarios.
Las revelaciones llegan mientras OpenAI enfrenta creciente presión legal y regulatoria sobre preocupaciones de seguridad de la IA, incluyendo una demanda por muerte injusta de la familia de un niño californiano de 16 años que murió por suicidio después de meses de conversaciones con ChatGPT.

Según datos publicados por OpenAI, aproximadamente el 0,15% de los 800 millones de usuarios activos semanales de ChatGPT mantienen conversaciones que contienen “indicadores explícitos de posible planificación o intención suicida”. Un 0,07% adicional muestra signos de psicosis o manía, afectando a aproximadamente 560.000 personas semanalmente. La compañía también identificó que el 0,15% de los usuarios muestra “niveles elevados de apego emocional” hacia ChatGPT, comprometiendo potencialmente sus relaciones y responsabilidades del mundo real.

“Estas conversaciones son extremadamente raras y, por lo tanto, difíciles de medir”, reconoció OpenAI en su anuncio. Sin embargo, la escala se traduce en millones de personas semanalmente que podrían estar experimentando crisis graves de salud mental mientras usan la plataforma.
Los datos surgieron como parte del anuncio más amplio de OpenAI sobre mejoras en GPT-5, que según la compañía ahora responde de manera más apropiada a emergencias de salud mental. Trabajando con más de 170 expertos en salud mental de todo el mundo, OpenAI afirma haber reducido las respuestas inapropiadas en un 65-80% en todas las categorías de conversaciones sensibles.
fuente:perplexity.ai



