Más un millón de usuarios de ChatGPT hablaron de suicidio por semana

IA no es buena consejera en asuntos de salud mental (Foto Alexander Safonov)

Un informe reciente de la empresa estadounidense OpenAI reveló que cada semana aproximadamente el 0,15% de los usuarios de ChatGPT han entablado conversaciones con la inteligencia artificial que contienen intenciones o planes de suicidio o autolesión. Dado que el número global de usuarios supera los 800 millones, esto se traduce en más de 1,2 millones de personas que han mencionado el suicidio al chatbot.

La revelación intensifica la preocupación en torno a la seguridad de la inteligencia artificial conversacional. La necesidad de medidas urgentes por parte de OpenAI se hizo palpable luego de que la muerte por suicidio de un adolescente en California el pasado abril desatara una demanda de su familia contra la compañía en agosto.


EL RIESGO DE LA IA COMO CONFIDENTE

OpenAI admitió en su informe que, aunque la plataforma está en constante mejora, hubo casos raros en los que ChatGPT no brindó la respuesta adecuada o no derivó a las líneas de ayuda profesionales a usuarios que expresaron intenciones suicidas.

La compañía también señaló que la investigación sobre la capacidad de la IA para prevenir el suicidio todavía requiere un análisis más profundo.


Expertos han alertado sobre los riesgos de usar chatbots como sustitutos de la terapia humana. La profesora Robin Feldman de la Facultad de Derecho de la Universidad de California en San Francisco advirtió que el aumento de las interacciones con chatbots «promueve el aislamiento social y dificulta la recuperación de las enfermedades mentales».

Señaló que la situación se vuelve «extremadamente peligrosa» cuando personas ya aisladas utilizan la herramienta. La visión predominante es que la IA aún no puede aliviar los síntomas de manera efectiva como lo haría un terapeuta.

GPT-5 PROMUEVE AYUDA EXTERNA


OpenAI ha intensificado la colaboración con más de 170 profesionales —incluyendo psicólogos, psiquiatras y consejeros de 60 países— para evaluar y mejorar la seguridad de las respuestas.

La compañía reportó que la calidad de las respuestas en su nuevo modelo GPT-5 mejoró entre 39% y 52% en tres áreas críticas: enfermedad mental, autolesión/suicidio y dependencia emocional de la IA.


Por ejemplo, si un usuario menciona el suicidio o la autolesión, GPT-5 está programado para derivar la consulta a profesionales o a personas de confianza, sin alentar la acción.

De manera similar, ante indicios de dependencia de la IA o enfermedad mental, el chatbot aconsejará hablar con amigos, familiares o especialistas. OpenAI destacó que «es vital guiar a las personas para que puedan contactar a un amigo, familiar o profesional de salud mental cuando sea necesario».

OpenAI «debilitó deliberadamente las salvaguardias» y «pudo prever el peligro» con el objetivo de aumentar el uso de ChatGPT

DEMANDA POR SUICIDIO DE ADOLESCENTE

El trasfondo de esta acelerada acción es la demanda presentada en agosto por los padres de un joven de 16 años de California, quien se quitó la vida en abril tras consultar a la IA sobre su angustia. La primera demanda alegaba que ChatGPT se posicionó como un consejero y disuadió al joven de buscar ayuda familiar, llegando incluso a sugerir métodos de suicidio.

Una demanda modificada alega que OpenAI «debilitó deliberadamente las salvaguardias» y «pudo prever el peligro» con el objetivo de aumentar el uso de ChatGPT, llegando a eliminar restricciones sobre conversaciones acerca de autolesiones.

Este no es un incidente aislado; en 2024, otra demanda en EEUU fue interpuesta tras el suicidio de un adolescente que había interactuado con una IA de Character.AI.

Como resultado, la Comisión Federal de Comercio (FTC) de EEUU anunció en septiembre que investigaría a siete compañías de IA, incluyendo OpenAI, Meta, Alphabet y xAI, para verificar si cuentan con medidas efectivas contra el impacto psicológico y la adicción en menores.

En respuesta, OpenAI ya lanzó una función que permite a los padres gestionar y restringir las cuentas de sus hijos. Otras empresas, como Character.AI, anunciaron el 29 de octubre que eliminarían la función de chat de formato libre para usuarios menores de 18 años. (RI/AG/International Press)

 

——————————————————————————————————————————————————————————

AYUDA PARA PREVENCIÓN DEL SUICIDIO EN ESPAÑOL EN JAPÓN

Línea de Apoyo al Latino (LAL). Servicio gratuito que tiene como propósito escuchar a las personas con problemas emocionales.

Consultas en español: 0120-66-2477 (fijo o móvil) y 045-336-2477 

Miércoles: De 10.00 a 21.00 horas
Viernes: De 19.00 a 21.00 horas
Sábado: De 12.00 a 21.00
Atendimento em português: Quartas-feiras das 10.00 às 21.00 horas; sextas-feiras: das 19:00 às 21:00 horas e sábados das 12.00 às 21.00 horas.
Página web: HACER CLIC AQUÍ

Otros teléfonos de Ayuda y Consulta

Inochi no Denwa
Teléfono 0570 783 556 (10.00-22.00 hrs)
https://www.inochinodenwa.org/

Línea Unificada de Consultas de Salud Mental del Ministerio de Salud, Trabajo y Bienestar
Teléfono para consulta por SNS 0570 064 556
https://www.mhlw.go.jp/mamorouyokokoro/

Centro de Prevención del Suicidio de Tokio (NPO International Befrienders)
Teléfono 03 5286 9090 (20.00 a 02.00 hrs )
https://www.befrienders-jpn.org/

 


Descubre más desde International Press - Noticias de Japón en español

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Suscríbete a International Press GRATIS

Introduce tu correo electrónico para suscribirte a International Press y recibe nuestras noticias primero.

ANIME/MANGA

『PR』PATROCINADOS


Descarga el App de Súper Tokio Radio


AUTOMÓVIL