¿Privacidad o seguridad? El debate por el contacto de confianza en ChatGPT

By Ryan
3 Min Read
Prevención: ChatGPT

OpenAI lanza función de contacto de confianza en ChatGPT para la prevención del suicidio. El sistema alertará a allegados en casos de crisis detectada.

El riesgo de confiar secretos personales a ChatGPT | Tecnología | EL PAÍS

IA con Conciencia: OpenAI lanza función de «Contacto de Confianza» para prevenir crisis de salud mental en ChatGPT

Para contextualizar esta innovación en seguridad, debemos entender que los modelos de lenguaje (LLM) se han convertido en confidentes digitales para millones de personas que buscan desahogo emocional o consejos personales. Esta tendencia ha generado una alerta global sobre la responsabilidad de las empresas de IA ante posibles casos de autolesión. La prevención a través de un contacto humano directo rompe la barrera de la respuesta automatizada, permitiendo que una alerta digital se transforme en una intervención real y cercana. Para más análisis sobre el impacto de la tecnología en la sociedad, visite nuestra sección Tech.

Este jueves de mayo de 2026, OpenAI anunció el despliegue de una función que permite a los usuarios adultos nombrar a un amigo, familiar o cuidador como contacto de emergencia. Si el sistema detecta patrones de conversación vinculados con ideación suicida, emitirá una alerta fuera de la plataforma.

SEGURIDAD Y BIENESTAR: CONTACTO DE CONFIANZA
Función Nueva
Asignación de contacto de emergencia para alertas de crisis.
Activación
Se dispara ante detección de riesgo de autolesión o suicidio.
Público Objetivo
Usuarios adultos en EE. UU. y mercados seleccionados.
Desafío Ético
Equilibrio entre privacidad, consentimiento y urgencia médica.

Más allá de los algoritmos: Intervención humana

La medida de OpenAI responde a un escrutinio creciente sobre cómo la inteligencia artificial maneja temas de alta sensibilidad. Al introducir un mecanismo externo de apoyo, la empresa admite que ciertas crisis no pueden ser resueltas solo por un bot. Sin embargo, el despliegue limitado y el foco exclusivo en adultos sugieren que la compañía está procediendo con cautela, evaluando los protocolos operativos y el manejo de datos privados antes de una expansión global masiva. Para el sector, esta es una señal clara de que la prevención activa es ahora una prioridad en el desarrollo de asistentes conversacionales.

“La incorporación de un contacto de confianza refuerza la idea de que ciertas conversaciones no pueden tratarse solo con respuestas automatizadas.”

Fuentes

  • OpenAI Safety Update: Nota de lanzamiento de funciones de bienestar (Mayo 2026).
  • Mental Health Digital Ethics: Análisis sobre intervención de IA en casos de crisis.

Conozca más sobre tecnología y bienestar en STAY TV: https://staytv.cr

 

Share This Article
Leave a Comment

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *