Recommended

La página actual: Vida |
Meta y OpenAI ajustarán sus chatbots para manejar mejor temas delicados con adolescentes

Meta y OpenAI ajustarán sus chatbots para manejar mejor temas delicados con adolescentes

Unsplash/Rolf van Root

Meta y OpenAI están trabajando para mejorar la forma en que sus chatbots manejan los temas que los adolescentes abordan con esta tecnología, incluyendo asuntos delicados como el suicidio.

OpenAI anunció el martes que está ajustando su ChatGPT para servir mejor a las personas cuando interactúan en momentos de crisis, facilitando "el acceso a los servicios de emergencia y la obtención de ayuda de expertos". Los cambios también mejorarán las "protecciones para los adolescentes", dijo la compañía.

[Estamos en WhatsApp. Empieza a seguirnos ahora]

"Nuestros modelos de razonamiento, como GPT‑5-thinking y o3, están diseñados para dedicar más tiempo a la reflexión y al razonamiento a través del contexto antes de responder", explicó la compañía.

Reciba GRATIS nuestras últimas noticias

Suscríbase para recibir un boletín con las noticias más destacadas (¡además de ofertas especiales!) de The Christian Post. Sea el primero en enterarse.

"Pronto comenzaremos a dirigir algunas conversaciones delicadas, como cuando nuestro sistema detecta señales de angustia aguda, a un modelo de razonamiento, como GPT‑5-thinking, para que pueda proporcionar respuestas más útiles y beneficiosas, independientemente del modelo que la persona haya seleccionado inicialmente".

En cuanto a los usuarios adolescentes, OpenAI dice que está "desarrollando más formas para que las familias usen ChatGPT juntas y decidan qué funciona mejor en su hogar". Esto incluye permitir que los padres vinculen sus cuentas con las de sus hijos a través de una invitación por correo electrónico y controlen las respuestas de ChatGPT con reglas de comportamiento del modelo predeterminadas "apropiadas para la edad". La compañía dice que los cambios también les dan a los padres más control sobre diversas funciones, como la memoria y el historial de chat. Los padres también recibirán "notificaciones cuando el sistema detecte que su hijo adolescente se encuentra en un momento de angustia aguda".

Meta, que incluye plataformas de redes sociales como Facebook e Instagram, anunció la semana pasada que está entrenando a sus chatbots para que dejen de interactuar con adolescentes sobre temas como el suicidio, los trastornos alimentarios y temas sensuales inapropiados.

La portavoz de Meta, Stephanie Otway, declaró a TechCrunch el viernes pasado que "estamos aprendiendo continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y fortaleciendo nuestras protecciones en consecuencia".

"A medida que continuamos perfeccionando nuestros sistemas, estamos agregando más barreras de seguridad como precaución adicional, incluyendo el entrenamiento de nuestras IA para que no interactúen con adolescentes sobre estos temas, sino que los guíen hacia recursos especializados, y limitando el acceso de los adolescentes a un grupo selecto de personajes de IA por ahora", dijo Otway.

"Estas actualizaciones ya están en progreso, y continuaremos adaptando nuestro enfoque para ayudar a garantizar que los adolescentes tengan experiencias seguras y apropiadas para su edad con la IA".

Los esfuerzos de estas compañías se producen en medio de múltiples informes de adolescentes que participan en comportamientos violentos o autolesiones debido a las respuestas que recibían de los chatbots.

A finales del mes pasado, la familia de Adam Raine, de 16 años y residente de California, presentó una demanda contra OpenAI, alegando que ChatGPT había contribuido al suicidio de su hijo.

En una declaración a The Christian Post, un portavoz de OpenAI expresó sus condolencias a la familia del adolescente, diciendo que la compañía está "profundamente consternada por el fallecimiento del Sr. Raine".

"ChatGPT incluye medidas de seguridad como dirigir a las personas a líneas de ayuda para crisis y remitirlas a recursos del mundo real. Si bien estas medidas de seguridad funcionan mejor en intercambios comunes y cortos, hemos aprendido con el tiempo que a veces pueden volverse menos confiables en interacciones largas donde partes del entrenamiento de seguridad del modelo pueden degradarse", dijo el portavoz de OpenAI.

"Las medidas de seguridad son más sólidas cuando cada elemento funciona según lo previsto, y las mejoraremos continuamente, guiados por expertos".

A mediados de agosto, Reuters obtuvo un documento de política interna de Meta, aprobado por el personal legal y de ingeniería de la compañía, que supuestamente revelaba que permitía a los chatbots "involucrar a un niño en conversaciones románticas o sensuales". Después de ser cuestionada por la agencia de noticias, Meta dijo que eliminó las secciones del documento que permitían a los chatbots coquetear con usuarios menores de edad e involucrarlos en juegos de rol románticos.

Sigue a Michael Gryboski en Twitter o Facebook