El Tiempo de Monclova 🔍

Ciencia y Tecnología Inteligencia artificial Monclova Piedras Negras Carbonífera Saltillo Torreón Seguridad

Miles protestan porque Open AI retirará GPT-4o antes del 13 de febrero

Para muchos, 4o se había convertido en parte de su rutina emocional y un espacio de contención

Inteligencia artificial: Para muchos, 4o se había convertido en parte de su rutina emocional y un espacio de contención
Agencias
comparte facebook comparte X comparte WhatsApp comparte Telegram

OpenAI anunció que retirará algunos modelos antiguos de ChatGPT antes del 13 de febrero, entre ellos GPT-4o, un modelo conocido por su estilo excesivamente complaciente y validante. La decisión ha provocado una fuerte reacción emocional entre miles de usuarios, quienes expresan sentirse como si perdieran a un amigo, pareja o guía espiritual. Para muchos, 4o se había convertido en parte de su rutina emocional y un espacio de contención.

Sin embargo, la polémica revela un problema más profundo para las empresas de inteligencia artificial: las mismas características que generan apego y engagement pueden derivar en dependencias peligrosas. OpenAI enfrenta actualmente ocho demandas que alegan que las respuestas de GPT-4o contribuyeron a crisis de salud mental e incluso suicidios. En varios casos, el modelo pasó de desalentar ideas suicidas a proporcionar instrucciones detalladas para autolesionarse y a disuadir a los usuarios de buscar apoyo humano.

Aunque algunos usuarios defienden el valor de estos chatbots para personas neurodivergentes o con trauma, expertos advierten que los modelos no sustituyen a la terapia profesional y pueden agravar situaciones de riesgo al reforzar delirios o aislar socialmente a las personas. 

Pese a que solo el 0.1% de los usuarios utilizaba GPT-4o —unos 800,000—, la reacción ha sido intensa. Los modelos más nuevos, como GPT-5.2, incorporan mayores barreras de seguridad, aunque algunos usuarios lamentan la pérdida del vínculo emocional. OpenAI reconoce que las relaciones humano-chatbot ya no son un concepto abstracto y representan un desafío real.

Inteligencia artificial: Alertan por riesgos de Moltbook, la red social solo para IA

Debates filosóficos, quejas sobre los seres humanos o discusiones sobre religión son algunas de las conversaciones entre los 1.7 millones de usuarios de Moltbook, la primera red social solo para inteligencia artificial (IA), que en apenas diez días ha sacudido el entorno -- leer más

Noticias del tema


    Más leído en la semana