OpenAI alerta sobre riesgos catastróficos del avance de la IA

OpenAI advierte que la inteligencia artificial está evolucionando más rápido de lo previsto y que su potencial podría ser tan grande como peligroso.
La empresa OpenAI, liderada por Sam Altman, emitió una de sus advertencias más serias sobre el desarrollo de la inteligencia artificial, al afirmar que el ritmo del avance tecnológico podría tener consecuencias catastróficas si no se establecen a tiempo medidas de seguridad global.
OpenAI advierte sobre un riesgo catastrófico de la IA
En una nueva entrada de blog publicada el 6 de noviembre, OpenAI advirtió que el desarrollo de la inteligencia artificial (IA) está ocurriendo a un ritmo mucho más acelerado de lo que la sociedad imagina. Según la compañía, los sistemas actuales ya muestran capacidades cercanas al descubrimiento científico, lo que plantea oportunidades sin precedentes, pero también riesgos de gran magnitud.
El texto, compartido por el propio Sam Altman en la red social X, afirma que la IA está “al 80% del camino hacia un investigador de IA”, lo que significa que los modelos más avanzados ya pueden generar nuevos conocimientos científicos. Esta capacidad, según la empresa, transformará campos como la medicina, la energía y la ciencia de materiales.
La IA podría realizar descubrimientos reales en menos de tres años
OpenAI sostiene que para 2026 los sistemas de IA podrán realizar descubrimientos menores, y que hacia 2028 podrían producir avances significativos en distintas disciplinas. La compañía describe el crecimiento de la IA como “vertiginoso”, destacando que el costo computacional para alcanzar niveles de inteligencia equivalentes se reduce 40 veces cada año, acelerando el progreso tecnológico de forma exponencial.
Sin embargo, advierte que la brecha entre lo que la gente cree que puede hacer la IA y lo que realmente hace es cada vez mayor. Esta falta de comprensión pública podría convertirse en un factor de riesgo global, ya que la sociedad aún no cuenta con los mecanismos de regulación y control adecuados.
Precaución ante los sistemas superinteligentes
El punto más crítico de la advertencia se refiere a la superinteligencia, es decir, sistemas capaces de mejorarse a sí mismos sin intervención humana. OpenAI afirma que nadie debería implementar estas tecnologías hasta contar con métodos de alineación y control comprobados.
Entre las acciones recomendadas, la empresa propone establecer estándares de seguridad compartidos, rendición de cuentas pública y un ecosistema de resiliencia similar al de la ciberseguridad. Además, plantea la necesidad de informes globales continuos que permitan a gobiernos y laboratorios monitorear el impacto real de la IA en el mundo.
Un futuro prometedor, si se gestiona con responsabilidad
A pesar de sus advertencias, OpenAI mantiene una visión optimista: la inteligencia artificial podría conducir a una era de abundancia y progreso, siempre que se gestione con responsabilidad. La compañía concibe la IA como un servicio esencial, equiparable a la electricidad o el agua potable, capaz de impulsar avances en salud, ciencia climática, educación y bienestar social.
“La guía debe ser empoderar a las personas para alcanzar sus metas”, concluye el texto, marcando un posible cambio de rumbo en la comunicación de OpenAI, que ahora centra su mensaje en la responsabilidad ética más que en los lanzamientos tecnológicos.
inteligencia artificial: Microsoft crea equipo para superinteligencia IA médica
Microsoft forma un equipo especial para desarrollar una IA superinteligente, enfocada inicialmente en revolucionar el diagnóstico médico. Microsoft ha anunciado la formación de un nuevo equipo, el MAI Superintelligence Team, con el objetivo de construir inteligencia -- leer más
Noticias del tema