Tras una presentación más que exitosa, al anuncio de GPT-4o le siguió una noticia complicada para OpenAI. La marcha de Ilya Sutskever trajo de vuelta el fantasma de la crisis que la empresa tuvo en noviembre, y ahora vuelven las complicaciones con las acusaciones de no cumplir sus promesas en torno a la súperalineación.
Ese fue el concepto que introdujo la empresa para lanzar un equipo dedicado a investigar cómo mantener bajo control una IA súperinteligente. Ahora ese equipo está siendo disuelto entre reproches de no haberle ofrecido los recursos prometidos.
Por qué es importante. Esta decisión genera dudas sobre las prioridades de OpenAI, la empresa que se fundó con la misión de desarrollar una IA segura y beneficiosa para toda la humanidad (el exitoso lanzamiento de ChatGPT le hizo replantearse otras prioridades). Ahora parece más enfocada en poder lanzar nuevos productos a toda velocidad.
Qué ha ocurrido.
- OpenAI anunció en julio de 2022 la creación del equipo de Superalignment ('Súperalineación'). Estaba coliderado por el cofundador Ilya Sutskever y por el investigador Jan Leike. Tenía el objetivo de "resolver los grandes desafíos técnicos del alineamiento de una súperinteligencia en cuatro años".
- Sutstkever y Leike anunciaron su dimisión la semana pasada. Sutskever protagonizó un intento fallido para despedir al CEO, Altman, en noviembre.
- Leike criticó duramente a OpenAI al afirmar en X que en los últimos años "la cultura y los procesos de seguridad han quedado en un segundo plano frente a productos brillantes".
- Al menos otros cinco empleados enfocados en la seguridad de la IA han renunciado o han sido despedidos desde aquel episodio de noviembre, según Vox.
La respuesta de OpenAI. La empresa dijo que el trabajo del equipo de Súperalineación estará "integrado más profundamente" en sus otros equipos de investigación, y que este cambió comenzó hace semanas.
Sam Altman dijo en X que tienen "mucho por hacer" en seguridad y se comprometió a ello. Greg Brockman, cofundador de la compañía, defendió también en un largo post en X el enfoque de seguridad que tiene OpenAI, asegurando que están dispuestos a retrasar lanzamientos por este tipo de cuestiones.

Las dudas persisten. CNBC y Wired recogen las acusaciones de varios exempleados de no destinar suficientes recursos computacionales para investigar cómo controlar una IA que llegue a ser más inteligente que los humanos.
También exempleados dicen haber perdido la confianza en el liderazgo de Altman, y más concretamente en su compromiso con un desarrollo responsable de la IA. Otros dicen estar sujetos a acuerdos de confidencialidad que les impiden criticar abiertamente a la empresa.
La tendencia en la industria. Otras empresas líderes en IA como Google a principios de año o Meta a finales del pasado también han reorganizado o disuelto equipos dedicados a la seguridad y la responsabilidad.
El argumento principal suele ser que prefieren que este trabajo se lleve a cabo de forma tangencial en la empresa, y no como parte de un área concreta, pero los críticos con esta posición dicen que tener equipos especializados asegura recursos y poder de decisión para estos asuntos.
En resumen. La carrera por lanzar nuevos productos basados en IA es frenética, y OpenAI, quien la lidera, se está enfrentando a acusaciones de dejar atrás la seguridad. Otras empresas del sector están en situaciones similares.
La disolución del equipo dedicado deja dudas sobre quién y cómo vigilará dentro de OpenAI que la IA sea un beneficio para la humanidad y no una amenaza, tal y como la empresa advirtió al fundarse.
En Xataka | Qué es un token cuando hablamos de IA y por qué es importante que Gemini admita un millón
Imagen destacada | Xataka con Midjourney
Ver 7 comentarios
7 comentarios
daamu32
Los organismos internacionales deberían ir pensando no en establecer marcos regulatorios, sino en tener un cierto control en los comités de ética y seguridad de estas empresas. No se debería dejar piezas tan clave en manos que solo buscan el beneficio económico. A veces, hay que poner freno y dudo que estos sean capaces sin ven pequeñas muestras de beneficio económico.
reiizumi
Es como si una empresa quitara la divisón de seguridad alegando que cada división debe encargarse del tema.
Resultado: agujeros de seguridad por doquier. Y no por falta de desconocimientos, si no por acelerar el trabajo.
Jambalio
Espero que llegue skynet pronto para salvar a la humanidad
pachinotec
Hay que darle las gracias a chatgpt siempre por si acaso xd
Y que se estén llevando investigaciones también rápido, ni que fuera la carrera por la bomba nuclear
Conca
Parecen simples quejas de gente que no ha tenido su porcentaje de la tarta o de poder y ahora (fuera de la empresa) se dedican a hablar mal de ella.