Empresas de EEUU y China se dan la mano por un buen motivo: crear el primer estándar global de IA generativa

  • Las compañías chinas Baidu y Tencent y las estadounidenses NVIDIA y OpenAI están trabajando juntas

  • Ya han elaborado dos estándares que abordan la seguridad de la IA generativa y los grandes modelos de lenguaje

Ia Ap
Sin comentarios Facebook Twitter Flipboard E-mail

La tensión que sostienen los Gobiernos de EEUU y China en los ámbitos geopolítico y geoestratégico no tiene por qué verse respaldada por un comportamiento equiparable entre sus empresas. Todo lo contrario. Las compañías de estos y otros países velan por sus propios intereses, lo que a menudo las lleva a hacer negocios entre ellas. A NVIDIA, por ejemplo, le viene de maravilla vender sin restricciones sus GPU para inteligencia artificial (IA) en un mercado tan grande como el chino.

Y a ASML, el fabricante de equipos de litografía de vanguardia neerlandés, exactamente lo mismo. La razón por la que estas compañías no pueden vender algunos de sus productos en China, los más avanzados, reside en que los Gobiernos de EEUU y sus aliados están decididos a impedir que la Administración de Xi Jinping pueda utilizarlos para desarrollar aún más su ya muy notable capacidad militar. Sin embargo, de vez en cuando las compañías estadounidenses y chinas nos recuerdan que pueden trabajar juntas más allá de las rencillas de los Gobiernos de sus países.

Por una inteligencia artificial generativa más segura para todos

Las compañías chinas Baidu, Tencent y Ant, y las estadounidenses NVIDIA, Microsoft, Meta, Google, Amazon y OpenAI están trabajando juntas en la elaboración de un estándar global que persigue establecer un marco que garantice que la inteligencia artificial generativa se desarrollará en el futuro de una forma segura tanto para los usuarios como para las empresas. Suena bien. En la coyuntura actual resulta en cierto modo sorprendente que varias compañías tan relevantes pertenecientes a dos países con intereses contrapuestos estén trabajando juntas. Pero sí, lo están haciendo. Por el bien de todos.

Los expertos de estas compañías presentaron en un evento de la Conferencia de las Naciones Unidas para la Ciencia y la Tecnología dos documentos que recogen su trabajo hasta este momento

En realidad no están trabajando en un único estándar; están colaborando simultáneamente en la elaboración de dos. El primero de ellos estará dedicado a la inteligencia artificial generativa en toda su extensión, y el segundo expresamente a los grandes modelos de lenguaje.

Precisamente el martes de esta misma semana los expertos de estas compañías presentaron en un evento de la Conferencia de las Naciones Unidas para la Ciencia y la Tecnología celebrado en Ginebra (Suiza) dos documentos que recogen su trabajo hasta este momento: "Estándar para el análisis y la validación de la seguridad de la inteligencia artificial generativa" y "Método de análisis de la seguridad de los grandes modelos de lenguaje".

Actualmente estos son los únicos estándares globales que abordan específicamente la IA generativa y los grandes modelos de lenguaje, y el hecho de que en su elaboración estén involucrados directamente los expertos de las compañías que están impulsando el desarrollo de estas tecnologías resulta tranquilizador. China fue el primer país que reguló la IA generativa y los servicios vinculados a ella. Lo hizo en julio de 2023.

También hay otros estándares internacionales, como la "Recomendación para la ética de la IA" elaborada por Unesco en 2021 o las recomendaciones propuestas por ISO en 2022 y 2023. Aun así, sobre el papel ninguno de ellos aborda la seguridad de la IA generativa y los grandes modelos de lenguaje con la ambición con la que lo hacen los dos documentos elaborados por las compañías que he citado unas líneas más arriba. Confiemos en que su esfuerzo finalmente sirva para algo.

Imagen | Pavel Danilyuk

Más información | SCMP

En Xataka | El líder de NVIDIA se moja: ha fijado con mucha precisión la fecha en que estará lista la inteligencia artificial general

Comentarios cerrados
Inicio