OpenAI y Anthropic compartirán sus modelos con el gobierno de EE.UU. antes de publicarlos. El motivo: comprobar que sean seguros

Hace un año, la administración de Joe Biden inauguró el Instituto de Seguridad de la Inteligencia Artificial con la meta de analizar los riesgos potenciales y emergentes de los modelos de inteligencia artificial (IA) fundamentales. Estos modelos, como GPT, Claude, Gemini, y LLaMA, se entrenan con vastas cantidades de datos y tienen un impacto significativo en diversos sectores. La colaboración con la industria es crucial para este proyecto; recientemente, se ha llegado a un acuerdo con OpenAI y Anthropic, quienes compartirán sus modelos de IA con el gobierno para su estudio.

Este acuerdo promueve una «colaboración formal en la investigación, prueba y evaluación de la seguridad» de las inteligencias artificiales, según informa el Instituto de Seguridad de la IA, una entidad dependiente del National Institute of Standards and Technology (NIST). El objetivo es tener accesos previos y posteriores al lanzamiento de los modelos, lo que facilita una investigación colaborativa para evaluar capacidades, riesgos y métodos de mitigación. Además, el Instituto de Seguridad de la IA proveerá retroalimentación a las empresas sobre posibles mejoras de seguridad, trabajando en coordinación estrecha con su homólogo en el Reino Unido.

Este paso representa un avance importante en el empeño de regular y asegurar un desarrollo responsable de la IA, teniendo en cuenta los desafíos que esto implica, desde la gestión de innovaciones hasta la competición global, especialmente con China, que supera a Estados Unidos en número de patentes relacionadas con la IA. Elizabeth Kelly, directora del instituto, remarca estos acuerdos como un hito crucial hacia una gestión responsable de la IA. Paralelamente, las principales firmas en el sector de la IA se comprometieron a cumplir con una serie de principios voluntarios para asegurar pruebas de seguridad internas y externas antes de lanzar sus sistemas de IA al mercado, enfatizando la necesidad de una autorregulación efectiva en la industria.