![](https://news.polkacity.io/wp-content/uploads/2024/09/AI-USA.jpg)
Y El gobierno de los Estados Unidos ha firmado un acuerdo con las compañías líderes de inteligencia artificial, OpenAI y Anthropic, para obtener acceso anticipado a cualquier nuevo modelo de IA significativo que estas compañías desarrollen.
Este acuerdo, celebrado con el Instituto de Seguridad de IA de EE. UU., tiene como objetivo principal garantizar la seguridad en el avance de estas tecnologías, aunque queda incierto el papel exacto del gobierno en caso de un avance tecnológico significativo.
Sam Altman, CEO y cofundador de OpenAI, expresó su apoyo al acuerdo en una publicación reciente en la plataforma social X: “Estamos contentos de haber llegado a un acuerdo con el Instituto de Seguridad de IA de EE. UU. para la prueba previa al lanzamiento de nuestros futuros modelos. Por muchas razones, creemos que es importante que esto ocurra a nivel nacional. ¡EE. UU. necesita continuar liderando!”
Tanto OpenAI como Anthropic están trabajando hacia un objetivo común: el desarrollo de una inteligencia artificial general (o AGI por sus siglas en ingles), un tipo de IA que teóricamente podría realizar cualquier tarea que un humano podría hacer, dado los recursos necesarios. Ambas compañías han establecido en sus misiones el objetivo de crear una AGI de manera segura y con los intereses de la humanidad en su núcleo.
Este nuevo acuerdo permite al gobierno federal actuar como un regulador preventivo, revisando estos modelos avanzados antes de que lleguen al mercado. Sin embargo, esta regulación ha suscitado preocupaciones sobre la transparencia y la responsabilidad. Según un informe de Cointelegraph, proyectos como “Strawberry” y “Orion” de OpenAI podrían estar cerca de abordar problemas complejos de IA, y el gobierno ya ha tenido acceso a estas herramientas.
Aunque esta cooperación puede fomentar el crecimiento y permitir que el sector se regule a sí mismo, según Altman, también plantea la cuestión de si la falta de impulso legal para divulgar avances podría mantener al público en la oscuridad sobre desarrollos significativos en la inteligencia artificial que podrían afectar ampliamente a la sociedad.