Qué es la Declaración de Bletchley y cómo afectará el futuro de la IA

La Declaración de Bletchley es el primer paso para crear un acuerdo mundial que permita definir cómo será el desarrollo de la IA de cara al futuro

Inteligencia Artificial

La Declaración de Bletchley establece cuáles son los riesgos específicos que podrían surgir si los modelos de IA se utilizan de manera inadecuada Crédito: Shutterstock

En un mundo donde la Inteligencia Artificial (IA) está tomando cada vez un papel más protagónico, la colaboración y la seguridad se alzan como dos pilares cruciales. La reciente Cumbre de Seguridad de la IA en Bletchley Park, Inglaterra, nos brindó un vistazo a un futuro en el que las naciones líderes en tecnología buscan un consenso global para abordar los riesgos planteados por la IA. En esta declaración, exploraremos qué es la Declaración de Bletchley y cómo se espera que afecte el desarrollo y el futuro de la Inteligencia Artificial.

Una Inteligencia Artificial más segura y confiable

La ministra de tecnología del Reino Unido, Michelle Donelan, fue la encargada de anunciar la Declaración de Bletchley, un documento político de gran relevancia. Este documento busca establecer un acuerdo mundial sobre cómo abordar los riesgos asociados con la IA, tanto en el presente como en el futuro. De acuerdo con Donelan, la IA debe ser diseñada, desarrollada, implementada y utilizada de manera segura, centrada en el ser humano, confiable y responsable.

La declaración también enfatiza la necesidad de prestar especial atención a los grandes modelos de lenguaje desarrollados por empresas como OpenAI, Meta y Google, señalando los riesgos específicos que podrían surgir si estos modelos se utilizan de manera inadecuada.

Riesgos

Uno de los puntos clave de la Declaración de Bletchley es la mención de los riesgos en la “frontera” de la IA. Esto se refiere a modelos de IA de propósito general altamente capaces, incluyendo modelos básicos, que pueden desempeñar una amplia variedad de tareas. También abarca IA específicas que podrían tener capacidades dañinas equiparables o incluso superiores a los modelos de IA más avanzados en la actualidad. Estos riesgos deben ser abordados de manera efectiva para garantizar un desarrollo seguro y ético de la IA.

En paralelo a la Declaración de Bletchley, Gina Raimondo, secretaria de Comercio de EE. UU., anunció la creación de un nuevo instituto de seguridad de IA, que trabajará en estrecha colaboración con otros grupos de seguridad de IA en todo el mundo. Esta iniciativa busca lograr una alineación de políticas a nivel global, lo que es esencial para garantizar la seguridad y la responsabilidad en el desarrollo de la IA.

Alianza global

La Cumbre de Seguridad de la IA reunió a líderes políticos de las economías más grandes del mundo, así como representantes de países en desarrollo. La alineación incluyó a China, la Unión Europea, India, los Emiratos Árabes Unidos y Nigeria, entre otros. Estos líderes hablaron de la necesidad de inclusión y responsabilidad en el desarrollo de la IA, pero queda por verse cómo se implementarán estas ideas en la práctica.

La preocupación de Ian Hogarth, fundador e inversor, sobre una posible carrera para crear máquinas potentes que superen nuestra capacidad de salvaguardar la sociedad es compartida por muchos. 

Sigue leyendo:
OpenAI creó un equipo para evaluar posibles escenarios apocalípticos creados por la IA
Preocupa Inteligencia Artificial en seguridad nacional y protección de datos, reconoce Administración Biden
Inteligencia artificial: la nueva apuesta de GM para el desarrollo de baterías

En esta nota

Inteligencia artificial
Contenido Patrocinado
Enlaces patrocinados por Outbrain