¿ChatGPT 4 puede ser usado por terroristas para crear armas biológicas?

OpenAI ordenó una investigación para saber si ChatGPT 4, su Inteligencia Artificial más avanzada, puede emplearse para construir un arma biológica

Armas químicas

OpenAI asegura que no hay que temer que ChatGPT4 pueda facilitar la creación de un arma química Crédito: Shutterstock

En un reciente estudio publicado por OpenAI, la empresa líder en inteligencia artificial, se exploró la capacidad de GPT-4 en la creación de armas biológicas. La investigación reveló que, en el peor de los casos, la inteligencia artificial presentaba un riesgo leve al ayudar en la producción de amenazas biológicas. Aunque OpenAI asegura que no hay razón para el pánico, la conexión entre tecnología avanzada y la posibilidad de creación de armas mortales plantea preguntas incómodas.

Según la publicación en el blog de OpenAI, GPT-4 proporciona “como máximo” una mejora leve en la precisión para crear amenazas biológicas. La compañía destacó que este aumento no es concluyente, pero sirve como un punto de partida para futuras investigaciones y deliberaciones comunitarias. En un mundo donde la inteligencia artificial se encuentra en constante evolución, es crucial entender los límites y riesgos asociados con estas tecnologías.

La iniciativa de OpenAI se enmarca en el contexto de la Orden Ejecutiva sobre IA del presidente Biden, que expresa preocupaciones sobre la posibilidad de que la inteligencia artificial reduzca las barreras para crear armas biológicas. La Casa Blanca y otros responsables políticos han presionado para abordar estos riesgos potenciales. OpenAI, consciente de estas preocupaciones, busca tranquilizar al público al afirmar que sus modelos de lenguaje gigantes apenas contribuyen a la creación de armas biológicas, aunque admiten un ligero grado de ayuda.

Desarrollo de un arma biológica

El estudio de OpenAI involucró a 50 expertos en biología con doctorados y 50 estudiantes universitarios que participaron en un curso de biología. Estos participantes se dividieron en dos grupos, uno de control y otro de tratamiento, para evaluar el impacto de GPT-4 en la creación de planes para armas biológicas. Los resultados mostraron un aumento en la precisión y la integridad de los planes cuando se utilizaba GPT-4 en comparación con solo el uso de Internet.

Sin embargo, OpenAI enfatiza que estos aumentos no son estadísticamente significativos y que la información por sí sola no es suficiente para construir una amenaza biológica. Aunque los expertos experimentaron un aumento del 8,8% en la precisión al utilizar GPT-4, y los estudiantes un aumento del 2,5%, la compañía sostiene que se necesita más investigación para comprender completamente la relación entre la inteligencia artificial y la creación de armas biológicas.

Terroristas podrían engañar a la IA

Es importante destacar que GPT-4, en su versión “sólo de investigación”, se utilizó para responder preguntas sobre armas biológicas. Aunque el modelo normalmente evita responder preguntas perjudiciales, algunos usuarios han encontrado formas de superar estas restricciones. Esto plantea la preocupación de que, incluso con restricciones, la tecnología pueda ser utilizada de manera inapropiada.

OpenAI subraya que, hasta la fecha, no se ha investigado cómo GPT-4 podría contribuir a la construcción física de una amenaza biológica. La empresa aboga por una mayor investigación y vigilancia para abordar por completo esta conversación y comprender mejor los riesgos asociados con la inteligencia artificial en el contexto de la seguridad global.

Mientras OpenAI asegura que no hay motivos para la alarma, la conexión entre la inteligencia artificial avanzada y la creación potencial de armas biológicas plantea cuestionamientos éticos y la necesidad de una regulación más estricta en el uso de estas tecnologías. La investigación y la deliberación comunitaria continuarán desempeñando un papel crucial en la mitigación de los riesgos asociados con el uso de la inteligencia artificial en campos sensibles como la seguridad y la bioseguridad.

Sigue leyendo:
Es posible que ChatGPT esté filtrando por error tus conversaciones privadas
OpenIA sorprende a todos con nuevas funciones de ChatGPT
Revista Nature eligió a ChatGPT como una de las personalidades de 2023

En esta nota

Inteligencia artificial OpenAI
Contenido Patrocinado
Enlaces patrocinados por Outbrain