OpenAI creó un equipo para evaluar posibles escenarios apocalípticos creados por la IA

OpenAI creó Preparedness un nuevo equipo encargado de evaluar las amenazas potenciales que puede generar la Inteligencia Artificial

OpenAI

Preparedness debe evaluar amenazas químicas, biológicas, radiológicas y nucleares Crédito: Shutterstock

OpenAI ha dado un paso significativo en la misión de garantizar la seguridad y el desarrollo responsable de la Inteligencia Artificial (IA) al anunciar la creación de un nuevo equipo llamado “Preparedness”. Bajo la dirección de Aleksander Madry, director del Centro de Aprendizaje Automático Implementable del MIT, este equipo se centrará en la evaluación y prevención de lo que la organización ha descrito como “riesgos catastróficos” relacionados con la IA. Este importante paso demuestra el compromiso de OpenAI en abordar los desafíos emergentes que plantea la IA y garantizar su uso seguro y beneficioso para la humanidad.

Preparedness tiene la importante responsabilidad de rastrear, pronosticar y proteger contra una amplia gama de riesgos asociados con sistemas de IA futuros. Estos riesgos incluyen desde la capacidad de persuasión y engaño de la IA en contextos como ataques de phishing hasta su capacidad de generar código malicioso. La creación de este equipo refleja la creciente conciencia de OpenAI de que la IA, a medida que avanza, presenta amenazas significativas que deben ser comprendidas y mitigadas.

Riesgo potencial de la IA

OpenAI ha identificado categorías de riesgo que van más allá de los peligros obvios, como los ataques cibernéticos y el malware de IA. Sorprendentemente, en una publicación de blog, OpenAI incluye amenazas “químicas, biológicas, radiológicas y nucleares” en su lista de áreas de máxima preocupación en lo que respecta a los modelos de IA. Esta perspectiva amplia y precautoria demuestra la seriedad con la que OpenAI aborda la seguridad de la IA.

OpenAI busca colaborar con la comunidad en la evaluación y mitigación de riesgos de la IA. Para respaldar este objetivo, la organización ha lanzado un concurso en el que invita a la comunidad a presentar ideas y estudios de riesgo relacionados con la IA. Los diez mejores participantes tienen la oportunidad de unirse al equipo Preparedness y ganar un premio de $25,000 dólares. Esto refleja el compromiso de OpenAI de aprovechar la sabiduría colectiva para abordar los desafíos de seguridad de la IA.

Beneficios de la IA

OpenAI subraya que, si bien los modelos de IA avanzados pueden brindar enormes beneficios, también plantean riesgos significativos. La organización reconoce la necesidad de comprender y abordar estos riesgos para garantizar que la IA beneficie a la humanidad en su conjunto.

Este anuncio llega después de la declaración de OpenAI de que se formaría un equipo para estudiar y supervisar formas emergentes de IA “superinteligente”. La creencia de que una IA con capacidades superiores a las humanas podría llegar en la próxima década impulsa la investigación en torno a cómo limitar y controlar esta IA para garantizar su uso seguro y responsable.

Sigue leyendo:
Cómo puede ayudar la inteligencia artificial en la búsqueda de la eterna juventud
¿El “asesino de Google”?: qué ventajas tiene el gigante tecnológico en la carrera de la inteligencia artificial
3 áreas en las que la inteligencia artificial ya está mejorando nuestras vidas

En esta nota

Inteligencia artificial OpenAI
Contenido Patrocinado
Enlaces patrocinados por Outbrain