OpenAI abre la posibilidad a utilizar ChatGPT en el sector militar
OpenAI modificó sus condiciones de uso para permitir que sus servicios de Inteligencia Artificial puedan ser utilizados en el sector militar
OpenAI, reconocida por sus innovadores avances en inteligencia artificial, ha tomado una polémica decisión al abrir las puertas a posibles aplicaciones militares de sus servicios. Este cambio, reportado por Intercept el 12 de enero, revela una modificación en las políticas de la empresa que anteriormente prohibían actividades con “alto riesgo de daño físico”. A partir del 10 de enero, las pautas ya no incluyen la restricción de usos “militares y bélicos”, centrándose en la prohibición de utilizar la tecnología para “desarrollar o usar armas”.
En noviembre de 2023, el Departamento de Defensa de EE. UU. expresó su compromiso con el “uso militar responsable de la inteligencia artificial y los sistemas autónomos”. Respaldando la Declaración política internacional sobre el uso militar responsable de la inteligencia artificial, el país lidera “mejores prácticas” para guiar el desarrollo de capacidades militares de IA.
Capacidades militares
Las capacidades de la IA militar no se limitan a armas, abarcando sistemas de apoyo a la toma de decisiones. Desde el campo de batalla hasta la sala de juntas, la IA influye en aspectos como finanzas, nómina, contabilidad, reclutamiento y más. Estos avances han sido evidentes en conflictos como la guerra ruso-ucraniana, donde el ejército estadounidense utilizó IA y desarrolló vehículos militares autónomos propulsados por esta tecnología.
Defensores y activistas de la IA expresan preocupación por la integración de tecnologías de IA en conflictos y combates, temiendo una escalada del conflicto armado y sesgos en los sistemas de IA.
Niko Felix, portavoz de OpenAI, explicó que el cambio busca simplificar las directrices, destacando el principio de “No dañar a otros”. OpenAI sostiene que su objetivo es que las herramientas se utilicen “de forma segura y responsable”, maximizando el control sobre su uso.
Un portavoz de OpenAI aclaró que la política prohíbe dañar personas, desarrollar armas, vigilar comunicaciones, herir a otros o destruir propiedades. Sin embargo, se reconoce la existencia de riesgos de seguridad nacional y casos beneficiosos, como la colaboración con DARPA para crear herramientas de ciberseguridad. La actualización de políticas busca proporcionar claridad y fomentar discusiones sobre estos casos de uso.
OpenAI navega hacia nuevas fronteras, ofreciendo sus herramientas de IA para usos militares, pero con un enfoque claro en la seguridad y la responsabilidad. El futuro de la inteligencia artificial y su papel en el ámbito militar promete seguir generando debates y reflexiones.
Sigue leyendo:
– OpenAI sorprende con nuevas funcionalidades y una Inteligencia Artificial más avanzada
– OpenAI planea lanzar su propia tienda de aplicaciones con Inteligencia Artificial
– Revelan la verdadera razón del despido de Sam Altman de OpenAI