Líderes de la industria tecnológica piden frenar el desarrollo de nuevos modelos de IA

En una carta pública expertos en tecnología hicieron un llamado para que se detenga el desarrollo acelerado de los modelos de Inteligencia Artificial hasta que se creen normas que los regulen

ChatGPT

Los expertos tecnológicos creen la IA podría llegar a ser peligrosa si no se crean las normas necesarias para su uso y evolución Crédito: Shutterstock

Un grupo de líderes de la industria tecnológica ha hecho un llamado a la comunidad internacional para frenar el desarrollo de nuevos sistemas de Inteligencia Artificial (IA). Este llamado ha sido respaldado por expertos en tecnología, empresarios, así como profesores de las principales universidades de Estados Unidos.

Entre los firmantes de la carta se encuentran Elon Musk, fundador de SpaceX y Tesla; Steve Wozniak, cofundador de Apple; Andrew Yang, empresario y excandidato presidencial de Estados Unidos; Evan Sharp de cofundador de Pinterest y Craig Peters CEO de Getty Images, así como otros líderes destacados de la industria tecnológica.

En la carta, los firmantes advierten sobre los riesgos asociados con la IA, y argumentan que su desarrollo sin regulaciones y normas adecuadas podría tener consecuencias negativas para la humanidad. 

Entre los principales riesgos identificados se encuentran la posibilidad de que la IA sea utilizada para fines maliciosos, así como la posibilidad de que se produzca una pérdida masiva de empleos a medida que la IA se vuelve cada vez más capaz.

Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y fake news?”, se lee en la carta.

Normas para el desarrollo de la IA

Los expertos indicaron que si las compañías que desarrollan sistemas de Inteligencia Artificial no frenan el crecimiento exponencial que se está registrando actualmente, los gobiernos deberían implementar una moratoria para evitar que esto continue ocurriendo sin control.

“La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”, explicaron.

En la carta, los firmantes piden una mayor colaboración y diálogo entre los expertos en IA, los reguladores y los legisladores para desarrollar marcos regulatorios y éticos sólidos para el uso de la IA. También instan a la industria tecnológica a actuar con responsabilidad y ética en la investigación y desarrollo de la IA.

Aunque algunos críticos argumentan que el llamado a frenar el desarrollo de la IA es exagerado, la mayoría de los expertos en tecnología están de acuerdo en que se necesitan normas y regulaciones para garantizar que la IA se utilice de manera segura y responsable. 

Sigue leyendo:
Cómo hacerse millonario según la inteligencia artificial
Cómo comenzar a probar Bard la inteligencia artificial desarrollada por Google
15 trabajos que podrían verse afectados por la inteligencia artificial, según un estudio

En esta nota

Inteligencia artificial
Contenido Patrocinado
Enlaces patrocinados por Outbrain