Qué dijo el jefe de desarrollo de Inteligencia Artificial de Google luego de presentar su renuncia
Uno de los máximos responsables del desarrollo de IA de Google alertó acerca de los riesgos que conlleva el uso de esta tecnología y cómo en un futuro será prácticamente imposible diferenciar entre contenido real y deepfakes
Geoffrey Hinton, uno de los investigadores más destacados en el campo de la Inteligencia Artificial, ha hecho una declaración preocupante sobre el peligro que representa la IA para el futuro. Después de renunciar a su puesto en Google, Hinton expresó su preocupación acerca de cómo esta tecnología puede ser utilizada por personas con malas intenciones.
Hinton, a quien se le conoce como el padre de la Inteligencia Artificial, dijo en una entrevista con el New York Times que se consuela con la idea de que, si él no hubiera trabajado en IA, alguien más lo habría hecho. Sin embargo, la preocupación de Hinton es clara: es difícil ver cómo se puede evitar que los malos actores utilicen la IA para propósitos maliciosos.
El hecho de que Hinton haya hablado públicamente sobre esta preocupación es significativo, ya que su trabajo en la IA ha sido fundamental para el desarrollo de la tecnología en las últimas décadas. Además, Hinton ha trabajado en algunos de los proyectos de IA más grandes y exitosos de Google, lo que significa que su renuncia y sus declaraciones tienen un gran peso.
Ante las declaraciones de Hinton, Jeff Dean, científico jefe de Google, emitió un comunicado en el que afirmó que la compañía sigue comprometida con un enfoque responsable de la IA y que están trabajando para comprender los riesgos emergentes. Dean también enfatizó la necesidad de innovar audazmente, lo que sugiere que la empresa está tratando de encontrar un equilibrio entre el avance tecnológico y la responsabilidad.
Riesgos de la IA
Además de los riesgos que plantea la IA para el futuro, como lo expresó Geoffrey Hinton, también existen riesgos específicos relacionados con la propagación de noticias falsas y la creación de videos falsos o deep fakes utilizando la IA.
Los avances en la tecnología de la IA han permitido que los deep fakes se vuelvan más sofisticados y realistas. Estos videos falsos pueden ser utilizados para engañar a la audiencia, propagar información falsa y difamar a personas, lo que plantea un grave riesgo para la integridad de la información y la confianza en los medios.
Los expertos en tecnología han expresado su preocupación acerca de cómo los deep fakes pueden ser utilizados para manipular la opinión pública y socavar la democracia. Los deep fakes también pueden ser utilizados con fines maliciosos, como el chantaje, el acoso y la extorsión.
Además, la propagación de noticias falsas es otro riesgo significativo que plantea la IA. Las noticias falsas pueden ser creadas y difundidas a través de bots de redes sociales, lo que puede hacer que sean más difíciles de detectar y eliminar. La propagación de noticias falsas puede tener un impacto negativo en la política, la economía y la sociedad en general.
Otros expertos en tecnología, como Elon Musk y Bill Gates, también han expresado su preocupación acerca de los riesgos de la IA. Musk ha llamado la atención sobre la posibilidad de que la IA se vuelva demasiado poderosa y se salga de control, mientras que Gates ha advertido sobre los peligros de la IA para el mercado laboral y la desigualdad económica.
Sigue leyendo:
– Inteligencia artificial ofrece mejores y más empáticos consejos que los médicos humanos
– Ahora la inteligencia artificial es usada para generar spam que ya inunda el internet
– Cómo hacerse millonario según la inteligencia artificial