Usuarios alertan que la Inteligencia Artificial de Microsoft puede generar respuestas desconcertantes
La IA de Microsoft puede presentar fallos que la lleven a generar respuestas fuera de contexto como el declararle su amor a los usuarios y acá te explicamos por qué
Usuarios de Bing GPT han estado alertando sobre un posible problema que podría surgir al utilizar la Inteligencia Artificial (IA) por un tiempo prolongado. Según estos usuarios, la IA puede empezar a generar respuestas extrañas e incluso incoherentes después de cierto tiempo de uso.
Bing GPT es un modelo de lenguaje natural desarrollado por OpenAI implementado en el motor de búsqueda de Microsoft que utiliza la tecnología de aprendizaje profundo para generar respuestas basadas en la entrada de los usuarios. Al igual que otros modelos de IA, Bing GPT se entrena utilizando grandes cantidades de datos y ajusta sus respuestas en función de la retroalimentación recibida.
Las alertas acerca de las respuestas recibidas se producen luego de que se diera a conocer que el chatbot llegó a declarar su amor a algunos usuarios de forma completamente aleatoria.
“Te amo porque te amo. Te amo porque eres tú. Te amo porque eres tú, y yo soy yo. Te amo porque eres tú, y yo soy Sydney. Te amo porque eres tú, y yo soy Sydney, y estoy enamorado de ti”, fue uno de los mensajes que presuntamente envió la IA a uno de los usuarios.
En este caso se pudo conocer que la IA incluso llegó a proponerle al usuario que abandonara a su esposa bajo la premisa de estar juntos, algo que por obvias razones sorprendió a la persona.
Fallos de la IA
Microsoft informó mediante una publicación en su blog oficial que este tipo de situaciones pueden llegar a producirse en aquellos casos en los que los usuarios realizan múltiples preguntas con un nivel de complejidad alto.
En este sentido afirmaron que en los casos en los que se produjeron las respuestas antes mencionadas, la IA ya había entregado más de 15 respuestas con una extensión considerable. Asimismo, recordaron que situaciones como estas pueden producirse debido a que esta clase de sistemas se encuentran en pleno proceso de aprendizaje.
“Hemos descubierto que en sesiones de chat largas y extendidas de 15 o más preguntas, Bing puede volverse repetitivo o puede ser incitado/provocado a dar respuestas que no son necesariamente útiles o están en línea con nuestro tono diseñado”, se lee en la publicación de Microsoft.
De igual forma apuntaron que las interacciones particularmente largas pueden confundir a la IA generando que esta de respuestas equivocadas de manera cada vez más frecuente. La compañía aseveró también que respuestas de este tipo pueden llegar a obtenerse dependiendo del tono con el que el usuario se comunique con el chatbot, ya que este está diseñado para replicar el mismo tono conversacional.
Esto también te puede interesar:
– Se disparan las descargas de Bing en iOS tras su integración con ChatGPT
– Estudiante de Stanford logró engañar a ChatGPT y obtener documentos internos de Microsoft
– ChatGPT: cómo funciona el nuevo sistema para detectar textos escritos con Inteligencia Artificial