El verdadero poder de los algoritmos y de las redes sociales

El conocido experto en big data Martin Hilbert ha seguido de cerca los efectos digitales del coronavirus

No sabemos cómo lidiar con el poder de los algoritmos, afirma Martin Hilbert

No sabemos cómo lidiar con el poder de los algoritmos, afirma Martin Hilbert Crédito: Getty Images

“El crecimiento de la digitalización siempre fue exponencial, pero la pandemia lo aceleró con esteroides”, asegura Martin Hilbert, investigador alemán de la Universidad de California-Davis y autor del primer estudio que calculó cuánta información hay en el mundo.

Reconocido por haber alertado sobre la intervención de Cambridge Analytica en la campaña de Donald Trump un año antes de que estallara el escándalo, Hilbert ha seguido de cerca los efectos digitales del coronavirus y sus conclusiones son poco optimistas: las personas no saben cómo lidiar con el poder de los algoritmos, los gobiernos no saben cómo usarlos en favor de la población y las empresas se resisten a adoptar pautas éticas efectivas.

Esto debiera preocupar especialmente a América Latina, “porque son líderes mundiales en el uso de redes sociales”, advierte Hilbert, que vivió una década en Chile como funcionario de la ONU y hoy vive a 40 minutos de Silicon Valley.

En conversación con BBC Mundo compartió su opinión de que las nuevas tecnologías plantean desafíos de alcances tales que podrían exigir una evolución de la conciencia humana.


Martin Hilbert

Cortesia: Martin Hilbert
Martin Hilbert, investigador alemán de la Universidad de California-Davis y autor del primer estudio que calculó cuánta información hay en el mundo.

¿Qué novedades trajo la pandemia a nuestra relación con las redes digitales?

Tuvo dos efectos simultáneos: nos hizo más sensibles a las secuelas tóxicas de la digitalización, pero aceleró nuestra dependencia de ella.

Y también confirmó que el segundo efecto es más poderoso que el primero: ser conscientes de que esta adicción nos hace mal no produce ningún cambio en nuestras conductas.

"Las llamadas tecnologías persuasivas cumplen su misión cuando eres adicto y no puedes desviar tu atención de ellas"", Source: , Source description: , Image:

¿Por qué crees que ocurre eso?

Hay que entender cómo funciona esta economía digital, donde el recurso escaso a explotar es la atención humana.

El negocio de los gigantes tecnológicos −Google, Apple, Facebook, Amazon− no es ofrecerte avisos comerciales: es modificar tus comportamientos para optimizar el rendimiento de esos avisos.

Y pueden hacerlo porque los algoritmos, al procesar millones de datos sobre tu comportamiento, aprenden a predecirlo, mucho mejor que tú mismo.

Pero para conocerte e influir sobre ti necesitan mantenerte conectado. Por lo tanto, las llamadas tecnologías persuasivas cumplen su misión cuando eres adicto y no puedes desviar tu atención de ellas.

Por lo que muestra el documental El dilema de las redes sociales, muchos en Silicon Valley se arrepienten de haber creado esas tecnologías.

Aquí en Silicon Valley el término de moda es human downgrading [degradación humana], que resume la siguiente idea: de tanto discutir cuándo la tecnología iba a sobrepasar nuestras capacidades, perdimos de vista que las máquinas se estaban enfocando en conocer nuestras debilidades.

Ganarle una partida al campeón de ajedrez era lo de menos. Su verdadera fuente de poder ha sido llevarnos a nuestro narcisismo, a nuestro enojo, ansiedad, envidia, credulidad y, por cierto, a nuestra lujuria.

Es decir, las tecnologías persuasivas apelan a mantenerte en la versión más débil de ti mismo para que gastes tu tiempo en las redes.

"Usamos las redes por divertirnos, nadie nos mete un chupete en la boca"", Source: , Source description: , Image:

Algunos críticos han dicho que el documental es alarmista, o que carece de perspectiva histórica para entender que estos fenómenos no son tan nuevos.

Como todo documental, deja sin cubrir aspectos importantes, como el cruce entre la tecnología y las desigualdades. Pero no percibo un alarmismo exagerado.

Quienes critican estos discursos tienen una frase típica: “Estas cosas siempre existieron”. Y es verdad. De hecho, Facebook hizo un estudio para mostrar que la red social influye menos en la polarización política que nuestro apego innato a los amigos de ideas afines.

Pero el mismo estudio mostró que los algoritmos de recomendación de Facebook duplican ese efecto, y ahí está el problema. Los huevos y la carne siempre subieron el colesterol, pero en las últimas décadas potenciamos ese efecto con una avalancha de helados y papas fritas. ¿Me explico?

Lo que pasa es que nos cuesta admitir el efecto en nosotros mismos.

Nos preocupa mucho ver a nuestros hijos pegados todo el día a un chupete digital, incapaces de concentrarse o asimilando expectativas poco realistas sobre sus cuerpos. Pero nosotros somos otra cosa, usamos las redes por divertirnos, nadie nos mete un chupete en la boca.

"La pandemia… aceleró el debate sobre la privacidad"", Source: , Source description: , Image:

Pero es un hecho que la tecnología digital también nos presta servicios imprescindibles. La pandemia lo ha dejado bastante claro.

Sin duda, y eso no tiene vuelta atrás.

El crecimiento de la digitalización siempre fue exponencial. Hace 25 años no teníamos celulares y ya es imposible imaginarlo. Pero la pandemia lo aceleró con esteroides. Aunque también mostró sus limitaciones, ¿no?

Yo doy clases en línea hace años y conozco muy bien sus desventajas, pero ahora cada maestra de primaria descubrió que con niños de 7 años no funciona para nada.

También aceleró el debate sobre la privacidad, que antes era más teórico: ¿qué escucha Siri, qué escucha Alexa? Ya no hace falta ninguna Siri, todas las casas están conectadas y toda la familia está en la casa.

El otro día un papá inocente se puso los pantalones mientras mi hija de 6 años estaba en clases, y claro, había unas 30 familias viendo a un viejo medio desnudo atrás. O de pronto escuchas a una pareja peleándose en el otro cuarto. Aunque no quieras, ya te metes en la casa de otros todo el tiempo.

Las herramientas digitales de vigilancia han sido otro problema difícil de tratar. Solíamos resistirnos a ellas, pero este año nos interesó mucho la aplicación de rastreo de Corea del Sur, por ejemplo, que era la más invasiva de todas.

Claro, la gente está casi enojada porque las apps de rastreo todavía no funcionan. Y el problema no es tecnológico, es político. Aquí se evidencian dos problemas serios.

Primero, la gente todavía no entiende bien lo que las grandes compañías hacen con sus datos. En marzo, cuando Apple y Google anunciaron su aplicación, todos dijeron “ay, no, ahora Apple y Google nos quieren coleccionar esos datos”. ¡Apple y Google coleccionan esos datos siempre!

Y segundo, los gobiernos fueron incapaces de reaccionar a un desafío tecnológico de lo más sencillo.

Los privados les dijeron “nosotros ponemos los datos, ustedes desarrollen la app”. Y los gobiernos en medio año no lograron coordinarse ni empujar un diálogo político, porque no tienen el lenguaje para esto, no pueden vender un mensaje.

En Estados Unidos ni siquiera lograron ponerse de acuerdo al interior de cada estado. Y hace poco más de un mes, Apple y Google dijeron “ya, son tan incapaces los gobiernos que vamos a tomar este asunto en nuestras manos”.

Como la ley les impide instalar la app sin la venia estatal, van a integrar la función en el sistema operativo del teléfono y cada usuario verá si la habilita. Esto demuestra que la ventaja del sector privado en este tema es hoy insuperable.

"En China revisan hasta los datos de tu tarjeta de crédito para supervisar tu cuarentena. Para el gobierno, la emergencia lo justifica y punto"", Source: , Source description: , Image:

Por lo menos en Occidente.

Exacto, esto sí funcionó en países asiáticos que habían aprendido del SARS −aunque la app de Corea del Sur, como decías, publica más datos de los necesarios− y en países autoritarios donde simplemente no hay discusión.

En China revisan hasta los datos de tu tarjeta de crédito para supervisar tu cuarentena. Para el gobierno, la emergencia lo justifica y punto. Pero los gobiernos occidentales no saben qué justificar porque ni siquiera saben plantear la discusión. Es preocupante.

Para ser justos, la disputa entre la privacidad y la seguridad nunca ha sido fácil de plantear en países democráticos.

Yo crecí en una Alemania dividida donde un Estado de vigilancia controlaba medio país, así que me preocupo mucho por mi privacidad. Pero más me preocupo por mi madre de 70 años que aún vive en Alemania, ¿no?

El verdadero problema, como advirtió Yuval Harari, es evitar que las medidas de emergencia se queden cuando vuelva la normalidad.

La pandemia también nos permitió constatar que las noticias falsas se multiplican aun cuando no haya intereses políticos detrás.

Sí, aquí el problema es la economía de la atención misma.

Al algoritmo no le importa hacia qué lado te llevan las noticias falsas, simplemente le sirven para atraparte porque cuadran mejor que la verdad con nuestros sesgos cognitivos. En particular, con dos de ellos.

¿Cuáles?

Uno es el sesgo de confirmación: si una información refuerza tu opinión, se ha verificado que es un 90% menos probable que la identifiques como falsa. Y aun si te dicen que era falsa, es un 70% más probable que un tiempo después la recuerdes como verdadera.

El otro es el sesgo de novedad.

Nosotros evolucionamos para prestar una atención desproporcionada a lo novedoso. Al que no lo hizo, se lo comió el tigre. Y la verdad no suele ser novedosa, ya la has escuchado antes.

Así las noticias falsas obtienen en las redes 20 veces más retuits que las verdaderas.

Y la ventaja de los algoritmos es que estas conductas son predecibles: somos irracionales, pero predeciblemente irracionales.

Entonces, si fueras un algoritmo programado para atraer clics, ¿qué harías para sobresalir en tu trabajo durante una pandemia? Priorizar mensajes alarmantes que culpen a minorías religiosas de propagar el virus, o al ejército gringo de llevarlo a Wuhan.

Te irá muy bien en las famosas “métricas neutrales”, que supuestamente privilegian “lo que nos gusta” pero en realidad maximizan las ganancias a expensas de la polarización.

"Si una chica de 14 años busca un video en YouTube sobre cómo comer mejor, el algoritmo pronto le recomendará un video sobre anorexia"", Source: , Source description: , Image:

Y de nuestro bienestar emocional, según creen muchos psicólogos.

El año pasado, un estudio experimental concluyó que desactivar Facebook por un mes aumenta tu bienestar subjetivo tanto como ganar 30 mil dólares adicionales al año.

La explosión de las redes ha coincidido con aumentos medibles de la ansiedad, de la percepción de soledad, del suicidio adolescente, sobre todo de las chicas…

Comprendamos que estos algoritmos no afectan a todos por igual: buscan a los más débiles entre nosotros y les pegan bajo el cinturón.

Si una chica de 14 años busca un video en YouTube sobre cómo comer mejor, el algoritmo pronto le recomendará un video sobre anorexia, porque la experiencia le dice que captará su atención. Y si ella es débil, tomará ese camino.

Los usuarios de YouTube, que son dos mil millones, ven en promedio 40 minutos de videos al día, de los cuales los algoritmos recomiendan el 70%. Alrededor del 5% de las recomendaciones son teorías conspirativas absurdas: que la Tierra es plana, que las vacunas son peligrosas, etc.

Haciendo números, dos de cada siete personas en el mundo ven en promedio 1,5 minutos diarios de teorías conspirativas. ¡Es casi una religión global! No creo que tantos cristianos recen a diario.

Si ves ese tipo de videos, empiezas a dudar de todo. Y si la verdad de los hechos ya no cuenta, las reglas tampoco. Por eso crear confusión les interesa tanto a los líderes populistas o autoritarios.

También circulan teorías absurdas sobre la manipulación digital, o sobre las intenciones ocultas que tendría Mark Zuckerberg.

Claro, algunos creen que Zuckerberg estudia nuestra personalidad para irse a un sótano oscuro con el Joker y Darth Vader a planear cómo dominar el mundo.

Pero no funciona así. Ni siquiera hay muchos psicólogos en Silicon Valley.

Las tecnologías persuasivas encuentran nuestras debilidades por ensayo y error, con pruebas ciegas de A/B: ponen dos versiones de un mensaje y ven cuál produce más clics.

Así descubrieron que las publicaciones que expresan indignación obtienen el doble de likes y casi el triple de shares.

"Tú no revisaste en febrero tu pila de papel higiénico porque tuvieras noticias sobre la cadena de suministro, sino por el temor colectivo"", Source: , Source description: , Image:

Este método ciego, de hecho, redescubrió estrategias que figuraban hace años en los manuales de diseño de casinos, pensados para hacerte adicto.

Otra emoción muy exitosa es el miedo, porque reaccionar al miedo de la tribu es también un aprendizaje evolutivo.

Cuando un búfalo siente el miedo de otro miembro de la manada, echa a correr sin saber por qué.

Y tú no revisaste en febrero tu pila de papel higiénico porque tuvieras noticias sobre la cadena de suministro, sino por el temor colectivo. Pues bien, #toiletpapergate y #toiletpapercrisis fueron las principales tendencias en Twitter a finales de febrero.

Para decir algo en su favor, algunas redes sociales filtraron muchas noticias falsas sobre la pandemia, en un esfuerzo inédito de su parte.

Sí. Amazon eliminó muchos productos que mentían sobre el virus y Facebook mostró advertencias en millones de publicaciones que hacían lo mismo.

Cuando las personas vieron esas etiquetas de advertencia, el 95% de las veces no hicieron clic en la noticia. ¿Pero cuánto sirve eso, si la gran mayoría sólo lee titulares? La gente no se molesta en leer el contenido del 70% de los links que retuitea.

Y ese 5% que no fue disuadido por la advertencia ya son dos millones de personas.

Avaaz, una organización sin fines de lucro, informó que 104 afirmaciones falsas sobre el virus se vieron más de 117 millones de veces en Facebook durante marzo, y que la compañía tardó hasta 22 días en emitir las advertencias.

Y hablamos del contenido en inglés, en otros idiomas filtran muchísimo menos.

Esto debe preocupar a los latinoamericanos, porque son líderes mundiales en el uso de redes sociales: 3,5 horas diarias en promedio.

"No podemos dejar las reglas de la sociedad en manos de unos pocos ingenieros"", Source: , Source description: , Image:

¿Eres partidario de que los Estados regulen con más fuerza el uso de estas tecnologías?

¡Por supuesto! Es verdad que las regulaciones eficientes suelen llegar cuando una industria ha alcanzado cierta escala, porque es difícil anticipar los riesgos.

Cuando apareció el automóvil, uno de los argumentos en su favor fue que haría las ciudades más saludables al reducir los excrementos de caballos.

Pero no podemos dejar las reglas de la sociedad en manos de unos pocos ingenieros. ¿Dónde se deben almacenar los datos? ¿Qué tipo de datos? ¿Con qué finalidad pueden usarse?

Tenemos que sacar estas preguntas nerds del garaje de los programadores, porque estamos quebrando varios acuerdos sociales con el poder de esta economía desregulada.

En un artículo reciente propones que, así como hemos modificado conductas para cuidarnos del virus, deberíamos adoptar medidas de “desinfección digital”.

Claro. La gente sabe que ya es suficiente con ocho horas de trabajo frente a la pantalla. Pero entra en su dormitorio, se toma dos respiros y saca su celular igual, ya no puede evitarlo.

Y por mucho que Apple y Google agreguen funciones para ayudarte a monitorear tu consumo digital, sus tecnologías siguen diseñadas para la adicción.

Tú dices “no, sólo voy a chequear una notificación”. Y 40 minutos después, dices “¡oh, qué me pasó!”. Pasó que tu cerebro paleolítico no es rival para el aprendizaje automático de las supercomputadoras acerca de tu voluntad.

De ahí las preguntas más existenciales sobre qué es la voluntad humana en este contexto.

Ya lo decía Schopenhauer: “El humano puede hacer lo que quiere, pero no puede querer lo que quiere”. Eso tampoco es nuevo.

Lo nuevo es que las mentes artificiales, al descubrir los sesgos de esa voluntad, han empezado a competir con ella por nuestra percepción consciente de la realidad.

Esto puede sonar loco, pero creo que estamos generando una nueva presión evolutiva sobre el Homo sapiens.

Porque si queremos coexistir con máquinas que procesan información mucho mejor que nosotros, la humanidad tendrá que producir un salto de conciencia. Es decir, evolucionar hacia formas de conciencia menos apegadas a procesos de información.

"Las tecnologías persuasivas funcionan como extensiones de nuestras mentes, de ese diálogo interior que no podemos parar"", Source: , Source description: , Image:

¿Y crees que podemos inducir una evolución de ese tipo?

No le pidas tanta iluminación a un académico, pero te cuento algo que me sorprendió mucho.

Hace poco analicé, con datos de Facebook, qué ha hecho la gente en su tiempo libre durante la pandemia en América Latina. Y la única actividad que se disparó respecto de épocas normales fue la meditación, tanto en interés de la gente como en descargas de apps.

Las mujeres, que siempre lideraron el uso de estas apps, duplicaron su uso. Y los hombres triplicaron el suyo, llegando al nivel que tenían las mujeres en 2019.

¿Y qué busca la meditación? Desconectarte hasta de tus pensamientos.

Y las tecnologías persuasivas funcionan como extensiones de nuestras mentes, de ese diálogo interior que no podemos parar.

Como cuando estás enojado y argumentas en tu cabeza con la otra persona y le dices todo lo malo que te ha hecho y todo lo que no sabe.

Estas tecnologías se conectan a ese diálogo interior, lo externalizan a través de las redes sociales y ahí te agarran.

Entonces, es interesante que sea la meditación, un posible antídoto para eso, lo que ha explotado. El 15% de los usuarios de Facebook en América Latina ya muestra interés en ella.

¿Sería contradictorio que busquen el antídoto en las mismas redes?

Es que no se trata de apagar internet. Tampoco es una opción si quieres ser parte de la evolución de esta sociedad.

En Silicon Valley, de hecho, también hay bastante interés en la meditación. Están experimentando con frecuencias sonoras, para encontrar aquellas cuyos efectos cerebrales ayudan a inducir el desapego y descansar de esta constante conexión.

¿Y sabes lo que descubren? Que ciertas frecuencias producen en tu cerebro el mismo efecto que una fogata.

Otra vez, aquí no hay nada nuevo, las tradiciones espirituales buscaban ese efecto hace miles de años para despejar tu cabeza.

Porque si miras dentro de ti, en tu cabeza no hay una sola opinión, hay un comité discutiendo. Y cuando la gente vuelve a intuir que necesita deshacerse de esas voces, es porque descubre que son las mismas que corren en Facebook.

Ahora, desapegarte de esas voces no es tan sencillo como descargar una app, son palabras mayores.

Pero antes, para intentarlo, tenías que renunciar a tu trabajo, a tu familia y partir a las montañas a buscar un maestro. La idea es que ahora puedas hacer tu fogata a las 7 de la tarde en tu departamento.

"La tecnología es normativamente neutral: puede escalar los problemas o las soluciones, según el uso que le demos"", Source: , Source description: , Image:

Crees que la salida, entonces, no será arrancar de la tecnología sino combatirla con más tecnología.

Y es así porque la tecnología es normativamente neutral: puede escalar los problemas o las soluciones, según el uso que le demos.

Ahora, yo hablo de este interés en la meditación como una señal positiva, pero no va a ser la pócima mágica.

Así como un bebé descubre los contornos de su cuerpo mordiéndose el dedo, nosotros estamos recién conociendo los contornos de nuestras mentes expandidas digitalmente.

Pero estoy convencido de que aprender a tomar distancia de estas tecnologías va a significar, en el largo plazo, aprender a tomar distancia de uno mismo.

Un ególatra sin internet, en ese sentido, no sería parte de la solución.

¿La idea de un chip en el cerebro es compatible con lo que estás planteando? ¿O son excluyentes?

Si ese chip te mantiene en el nivel neuronal que procesa información y la traduce en razonamientos y emociones, no serviría para eso.

La conciencia está en otro nivel neuronal, parece que se produce en un circuito que se llama DMN y que básicamente conecta todo el cerebro.

Y me imagino que con una interfaz neuronal también se la puede estimular, pero será como siempre en la tecnología: la primera aplicación va a ser para comercio y la segunda para pornografía.

Mientras tanto, ¿qué medidas de higiene podrías recomendar?

Lávese la mente a menudo durante al menos 20 segundos, especialmente después de un desplazamiento sin sentido en las redes sociales durante el cual estuvo expuesto a algoritmos especializados en bajar sus defensas.

Tápese la boca cuando esté a punto de difundir un contenido odioso o que ni siquiera ha leído. Y asuma la responsabilidad de ser un potencial vector de contagio en este problema colectivo.


Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

En esta nota

redes sociales

Suscribite al boletín de Noticias

Recibe gratis las noticias más importantes diariamente en tu email

Este sitio está protegido por reCAPTCHA y Google Política de privacidad y Se aplican las Condiciones de servicio.

¡Muchas gracias!

Más sobre este tema
Contenido Patrocinado
Enlaces patrocinados por Outbrain