Olvídense de esa zarandaja de que Internet es la tierra de la libertad, la democracia universal, la cura de todos nuestros males democráticos, etcétera. Todo lo contrario: Internet se está conformando como una peligrosa granja universal que nos engorda con nuestras propias ideas sin permitirnos acceder a nuevos puntos de vista. Estamos ya inmersos en un ciberespacio con un sistema de filtrado de noticias muy poco oxigenado que acaba con cualquier proceso o debate político y que asfixia peligrosamente nuestra creatividad, esa chispa que desata el progreso y que nace siempre en la frontera entre dos visiones contrastadas.

Ésta es la tesis del gurú tecnológico estadounidense Eli Pariser, cuyo libro de referencia, El filtro burbuja, acaba de publicarse en España (Ed. Taurus) con el subtítulo Cómo la red decide lo que leemos y lo que pensamos. Pariser ya atisbó en 2011, fecha de la publicación del libro en EEUU, adónde nos está conduciendo la personalización de contenidos en redes sociales como Facebook o en el buscador Google. Los algoritmos que sustentan la red social de Zuckerberg y el buscador más utilizado seleccionan la información que vemos en nuestras pantallas en función de los clics que hayamos hecho anteriormente sobre otros contenidos: búsquedas previas en Google o las opiniones de nuestros amigos que hayan merecido un «like». Y no sólo eso: Google, por ejemplo -y sin necesidad de encender el ordenador-, utiliza 57 indicios distintos para personalizar los contenidos que recibiremos al teclear en la casilla de búsquedas. Entre esos indicios figura desde el tipo de ordenador hasta la ubicación o el explorador que se utiliza. Eso es el filtro burbuja: una esfera de «cosas que nos gustan» que, alrededor de nosotros, crean los algoritmos que seleccionan lo que vemos cuando buscamos en la web. Una burbuja pensada para personalizar los anuncios y enviarnos las cosas que queremos comprar.

Pero que no se queda sólo en una implacable y muy eficaz estrategia de ventas. La burbuja invade lo que pensamos. Dice Pariser en su libro: «Los filtros personalizados presentan cierta clase de autopropaganda invisible, adoctrinándonos con nuestras propias ideas, amplifican nuestro deseo por cosas que nos son familiares, manteniéndonos ignorantes con respecto a los peligros que nos acechan en el territorio oscuro de lo desconocido». El mismo Pariser se percató de este fenómeno cuando en su propia cuenta de Facebook descubrió que la red sólo le mostraba entre las novedades opiniones de personas progresistas como él. Facebook vio que Pariser hacía más veces clic en los enlaces de sus amigos progresistas que en los conservadores, así que el algoritmo los excluyó. En su libro reflexiona: «La personalización puede conducirnos a un cierto determinismo informativo en el que aquello sobre lo que clicamos en el pasado determine lo que vayamos a ver después, un historial web que estamos condenados a repetir una y otra vez. Podemos quedarnos atrapados en una versión estática y cada vez más limitada de nosotros mismos, en un bucle infinito sobre nosotros mismos». Sostiene Pariser que esta personalización está causando una especie de «lobotomía global» en el cerebro mundial que aspiraba ser Internet.

Estamos poniendo nuestra vida en la red sin conocer las graves consecuencias que está causando la personalización. «En la actualidad, Google controla todas nuestras señales a las que tiene acceso. No debemos subestimar el poder de esa información: si Google detecta que me conecto primero desde Nueva York, luego desde San Francisco y más tarde desde Nueva York, sabrá que viajo de costa a costa de Estados Unidos y, en consecuencia, podrá ajustar sus resultados. Más aún, al examinar qué navegador utilizo podrá hacer conjeturas acerca de mi edad e, incluso, de mi tendencia política».

Saben quiénes somos y nos dan lo que supuestamente pedimos. El filtro burbuja no tiene criterios éticos al seleccionar las noticias. Lo que clicaste es lo que ves. No existe el sistema de edición de los medios de comunicación tradicionales. «Los periódicos con mayor credibilidad alzaron un muro entre lo que era negocio y lo que era información. Comenzaron a defender la objetividad y a condenar los contenidos sesgados. Ése era el modelo ético: aceptar la responsabilidad de brindar información neutral al público sin manipularlo. Fue lo que guió las aspiraciones de los esfuerzos periodísticos durante la última mitad del siglo XX. El sistema actual tiene un sentido de la ética y de la responsabilidad pública intrínseco, por imperfecto que sea. Sin embargo, el filtro burbuja, pese a estar desempeñando algunos de esos mismos papeles, carece de él».

El algoritmo no incorpora principios éticos. Y, además, al algoritmo no se exige lo que se les exige a los medios de comunicación tradicionales: «Estas plataformas acaparan una inmensa cantidad de poder, en muchos aspectos tanto como directores de periódicos o de sellos discográficos y otros intermediarios que los precedieron. Pero mientras que se las hemos pasar canutas a los editores de The New York Times y a los productores de la CNN por no haber publicado ciertas historias, dejando al descubierto los intereses a los que sirven, no hemos elaborado ningún análisis pormenorizado acerca de qué intereses hay detrás de los nuevos gestores», incide Pariser en su libro. Y sentencia:

«Por el momento estamos trocando un sistema con un sentido de las responsabilidades y un papel cívico bien definido y discutido por otro sin sentido de la ética. La mayoría de los filtros personalizados no tienen modo de destacar lo que realmente importa pero tiene menos clics».

El poder del clic, de lo que la gente sigue y comparte, puede llegar a ser demoledor. Pariser cita al filósofo John Dewey al subrayar que los asuntos importantes «que de forma indirecta afectan a toda nuestra vida pero existen fuera de la esfera de nuestro propio interés inmediato son la piedra angular y la razón de ser de la democracia». Y esos asuntos son, precisamente, lo que están quedan do fuera de nuestro radio de acción por culpa de los algoritmos que filtran los contenidos a los que tenemos acceso. «En última instancia, la democracia sólo funciona si nosotros, en cuanto ciudadanos, somos capaces de pensar más allá de nuestro limitado interés personal. Pero para ello necesitamos tener una opinión generalizada del mundo en el que vivimos juntos. Hemos de entrar en contacto con las vidas, necesidades y deseos de otras personas. La burbuja de filtros nos empuja en la dirección contraria: crea la impresión de que nuestro limitado interés personal es todo cuanto existe. Y aunque esto es genial para conseguir que la gente compre por internet, no lo es para que las personas tomen juntas mejores decisiones. La personalización nos ha producido algo muy distinto: una esfera pública clasificada y manipulada por algoritmos, fragmentada a propósito y hostil al diálogo».

Nos han colocado anteojeras muy sibilinamente. La personalización cambia nuestra forma de pensar porque, sin saberlo nosotros, se nos está hurtando información que la máquina no considera relevante para nosotros. O como dice Pariser, «somos integrantes de un espectáculo de magia, es fácil que nos engañen, nos manipulen y nos distraigan». No nos estamos dando cuenta porque no sabemos qué es lo que nos hurtan a la vista. «En la burbuja de filtros no ves lo que no te interesa en absoluto. Ni siquiera eres consciente de que existen acontecimientos e ideas importantes que te estás perdiendo. Tampoco puedes valorar cuán representativos son estos enlaces que sí ves, porque para ello deberías tener como referencia el entorno más amplio del que han sido seleccionados. Como te dirá cualquier estadístico, no se puede saber lo sesgada que es una muestra simplemente examinándola: se necesita algo con lo que compararla». Tal y como sentencia este gurú de las tecnologías, los medios de comunicación tradicionales aportan la sensación de «saber dónde estamos». En cambio, el filtro burbuja te aboca a «un bucle sobre ti mismo».

Lo que ´clicas´ es lo que eres y ese espejo digital te remite una y otra vez a tu propia imagen. Te encasilla. «La burbuja de filtros no sólo refleja tu identidad, también muestra qué posibilidades tienes. Los alumnos que estudian en algunas universidades estadounidenses más prestigiosas ven anuncios de trabajo que les pueden resultar de interés y que los estudiantes de los centros públicos ni siquiera son conscientes de que existen. La sección de noticias personales de científicos profesionales puede incluir artículos sobre concursos de los que nunca se enterarán los novatos. Al mostrar algunas posibilidad s y bloquear otras, la burbuja de filtros desempeña un papel en tus decisiones. Y, a su vez, moldea en quién te conviertes».

Todos los contenidos ásperos quedan fuera de la burbuja. Todo lo que no tenga el edulcorado sabor de lo que nos gusta, desaparece. Es lo que Pariser denomina el «síndrome del mundo amigable». Algunos de los problemas más grandes e importantes quedan fuera de nuestro alcance. Algunos problemas públicos importantes desaparecerán. «Pocas personas buscan información relativa a los sintecho. Y son aún menos las que las comparten llegado el caso. En general, las cuestiones áridas, complejas y pesadas -un montón de los asuntos que de verdad importan- no pasarían el corte. Y si bien solíamos confiar en que los redactores humanos sacarán a la palestra esos problemas cruciales, su influencia se está desvaneciendo».

Bienvenidos al mundo en el que el código algorítmico es la ley. Un mundo reglamentado además por gigantes digitales que no están dispuestos a asumir la responsabilidad sobre el proceso que están creando. «Con demasiada frecuencia, los directivos de Facebook, Google y otras compañías de gran relevancia social se hacen los tontos. Son revolucionarios sociales cuando les conviene, y empresarios neutrales y amorales cuando no. Y ambos enfoques no están a la altura de algunas cuestiones que son fundamentales».