Lectura de 92 Minutos

Fragmento extraído del libro La Era del Capitalismo de Vigilancia, 2018

Por Shoshana Zuboff

Google, pionera del Capitalismo de la Vigilancia

Google es al capitalismo de la vigilancia lo que la empresa automovilística Ford y General Motors fueron al capitalismo gerencial basado en la producción en masa. Unas personas descubren una nueva lógica económica con sus correspondientes modelos comerciales en un momento y un lugar, y esa lógica y esos modelos se perfeccionan luego por ensayo y error. Pues bien, en nuestra época, Google se convirtió en la pionera, la descubridora, la elaboradora, la experimentadora, la principal practicante, el modelo y el foco difusor del capitalismo de la vigilancia . El emblemático estatus de General Motors y de Ford como pioneras del capitalismo del siglo XX hizo de ellas un objeto de estudio académico y de fascinación popular durante muchos años, porque el eco de las lecciones que nos enseñaron resonaba mucho más allá de esas empresas en concreto. Las prácticas de Google merecen un examen análogo, no solo a modo de crítica de esa empresa en concreto, sino también porque esta constituye el punto de partida de la sistematización de una nueva y poderosa forma de capitalismo.

Tras la implantación triunfal que Ford hizo de la producción en masa, y durante decenios, cientos de investigadores, empresarios, ingenieros, periodistas y expertos se dedicaron a indagar en las circunstancias de su invención, sus orígenes y sus consecuencias. Aún décadas después, se escribían extensos estudios académicos sobre Ford (tanto sobre el hombre como sobre la empresa que creó). General Motors también ha sido objeto de intensos análisis. Fue el escenario de los estudios de campo de Peter Drucker para su fundamental obra Concept of the Corporation , el libro publicado en 1946 que sistematizó las prácticas de la organización empresarial del siglo XX y cimentó la reputación de Drucker como sabio de la gestión. Además de los muchos trabajos y libros académicos sobre esas dos compañías, los propios líderes de estas explicaron con gran entusiasmo sus descubrimientos y prácticas. Henry Ford y su director gerente, James Couzens, pero también Alfred Sloan y su mago del marketing , Henry «Buck» Weaver, reflexionaron sobre sus logros, los conceptualizaron y hasta los promocionaron, situándolos así en la dramática historia de la evolución del capitalismo estadounidense.

Google es una empresa famosa por su secretismo y cuesta imaginar que un Drucker de nuestros días pudiera entrar y salir de sus salas y pasillos como si nada, tomando notas de todo lo que viera. Sus ejecutivos publican mensajes cuidadosamente elaborados de proselitismo digital en libros y entradas de blogs, pero sus actividades no resultan fácilmente accesibles a investigadores externos ni a periodistas. En 2016, una demanda interpuesta contra la compañía por un director de producto denunciaba la presunta existencia de un programa de espionaje interno que pide a los empleados que delaten a cualquier compañero de trabajo que infrinja el acuerdo de confidencialidad de la empresa: se trata de una prohibición amplia que impide divulgar nada a nadie acerca de la compañía. Lo más parecido que hoy tenemos a un Buck Weaver o a un James Couzens que se encarguen de sistematizar en libros u otras publicaciones las prácticas y los objetivos de una empresa como Google es su ya veterano economista jefe Hal Varian, que contribuye a la causa de ese conocimiento escribiendo artículos académicos en los que explora temas de gran importancia. De Varian se ha dicho que es «el Adam Smith de la googlenomía» y el «padrino» del modelo publicitario de esa empresa. Es en la obra de Varian donde apreciamos, ocultas a plena vista, pistas importantes para entender la lógica del capitalismo de la vigilancia y sus pretensiones de poder.

Varian examinó, en dos extraordinarios artículos publicados en revistas académicas, el tema de la «mediación informática de las transacciones» y sus efectos transformadores en la economía moderna. Ambos textos están escritos con una prosa accesible y práctica, pero esa relajada moderación de Varian contrasta con sus declaraciones públicas, a menudo llamativas: «En la actualidad, hay un ordenador en medio de prácticamente todas las transacciones […] y, ahora que están disponibles, estos ordenadores tienen varios usos adicionales posibles». Él mismo identifica cuatro de esos nuevos usos: «la extracción y el análisis de datos», «nuevas formas contractuales nacidas de una mejora de la monitorización», «la personalización y la customización», y los «experimentos continuos».

Los análisis que Varian hace de estos nuevos «usos» constituyen una inesperada guía de la extraña lógica del capitalismo de la vigilancia, la división del aprendizaje que ese capitalismo impulsa, y el carácter de la civilización informacional a la que nos conduce. Volveremos sobre las observaciones de Varian de vez en cuando a lo largo de nuestro examen de los fundamentos del capitalismo de la vigilancia, y haremos una especie de «ingeniería inversa» de sus afirmaciones que nos permita captar la cosmovisión y los métodos del capitalismo de la vigilancia a través de ese prisma. Un ejemplo: «La extracción y el análisis de datos —escribe Varian— es aquello de lo que todos hablan cuando hablan de macrodatos». Los datos son la materia prima necesaria para los novedosos procesos de fabricación del capitalismo de la vigilancia. La extracción describe las relaciones sociales y la infraestructura material con la que la empresa afirma su autoridad sobre esa materia prima a fin de conseguir economías de escala en sus operaciones de abastecimiento de dicha materia.

El análisis hace referencia al complejo de sistemas computacionales altamente especializados a los que en estos capítulos aludiré en general por el nombre de inteligencia de máquinas . Me gusta esta expresión amplia porque nos prepara para ver el bosque antes que los árboles y nos ayuda así a dejar de centrarnos en la tecnología para atender más a los objetivos de esta. Pero opto también por usar esa expresión siguiendo el ejemplo de la propia Google. La compañía se considera a sí misma «a la vanguardia de la innovación en inteligencia de máquinas», un término en el que engloba tanto el aprendizaje de máquinas como la producción de algoritmos «clásica», así como numerosas operaciones computacionales a las que se suele hacer referencia con otros términos, como análisis predictivo o inteligencia artificial. Entre esas operaciones, Google cita sus trabajos en traducción lingüística, reconocimiento automático de voz, procesamiento visual, valoraciones, construcción de modelos estadísticos y predicción: «En todas esas tareas y en otras muchas, recopilamos un gran volumen de pruebas directas o indirectas de relaciones de interés y aplicamos algoritmos de aprendizaje para comprender mejor y generalizar». Estas operaciones de inteligencia de máquinas convierten la materia prima en los productos algorítmicos sumamente rentables de la empresa, diseñados para predecir el comportamiento de sus usuarios. La inescrutabilidad y la exclusividad de esas técnicas y operaciones son el foso que rodea al castillo y que protege de forma segura la acción que se desarrolla dentro de él.

La invención de la publicidad dirigida por parte de Google allanó el camino para el éxito financiero de la compañía, pero también constituyó la piedra angular de un fenómeno de más largo alcance: el descubrimiento y la elaboración del capitalismo de la vigilancia. El modelo de su negocio es característicamente publicitario, y mucho se ha escrito ya sobre los métodos de subasta automatizada de Google y otros aspectos de sus invenciones en el terreno de la publicidad en la red. Pero el resultado de tanta verbosidad es que estos fenómenos están tan sobradamente descritos en la actualidad como insuficientemente teorizados. Nuestro objetivo en este capítulo y los siguientes de la primera parte del libro consistirá en revelar las «leyes del movimiento» que impulsan la competencia de la vigilancia, y para ello, comenzamos mirando desde otra perspectiva nueva y distinta el punto de origen de todo ello, el momento en que se descubrieron por vez primera los mecanismos fundamentales del capitalismo de la vigilancia.

Antes de empezar, quisiera decir algo sobre el vocabulario. Todo intento de abordar lo que carece de precedentes requiere de un léxico nuevo y yo no tengo reparos en introducir términos nuevos cuando el lenguaje existente no logra captar bien la naturaleza de un fenómeno novedoso. A veces, sin embargo, cambio intencionadamente el sentido de ciertas expresiones ya conocidas porque pretendo poner de relieve así algunas continuidades en la función de un elemento o de un proceso. Ese es el caso de las leyes del movimiento , que tomo prestadas de las leyes de la inercia, la fuerza y la acción-reacción postuladas en su día por Newton.

Con el paso de los años, también los historiadores han terminado adoptando esa terminología para describir las «leyes» del capitalismo industrial. Por ejemplo, la historiadora económica Ellen Meiksins Wood localiza los orígenes del capitalismo en el cambio de las relaciones entre los propietarios ingleses y los aparceros, cuando los dueños comenzaron a priorizar la productividad sobre la coerción: «La nueva dinámica histórica nos permite hablar de un “capitalismo agrario” en la Inglaterra de la Edad Moderna temprana, una forma social caracterizada por unas “leyes del movimiento” diferenciadas que, con el tiempo, darían lugar al capitalismo en su forma ya madura, industrial».  Wood describe así cómo se terminaron manifestando esas nuevas leyes del movimiento en la producción industrial:

El factor crucial en la divergencia entre el capitalismo y el resto de formas de «sociedad comercial» fue el desarrollo de ciertas relaciones sociales de propiedad que generaron unos imperativos de mercado y unas «leyes del movimiento» capitalista […], una producción y una maximización de la rentabilidad competitivas, la obligación de reinvertir excedentes, y la implacable necesidad de mejorar la productividad laboral que asociamos con el capitalismo. […] Esas leyes del movimiento precisaron de unas ingentes transformaciones y agitaciones sociales para que comenzaran a tener efecto. Requirieron de toda una transformación en el metabolismo humano con la naturaleza, en la provisión para cubrir las necesidades básicas de la vida.

El argumento que aquí defiendo es que, aunque el capitalismo de la vigilancia no abandona «leyes» capitalistas ya consolidadas, como la producción competitiva, la maximización de beneficios, la productividad y el crecimiento, estas dinámicas previas actúan ahora en el contexto de una nueva lógica de acumulación que también introduce sus propias y diferenciadas leyes del movimiento. Aquí —y en los capítulos siguientes— examinaremos estas dinámicas fundamentales, incluyendo en ellas también los imperativos económicos idiosincrásicos del capitalismo de la vigilancia, definidos por la extracción y la predicción, por su manera singular de enfocar las economías de escala y de alcance en la provisión de su materia prima, por su necesidad de construir y elaborar unos medios de modificación conductual que incorporen sus «medios de producción» (basados en la inteligencia de máquinas) dentro de un sistema de acción más complejo, y por las diversas formas en que las exigencias de la modificación conductual orientan todas las operaciones hacia la búsqueda de unas totalidades de información y de control, creando así el marco propicio para un poder instrumentario sin precedentes y sus implicaciones sociales consiguientes. Por el momento, mi propósito será reconstruir nuestra valoración de un terreno supuestamente conocido aplicándole una óptica nueva: volvamos, pues, sobre aquellos primeros tiempos de Google, tan llenos de optimismo, crisis e inventiva.

Un equilibrio de poder

Google se constituyó como empresa en 1998, fundada por Larry Page y Sergey Brin, dos estudiantes de posgrado de Stanford, justo dos años después de que el navegador Mosaic hubiera abierto de par en par las puertas de la red informática mundial al público usuario de ordenadores. Desde el principio, la compañía encarnó la esperanza de que el capitalismo informacional actuara como una fuerza social liberadora y democrática que galvanizara y deleitara a las poblaciones de individuos de la segunda modernidad repartidas por todo el mundo.

Gracias a la amplitud de ese afán suyo, Google logró imponer la mediación informática en nuevos y muy extensos dominios de la conducta humana a partir de las búsquedas que los usuarios de los ordenadores hacían en línea y a partir también de la implicación de esos usuarios en la red a través de un creciente elenco de servicios de la propia Google. Al informatizarse por primera vez, todas esas actividades nuevas produjeron recursos de datos totalmente nuevos también. Por ejemplo, además de palabras claves, cada búsqueda en Google producía una estela de datos colaterales, como el número y la pauta de términos de búsqueda, la manera de expresar cada búsqueda, su ortografía, su puntuación, el tiempo que duraba, las pautas de cliqueo y la ubicación.

En un primer momento, esos productos conductuales secundarios se almacenaban de manera un tanto anárquica y eran ignorados para otros usos operativos de la compañía. Es habitual atribuir a Amit Patel, un joven titulado por Stanford que se interesaba especialmente por la «minería de datos», el trascendental descubrimiento de la importancia de las memorias caché de datos fortuitos que guardaba Google. Su trabajo con esos registros de datos lo convenció de la posibilidad de construir unas historias detalladas sobre cada usuario —sus ideas, sus sentimientos, los temas que le interesan— a partir de la estela de señales no estructuradas que iba dejando con cada una de sus acciones en línea. Patel llegó a la conclusión de que esos datos proporcionaban en realidad una especie de «sensor amplio del comportamiento humano» y de que se les podía extraer inmediatamente una utilidad si se llevaba a la práctica el sueño de uno de los cofundadores, Larry Page, de convertir el buscador web de Google en una inteligencia artificial extensa.

Los ingenieros de Google no tardaron en comprender que los flujos continuos de datos conductuales colaterales podían convertir aquel motor de búsqueda en un sistema de aprendizaje recursivo que mejorara constantemente los resultados de las búsquedas y estimulara innovaciones en el propio producto, como el corrector ortográfico, el traductor y el reconocimiento de voz. Como Kenneth Cukier comentó en aquel entonces:

Otros motores de búsqueda de los años noventa tuvieron la oportunidad de hacer lo mismo, pero no la aprovecharon. Hacia el año 2000, Yahoo! se percató del potencial, pero aquella idea no se tradujo en nada. Fue Google la que detectó las trazas de oro entre el detritus resultante de sus interacciones con sus usuarios y se tomó la molestia de recolectarlas. […] Google saca partido a una información que es un subproducto de las interacciones con los usuarios, una especie de datos de escape que se reciclan de manera automática para mejorar el servicio o para crear un producto completamente nuevo.

La concepción de lo que hasta entonces se consideraba material de desecho (datos de escape, algo así como los gases de desecho —por así llamarlos— que se liberaban y se acumulaban en los servidores de Google durante el proceso de combustión del motor del buscador) cambió rápidamente hasta convertirlo en un elemento crucial de la transformación del motor de búsqueda de Google a partir de un proceso reflexivo de aprendizaje y mejora continuos.

En aquella fase temprana del desarrollo de Google, los circuitos de retroalimentación activos en la mejora de las funciones de su buscador generaron una especie de equilibrio de poder: el buscador web de Google necesitaba a personas de quienes aprender, y la gente necesitaba también el buscador de Google para aprender con él. Esta simbiosis permitió que los algoritmos de Google aprendieran y produjeran resultados de búsqueda cada vez más relevantes y completos. A más consultas, más aprendizaje; a más aprendizaje, mayor relevancia. Y una mayor relevancia implicaba más búsquedas y más usuarios. Cuando la joven compañía celebró su primera conferencia de prensa en 1999 para anunciar una inversión de 25 millones de dólares en compra de acciones de la empresa por parte de dos de las más reputadas firmas de capital riesgo de Silicon Valley, Sequoia Capital y Kleiner Perkins, el buscador de Google ya recibía siete millones de consultas diarias. Unos años más tarde, Hal Varian, que se había incorporado a Google en 2002 en calidad de economista jefe de la compañía, comentó: «Toda acción llevada a cabo por un usuario se considera una señal que hay que analizar y que repercute en el sistema». El algoritmo PageRank (así llamado en honor del apellido de uno de los fundadores de la empresa) había otorgado ya a Google una ventaja significativa con vistas a identificar los resultados más populares de las consultas. En el transcurso de los años siguientes, serían la captura, el almacenamiento y el análisis de los subproductos de esas consultas de búsqueda, así como el aprendizaje a partir de estos, lo que convertiría a Google en el patrón oro de las búsquedas en internet.

El aspecto clave de todo esto para nosotros estriba en una crucial distinción entre el entonces y el ahora. Durante ese periodo temprano, los datos conductuales se ponían enteramente al servicio del usuario. Los datos de los usuarios proporcionaban valor sin coste y ese valor se reinvertía en la experiencia del usuario en forma de servicios mejorados: unas mejoras que también se ofrecían sin coste a los usuarios. Estos suministraban la materia prima en forma de datos de comportamiento, y esos datos se cosechaban para perfeccionar la velocidad, la precisión y la relevancia, y para ayudar a desarrollar productos auxiliares, como el traductor. Yo llamo a esa dinámica ciclo de reinversión del valor conductual , pues en ella, todos los datos sobre comportamiento se reinvierten en la mejora del producto o servicio.

El mencionado ciclo emula la lógica del iPod; de hecho, funcionó a las mil maravillas en Google también, aunque con una diferencia fundamental: en Google se echaba en falta una forma de transacción mercantil sostenible en el tiempo. En el caso del iPod, el ciclo se ponía en marcha con la adquisición de un producto físico con un elevado margen de beneficio. Las reciprocidades subsiguientes mejoraban el iPod como producto y repercutían en un aumento de sus ventas. Los clientes eran los sujetos de aquel proceso comercial que aspiraba a alinearse con las demandas de conseguir «lo que quiero, cuando quiero y donde quiero» que planteaba el comprador del producto. En Google, el ciclo también estaba orientado al individuo como sujeto de este, pero sin un producto físico en venta: flotaba fuera del mercado y era una interacción con los «usuarios», más que una transacción mercantil con unos clientes.

Esto explica por qué no es correcto categorizar a los usuarios de Google como «clientes» de la compañía: no hay un intercambio económico, ni un precio, ni una ganancia. Tampoco puede decirse que los usuarios sean como unos trabajadores más de la empresa. Cuando un capitalista contrata personal y le facilita unos salarios y unos medios de producción, los productos que ese personal fabrica pertenecen al capitalista, que los vende con un margen de beneficio. No es el caso con Google. A los usuarios no se les paga por su trabajo, ni se les encarga el manejo de los medios de producción, como explicaremos con mayor detalle más adelante en este mismo capítulo. Además, se dice a menudo que el usuario es el producto . Pero también eso resulta engañoso y es un argumento sobre el que volveremos en más de una ocasión. De momento, baste decir que los usuarios no somos productos, sino, más bien, las fuentes de provisión de la materia prima del proceso. Como veremos, los inusuales productos del capitalismo de la vigilancia se derivan de nuestro comportamiento, pero no por ello dejan de ser indiferentes a nuestro comportamiento. Sus productos consisten en predecirnos, pero no se preocupan en realidad de lo que hagamos o de lo que nos ocurra.

En resumen, en aquella fase temprana del desarrollo de Google, cualquier cosa que los usuarios del buscador entregaran sin saberlo a la compañía y que tuviese un valor para esta, también era aprovechado por ellos en forma de una mejora de los servicios. Dentro de ese ciclo de reinversión, todo el valor que los usuarios creaban cuando proporcionaban datos conductuales adicionales se «consumía» en proveer a esos mismos usuarios unos fantásticos resultados de búsqueda. El hecho de que los usuarios necesitaran el buscador casi tanto como el buscador necesitaba a los usuarios favoreció un equilibrio de poder entre Google y sus públicos. Las personas eran tratadas como fines en sí mismas, como sujetos de un ciclo autónomo, no mercantil, que se alineaba a la perfección con la misión declarada por la propia Google de «organizar la información del mundo y hacer que sea universalmente accesible y útil».

En busca del capitalismo: dinero impaciente y estado de excepción

En 1999, pese al esplendor que estaba adquiriendo Google con su mundo nuevo de páginas web que por fin podíamos buscar, sus crecientes capacidades informáticas y sus glamurosos avaladores de capital, seguía sin haber una vía fiable de conversión del dinero de los inversores en ingresos. El ciclo de reinversión del valor conductual producía una funcionalidad de búsqueda que estaba muy bien, pero distaba aún mucho de ser capitalismo propiamente dicho. El equilibrio de poder hacía que resultara arriesgado (y posiblemente contraproducente) desde el punto de vista financiero cobrar a los usuarios una tarifa por los servicios de búsqueda. Vender resultados de búsqueda también habría establecido un peligroso precedente para la empresa, pues habría implicado asignar un precio a una información que el rastreador web de Google había tomado ya de otros actores sin haber pagado por ella. Sin un dispositivo como el iPod de Apple o sus canciones digitales, no había márgenes, ni excedentes ni nada tangible que vender y materializar en ingresos.

Google había relegado la publicidad a una prioridad de tercera: su equipo de AdWords estaba formado por siete personas, la mayoría de las cuales compartían la antipatía general que los fundadores de la compañía sentían por los anuncios publicitarios. De hecho, aquel era el tono que Sergey Brin y Larry Page habían mostrado el año anterior en la trascendental ponencia que presentaron en el Congreso World Wide Web de 1998 con el título «The Anatomy of a Large-Scale Hypertextual Web Search Engine» [«La anatomía de un motor de búsqueda web hipertextual a gran escala»]: «Nuestra previsión es que los motores de búsqueda financiados con publicidad mostrarán un sesgo inherente favorable a los anunciantes y adverso a las necesidades de los consumidores. Este tipo de sesgo es muy difícil de detectar, pero no por ello dejaría de tener un efecto significativo en el mercado. […] Creemos que el problema de la publicidad da pie a suficientes incentivos mixtos como para que resulte crucial disponer de un motor de búsqueda competitivo que sea transparente y se mantenga en el ámbito de lo académico».

Los primeros ingresos de Google se basaron en los acuerdos de licencia en exclusiva firmados para suministrar servicios web a portales como Yahoo! o como el japonés Biglobe. También generaron unos ingresos modestos los anuncios patrocinados vinculados a palabras claves de las búsquedas. Se valoraron asimismo otros modelos. Motores de búsqueda rivales como Overture —usado en exclusiva por un gigante de aquel entonces, como era el portal AOL— o como Inktomi —el motor de búsqueda adoptado por Microsoft— recaudaban ingresos procedentes de los sitios cuyas páginas indexaban. Overture también logró atraer anuncios en línea gracias a su política de permitir que los anunciantes pagaran por salir en lo más alto de los listados de búsqueda, que era precisamente el formato que Brin y Page desdeñaban.

Algunos destacados analistas dudaron de si Google podría competir con sus rivales, más consolidados. El New York Times se preguntó: «¿Puede Google crear un modelo de negocio que sea siquiera remotamente tan bueno como su tecnología?». Un conocido analista de Forrester Research proclamó que solo había unas vías muy tasadas para que Google pudiera ganar dinero con su buscador: «Construir un portal [como Yahoo!] […], asociarse con un portal […], vender licencias de la tecnología […], esperar a que la compre una compañía grande».

Pese a todos esos reparos generales que planteaba la viabilidad de Google, el prestigioso aval en forma de entrada de capital riesgo procedente de tan acreditados financiadores infundió confianza a los fundadores sobre sus posibilidades de recaudar dinero con su actividad empresarial. Sin embargo, la situación cambió bruscamente en abril de 2000, cuando la para entonces legendaria economía de las tecnológicas puntocom inició su pronunciada caída hacia la recesión, y el edén de Silicon Valley se convirtió inesperadamente en el epicentro de un terremoto financiero.

A mediados de abril, la cultura de privilegios y dinero rápido de Silicon Valley vivía ya en estado de emergencia como consecuencia del llamado pinchazo de la «burbuja puntocom». Es fácil que hayamos olvidado lo aterradora que se tornó la situación para los ambiciosos jóvenes del valle y para sus algo más talludos inversores. Empresas emergentes que habían recibido infladas valoraciones apenas unos meses antes se vieron de pronto obligadas a cerrar. En la prensa de aquel momento se publicaban artículos destacados (con títulos como «La ruina acecha a las puntocoms») en los que se señalaba que los precios de las acciones de hasta las más admiradas empresas de internet habían quedado «fuera de combate» y, en muchos casos, cotizaban por debajo de su precio inicial de salida: «Con tantas tecnológicas a la baja, ni entre los proveedores de capital riesgo ni en Wall Street hay ánimo alguno de darles ni un centavo». En las noticias abundaban los testimonios de inversores aturdidos y conmocionados. La semana del 10 de abril fue la del peor descenso registrado en la historia del Nasdaq, donde muchas de aquellas compañías de internet habían empezado a cotizar en bolsa, y donde reinaba un consenso cada vez mayor en torno a la idea de que el «juego» había cambiado irreversiblemente.

A medida que las muestras de devastación se extendían por el paisaje empresarial de Silicon Valley, menos probable se antojaba que los inversores pudieran ganar algo de dinero vendiendo Google a una gran compañía y menos inmunes se volvían a la creciente oleada de pánico. Muchos inversores de Google comenzaron a expresar sus dudas sobre las perspectivas de futuro de la empresa y algunos amenazaron incluso con retirar su apoyo. La presión para obtener rentabilidad aumentó de manera considerable, aun a pesar de que el buscador web de Google estaba considerado por muchos como el mejor de todos los motores de búsqueda, y a pesar de que el tráfico en su sitio web se estaba disparando y mil currículos de trabajo llegaban diariamente por correo a la sede de la compañía en Mountain View. La impresión era que Page y Brin se estaban moviendo con demasiada lentitud, por lo que sus principales inversores de capital riesgo (John Doerr, de Kleiner Perkins, y Michael Moritz, de Sequoia) no ocultaban su frustración. Según el cronista de Google Steven Levy: «Los inversores de capital riesgo ponían el grito en el cielo. Los días de esplendor juvenil de las  tecnológicas se habían acabado y no estaba claro que Google no terminara siendo otra víctima aplastada por la avalancha».


El carácter específico de la financiación con capital riesgo en Silicon Valley, sobre todo durante los años anteriores a que se alcanzaran niveles peligrosos de inflación de empresas emergentes, también contribuyó a la creciente sensación de apremio que se vivía en Google. El sociólogo de Stanford Mark Granovetter y su colega Michel Ferrary estudiaron las empresas del valle financiadas con
ese tipo de capital y vieron que «la conexión de una startup con una firma de capital riesgo de alta reputación envía al mercado la señal de que aquella es una empresa emergente de alta categoría y anima a otros agentes a vincularse con ella también». Estas pueden parecernos cuestiones obvias a estas alturas, pero nunca está de más recordar la ansiedad con la que se vivieron aquellos meses de súbita crisis. Los inversores de capital riesgo de prestigio cumplían una especie de función de escrutinio y aprobación —muy parecida a como las universidades de élite clasifican y legitiman a unos pocos estudiantes elevándolos por encima de la multitud de los universitarios y las universitarias de un país—, sobre todo en un entorno tan característicamente «incierto» como era el de la inversión en alta tecnología. Perder el respaldo de aquel poder indicativo de un estatus elevado podía condenar a una compañía joven a unirse a la larga lista de perdedores en la vertiginosa odisea de Silicon Valley.

Otras investigaciones apuntan a las importantes consecuencias que tuvo también el aluvión de dinero impaciente que inundó el valle cuando la vorágine inflacionaria atrajo a especuladores e intensificó la volatilidad ya de por sí propia de la financiación con capital riesgo. Varios estudios de las pautas de inversión seguidas con anterioridad al estallido de la burbuja mostraron lo mucho que reinaba en el ambiente una mentalidad orientada a anotarse «el gran tanto»: esa mentalidad hacía que unos malos resultados tendieran a estimular un incremento de la inversión, pues los financiadores se guiaban por la creencia de que, en el momento menos esperado, alguna de aquellas jóvenes compañías iba a dar con el esquivo modelo de negocio que convertiría todas aquellas apuestas en ríos de oro para ellos. Las tasas de mortalidad de las startups en Silicon Valley superaban con mucho las que se registraban en otros centros de inversión de capital riesgo, como Boston o Washington D. C., pues en el valle californiano el dinero impaciente se anotaba unas pocas grandes victorias y muchas derrotas. Los efectos de ese dinero impaciente también se dejaban ver en el tamaño de las empresas emergentes de Silicon Valley, que, durante ese periodo, eran significativamente más pequeñas que en otras regiones. La media de sus plantillas era de sesenta y ocho empleados, frente a los ciento doce de las del resto del país. Esto delataba un interés por obtener rápidas rentabilidades sin dedicar tanto tiempo a hacer crecer la empresa o a profundizar su base de talento profesional, y menos aún a cultivar las capacidades institucionales que Joseph Schumpeter aconsejaba desarrollar. Estas tendencias se veían exacerbadas, a su vez, por la cultura propia de Silicon Valley en general, donde el valor neto era venerado como la única medida válida del éxito de los habitantes del valle en la vida, tanto de los adultos como de los niños.

Pese a su gran ingenio y a los principios que parecían guiar su concepción de la realidad, Brin y Page no podían seguir ignorando la creciente sensación de emergencia que los rodeaba. En diciembre de 2000, el Wall Street Journal informaba así de cuál era el nuevo «mantra» que circulaba entre la comunidad inversora en Silicon Valley: «Con hacer gala de capacidad para ganar dinero no bastará para seguir siendo un actor importante en ese escenario en los años venideros. Habría que mostrar también cierta capacidad para obtener unas rentabilidades sostenidas y exponenciales».

El descubrimiento del excedente conductual

La declaración de un estado de excepción funciona en política como un manto con el que tapar lo que, en la práctica, es una suspensión del Estado de derecho para introducir nuevos poderes ejecutivos justificados por una situación de crisis. En Google, a finales del año 2000, sirvió de justificación para invalidar la relación de reciprocidad que existía entre la compañía y sus usuarios, y para animar a sus fundadores a abandonar su apasionada (y pública) oposición al aprovechamiento del negocio publicitario. Como respuesta concreta a la preocupación de los inversores, los fundadores encargaron al reducido equipo de AdWords la tarea de buscar vías de ganar más dinero. Page exigió que se simplificara para los anunciantes todo el proceso. Siguiendo ese nuevo enfoque, recalcó que los anunciantes «no deberían preocuparse siquiera por elegir palabras claves: ya las elegiría Google».

A nivel operativo, eso significaba que Google orientaría su propia (y continuamente creciente) memoria caché de datos sobre comportamientos, así como su potencia y sus conocimientos informáticos, hacia un solo objetivo y una única tarea: emparejar anuncios con búsquedas. Una nueva retórica comenzó a imponerse para legitimar tan inédita maniobra. Si no había más remedio que introducir publicidad, entonces esta tenía que ser «relevante» para los usuarios. Los anuncios ya no seguirían estando ligados a las palabras claves usadas en una consulta de búsqueda, sino que irían «dirigidos» a cada individuo en particular. Hacerse con este santo grial de la publicidad procuraría anuncios relevantes para los usuarios y visibilidad valiosa para los anunciantes.

Lo que se callaba en la nueva retórica era que, para lograr ese nuevo objetivo, Google iba a tener que pisar territorio virgen y explotar sensibilidades que solo sus datos conductuales colaterales (exclusivos y detallados) sobre millones —y, pronto, miles de millones— de usuarios podían revelar. Para conseguir ese nuevo objetivo, hubo que supeditar a toda prisa y en secreto el ciclo de reinversión del valor conductual a una empresa más amplia y compleja. Las materias primas que, hasta entonces, solo se habían utilizado para mejorar la calidad de los resultados de las búsquedas iban a ser usadas también para seleccionar y «dirigir» publicidad hacia los usuarios individuales. Algunos datos seguirían empleándose para mejorar los servicios, pero las crecientes existencias de señales colaterales almacenadas iban a ser reconvertidas en datos destinados a mejorar la rentabilidad de los anuncios tanto para Google como para sus anunciantes. Estos datos conductuales disponibles para usos adicionales a los de la mejora de servicios constituían un excedente, y fue en la solidez de ese excedente conductual donde la joven compañía hallaría un terreno firme por el que caminar hacia la obtención de unas «rentabilidades sostenidas y exponenciales» que iba a necesitar para sobrevivir. Merced a la percepción de una situación de emergencia, una nueva mutación comenzó a cobrar forma y a extender silenciosamente sus tentáculos por todos los rincones del contrato social implícito en la relación original de la empresa con sus usuarios, y a pervertir la presunta defensa de un ideal social que dicho «contrato» parecía entrañar.

Aquel estado de excepción declarado por Google fue el telón de fondo en el que, en el trascendental año 2002, arraigó por fin el capitalismo de la vigilancia. La capacidad de comprensión del excedente conductual superó un nuevo umbral en abril de ese año, cuando el equipo de analistas de los registros de datos llegó a sus oficinas una mañana y se dio cuenta de que una frase bastante peculiar había subido repentinamente al número 1 de las consultas más buscadas: «Nombre de soltera de Carol Brady». ¿A qué venía aquel súbito interés por un personaje televisivo de los años setenta? Fue el científico de datos y miembro del mencionado equipo Amit Patel quien, tiempo después, contó los detalles de aquel acontecimiento al New York Times y dejo claro que algo así «no se puede interpretar bien si no se sabe qué más está ocurriendo en el mundo».

El equipo se puso manos a la obra para resolver el enigma. En primer lugar, los analistas detectaron que el patrón de búsquedas había registrado cinco picos separados, iniciado cada uno de ellos cada hora y cuarenta y cinco minutos. Luego, descubrieron que el patrón de búsquedas coincidió con la emisión del popular programa de televisión ¿Quién quiere ser millonario? Los picos se correspondían, en realidad, con la sucesiva reemisión del programa en las diferentes zonas horarias del país (hasta llegar a la de Hawái). En cada una de ellas, había llegado un momento en el que el presentador había hecho la pregunta de cuál era el nombre de soltera de Carol Brady, y cada vez, una riada de consultas había inundado de inmediato los servidores de Google.

Según aquella información publicada por el New York Times, «la precisión de los datos de las búsquedas sobre Carol Brady fue muy reveladora para algunos». Hasta Brin se quedó anonadado ante lo evidente que era el poder predictivo del buscador, y ante la capacidad de este para desvelar hechos y tendencias antes de que «aparecieran en el radar» de los medios tradicionales. Como él mismo confesó al Times, «fue como probar un microscopio de electrones por primera vez. Era como estar ante un barómetro que medía todos los instantes, uno por uno». Según el Times, los ejecutivos de Google se mostraban reacios a compartir lo que pensaban sobre la posibilidad de comercializar algún día las ingentes existencias de datos de búsquedas que almacenaban. «Estos datos abren unas oportunidades inmensas», fue lo máximo que se atrevió a confesar uno de ellos.

Solo un mes después de aquel momento «Carol Brady», cuando el equipo de AdWords trabajaba ya en nuevos enfoques, Brin y Page contrataron a Eric Schmidt, un experimentado ejecutivo, ingeniero y doctor en informática, para presidir la empresa. En agosto, lo nombraron director ejecutivo. Doerr y Moritz habían presionado a los fundadores para que se hicieran con los servicios de un gerente profesional que supiera cómo hacer que la empresa pivotase y se encaminase por la senda de la rentabilidad. Schmidt aplicó de inmediato un programa de ajuste (había que «apretarse el cinturón»), tomó las riendas del presupuesto y contribuyó a que la plantilla se concienciara de la necesidad de tales medidas agudizando la sensación general de alarma financiera ante el peligro de que no se pudieran cumplir las perspectivas iniciales de recaudación. La reducción del espacio de trabajo, por ejemplo, hizo que, por aquellas casualidades de la vida, él mismo terminara compartiendo su despacho con Amit Patel.

Schmidt alardearía posteriormente de que, gracias a tan estrecha proximidad, durante meses tuvo un acceso instantáneo a cifras más fiables sobre los ingresos de la empresa de las que tenían sus propios planificadores financieros. No sabemos (y puede que nunca sepamos) qué otras ideas y conocimientos recabó Schmidt de Patel acerca del poder predictivo de los almacenes de datos conductuales de Google, pero no cabe duda de que precisamente una comprensión más a fondo de la capacidad predictiva de los datos comenzó a influir enseguida en la respuesta específica que Google dio a aquella situación de emergencia financiera, y activó la mutación crucial que, en último término, encaminó a AdWords, a Google, a internet y a la naturaleza misma del capitalismo informacional hacia un proyecto de la vigilancia asombrosamente lucrativo.

Los primeros anuncios de Google ya habían sido considerados en su momento más eficaces que los de la mayoría de la publicidad en línea porque estaban vinculados a consultas de búsqueda y porque Google podía monitorizar si los usuarios clicaban en el anuncio en cuestión o no: podía determinar, en definitiva, su proporción de clics o ratio de cliqueo particular. Pese a ello, a los anunciantes se les facturaba de forma convencional, es decir, en función de cuántas personas veían el anuncio. Al ampliar su buscador web, Google creó el sistema de autoservicio conocido como AdWords, en el que una búsqueda en la que se empleara la palabra clave del anunciante incluía entre los resultados un cuadro de texto del anunciante y un enlace a su «página de aterrizaje». El precio de los anuncios pasó a depender así de la posición que estos tuvieran en la página de resultados de una búsqueda.

La startup del buscador rival Overture había desarrollado un sistema de subasta en línea para el emplazamiento de páginas web que le permitía escalar la publicidad en línea dirigida a palabras claves. Google introduciría por su parte una mejora absolutamente transformadora en ese modelo, una mejora que terminaría cambiando el rumbo del capitalismo informacional. A partir de entonces, y por decirlo en las palabras que un periodista de Bloomberg empleó en 2006, «Google maximiza [ría] los ingresos que recibe de tan precioso tesoro reservando su mejor posición para el anunciante que, según sus cálculos, más probabilidades ofrezca de pagar a Google el máximo en total, un pago total probable calculado a partir de multiplicar el precio por clic por la estimación que hace Google de la probabilidad de que alguien realmente haga clic en el anuncio». Este fundamental multiplicador era el resultado que Google había obtenido al aplicar sus nuevas capacidades computacionales avanzadas, puestas al día con su descubrimiento más significativo y secreto: el excedente conductual. A partir de ese momento, la combinación de una inteligencia de máquinas en continuo aumento y de unas existencias igualmente crecientes de excedente conductual se convertirían en la base sobre la que fundar una lógica de la acumulación sin precedentes. Las prioridades de reinversión de Google cambiaron: ya no se trataba tanto de mejorar lo que ofrecía a sus usuarios como de inventar e institucionalizar las operaciones de suministro de materia prima más tecnológicamente avanzadas y de mayor alcance jamás vistas en el mundo. Desde entonces, los ingresos y el crecimiento pasaron a depender de la adquisición de mayores excedentes conductuales.

Las numerosas patentes registradas por Google durante esos primeros años ilustran la explosión de descubrimientos, inventiva y complejidad activada por el estado de excepción que condujo a tan cruciales innovaciones, así como lo determinada que estaba la empresa a fomentar la generación de ese excedente conductual. Entre dichas iniciativas, me centraré aquí en una patente presentada en 2003 por tres de los principales informáticos de la compañía con el título siguiente: «Generating User Information for Use in Targeted Advertising» [«Generación de información de usuario para su uso en publicidad dirigida»]. La patente es sintomática de la nueva mutación y de la lógica de acumulación entonces emergente que acabaría por resultar definitoria del éxito de Google. Pero es más interesante aún porque nos ofrece también una perspectiva poco habitual de la «orientación económica» que se estaba cociendo en el fondo de la olla de la tecnología y que refleja la mentalidad con la que tan distinguidos científicos e ingenieros de Google estaban poniendo sus conocimientos al servicio de los nuevos objetivos de la empresa. Así entendida, la patente constituye todo un tratado sobre una nueva economía política de los clics y sobre su universo moral, justo antes de que la compañía aprendiera a disimular ese proyecto tras una nube de eufemismos.

La patente revela un giro en las operaciones que se realizaban en la trastienda de Google para orientarlas hacia un público nuevo de verdaderos clientes de la empresa. «La presente invención tiene que ver con la publicidad», anunciaban allí los inventores. Pese a la enorme cantidad de datos demográficos disponibles para los anunciantes, los científicos firmantes de la patente señalan que gran parte del presupuesto que se dedica a un anuncio «simplemente se echa a perder […] y luego es muy difícil detectar y eliminar todo ese desecho».

La publicidad siempre había sido un juego adivinatorio: una cuestión de arte, relaciones, opiniones y prácticas establecidas, pero nunca una «ciencia». La idea de poder trasladar un mensaje particular a una persona en concreto justo en el momento en que más probabilidades tendría de influir realmente en su comportamiento era —y siempre ha sido— el santo grial de la publicidad. Los inventores recordaban en el texto de la patente que los sistemas de anuncios en línea también habían fracasado hasta entonces en su empeño por hacerse con tan esquiva reliquia. Los métodos usados por los competidores de Google, conforme al enfoque predominante por entonces, hacían que los anuncios tomaran como diana unas palabras claves o unos contenidos determinados, pero no servían para identificar anuncios relevantes «para un usuario en concreto». Pero los inventores ofrecían en aquel documento una solución científica que superaba las más ambiciosas expectativas y sueños de cualquier ejecutivo de publicidad:

Hoy existe la necesidad de aumentar la relevancia de los anuncios que se proveen con cualquier solicitud del usuario, ya sea en forma de consulta de búsqueda, ya sea en forma de solicitud de un documento, […] para el usuario que realiza la solicitud en cuestión. […] La presente invención podría aportar métodos novedosos, así como novedades también en el sistema, en los formatos de mensaje o en las estructuras de datos dedicados a determinar la información del perfil de usuario y a usar la información del perfil de usuario así determinada para la provisión de anuncios.

Dicho de otro modo, Google ya no practicaría la minería de datos conductuales con la finalidad exclusiva de mejorar el servicio para los usuarios, sino que se dedicaría a leer sus mentes con la finalidad de hacer que recibieran anuncios que se correspondieran con los intereses de esos usuarios, unos intereses que deduciría a partir de los rastros colaterales dejados por su comportamiento en línea. Gracias al singular acceso de Google a todos esos datos conductuales, sería posible por fin saber lo que un individuo concreto está pensando, sintiendo y haciendo en un momento y un lugar concretos. Que esto no nos cause asombro ya a estas alturas, o que incluso lo encontremos digno de admiración, es toda una prueba del profundo entumecimiento psíquico al que nos ha habituado tan audaz e inaudito cambio en los métodos capitalistas. Las técnicas descritas en la patente implicaban que cada vez que un usuario consultara algo en el motor de búsqueda de Google, el sistema le presentaría simultáneamente una configuración específica de un anuncio particular, todo ello en la fracción de instante que se tarda en completar la consulta. Los datos utilizados para llevar a cabo esta traducción instantánea de consulta a un anuncio por medio de un análisis predictivo al que llamaban concordancia no se limitarían ni mucho menos a la mera denotación de los términos de la búsqueda: se estaban recopilando nuevos conjuntos de datos que mejorarían espectacularmente la precisión de tales predicciones. Estos conjuntos de datos se denominaban información de perfil de usuario (UPI, según sus iniciales en inglés) y significaban que en los presupuestos publicitarios ya no habría que incluir más trabajo adivinatorio ni tanto desecho como hasta entonces. La certeza matemática vendría a sustituir todo eso.

¿De dónde saldría esa UPI? Los científicos de Google anunciaban allí un gran avance técnico. Primero, explicaban que algunos de los datos nuevos podrían ser recuperados de los sistemas existentes de la propia compañía, con sus provisiones continuamente crecientes de datos conductuales obtenidos a partir del buscador web. Luego, recalcaban que aún se podrían capturar y reunir más datos conductuales procedentes de cualquier rincón del mundo digital. La UPI, escribieron, puede inferirse, suponerse y deducirse . Sus nuevos métodos y herramientas computacionales podrían crear UPI a partir de la integración y el análisis de los patrones de búsqueda de un usuario, sus solicitudes de documentos e infinidad de otras señales de sus conductas en línea, incluso en momentos en los que los usuarios no proporcionan directamente esa información personal: «La UPI de usuario podría incluir cualquier información sobre un usuario individual o un grupo de ellos. Esa información podría ser proporcionada por el usuario o por un tercero autorizado a publicar información de usuario, o derivar de las acciones del usuario. Cierta UPI puede deducirse o suponerse utilizando otra información de ese mismo usuario o de otros. La UPI podría estar relacionada con varias entidades».

Los inventores explicaban que la UPI puede deducirse directamente a partir de las acciones de un usuario o de un grupo, a partir de cualquier clase de documento que un usuario consulte, o a partir de la página de aterrizaje de un anuncio: «Por ejemplo, un anuncio para hacerse una revisión médica de próstata podría limitarse a aquellos perfiles de usuario que tuvieran asignados los atributos varón y cuarenta y cinco o más años de edad». También describían diversas formas de obtener esa UPI. Una de ellas se basaría en «clasificadores creados por aprendizaje de máquinas» que predicen valores sobre una serie de atributos. Se desarrollarían también grafos de asociación que revelarían las
relaciones entre usuarios, documentos, búsquedas y páginas web: «Se podrían generar también asociaciones usuario por usuario». Los inventores también señalaban que sus métodos solo serían comprensibles para el selecto público de científicos computacionales atraídos por los desafíos analíticos de este nuevo universo en línea: «La descripción siguiente se expone con el propósito de posibilitar que los ya iniciados en este arte preparen y usen la invención. […] A los ya iniciados se les harán evidentes varias posibles modificaciones sobre las concreciones de la tecnología aquí especificadas».

Para nuestro relato tiene crucial importancia el hecho de que, para estos científicos, las más problemáticas fuentes de fricción previstas eran de carácter social, y no técnico. La fricción surge
cuando los usuarios renuncian intencionadamente a proporcionar información sin mayor motivo que el deseo de no facilitarla. «Por desgracia, la información de perfil de usuario no siempre está disponible», advertían ellos. Los usuarios no siempre quieren suministrar información «de forma voluntaria», o «puede que el perfil de usuario esté incompleto […] y, por tanto, no sea exacto debido a preocupaciones por la privacidad, entre otros motivos».

Un claro objetivo de la patente era procurar que los científicos de Google no se sintieran disuadidos por el ejercicio que hagan los usuarios de su derecho a decidir sobre su información personal, a pesar de que tal derecho era un elemento inherente al contrato social original entre la compañía y sus usuarios. Los inventores advertían que, incluso en el caso de que los usuarios sí proporcionen su UPI, «esta puede ser intencionada o involuntariamente incorrecta, o puede volverse obsoleta. […] La UPI de un usuario […] puede determinarse entonces (o actualizarse o ampliarse) aun cuando no se le facilite al sistema una información explícita. […] Una UPI inicial puede incluir una parte de información introducida expresamente en el sistema, pero no necesariamente».

Los científicos dejaban bien claro, pues, que estaban deseando vencer la fricción que comportaba el derecho de los usuarios a decidir sobre su información personal, y que sus invenciones serían perfectamente capaces de vencerla. Los métodos privativos (o «propietarios») de Google permitían a la compañía a partir de ese momento vigilar, capturar, expandir, construir y reclamar un excedente conductual que también incluye datos que los usuarios han optado intencionadamente por no compartir. Los usuarios renuentes ya no iban a ser ningún obstáculo para la expropiación de datos. Ninguna cortapisa moral, legal o social iba a interponerse en el camino de la búsqueda, la reclamación y el análisis con finalidades comerciales de las conductas de otros.

Los inventores facilitaban ejemplos de la clase de atributos que Google podía medir y evaluar gracias a la compilación de aquellos conjuntos de datos de UPI eludiendo al mismo tiempo todo conocimiento, toda intención y todo consentimiento de estos. En su lista, incluían los sitios web visitados, las psicografías, la actividad de navegación y la información sobre los anuncios que se le habían mostrado al usuario con anterioridad, o que este había seleccionado, o cuya visualización le había inducido a comprar algo. Ya entonces formaban un largo catálogo que sin duda hoy se ha hecho mucho más largo.

Por último, los inventores aludían a otro obstáculo para el diseño de una publicidad dirigida eficaz. Y es que incluso cuando se cuenta con información de usuario, decían ellos, «es posible que los anunciantes no sean capaces de usarla para dirigir anuncios de manera efectiva». Convencidos de la fuerza de la invención presentada en aquella patente y de otras relacionadas con esta, los inventores hacían allí pública proclamación de la capacidad única de Google para buscar, capturar y transformar el excedente en predicciones para una más precisa dirección de los anuncios publicitarios. Ninguna otra compañía podía igualarse a su amplitud de acceso al excedente conductual, ni a su profundidad de banquillo en cuanto a conocimiento científico y técnico, ni a su poder computacional, ni a su infraestructura de almacenamiento. En 2003, solo Google podía extraer un excedente de múltiples escenarios de actividad e integrar cada incremento en unas «estructuras [integrales] de datos». Google gozaba de una posición única, pues estaba dotada de los conocimientos informáticos más avanzados y necesarios para convertir aquellos datos en predicciones sobre quién haría clic y en qué configuración de anuncio como base para un resultado final de «concordancia», y todo ello computado en una microfracción de segundo.

Por decirlo en el lenguaje más llano posible, la invención de Google revelaba que la empresa había adquirido nuevas capacidades de inferencia y deducción de los pensamientos, los sentimientos, las intenciones y los intereses de individuos y grupos gracias a una arquitectura automatizada que funciona como un espejo unidireccional y actúa con independencia de que el individuo o grupo monitorizado lo sepa y lo consienta o no, por lo que posibilita un acceso secreto privilegiado a los datos conductuales.

El espejo unidireccional es la encarnación perfecta de las relaciones sociales concretas de vigilancia basadas en semejantes asimetrías de conocimiento y poder. Pero el nuevo modo de acumulación inventado en Google sería el resultado, sobre todo, de la voluntad y de la capacidad de la compañía para imponer esas relaciones sociales a sus usuarios. Su voluntad de hacerlo se activó por una situación que los fundadores de la empresa consideraron que constituía todo un estado de excepción; su capacidad para hacerlo llegó gracias al éxito con el que consiguieron predecir cómo se comportarían los individuos (ahora, en breve y más tarde), valiéndose del acceso privilegiado de la compañía a un voluminoso excedente conductual. Los conocimientos predictivos así adquiridos iban a suponer una ventaja competitiva histórica en un nuevo mercado en el que se valoran, se compran y se venden apuestas de bajo riesgo sobre la conducta de los individuos.

Google ya no volvería a ser un receptor pasivo de datos accidentales que podía reciclar para beneficiar a sus usuarios. La patente sobre la publicidad dirigida arroja luz sobre el camino de revelación y descubrimiento que Google recorrió desde que nació con una más o menos clara orientación a la defensa de un ideal social hasta que desarrolló la vigilancia conductual como una lógica de acumulación plenamente evolucionada. La invención misma pone de manifiesto el razonamiento seguido para que el ciclo de reinversión del valor conductual terminara subyugándose a un nuevo cálculo comercial. Los datos conductuales, cuyo valor se «consumía» hasta entonces en la mejora de la calidad del buscador web para los usuarios, pasaron a convertirse en la materia prima fundamental (y exclusiva de Google) con la que fabricar un mercado dinámico de publicidad en línea. Google pasaría a partir de entonces a procurarse más datos conductuales de los que estrictamente necesitaba para cuidar el servicio que daba a sus usuarios. El excedente resultante (un excedente conductual) sería así el activo revolucionario que, a coste cero, se desviaría de los fines de la mejora del servicio para dirigirse hacia un auténtico y muy lucrativo intercambio mercantil.

Esas capacidades eran (y siguen siendo) inescrutables para todos salvo para un exclusivo círculo de iniciados en la ciencia de datos entre quienes Google es poco menos que el Übermensch. Llevan a cabo sus operaciones en secreto, con total indiferencia hacia las normas sociales o hacia las reivindicaciones individuales de unos derechos de decisión autónomos e inviolables. Con esas maniobras, se instauraron los mecanismos fundamentales del capitalismo de la vigilancia.

El estado de excepción declarado por los fundadores de Google transformó al juvenil doctor Jekyll en un musculoso y despiadado míster Hyde decidido a dar caza a su presa en cualquier lugar y momento, con independencia de las pretensiones de autodeterminación de cualesquiera otras personas u organizaciones. La nueva Google hizo caso omiso de esas reivindicaciones de libre determinación individual y no reconoció ningún límite previo a lo que podía encontrar y quedarse. Ignoró así el contenido moral y legal de los derechos decisorios de los individuos y replanteó la situación como si lo único que importara fuera el oportunismo tecnológico y el poder unilateral. Esta nueva Google asegura a partir de entonces a quienes son sus verdaderos clientes que hará lo que haga falta para transformar el misterio natural del deseo humano en un mero hecho científico. Esta Google es la superpotencia que impone sus propios valores y persigue sus propios fines anteponiéndolos a (y pasando por encima de) los contratos sociales que sí vinculan a otros.

Excedente a escala

Hubo otros elementos nuevos que también contribuyeron a implantar el excedente conductual como un factor central en las operaciones comerciales de Google, comenzando por sus innovaciones en la tarificación de precios. La primera medida nueva que comenzó a utilizarse para establecer precios fue calculada a partir de las ratios de cliqueo —es decir, de cuántas veces un usuario clica en un anuncio para ir a la página web del anunciante— en vez del número de visualizaciones. Se entendía que el cliqueo era una señal de la relevancia de un anuncio y, por consiguiente, un buen indicador de lo bien dirigido que estaba a su público objetivo, y por lo tanto, de los resultados operacionales derivados y reveladores del valor del excedente conductual.

Esta nueva disciplina de precios instauró un incentivo cada vez mayor para incrementar el excedente conductual con el propósito de continuar perfeccionando la efectividad de las predicciones. Unas mejores predicciones se traducían directamente en más cliqueos y, por consiguiente, en más ingresos. Google aprendió nuevas formas de llevar a cabo subastas automatizadas de anuncios dirigidos que permitían que la nueva invención se adaptara rápidamente a ampliaciones de escala y acogiera sin problemas a cientos de miles de anunciantes y miles de millones (y, con el tiempo, billones) de subastas simultáneas. Los métodos y capacidades de subasta exclusivos de Google atrajeron mucho la atención, lo cual distrajo a los observadores, que no reflexionaron así sobre qué era exactamente lo que allí se subastaba, que no era otra cosa que derivados del excedente conductual. Los indicadores basados en las ratios de cliqueo ayudaron a instituir una demanda de «clientes» para esos productos predictivos y afianzaron así la importancia central de las economías de escala en las operaciones de suministro de excedente. La captura de excedente tenía que ser automática, constante y ubicua para que la nueva lógica tuviera éxito (un éxito medido por la compraventa efectiva de futuros conductuales).

Otro indicador de medición clave, el llamado índice de la calidad, se incorporó también a la determinación del precio de un anuncio y de su emplazamiento específico en la página a modo de factor añadido a las propias pujas de los anunciantes en las subastas. El índice de calidad se determinaba en parte a partir de las ratios de cliqueo, y en parte a partir de los análisis que hacía la empresa del excedente conductual. «La ratio de cliqueo tenía que ser predictiva», según recalcaba un alto ejecutivo de la compañía, y eso obligaba a disponer de «toda la información que tuviéramos acerca de la consulta en ese mismo momento». Harían falta una potencia computacional inmensa y los más avanzados programas algorítmicos para generar predicciones sólidas de la conducta del usuario, predicciones que servirían también como criterios para estimar la relevancia de un anuncio. Google vendía más barato los anuncios que puntuaban alto que los que puntuaban bajo. Los clientes de la compañía —es decir, sus anunciantes— se quejaron al principio de que el índice de calidad era una caja negra indescifrable, pero Google estaba decidida a que lo siguiera siendo. Además, cuando los clientes siguieron las disciplinas marcadas por la empresa para conseguir índices elevados y comenzaron a producir anuncios con altas puntuaciones de calidad, sus ratios de cliqueo en general se dispararon.

AdWords alcanzó tal éxito tan rápido que inspiró una significativa expansión de la lógica de la vigilancia. Los anunciantes querían más clics. Así que la respuesta fue extender el modelo más allá de las páginas de búsqueda de Google y convertir toda internet en un terreno de juego reglamentario para los anuncios dirigidos de Google. Para ello se hizo necesario orientar las recién descubiertas habilidades de Google para «la extracción y el análisis de datos», por emplear las palabras de Hal Varian, hacia el contenido de cualquier página web o de cualquier acción de los usuarios valiéndose para ello de las capacidades de análisis semántico e inteligencia artificial que la empresa estaba ampliando con gran rapidez a fin de «exprimirles» todo el significado posible. Solo entonces pudo Google evaluar con precisión por fin el contenido de una página y el modo en que los usuarios interactúan con ese contenido. Esta publicidad contextual , en función de los contenidos, basada en los métodos patentados de Google, terminó llamándose AdSense. En 2004, AdSense había alcanzado ya un ritmo de publicación de anuncios a razón de un millón de dólares diarios, y en 2010, generaba ingresos anuales de más de 10.000 millones. He ahí, combinados, los ingredientes de una mezcla lucrativa sin precedentes: excedente conductual, ciencia de datos, infraestructura material, potencia computacional, sistemas algorítmicos y plataformas automatizadas. Esta convergencia produjo una «relevancia» sin precedentes y miles de millones de subastas. Las ratios de cliqueo se dispararon por las nubes. La labor invertida en AdWords y AdSense pasó a adquirir tanta importancia para la compañía como la labor invertida en el mismísimo buscador web.

Con las ratios de cliqueo convertidas en el indicador de la relevancia materializada, el excedente conductual acabó por institucionalizarse como la piedra angular de un nuevo tipo de comercio que dependía de una vigilancia digital a escala. Los entendidos llamaban a la nueva ciencia de la predicción conductual instaurada por Google la física de los clics. El dominio de los conocimientos de este nuevo ámbito requería de una raza especializada de físicos de los clics que le asegurara a Google la preeminencia dentro de la incipiente orden de los iniciados en la predicción conductual. Los sustanciales flujos de ingresos de la empresa atrajeron a las más grandes mentes de nuestro tiempo en campos como la inteligencia artificial, la estadística, el aprendizaje de máquinas, la ciencia de datos y el análisis predictivo, que convergieron así en el terreno de la predicción del comportamiento humano medido en ratios de cliqueo: una especie de amalgama de adivinación y ventas mediadas por la informática. La compañía contrató los servicios de toda una autoridad en economía informacional —y consultor de Google desde 2001— para que ejerciera la función de patriarca de tan propicio grupo y de la ciencia (todavía joven por entonces) a la que esas personas se estaban dedicando: Hal Varian fue el pastor elegido para guiar ese rebaño.

Page y Brin habían sido reacios a aceptar el negocio publicitario, pero a medida que se fue haciendo evidente que los anuncios podían salvar a la compañía de caer en el precipicio de la crisis, fueron cambiando de actitud. Salvar la compañía también significaba salvarse a sí mismos de ser una pareja más de tipos superinteligentes que no fueron capaces de dar con la clave para ganar dinero de verdad: dos actores insignificantes más en la muy material y competitiva cultura de Silicon Valley. A Page le atormentaba el ejemplo del tan brillante como pobre científico Nikola Tesla, quien había muerto sin haberse llegado a beneficiar económicamente nunca de sus inventos. «Necesitas hacer algo más que inventar cosas», reflexionó el cofundador de Google en una ocasión. Brin tenía su propia manera de verlo: «Sinceramente, cuando todavía estábamos en la época del boom de las puntocoms, yo me sentía como un mequetrefe. Tenía una startup de internet, sí, pero como todos los demás de por aquí. Y no era rentable, como las de todos los demás de por aquí». Todo indica que las excepcionales amenazas que se cernían sobre el estatus económico y social de esta pareja despertó un instinto de supervivencia en Page y Brin que les hizo tomar unas medidas de adaptación excepcionales. La respuesta de los fundadores de Google al miedo que recorría su comunidad vino a ser una declaración de un «estado de excepción» en la práctica, por el que se juzgó necesario suspender los valores y los principios que habían guiado la fundación y las prácticas tempranas de la empresa.

Tiempo después, Moritz (el inversor de Sequoia) recordaría las condiciones de crisis que habían provocado la «ingeniosa» reinvención propia de la empresa de Mountain View: concretamente, el momento en que la crisis planteó una encrucijada que llevó a la compañía por unos derroteros completamente nuevos. Puso de relieve la especificidad de las invenciones de Google, el hecho de que se originaran a raíz de una situación de emergencia y el giro de ciento ochenta grados que representó que se pasara de servir a los usuarios a vigilarlos. Pero, sobre todo, atribuyó al descubrimiento del excedente conductual el papel de activo revolucionario que convirtió a Google en un gigante de la adivinación, y destacó en especial la exitosa y pionera transformación del modelo de Overture que se produjo cuando la joven compañía comenzó a aplicar su análisis del excedente conductual a la predicción de la probabilidad de un clic:

Los doce primeros meses en Google no fueron precisamente pan comido, porque la empresa no empezó dedicándose al negocio que finalmente rentabilizó. Al principio, tomó un rumbo diferente, que fue el de vender su tecnología: vendía licencias de uso de sus motores de búsqueda a otros protagonistas de internet y a corporaciones más grandes que nosotros. […] Durante los primeros seis o siete meses, se nos escapaba dinero a espuertas. Y luego, demostrando un gran ingenio, Larry […] y Sergey […], entre otros, se centraron en un modelo que habían visto que se desarrollaba en esa otra compañía, Overture, y que consistía en clasificar la posición de los anuncios. Vieron cómo mejorarlo, potenciarlo y hacerlo suyo propio, y eso transformó el negocio.

Las reflexiones de Moritz dan a entender que, sin el descubrimiento del excedente conductual y sin aquel giro hacia las operaciones de la vigilancia, el dinero «a espuertas» que gastaba Google hacía que fuera una empresa insostenible y que su supervivencia misma corriera peligro. Nunca sabremos qué habría sido de Google sin aquel estado de excepción declarado a raíz del apremio al que fue sometida por el dinero impaciente, es decir, sin aquella excepcionalidad que tanto condicionó esos cruciales años de desarrollo. ¿Qué otras vías hacia la obtención de un flujo sostenible de ingresos podrían haberse explorado o inventado? ¿Qué futuros alternativos podrían haberse propiciado para no perder la fe en los principios de los fundadores ni en los derechos de los usuarios a la libre determinación? En vez de eso, Google sacó y dejó suelta por el mundo una nueva encarnación del capitalismo, una caja de Pandora cuyo contenido apenas estamos comenzando a comprender.

Una invención humana

Un hecho clave para lo que aquí estamos comentando es el siguiente: el capitalismo de la vigilancia fue inventado por un grupo concreto de seres humanos en un momento y un lugar específicos. No es un resultado inherente a la implantación de la tecnología digital, ni es tampoco ninguna manifestación inevitable del capitalismo informacional. Fue construido de forma deliberada en un momento de la historia, igual que los ingenieros y los perfeccionadores que trabajaban en la Ford Motor Company inventaron la producción en masa en el Detroit de 1913.

Henry Ford se propuso demostrar que podía maximizar ganancias aumentando los volúmenes de producción, disminuyendo radicalmente los costes y ampliando la demanda. Se trataba de una fórmula comercial nunca antes contrastada que tampoco estaba respaldada por ninguna teoría económica ni por experiencia práctica alguna. Sí habían surgido anteriormente algunos fragmentos de esa misma fórmula aquí y allá: en plantas de envasado de carne, en harineras industriales y en otras fábricas diversas (de máquinas de coser, de bicicletas, de armas, de conservas, de cerveza). También existía ya un conjunto creciente de conocimientos prácticos a propósito de aspectos como la posibilidad de hacer intercambiables algunos componentes, la estandarización absoluta, la maquinaria de precisión y la producción de flujo continuo. Pero nadie había conjuntado la gran sinfonía que Ford oía en su imaginación.

Según el historiador David Hounshell, hubo un momento (el 1 de abril de 1913) y un lugar (Detroit) en los que, cuando la primera cadena de montaje parecía que sería «un simple paso más en todo un proceso de desarrollo de varios años en Ford, de pronto se reveló como un regalo que, no se sabía muy bien cómo, hubiera caído del cielo. Antes incluso del final de aquella jornada, algunos de los ingenieros tenían ya la sensación de que ese día habían conseguido un avance fundamental». En menos de un año, los incrementos de productividad registrados en las diferentes secciones de la planta oscilaban ya entre el 50 % y hasta diez veces más que la que se obtenía con los antiguos métodos de montaje fijo. El Modelo T, que se vendía a ochocientos veinticinco dólares la unidad en 1908, llegaría a batir en 1924 un récord como el automóvil con motor de cuatro cilindros con el precio más bajo de la historia, al venderse por solo doscientos sesenta dólares.

De manera muy parecida a lo ocurrido en su día con Ford, algunos elementos de la lógica económica de la vigilancia que se aplica en el entorno digital llevaban ya años poniéndose en práctica, pero eran conocidos solo por un muy minoritario grupo inicial de expertos en informática. Por ejemplo, el mecanismo de software conocido como cookie —fragmentos de código que permiten que se pase información de un servidor a un ordenador cliente— se desarrolló en 1994 en Netscape, la primera empresa comercial de navegadores web. También los web bugs —imágenes diminutas, a menudo invisibles, incrustadas en páginas web y correos electrónicos con la finalidad de monitorizar la actividad del usuario y recopilar información personal sobre este— eran ya bien conocidos por los expertos a finales de los años noventa.

A esos expertos les preocupaban mucho las implicaciones en materia de privacidad de dichos mecanismos de monitorización y, por ello, como mínimo en el caso de las cookies, se lanzaron algunas iniciativas institucionales dirigidas a diseñar unas políticas de internet que prohibieran las capacidades invasivas que dichos mecanismos conferían para monitorizar a los usuarios y elaborar perfiles sobre ellos. En 1996, la función de las cookies se había convertido ya en un tema de debate público y político. Varios talleres de la Comisión Federal de Comercio de Estados Unidos en 1996 y 1997 analizaron propuestas con las que se pretendía asignar por defecto el control sobre toda información personal a los propios usuarios mediante un simple protocolo automatizado. Los anunciantes criticaron duramente ese plan y decidieron colaborar entre ellos para evitar toda regulación federal al respecto: para ello, formaron una asociación para la «autorregulación» del sector, conocida como la Network Advertising Initiative [«Iniciativa de las Redes de Publicidad»]. Aun así, en junio de 2000, la Administración Clinton prohibió las cookies en todos los sitios web del Gobierno federal y, en abril de 2001, se presentaron tres proyectos de ley ante el Congreso que incluían disposiciones para su regulación.

Google insufló nueva vida en todas esas prácticas. Como ocurriera en la Ford un siglo antes, los ingenieros y científicos de la compañía de Mountain View fueron los primeros en interpretar completa la sinfonía del aprovechamiento comercial de la vigilancia mediante la integración de un amplio elenco de mecanismos, que iban desde las cookies hasta las herramientas analíticas privativas, pasando por las capacidades del software algorítmico, aunados así en una nueva lógica general que consagraba la vigilancia y la expropiación unilateral de datos conductuales como la base de una nueva forma de mercado. El impacto de esa invención fue igual de espectacular que el de Ford. En 2001, cuando ya se estaban poniendo a prueba los nuevos sistemas de Google para sacar partido de su descubrimiento del excedente conductual, los ingresos netos de la compañía subieron considerablemente hasta alcanzar los 86 millones de dólares (un incremento de más de un 400 % con respecto al año 2000) y la empresa declaró sus primeros beneficios. En 2002, comenzó a fluir el efectivo en caja y ya no ha dejado de hacerlo desde entonces, toda una prueba definitiva de que la combinación del excedente conductual y las herramientas analíticas privativas de Google estaban dando en el clavo. Los ingresos dieron un salto desde los 347 millones de dólares registrados en 2002 hasta los 1.500 millones de 2003 y los 3.200 millones de 2004, que fue el año en que la compañía lanzó su oferta pública de venta (OPV). El descubrimiento del excedente conductual se había saldado con un asombroso incremento del 3.590 % en el volumen de ingresos de la empresa en menos de cuatro años.

Los secretos de la extracción 

Es importante señalar las cruciales diferencias en cuanto a las consecuencias para el capitalismo que tuvieron esos dos momentos de originalidad respectivos en Ford y en Google. Las invenciones de Ford revolucionaron la producción . Las de Google revolucionaron la extracción y vinieron a establecer el primer imperativo económico del capitalismo de la vigilancia: el imperativo extractivo. El imperativo extractivo implica que el suministro de materia prima debe procurarse en una escala siempre creciente. El capitalismo industrial requería de economías de escala en la producción para alcanzar un alto rendimiento productivo combinado con bajos costes unitarios. El capitalismo de la vigilancia, sin embargo, requiere de economías de escala en la extracción del excedente conductual.

La producción en masa se orientó a las nuevas fuentes de demanda constituidas por los primeros consumidores de masas de comienzos del siglo XX. El propio Ford tenía muy clara esa cuestión: «La producción en masa empieza a partir de la percepción de una necesidad pública». Oferta y demanda fueron efectos entrelazados de las nuevas «condiciones de existencia» que definían entonces las vidas de personas como mis bisabuelos Sophie y Max, y de otros viajeros de la primera modernidad. La invención de Ford ahondó en las reciprocidades entre el capitalismo y aquellas poblaciones.

Las invenciones de Google, por el contrario, destruyeron las reciprocidades incluidas en su contrato social original con sus usuarios. El papel del ciclo de reinversión del valor conductual que había alineado en su momento los intereses de Google con los de sus usuarios cambió de manera radical. En vez de ahondar en la unión entre oferta y demanda con las poblaciones destinatarias de su servicio, Google optó por reinventar su negocio centrándolo en la pujante demanda de unos anunciantes deseosos de exprimir y rebañar información sobre comportamientos en la red por cualesquiera medios necesarios para no perder comba en la competencia por adquirir una ventaja de mercado. En esa nueva configuración de su actividad comercial, los usuarios dejaron de ser fines en sí mismos para convertirse, más bien, en medios para los fines de otros.

La reinversión en servicios para los usuarios pasó a ser puramente un método para atraer más excedente conductual, y los usuarios se convirtieron así en suministradores inconscientes de materia prima para un ciclo más amplio de generación de ingresos. La escala de la expropiación de excedente de la que Google era capaz hizo que pronto eliminara a todo competidor serio en su negocio central, el de las búsquedas web. Los inesperados ingresos obtenidos por el aprovechamiento del excedente conductual se usaron para atraer a más y más usuarios hacia su red, con lo que lograron instaurar un monopolio de facto con su buscador. Sobre la sólida base de sus invenciones, sus descubrimientos y sus estrategias, Google se convirtió en la nave nodriza y en el modelo ideal de una nueva lógica económica basada en la adivinación y en las ventas, artes antiguas y siempre lucrativas ambas que, desde el inicio mismo de la historia humana, se han nutrido de la ansiedad de los hombres y las mujeres al enfrentarse a la incertidumbre.

Pero una cosa fue hacer proselitismo de los logros alcanzados en el terreno de la producción, como hizo Ford, y otra cosa, bien distinta, habría sido presumir de la intensificación continua de unos procesos ocultos dirigidos a la extracción de datos conductuales e información personal. Lo último que Google quería era revelar los secretos de cómo había reescrito sus propias reglas y había terminado convirtiéndose en esclava del imperativo extractivo. El excedente conductual era un elemento necesario para mantener el flujo de ingresos, así que era preciso preservar el secreto en torno a la acumulación sostenida de dicho excedente.

Fue así como el secretismo terminó institucionalizándose en las políticas y las prácticas que rigen en casi todos los aspectos de la conducta de Google en público y en privado. Desde el momento en que la dirección de Google comprendió el poder comercial del excedente conductual, Schmidt instituyó una estrategia que él mismo llamó «de ocultación». Se trasladaron a los empleados de Google instrucciones claras de que no podían hablar de aquello que la patente llamaba los «métodos novedosos, así como novedades también en el sistema, los formatos de mensaje o las estructuras de datos» utilizados por la empresa, ni confirmar ningún rumor sobre el incrementado flujo de caja. La estrategia de ocultación fue post hoc, añadida sobre la marcha a la mezcla de ingredientes del capitalismo de la vigilancia.

Un antiguo ejecutivo de Google, Douglas Edwards, ha escrito un relato muy convincente de cómo se vivió aquel problema y de la cultura de secretismo que engendró. Según su versión de los hechos, Page y Brin eran unos «halcones» que insistían en la vía de la captura y la retención agresivas de datos: «Larry se oponía a cualquier modo de actuar que implicara la revelación de nuestros secretos tecnológicos o que agitara el avispero de la privacidad y pusiera en peligro nuestra capacidad para recopilar datos». Page no quería despertar la curiosidad de los usuarios y, por ello, abogaba por mostrar las mínimas pistas posibles sobre el alcance de las operaciones de la empresa en el terreno de la inteligencia de datos. Cuestionó la prudencia de instalar una pantalla electrónica en el vestíbulo de recepción que mostraba un flujo continuo de consultas de búsqueda, y «trató de liquidar» la conferencia anual de Google Zeitgeist en la que se resumen las tendencias de todo el año en términos de búsqueda.

El periodista John Battelle, autor de una crónica de la ascensión de Google durante el periodo 2002-2004, hizo referencia en su libro a la «actitud distante» de la empresa, a sus «limitaciones a la hora de compartir información» y a «un secretismo y un aislamiento tan distanciadores como innecesarios» de su parte. Otro «biógrafo» temprano de la empresa señaló también que «lo que hizo que toda esa información fuera más fácil de ocultar fue el hecho de que casi ninguno de los expertos que seguían el negocio de internet creían que el secreto de Google fuera siquiera posible». Como Schmidt declaró al New York Times , «hay que ganar, pero se gana mejor cuando se gana calladamente». La complejidad científica y material en la que se sustentaba la captura y el análisis del excedente conductual también facilitó aquella estrategia de ocultación, una especie de manto de invisibilidad que cubrió toda su manera de funcionar. «Gestionar búsquedas en la escala en la que lo hacemos nosotros es una barrera de entrada muy considerable», advertía Schmidt a los competidores potenciales.

No cabe duda de que siempre existen razones empresariales de peso para no enseñar dónde está guardada la gallina de los huevos de oro. En el caso de Google, aquella estrategia de ocultación acrecentaba su ventaja competitiva, pero también había otros motivos para velar y confundir. ¿Qué reacción habría suscitado en aquel entonces si el público hubiera sabido que la magia de Google procedía de sus capacidades exclusivas para practicar una vigilancia unilateral del comportamiento en línea de los usuarios, y que sus métodos se habían diseñado expresamente para anular los derechos de decisión de los individuos? Las políticas de Google tenían que imponer el secretismo para proteger unas actividades que se habían diseñado para ser indetectables, porque tomaban cosas de los usuarios sin pedírselas antes y empleaban esos recursos de los que se apropiaban unilateralmente poniéndolos al servicio de los fines de otros.

El hecho de que Google tuviera el poder de optar por ese secretismo es prueba en sí mismo de su éxito a la hora de imponer su propio criterio. Ese poder es un ejemplo clave de la diferencia entre los derechos de decisión y la privacidad. Los derechos de decisión otorgan el poder de decidir si algo se mantiene en secreto o se comparte en público. Un individuo puede elegir hasta el grado de privacidad o de transparencia para cada situación concreta. La privacidad, por su parte, fue definida así por William O. Douglas, juez del Tribunal Supremo estadounidense, en 1967: «La privacidad implica la libertad del individuo para elegir si publica o revela lo que cree, lo que piensa, lo que está en su posesión».

El capitalismo de la vigilancia reclama para sí tales derechos de decisión. La queja típica ante tal maniobra es denunciar que erosiona la privacidad, pero esa es una afirmación engañosa. Lo que ocurre con la privacidad en el conjunto del tejido social no es tanto una erosión como una redistribución, pues los derechos de decisión a propósito de la privacidad son reclamados para sí por el capital de la vigilancia. En vez de que las personas tengan derecho a decidir qué revelan y cuándo lo hacen público, lo que sucede es que esos derechos se concentran ahora dentro del ámbito del capitalismo de la vigilancia. Google descubrió la necesidad de ese elemento para el funcionamiento fluido de la nueva lógica de acumulación: debía hacer valer sus derechos a apropiarse de la información de la que tanto depende su éxito como empresa.

La capacidad de la compañía para ocultar esa confiscación de derechos depende tanto del lenguaje que utiliza para justificar esa operación como de los métodos técnicos o de las políticas corporativas de secretismo. George Orwell señaló en su día que los eufemismos se emplean en la política, en la guerra y en los negocios como instrumentos que logran «que las mentiras suenen a verdad y los asesinatos parezcan algo respetable». Google se ha ocupado de camuflar la verdadera significación de sus operaciones con el excedente conductual envolviéndolas en una jerga propia. Por ejemplo, dos de los términos que más han hecho fortuna — gases de escape digitales y migas de pan digitales — connotan la idea de unos desechos sin valor: residuos que quedan ahí para quien tenga la bondad de aprovecharlos. ¿Por qué dejar que esos gases de escape vaguen por la atmósfera cuando pueden ser reciclados en forma de datos útiles? ¿Quién osaría juzgar tal reciclaje como un acto de explotación, expropiación o saqueo? ¿Quién tendría la desvergüenza de usar términos como botín o contrabando para hablar de unos simples gases de escape digitales, o de imaginar que Google había aprendido a construir deliberadamente esos llamados gases de escape mediante sus métodos, su sistema y sus estructuras de datos?

El adjetivo dirigida (aplicado a la publicidad, por ejemplo) es otro eufemismo. Evoca nociones como la precisión, la eficiencia y la competencia. ¿Quién iba a imaginar que la idea de dirección oculta un nuevo panorama político en el que las concentraciones de poder computacional acumulado por Google barren a un lado los derechos de decisión de los usuarios con la misma facilidad con la que King Kong ahuyentaría a una hormiga, y todo ello entre bastidores, a la vista de nadie?

Estos eufemismos actúan exactamente en el mismo sentido que los encontrados en los mapas más antiguos de América del Norte, en los que regiones enteras del subcontinente estaban designadas con términos como paganos, infieles, idólatras, primitivos, vasallos y rebeldes. Tan efectivos fueron tales eufemismos que los pueblos nativos —sus lugares y sus reivindicaciones— quedaron así borrados del panorama moral y legal de los invasores, lo que legitimó los actos de confiscación y destrucción que allanaron el camino a la Iglesia y la monarquía.

La labor intencionada de ocultar los hechos crudos bajo un manto de retórica, omisiones, complejidad, exclusividad, economías de escala, contratos abusivos, diseño y eufemismos es otro factor que contribuye a explicar por qué durante el gran salto que Google dio hacia la rentabilidad pocos notaron los mecanismos fundacionales de su éxito y la significación general de estos. Pero lo cierto es que la vigilancia comercial no es un mero accidente desafortunado o un lapso ocasional. Tampoco es una evolución inevitable del capitalismo informacional ni un producto necesario de la tecnología digital o de internet. Es una decisión humana construida específicamente como tal, una forma de mercado sin precedentes, una solución original a una emergencia, y el mecanismo de fondo mediante el que se crean a bajo coste toda una nueva clase de activos que se convierten automáticamente en ingresos. La vigilancia es el camino hacia el lucro de otros que nos anula a «nosotros, el pueblo», pues se apodera de nuestros derechos de decisión sin pedir permiso y hasta incluso cuando decimos explícitamente «no». El descubrimiento del excedente conductual marca un punto de inflexión crítico no solo en la biografía de Google, sino también en la historia del capitalismo.

En los años que siguieron a la oferta pública de venta de la compañía en 2004, la espectacular progresión financiera de Google asombró primero y magnetizó después al mundo digital. Los inversores de Silicon Valley llevaban años redoblando sus apuestas con la esperanza de dar con el esquivo modelo de negocio que hiciera que tanta inversión valiera la pena. Cuando se publicaron los resultados financieros de Google, se dio oficialmente por concluida la caza de tan mítico tesoro.

La nueva lógica de acumulación se extendió en primer lugar a Facebook, que se había fundado el mismo año de la salida inicial de Google a bolsa. El director ejecutivo de la nueva empresa, Mark Zuckerberg, había rechazado aplicar la estrategia de cobrar a los usuarios una tarifa de servicio como las compañías telefónicas habían hecho en el siglo anterior. «Nuestra misión consiste en interconectar a todas las personas que hay en el mundo. Y eso no se consigue si las obligas a pagar por el servicio», recalcaba él por aquel entonces. En mayo de 2007, presentó la nueva plataforma Facebook, con la que abría la red social a cualquiera, y no solo a personas que tuvieran cuenta de correo electrónico en alguna universidad. Seis meses después, en noviembre, lanzó su gran producto publicitario, Beacon, que compartía automáticamente con los «amigos» de un usuario las transacciones realizadas por este en sitios web colaboradores. Estas publicaciones aparecían incluso aunque el usuario no hubiera iniciado sesión en Facebook en aquel momento, es decir, sin conocimiento del usuario y sin que se le hubiera dado la opción de inscribirse en nada de aquello. El clamor de las quejas —las de los usuarios, pero también las de algunos socios colaboradores de Facebook, como Coca-Cola— obligó a Zuckerberg a dar marcha atrás de inmediato. En diciembre, Beacon se convirtió en un programa de inscripción voluntaria. El joven empresario (contaba por entonces veintitrés años de edad) había sabido entender bien el potencial del capitalismo de la vigilancia, pero todavía no había alcanzado la maestría de Google para ocultar sus operaciones y sus intenciones.

La pregunta que más apremiaba a los directivos en la sede de Facebook —«¿cómo traducimos en dinero todos esos usuarios de nuestra plataforma?»— seguía pendiente de respuesta. En marzo de 2008, solo tres meses después de haber tenido que poner fin a su primera intentona de emulación de la lógica de acumulación de Google, Zuckerberg fichó para Facebook a una ejecutiva de la empresa de Mountain View, Sheryl Sandberg, como directora de operaciones. Sandberg, que también había sido en su momento jefa de gabinete de Larry Summers cuando este era secretario del Tesoro estadounidense, se había incorporado a Google en 2001 y, en el momento de su fichaje por Facebook, era vicepresidenta de ventas y operaciones en línea globales. En Google, había dirigido el desarrollo del capitalismo de la vigilancia a través de la expansión de AdWords y de otros aspectos de las operaciones de venta en línea. Un inversor que había observado de cerca el crecimiento de la compañía durante aquel periodo llegó incluso a reconocer que «Sheryl creó AdWords».

Al firmar por Facebook, la talentosa Sandberg se convirtió en el «vector de contagio» del capitalismo de la vigilancia, pues se encargó a partir de ese momento de dirigir la transformación de Facebook para que dejara de ser una simple plataforma de una red social y se convirtiera en un gigante de la publicidad. Sandberg era consciente de que el «grafo social» de Facebook representaba una impresionante fuente de excedente conductual: el equivalente para un extractor de lo que para un prospector del siglo XIX habría representado darse de bruces con un valle que albergara la mina de diamantes más grande y la veta de oro más gruesa jamás descubiertas. «Disponemos de mejor información que nadie. Conocemos el género, la edad, la ubicación… Y son todos datos reales, a diferencia de aquellos que solo se pueden inferir», declaró Sandberg. Facebook iba a aprender a monitorizar, rebañar, almacenar y analizar UPI con la que fabricar sus propios algoritmos de dirección de anuncios, y al igual que Google, no limitaría las operaciones de extracción a aquello que las personas compartieran voluntariamente con la compañía. Sandberg comprendió que, mediante la astuta manipulación de aquella cultura de la intimidad y la compartición cultivada por Facebook, sería posible aprovechar excedente conductual no solo para satisfacer la demanda existente, sino también para crearla. Para empezar, eso significaba insertar anunciantes en el tejido mismo de la cultura en línea de Facebook, donde pudieran «invitar» directamente a los usuarios a entrar en «conversación» con ellos.

Resumen de la lógica y del funcionamiento del Capitalismo de Vigilancia

Con Google a la cabeza, el capitalismo de la vigilancia no tardó en convertirse en el modelo por defecto del capitalismo informacional en la red y, como veremos en los capítulos siguientes, fue atrayendo paulatinamente a competidores de todos los sectores. Esta nueva forma de mercado pone de manifiesto que atender las necesidades auténticas de las personas es menos lucrativo y, por lo tanto, menos importante que vender las predicciones de sus conductas. Google descubrió que somos menos valiosos que las apuestas que otros hacen sobre nuestro comportamiento futuro . Y esto lo cambió todo.

El excedente conductual explica el éxito de Google en cuanto a volumen de ganancias. En 2016, un 89 % de los ingresos de su compañía matriz, Alphabet, procedían de los programas de publicidad dirigida de Google. La escala de los flujos de materias primas se refleja en el dominio de Google en internet, donde procesa un promedio de más de cuarenta mil consultas cada segundo: más de 3.500 millones de búsquedas diarias y 1,2 billones en todo el mundo a lo largo de 2017.

Merced a la fortaleza de sus invenciones sin precedentes, Google creció hasta los 400.000 millones de dólares de valoración de mercado en 2014, solo dieciséis años después de su fundación, y desbancó así a ExxonMobil de la segunda posición del ranking de empresas por capitalización bursátil. De ese modo, pasaba a ser la segunda compañía más rica del mundo, solo por detrás de Apple. En 2016, Alphabet/Google llegó a arrebatar en algún momento ese primer lugar a Apple, aunque el 20 de septiembre de 2017 continuaba ocupando la segunda posición mundial.

Vale la pena tomar cierta perspectiva frente a toda esta complejidad a fin de captar mejor el patrón de conjunto y cómo encajan en él las diversas piezas del rompecabezas:

La lógica. De Google y de otras plataformas de la vigilancia se dice a veces que son mercados «bilaterales» o «multilaterales», pero los mecanismos del capitalismo de la vigilancia indican otra cosa distinta. Google había hallado un modo de traducir sus interacciones no mercantiles con los usuarios en una materia prima excedentaria con la que fabricar productos destinados a transacciones propiamente mercantiles con sus clientes reales: los anunciantes. El traslado de ese excedente conductual desde fuera del mercado hasta dentro de él permitió a la postre que Google transformara su inversión en ingresos. La corporación creó así, como de la nada y a un coste marginal cero, una clase de activos en forma de materias primas vitales derivadas de la conducta (no mercantil) de los usuarios en la red. Al principio, esas materias primas se «encontraban» sin más, pues eran un subproducto de las acciones de búsqueda de los usuarios. Más adelante, esos activos fueron ya objeto de una agresiva caza y obtenidos básicamente mediante la vigilancia. La empresa creó al mismo tiempo un nuevo tipo de mercado en el que sus «productos predictivos» privativos, fabricados a partir de las mencionadas materias primas, se podían comprar y vender.

El resumen de toda esa evolución de los acontecimientos es que el excedente conductual sobre el que está erigida la fortuna de Google puede considerarse como un conjunto de activos de la vigilancia. Estos activos son materias primas cruciales para la búsqueda y la obtención de ingresos de la vigilancia y para la traducción de estos en un capital de la vigilancia. El mejor modo de caracterizar la lógica de esta acumulación de capital en su conjunto es como un capitalismo de la vigilancia, que constituye el marco fundamental de un orden económico basado precisamente en eso, en la vigilancia: una economía de la vigilancia , en definitiva. El gran patrón general que podemos apreciar en todo ese conjunto es uno caracterizado por la subordinación y la jerarquía. Las anteriores reciprocidades entre la empresa y sus usuarios quedan ahora supeditadas al proyecto derivado de, y consistente en, la captación de nuestro excedente conductual para ponerlo al servicio de los fines de otros. Ya no somos los sujetos de la realización de valor. Tampoco somos, como algunas voces han insistido en afirmar, el «producto» de las ventas de Google. Somos, más bien, los objetos de los que se extrae una materia prima que Google expropia para su uso en sus fábricas de predicciones. Las predicciones sobre nuestros comportamientos son los productos de Google y la compañía las vende a sus clientes reales, pero no a nosotros. Nosotros somos el medio usado al servicio de los fines de otros.

El capitalismo industrial transformó las materias primas de la naturaleza en mercancías; el capitalismo de la vigilancia reclama el material de la naturaleza humana para la invención de una nueva mercancía. De hecho, ahora es la naturaleza humana lo que se rebaña, se arranca y se toma para el proyecto mercantil de un siglo diferente. Es hasta obsceno suponer que este daño se limita solamente a algo tan obvio como que los usuarios no reciben ninguna tarifa compensatoria por la materia prima que suministran. Quedarse en esa crítica sería un muy buen ejemplo del error de concepto que supondría recurrir a un mecanismo de precios para institucionalizar y, por consiguiente, legitimar la extracción de la conducta humana para los fines de su fabricación y venta. Ignoraría una cuestión clave, como es que la esencia de la explotación en este caso radica en la rendición y transferencia de nuestras vidas, convertidas en datos conductuales cuyo objetivo es que otros adquieran un control más perfeccionado sobre nosotros. Los problemas más destacados que cabe reseñar en ese sentido son, para empezar, el hecho precisamente de que nuestras vidas estén siendo rendidas-convertidas en datos conductuales; el hecho de que la ignorancia por nuestra parte sea una condición necesaria para tan ubicua rendición conversión; el hecho de que nuestros derechos de decisión se disipen antes incluso de que sepamos que ahí teníamos alguna decisión que tomar; el hecho de que esa disminución de nuestros derechos acarree unas consecuencias que no podemos ver ni prever; el hecho de que ni los conocidos recursos a la salida, a la voz o (siquiera) a la lealtad sean ya opciones a nuestro alcance, abocados como estamos a la impotencia, la resignación y el entumecimiento psíquico; y el hecho de que la encriptación sea la única acción positiva por nuestra parte que aún podamos recomendar en las comidas y cenas familiares cuando en ellas sale el tema de cómo ocultarnos de esas fuerzas que se ocultan de nosotros.

Los medios de producción. El proceso de fabricación aplicado por Google en la era de internet es un componente crucial de esta realidad actual sin precedentes. Sus tecnologías y técnicas específicas, que yo agrupo resumidas bajo el concepto de inteligencia de máquinas, están en constante evolución y es fácil que su complejidad nos intimide. Un mismo término puede significar una cosa hoy y otra bien distinta al cabo de un año o de cinco. Por ejemplo, de Google se ha dicho que viene desarrollando y desplegando «inteligencia artificial» desde, al menos, el año 2003, pero esa denominación en sí es un blanco en movimiento, pues las capacidades en ese terreno han evolucionado mucho desde aquellos programas primitivos que sabían jugar al tres en raya: ahora son sistemas que pueden gestionar el funcionamiento de flotas enteras de vehículos autónomos sin conductor.

Las capacidades en inteligencia de máquinas de Google se alimentan del excedente conductual y, cuanto más de ese excedente consumen, más precisos son los productos predictivos resultantes. El director y fundador de la revista Wired , Kevin Kelly, insinuó en una ocasión que, aunque parezca que Google está comprometida con el desarrollo de las capacidades de inteligencia artificial en aras de mejorar su buscador web, lo más probable es que suceda justamente al revés, y que esté desarrollando el buscador como una forma de favorecer un entrenamiento continuo de sus capacidades en inteligencia artificial, siempre en evolución. He ahí la esencia del proyecto de la inteligencia de máquinas. Como si de una consumada tenia intestinal se tratase, la inteligencia de máquinas depende de la cantidad de datos que pueda comer. En este importante aspecto, los nuevos medios de producción presentan una diferencia fundamental respecto a los del modelo industrial, en el que existía una tensión entre cantidad y calidad. La inteligencia de máquinas es la síntesis de esa tensión, pues solo alcanza su pleno potencial de calidad cuanto más se aproxima a la totalidad.

Al aumentar el número de compañías que aspiran a hacerse también con las ganancias de la vigilancia al estilo de Google, una proporción importante del ingenio global en ciencia de datos y en otros campos relacionados pasa a dedicarse a la fabricación de productos predictivos destinados a incrementar las ratios de cliqueo por publicidad dirigida. Ahí están, por ejemplo, los investigadores chinos contratados por la unidad de investigación de Bing (de Microsoft) en Pekín, que publicaron unos revolucionarios hallazgos en 2017: «Calcular con precisión la ratio de cliqueo (CTR, por sus siglas en inglés) de los anuncios tiene una repercusión crucial en los ingresos de los negocios de búsquedas; basta una mejora de un 0,1 % en la precisión de nuestra producción para lograr cientos de millones de dólares en ganancias adicionales», comenzaban diciendo en su informe, para, a continuación, mostrar una nueva aplicación de las redes neuronales avanzadas que promete traducirse en un 0,9 % de mejora en uno de los indicadores de identificación y en «significativos incrementos en la generación de clics en el tráfico digital». Asimismo, un equipo de investigadores de Google presentó un nuevo modelo de red neuronal profunda con el único propósito de captar mejor «interacciones de carácter predictivo» y proporcionar un «rendimiento puntero» con vistas a la mejora de las ratios de cliqueo. Miles de aportaciones como esas, algunas de carácter más gradual y otras más espectaculares, conforman un conjunto que podríamos considerar el equivalente de unos caros, sofisticados, opacos y exclusivos medios de producción del siglo XXI.

Los productos. La inteligencia de máquinas procesa el excedente conductual y lo convierte en productos predictivos diseñados para pronosticar lo que sentiremos, pensaremos y haremos, tanto ahora como en breve y, también, más adelante. Estas metodologías son uno de los secretos más celosamente guardados de Google. La naturaleza de sus productos explica por qué Google afirma y reitera que no vende datos personales. «¿Cómo? ¡Eso nunca!», vienen a decir una y otra vez los ejecutivos de Google cuando defienden la pureza de su política de privacidad, alegando que ellos no venden su materia prima. Pero lo cierto es que la compañía vende predicciones que solo puede fabricar a partir de su cardinal acopio privado de excedente conductual.

Los productos predictivos reducen riesgos para los clientes, pues sirven para aconsejarles dónde y cuándo hacer sus «apuestas». La calidad y la competitividad del producto están en función de lo próxima que su predicción sea a la certeza absoluta: cuanto más predictivo resulte el producto, más bajos son los riesgos que asumen quienes lo compran y mayor es el volumen total de ventas. Google ha aprendido a ser una especie de adivinadora fundamentada en datos que, en vez de intuición, emplea ciencia a escala para leer nuestros destinos y venderlos con fines de lucro a sus clientes, pero no a nosotros. Anteriormente, los productos predictivos de Google se habían destinado principalmente a la venta de publicidad dirigida, pero, como veremos, la publicidad era solo el principio del proyecto de la vigilancia, no su estación final.

El mercado. Los productos predictivos se venden en un nuevo tipo de mercado que comercia exclusivamente con conductas futuras. Las ganancias del capitalismo de la vigilancia se derivan primordialmente de estos mercados de futuros conductuales. Aunque los anunciantes eran los actores predominantes en la historia temprana de esta nueva forma de mercado, no existe motivo alguno por el que tales mercados tengan que limitarse a ese grupo de participantes. Es puramente casual que los nuevos sistemas de predicción hayan estado centrados hasta ahora en la publicidad, como casual fue también que el (en su día) novedoso sistema de producción en masa de Ford se aplicara inicialmente a la fabricación de automóviles. En ambos casos, se trata de sistemas que pueden utilizarse en otros muchos ámbitos. La tendencia ya visible en estos momentos, como veremos en los próximos capítulos, es que cualquier actor interesado en comprar información probabilística sobre nuestra conducta o en influir en el comportamiento futuro puede pagar por jugar en mercados donde se lee y se vende la fortuna conductual de individuos, grupos, organizaciones y hasta cosas.