Hacia un mundo digitalizado
Para superar un orden social estructurado en torno de lo religioso, se recurrió a una base filosófica que ponderaba al ser humano como centro del mundo, así como a un inusitado impulso a la ciencia, que entonces fue erigida en núcleo de una suerte de culto al progreso. Así, si mediante el humanismo podía liberarse el espíritu de los presupuestos socioeconómicos jerárquicos y estamentales, con el método científico se acababan de destronar las explicaciones celestiales y dogmáticas sobre la naturaleza.
Fue una época de fuertes rupturas para aquella sociedad europea. El mundo comenzó a ser concebido como resultado del cálculo matemático, los principios de la física mecánica impregnaron la médula de las ciencias naturales y el ser humano se volvió la medida de todas las cosas, en sus ansias de conocimiento. La íntima ligazón entre humanidad y ciencia tuvo su correlato en las necesidades de una burguesía en ascenso, que se servía del avance científico para aplicarlo como técnica en la producción manufacturera. Es decir que, llegado un punto, los beneficios de la ciencia dejaron de irradiar el bien común, el conocimiento general y «filantrópico» del mundo, para mostrar su verdadera cara y comenzar a operar en un estricto sentido económico, dentro de la fábrica.
El propio Marx pudo divisar la contradicción que asomaba, expresada hacia el siglo xix en el antagonismo entre la clase obrera y los instrumentos técnicos de la producción:
En la maquinaria cobran independencia la dinámica y el funcionamiento del instrumento de trabajo frente al obrero (…) En la manufactura y en la industria manual, el obrero se sirve de la herramienta: en la fábrica, sirve a la máquina. Allí, los movimientos del instrumento de trabajo parten de él; aquí, es él quien tiene que seguir sus movimientos. (…) El instrumento de trabajo se enfrenta como capital, durante el proceso de trabajo, con el propio obrero; se alza frente a él como trabajo muerto que domina y absorbe la fuerza de trabajo viva. (…) Así se explica ese singular fenómeno que nos revela la historia de la industria moderna, consistente en que la máquina eche por tierra todas las barreras morales y naturales de la jornada de trabajo.1
Esta descripción de Marx, reflejo de un capitalismo ya entrado en su etapa de gran industria, era también una predicción en relación con la profundización y mutación que el fenómeno adoptaría.Una situación que, por esa misma época, también advertía el filósofo Samuel Butler, aunque extremando sus conclusiones al proclamar la necesidad de declarar la guerra a las máquinas:
Día a día las máquinas están ganando terreno entre nosotros; día a día nos volvemos más sumisos respecto de ellas; cada vez más hombres están diariamente obligados a ocuparse de ellas, más hombres están diariamente dedicando las energías de toda su vida al desarrollo de vida mecánica. El resultado es simplemente una cuestión de tiempo, pero el momento llegará cuando las máquinas obtengan verdadera supremacía sobre el mundo y sus habitantes. Nuestra opinión es que debería ser proclamada inmediatamente la guerra a muerte contra ellas.2
La consolidación de la máquina como instrumento de trabajo, reafirmada históricamente por la explotación de nuevas fuentes de energía, pudo pronto integrar la automatización de sus procedimientos. Cuando este proceso estuvo realizado, el capitalismo europeo, anclado en la sobreproducción de mercancías, se lanzó en una feroz disputa por los mercados coloniales. El siglo xx, el de las guerras mundiales y los grandes genocidios, estableció a su paso una suerte de universalización del paradigma humano-tecnológico. Pero sus dos variables integrantes, lejos de asimilarse, profundizaron su camino de contradicciones: el vigoroso avance científico no solo doblegaba a la naturaleza, sino que desde su autonomía comenzaba a trastocar el histórico legado humanista.
La revolución digital
Los algoritmos, en tanto procedimientos de cálculo, existieron desde tiempos inmemoriales. Ricardo Peña Marí escribe que, incluso en la antigua Mesopotamia de hace 3.000 años, se emplearon algoritmos para describir ciertos cálculos relacionados con transacciones comerciales: «En el siglo xvii aparecieron las primeras ayudas mecánicas para el cálculo en forma de calculadoras de sobremesa y en el siglo xix se conciben las primeras máquinas programables. Los ordenadores, tal como hoy los conocemos, son, sin embargo, de mediados del siglo xx. A partir de ahí, los algoritmos alcanzan un desarrollo sin precedentes»3.Es decir que lo novedoso de este desarrollo no era el algoritmo en sí mismo, sino su integración dentro de un sistema más vasto, el de la informática o computación. Hacia mediados del siglo xx, el matemático inglés Alain Turing había logrado idear un modelo de cálculo (algoritmo) capaz de ser generalizado a cualquier máquina o computador. En teoría, cualquier problema que pudiera traducirse a términos matemáticos, en determinado lenguaje simbólico, podría ser resuelto. Aunque aún imaginaria, la «máquina de Turing» proporcionaba la base para la aparición del computador digital, al formalizar un sistema de entrada y salida capaz de reconocer un lenguaje y luego ejecutar múltiples funciones programables. Aparecía a su vez la posibilidad de un lenguaje universal de programación, la aptitud automática y recursiva de «computar», calcular. La verificación práctica de la teoría de Turing se desarrollaría una vez culminada la Segunda Guerra Mundial, y con ella, la fabricación de los primeros computadores electrónicos.
Luego, en la década de 1960, con la Guerra Fría impulsando una inédita carrera científico-tecnológica, se avanzó notablemente en el campo de la electrónica y se logró «integrar» las computadoras, reduciendo sus componentes. Una posible periodización del proceso las identifica como de segunda generación, a partir de la invención del transistor, y de tercera generación, con el surgimiento del sistema integrado. Sobre la base de estas nuevas tecnologías surgió también el sistema operativo multiprogramación, capaz de procesar distintos programas en simultáneo y reducir así enormemente los tiempos de ejecución. La empresa emblemática de todas estas transformaciones fue la estadounidense International Business Machines Corporation (ibm), pero aún se trataba de proyectos costosos.
Con la década de 1970 llegaron las computadoras de cuarta generación, cuyo elemento revolucionario fue la invención del microprocesador. Manuel Castells sostiene que «la llegada del microprocesador en 1971, con la capacidad de poner una computadora en un chip, dio vuelta el mundo de la electrónica, de hecho el mundo en sí»4. Esto dio nacimiento a la microinformática y, con ella, a las computadoras personales para uso civil y comercial (pc, por sus siglas en inglés). Ahora sí, la reducción en tamaño y costo de las máquinas anunciaba la llegada de la «revolución tecnológica». El mundo se volvía información, susceptible de ser registrado a gran escala y de forma digital.
Finalmente, en la década de 1980 se «inventó» internet (interconnected networks), es decir la posibilidad de compartir esa información a través de redes interconectadas. La computadora, que hasta entonces se había limitado al almacenamiento y procesamiento de información, comenzaba a funcionar como embrionario instrumento de conexión entre personas y distancias. Pero ante la pregunta premonitoria de Turing sobre si la computadora podía pensar, la respuesta continuaba siendo un consensuado «no». Aunque ocupaba un lugar cada vez más importante, se mantenía aún la centralidad del humanismo, esa dimensión mencionada como constitutiva de la modernidad y que representa nuestra autonomía intelectual. La informática operaba en su función de herramienta/instrumento y la idea de la inteligencia artificial, entrevista en teoría desde antaño, distaba de ser una realidad.
Es cierto que ya había mostrado sus primeros indicios de posibilidad en la década de 1960, con la inauguración de los sistemas de pilotaje automático de los aviones. Luego, en las décadas siguientes, despertó mayor expectativa con la creación de los «sistemas expertos», primeros intentos de utilizar los algoritmos para simular el razonamiento humano. Pero al sumar algunos fracasos en este terreno, como el proyecto japonés de computadoras de «quinta generación», no hubo grandes avances durante los años 80.La verdadera revolución llegó con la década de 1990, al propagarse internet. Las computadoras comenzaron a reproducir las novedosas páginas web y a multiplicar las comunicaciones instantáneas entre las partes más distantes del globo. Estas asombrosas mutaciones fueron abriendo paso a consecuentes necesidades de infraestructura: también fue la década en que crecieron exponencialmente las inversiones, tanto privadas como estatales, y resultado de ello fue el tendido de millones de kilómetros de fibra óptica y de cables submarinos que hacen posible el mundo velozmente conectado de hoy5. Esta transformación, construida en paralelo a los desarrollos de la microelectrónica, pudo presentarse como la base necesaria para el posterior imperio de las tecnologías de la información y la comunicación (tic).Con esta nueva realidad, la tecnología de los años 90 comenzaba un incipiente proceso de independencia respecto del ser humano al construir una realidad paralela: un mundo digital capaz de registrar y reproducir al instante la información disponible sin depender de la observación o la presencia in situ. Es este el contexto en que la inteligencia artificial definitivamente «despega»: los sistemas expertos comenzaron a generalizar con éxito sus facultades «interpretativas» sobre la base de la deducción y se avanzó hacia la emulación enteramente automatizada de razonamientos cognitivos. El corolario emblemático de este proceso llegó en 1997, cuando el programa Deep Blue, ideado por ibm, le ganó una partida de ajedrez a Garri Kaspárov, el mejor jugador del mundo en ese entonces.
En general, lo medular del cambio consistía en que una computadora pudiera no solo almacenar y procesar información, sino también deducir y proyectar escenarios. Algo muy similar al «pensar» humano. Una transición de la «computadora procesador» a la «computadora intuitiva», de la incipiente informática a la cibernética o, lo que es lo mismo, de la revolución digital a la inteligencia artificial. Se trata de un fenómeno de larga data, con avances y retrocesos aquí solo esbozados, pero que se afianza decididamente hacia finales del siglo pasado. Este proceso tuvo como resultado el imponente crecimiento de las empresas tecnológicas basadas en la comercialización de internet, fenómeno que en pleno imperio del capital financiero se tradujo rápidamente en un boom especulativo. La burbuja finalmente estalló en 2000, con la estrepitosa caída del índice bursátil nasdaq, en lo que también se conoció como la «crisis de las punto com».
De la revolución digital a la inteligencia artificial
Con el nuevo siglo, y con la infraestructura de un mundo digitalizado ya disponible, la inversión en mecanismos de inteligencia artificial se profundiza y marca la tendencia generalizada en el sector tecnológico. Tras ella se cobija un nuevo modelo de negocios, que ya no se basa en la comercialización de internet, sino que apuesta a la universalización de internet como medio de acceso a la información de la sociedad civil. El nuevo patrón apunta en adelante a la extracción y procesamiento constante de datos (personales, empresariales, institucionales). Y ya no se sostiene –o no solo– en una computadora de escritorio, sino en una presencia creciente de la tecnología como forma de registrar la mayor cantidad de datos posible.
Este fenómeno se consolida hacia la segunda década del siglo xxi, con plataformas perfeccionadas para estimular relaciones adictivas y con algoritmos que avanzan hacia la personalización de los contenidos online. Se genera lo que Eli Pariser denomina «filtro burbuja»: se esfuman las promesas democratizadoras que anunciaba internet y se profundizan los sesgos y la manipulación de la información6. En nuestros dispositivos solo recibimos información relacionada con nuestras inclinaciones, y así crecen los discursos de odio o recobran vitalidad algunas perimidas teorías conspirativas.
Como elemento clave del proceso, Éric Sadin identifica la «universalización del smartphone»7, mientras que Nick Srnicek, al hablar de la «internet de las cosas»8, describe una penetración más amplia de la informática, que consiste en la colocación de chips y sensores en infinidad de dispositivos y electrodomésticos9. Cuestiones como la individualización y miniaturización de los objetos tecnológicos, su geolocalización y transportabilidad, y el predeterminado acceso a redes sociales y plataformas son manifestaciones de esta tendencia al registro constante de cada movimiento humano a lo largo y ancho del planeta, en un tránsito crecientemente virtual de nuestras existencias.
Los fines son y pueden ser múltiples. En el plano económico, puede sopesarse la monetización de los perfiles de usuarios a través de la interconexión de redes sociales, medios y tiendas online. Se trata de un ámbito en el que destacan plataformas típicamente publicitarias como Facebook o el software de Google, y donde el funcionamiento de los algoritmos personalizados se verifica como el elemento central. Para ilustrar esta dinámica, puede apelarse a la conocida frase: «si el servicio es gratis, el producto eres tú». Tu información, que se almacena y se clasifica… se «convierte» en dato y se comercializa como espacio para la publicidad.
Pero en lo relativo al ámbito de lo político, en cambio, puede hablarse de estrategias de espionaje o, con Shoshana Zuboff, de un «capitalismo de la vigilancia»10. Sus lógicas operan a menudo en el plano interno estatal apuntalando ciertas políticas públicas; o en su defecto, demostrando los ribetes totalitarios de tal o cual gobierno. Pero operan sobre todo en el plano geopolítico, complejizando al extremo las disputas militares y comerciales en un mundo volcado definitivamente hacia el multilateralismo. Se incorpora así el ciberespacio como un componente decisivo en las relaciones internacionales, sobre el cual se registra cierto consenso al considerarlo el «quinto dominio de la guerra», junto con las clásicas dimensiones de la tierra, el mar, el aire y el espacio11.En todos los casos, la pérdida de la privacidad se convierte en requisito para el nuevo paradigma, lo que se expresa en una notable capacidad de intrusión de la tecnología en nuestras vidas cotidianas; vale decir, de un puñado de empresas tecnológicas. Manipulando enormes cantidades de datos y procesándolos a velocidades exponenciales mediante sofisticados algoritmos, se comienza a trabajar sobre la predicción y/o direccionamiento de nuestros pensamientos, conductas… ¡hasta de nuestras emociones!
La lógica algorítmica genera a su paso una marcada propensión a la concentración económica, cuando no al monopolio, ya que cuantos más datos alimentan un algoritmo, más efectivamente funciona este12. Así, a una tendencia que presenta cierta regularidad en el capitalismo, como es la de la concentración, se le adosa el aspecto particular y puramente operativo de un mercado como el de los datos. En su modus operandi, apela a todo tipo de herramienta: búsquedas online, cookies de seguimiento en páginas web, consumos con tarjetas, desplazamientos vía gps, trámites virtuales, movimientos bancarios, registros de huellas digitales y hasta reconocimientos faciales.
Hay aquí un cambio de paradigma respecto de la revolución digital originaria, y refiere a la lisa y llana captación de nuestras subjetividades. Por ello es que tanto Sadin como Srnicek asocian el nuevo siglo a una nueva etapa de la revolución tecnológica: mientras que el primero conceptualiza una nueva «antrobología», suerte de acoplamiento híbrido humano-maquínico, el segundo opta por hablar de un «capitalismo de plataformas».
¿Un capitalismo inteligente?
Muchas veces se ha hablado de nuevas etapas del capitalismo, o de fases de la Revolución Industrial, al considerar distintos cambios estructurales. El nuevo siglo no podía ser la excepción, cuando se verifica una hegemonía inusitadamente corporativa y un nuevo patrón de acumulación del gran capital: los datos. Esto es efectivamente así, y para notarlo no solo basta con dimensionar el tamaño relativo de las big tech13, sino que también puede advertirse que se apoderan del último eslabón de la cadena de valor: los usuarios o consumidores, a través de los datos.
En una ilustrativa analogía, Esteban Magnani afirma: «La materia prima es nuestra inteligencia, los medios de producción los algoritmos y nuestras búsquedas el trabajo que permite transformarlos en servicios monetizables. La variable ausente es el salario correspondiente por ese trabajo, algo que ayuda a entender que algunas empresas se enriquecieran tanto y tan rápido»14. Más allá de las discusiones en torno de si nuestras interacciones virtuales son propiamente «trabajo» –en muchos aspectos diríamos que no–, lo cierto es que, con Zuboff, podemos hablar de una apropiación del «excedente producido por el comportamiento»15. Desde este punto de vista, podría decirse que las grandes empresas tecnológicas han encontrado una alternativa que va incluso más allá de la desregulación y precarización del trabajo –mundialmente afianzadas bajo la impersonalidad que supone la virtualidad– y que radica en la monetización del lazo social, es decir, la posibilidad de continuar lucrando durante y con el tiempo libre de las personas.
Por lo demás, son cambios que parecieran no obstaculizar el modelo de valorización financiera; todo lo contrario, lo apuntalan, y de ahí que suela hablarse de estos conglomerados como empresas tecnológico-financieras (fintech). Tal vez la emergencia más sintomática de este rumbo sean las criptomonedas, tan en boga durante estos últimos años. Al respecto, podemos referir al ya conocido Bitcoin, a las también operativas Ethereum o Litecoin y al intento (fallido) de Facebook con Libra. Se trata de una tendencia propia de un modelo especulativo-tecnológico que apela al lenguaje criptográfico como modo de extremar la desregulación financiera. Y funciona mediante la tecnología blockchain, que en esencia constituye una red abierta y comunitaria que, de forma descentralizada, registra, almacena y finalmente habilita un cúmulo de transacciones virtuales. Sus operaciones, que comenzaron albergando obras de arte o gustos de elite, avanzan de a poco hacia propiedades inmuebles, además de operaciones ilegales.
Estos aspectos no implican empero una independencia del capital tecnológico respecto de sus países de origen, o al menos no de un modo visiblemente preponderante. Por el contrario, en muchos casos sus controversias por mercados o bases de datos parecieran orientar la lucha geopolítica. En el tablero internacional, la disputa entre China y eeuu se expresa actualmente en la carrera por el liderazgo de la inteligencia artificial, en particular en lo que constituye su nueva base de operaciones: la tecnología 5g, promisoria red de banda ancha móvil diseñada a la medida de los servidores inteligentes. En este sentido deben interpretarse las sanciones de Donald Trump a Huawei –aún vigentes–, así como sus amenazas a las apps chinas TikTok y WeChat. Asimismo, el rápido ascenso del gigante chino Alibaba, con su reciente desembarco en los mercados europeos, propone el primer gran reto a Amazon, y se perfila una brutal contienda en el mercado del comercio electrónico. En todos los casos debe contemplarse que además de la disputa propiamente comercial, opera el factor estratégico que contempla los datos de millones y millones de personas.
Así, por un factor u otro, las inversiones en inteligencia artificial se acrecientan, a punto tal que constituyen un eslabón trascendental del actual formato de la competencia capitalista: Google es el mayor inversor en esta área, pero Amazon, Salesforce, Facebook y Microsoft también están invirtiendo mucho en ia16. Esta tendencia puede ampliarse a las grandes empresas en general: en su tradicional relevamiento del estado de la inteligencia artificial, la consultora estadounidense McKinsey & Company afirma que en 2019 su uso aumentó 25% respecto del año anterior, mientras que en 2020 la mitad de las empresas consultadas afirmaron haber incorporado sus mecanismos en al menos un rubro de negocios17.Evidentemente, el fenómeno está ya consolidado. De ahí que cada tanto se escuchen noticias de «emprendedores» que producen un algoritmo para esto, un algoritmo para lo otro… La total supremacía que ejercen hoy en día los gigantes tecnológicos se desplaza hegemónicamente hacia abajo, y hoy una pequeña empresa «exitosa» es aquella que logra automatizar alguno de sus aspectos decisionales. Se trata de una orientación irrefrenable de los capitalismos centrales. Es lo que permite a Sadin hablar de la «silicolonización del mundo», en referencia ingeniosa a la colonización ejercida por el paradigma Silicon Valley sobre el mundo occidental.
En tal sentido, constituye también un modo de dominación sobre las periferias. Las empresas tecnológicas de los países centrales reproducen las históricas prácticas coloniales, solo que amparadas en nuevos argumentos, «innovadores». La intervención sucede a menudo bajo el manto de la «modernización» e implica, en rigor, la habitual intervención sobre las políticas públicas. Una suerte de profundización del new public management inaugurado por el neoliberalismo anglosajón de la década de 1980 que, en su intento incesante de suplantar a la política, acaba cooptando a los distintos gobiernos dóciles del mapa (generalmente liberales). Denota a su paso una creciente deshumanización de las relaciones sociales y, en un mismo acto, avasalla todo vestigio de soberanía nacional.
En América Latina, por ejemplo, se registran políticas prácticamente nulas en torno de la protección de datos y construcción de servidores nacionales –o regionales–, asunto de vital importancia estratégica que podría tratarse tal vez en otro escrito.