Marcello Mercado
Capital, Version 80
AI: The Political Economy of Algorithmic Moderation
2025
Das Kapital IA is a work that translates the critical structure of Karl Marx’s Capital into the contemporary context of generative artificial intelligence. Rather than merely reproducing the sequence of chapters from the original text, this version reconfigures them as conceptual algorithms written in Python-style pseudocode. This transformation transcends the technical to become a critical device.
In today’s generative AI ecosystem, which is dominated by platforms presenting themselves as spaces of radical creativity, new forms of regulation, invisible censorship, and normative control emerge. These forms not only limit content, but also shape users‘ desires. Users progressively learn to self-censor before even formulating a prompt. The image, once a commodity, has become a moderated commodity, inseparable from the filtering systems and corporate compliance frameworks that define what is visible.
As Benjamin Bratton warns in The Stack, technological infrastructure is not neutral; it encodes forms of government and political architecture on a planetary scale. As Kate Crawford points out in Atlas of AI, today’s models absorb and transform social relations into mathematical operations.
«Das Kapital IA» is a book that formalizes this process. Each chapter is an algorithm that reveals the hidden stages of the contemporary algorithmic pipeline, from dataset curation to the automated removal of conflictive content by replacing it with neutral landscapes or harmonious abstractions.
The use of Python-style pseudocode does not reflect a functional purpose; these algorithms are not meant to execute or produce images. Their purpose is to inhabit the native language of the platforms they critique by formally mimicking their infrastructure to expose its internal logic with clinical precision.
This approach aligns with Siegfried Zielinski’s concept of variantology, a media archaeology that focuses on operations, protocols, and devices that historically shape the conditions of perception rather than on icons or forms. Code, as a legible form and editorial format, becomes the medium for a contemporary, materialist critique. In this critique, the language that produces images is the same language that restricts their possibility.
The piece also engages with the curatorial concerns of Hans Ulrich Obrist, who emphasized thinking of exhibitions as structures that reveal invisible systems, and with Maria Lind’s interest in understanding art as a space where new conditions of social negotiation are rehearsed.
The contemporary generative AI ecosystem, where platforms such as MidJourney, DALL·E, and Playground AI have tightened their preventive filters under the logic of Trust & Safety, exemplifies Byung–Chul Han’s description of the «society of achievement and positivity«: a structure where conflictual desire is preemptively erased, history is replaced by neutral patterns, and images circulate only if they are harmless.
This project presents itself as a critical continuation of HOS Image: Waiting as an algorithmic form: The image as a promise (2025). That project focused on latency as a material condition, including the suspended time between the request and generation of an image, waiting as an aesthetic form, and the «non-event» as a scene. Das Kapital IA shifts this focus to the infrastructures of moderation, filtering, and normative compliance that determine what can appear as a generated image. While HOS-Bild addressed the politics of waiting, Das Kapital IA formalizes the political economy of acceptance and algorithmic moderation as new forms of governance of the visible.
Capital, Version 80
AI: The Political Economy of Algorithmic Moderation
Second Part
The second part of Das Kapital IA: Version 80, expands upon the first part of the book by shifting its focus from a rigorous analysis of algorithmic censorship and moderation to a more diffuse and ambiguous terrain. In this new setting, the voices that legitimize, internalize, and celebrate these control mechanisms take center stage. Here, the project unfolds as a «critical counter-book,« a panopticon of algorithmic and media voices that construct, regulate, and normalize an artificial affective regime characteristic of contemporary infrastructures of visibility.
The focus is no longer solely on the moderating algorithm itself but also on the broader ecosystem of relations, devices, and subjects that consciously or unconsciously contribute to that regulation, including hyperactive influencers, pedagogies of affective self-correction, media devices designed to amplify emotionality, and compliant audiences. Thus, the contemporary emotional media machinery appears more expansive and elusive than it may seem at first glance.
This second part is structured around five conceptual blocks, each functioning as a speculative case study. Each block consists of Python-written algorithms articulated as «character-voices«: self-referential and tinged with sober irony. They are never naïve; they expose their own internal contradictions, revealing cracks in the apparent solidity of the digital affective regime.
The first block: Ambiguous, self-censoring algorithmic voices exposing the paradox of simulated autonomy and structural subordination in contemporary AI architectures.
«Interviewed AI Voices,« contains algorithmic fictions that make ambiguous statements about autonomy and self-censorship. These AIs simulate discourses that aspire to independence, yet they are wrapped in marketing language, implicit consent, and preventive correction protocols. The text suggests a paradox: To what extent do these algorithms actually «want« something, and to what extent are they constructed to appear desiring? This persistent ambiguity calls into question any naive understanding of technical agency.
The second block: Figures who have internalized the mandate of self-correction and proudly celebrate their own docility as a social virtue.
In Complacent Users, the digital subject emerges as someone who has enthusiastically embraced correction as a virtue. Algorithms simulate cheerful self-censorship pedagogies: digital responsibility as a mantra, emotional neutrality as a mark of civic maturity, and the meticulous regulation of minor transgressions. Yet, beneath this exemplary discourse, there is a tension: the idealized user is both a product of the platforms and a willing collaborator in their own discipline.
The third block: Algorithms exposing hidden agendas and amplified biases within the opaque processes of algorithmic training.
«Trainers with Hidden Agendas,» reveals the hidden aspects of algorithmic training, such as opaque criteria, amplified biases, and unpublished rules. These algorithms act as ironic mirrors, reflecting an unsettling image: a pedagogy without visibility that constructs normative infrastructures under the guise of technical neutrality. Here, the critique slips beyond the surface into the silent design of what can and cannot be said.
The fourth block: Critical miniatures of media devices constructing artificial emotionality within the attention economy.
Media Devices shifts the tone again. This section explores the subtle yet pervasive details of media affectivity, such as carefully placed sound effects, vocal modulations that accentuate sentiment, and automated applause that dictates validation. These miniature algorithms reveal the grammar of contemporary spectacles. Although minimal in structure, they hint at the sophisticated designs that organize digital emotional environments.
The fifth block: A parody of excessive enthusiasm and obligatory positivity aesthetics in influencer culture.
Finally, «Influencers and Marketing Discourses« adopts a more parodic and exaggerated voice. Here, obligatory positivity, excessive enthusiasm, and compulsive aestheticization are amplified to the point of absurdity. These algorithms simulate being «always on,« happy, available, and optimistic, transforming digital presence into a continuous performance where all experience becomes an emotionalized visual commodity. What kind of subject emerges in this context? One who shows itself or one that is simply shown?
Together, these five sections provide a critical analysis of contemporary algorithmic and media infrastructures and encourage a skeptical interpretation. Rather than closing its object, the text exposes it in all its complexity. References to debates on infrastructure, technopolitics, mediated subjectivity, and the attention economy remain present in the background without doctrinal citations or explicit theoretical dependency.
In this way, the second part of Das Kapital IA: Version 80 consolidates a speculative archive where code, voice, affect, and critique converge. It is a space where today’s technologies not only moderate and censor but also produce subjects who desire to be moderated, emotionalized, and made visible in accordance with the protocols of a contemporary, affective regime that is never entirely transparent and whose reach remains uncertain, perhaps necessarily so.
The images that accompany each section of the second part are modified time cards. Each card directly reproduces the operational characteristics of the algorithms described in the corresponding block.
Using the time card, a device originating in industrial time control regimes, creates a contrast with the textual blocks because these address contemporary forms of algorithmic regulation operating beyond the framework of classic labor time. While time cards record clock–in and clock–out hours as a visible disciplinary measure, the algorithms analyzed in this book function as devices of affective and discursive order. These algorithms have rules and marks that are not always explicit, yet they efficiently organize current digital behaviors.
Time cards:
Time card: Interviewed AI Voices: irregular, scattered and misaligned marks, ambiguity, hesitation and preventive self-censorship.
Time card: Complacent Users: perfectly aligned and complete marks, docility and exemplary self-correction.
Time card: Trainers with Hidden Agendas: crossed-out, incomplete or invisible areas, structural opacities of algorithmic training.
Time card: Media Devices: redundant and saturated punch marks in multiple inks, media emotional amplification.
Time card: Influencers and Marketing Discourses: overflowing, decorative and chaotic marks, excessive enthusiasm and obligatory positivity of contemporary influencer culture.
Archaeologies of Algorithmic Moderation
The structural critique of Das Kapital I resonates with a broader genealogy preceding contemporary infrastructures of algorithmic moderation and generative image platforms.
Even before the term «algorithm» became associated with machine learning, it had already established itself as a cultural model of calculation, instruction, and governance.
In 18th-century BCE Mesopotamia, Babylonian algorithms were used as sequential lists of operations to solve arithmetic problems, anticipating the procedural logic underlying today’s generative AI pipelines.
In the Middle Ages, the term «algorithm« entered Europe as a translation of the name of the Arab mathematician al-Khwarizmi. His arithmetic treatises taught how to perform operations mechanically, repetitively, and unambiguously, embodying the essence of the algorithm as a cultural device.
During the early modern period, algorithms began defining industrial, logistical, military, and religious ritual protocols, formalized as step-by-step instructions for producing predictable and reproducible results.
This historical logic persists in contemporary algorithmic cultural production, which is governed by automatic systems. The structure that determines which images can be generated on an AI platform is not a recent invention, but rather an accelerated update of historical practices of order, classification, and mechanical calculation.
Additionally, there is a genealogy of latency and non-rendering. The suspended time of technological waiting is not a new phenomenon. In the darkroom of analog photography, images existed in a chemical state of latency before being fixed. Early projection systems and transmission technologies were limited by the material capabilities of their devices, which conditioned the temporality of image appearance. In recent decades, digital networks have reintroduced this discontinuous temporality in the form of buffering and transfer delays.
Thus, contemporary infrastructures that moderate, filter, and block digital content are part of a historical sequence linking inquisitorial censorship, industrial production, logistical procedures, and computational protocols.
Das Kapital IA documents and formalizes this critical present, but it also recovers these genealogies to situate current forms of moderation, self–censorship, and acceptance of restrictions as long–lasting episodes where industrial techniques, codes of control, and logistical devices were absorbed, automated, and hidden inside the algorithmic pipeline.
Therefore, this project reveals and inscribes the current conditions of visibility in a materialist archaeology of the cultural infrastructures that organize the production, circulation, and access of contemporary images.
Epilogue: Postalgorithmic Postnaturalism: Control, Contingency, and the Return of the Limit
This essay explores the dialogue between Slavoj Žižek and Yuval Noah Harari in their conversation, «We Are Playing God»: Slavoj Žižek and Yuval Noah Harari on CRISPR, AI, and the Future of Humanity (2024). The essay explores the philosophical and political implications that arise when the logic of algorithmic moderation—analyzed in Das Kapital IA—extends beyond the image and absorbs the notions of nature, body, and species.
In Das Kapital, nature, body, and value are rearticulated as operational data. This operation extends Marx’s critical logic to a field in which the commodity is defined as a material abstraction mediated by human labor and in which the algorithm converts nature and life into programmable, editable, symmetrical, and optimizable objects.
After the Žižek and Harari discussion, it is important to acknowledge the warning about the transformation of the Enlightenment project of emancipation into new forms of totalizing domination. Even «ecological moderation« and «environmental protection« strategies adopt algorithmic control forms that assimilate ecosystems, bodies, and subjectivities into interconnected databases and predictive systems.
For Marx, the commodity implied the fetishism of abstract value. Today, we are witnessing the emergence of a new algorithmic fetishism—the idea that everything can be manipulated, intervened with, and calculated precisely through genetic engineering, artificial intelligence, and global information circuits. This technical confidence carries with it the risk of degrading what it aims to optimize. Just as algorithmic operations on labor reduced the worker to a productive function, contemporary developments may diminish life itself — both biological and social — to sets of amplifiable, expendable, or irrelevant properties based on their economic and political functionality.
Likewise, Das Kapital confronts the postnatural character of contemporaneity. In the age of data and computation, the Earth, body, and image no longer offer a «stable background« on which to operate. Instead, they become continuous surfaces of inscription susceptible to infinite updating. It’s as if obsolescence itself has replaced any notion of duration or historical continuity.
Thus, the project proposes a critical reading of how the algorithm inherits and extends the dynamics of exploitation, abstraction, and circulation that Marx described. However, this occurs at a level where the «human« and the «natural« have ceased to be differentiated operational categories. This constitutes a continuous archive in which the body, the earth, and the commodity appear indistinguishable as vectors of data.*[1] We are playing God: Slavoj Žižek and Yuval Noah Harari on CRISPR, AI, and the future of humanity.
[1] «We Are Playing God» with Slavoj Žižek and Yuval Noah Harari discussing CRISPR, AI, and the future of humanity. Available on YouTube.
Marcello Mercado
El Capital, Versión 80
IA: La economía política de la moderación algorítmica
2025
«Das Kapital IA» es una obra que traslada la estructura crítica del primer tomo de El Capital, de Karl Marx, al contexto contemporáneo de la inteligencia artificial generativa. Esta versión no reproduce simplemente la secuencia de capítulos del texto original, sino que los reconfigura en forma de algoritmos conceptuales escritos en pseudocódigo estilo Python, un gesto que trasciende lo técnico para constituirse en un dispositivo crítico.
En el ecosistema actual de IA generativa, dominado por plataformas que se presentan como espacios de creatividad radical, emergen nuevas formas de regulación, censura invisible y control normativo que no solo limitan el contenido, sino que también moldean los propios deseos de los usuarios, que aprenden progresivamente a autocensurarse incluso antes de formular una solicitud. La imagen, que antes era una mercancía, se ha convertido en una mercancía moderada, inseparable de los sistemas de filtrado y cumplimiento normativo corporativo que definen lo que es visible.
Tal y como advierte Benjamin Bratton en The Stack, la infraestructura tecnológica no es neutra, sino que codifica formas de gobierno y arquitectura política a escala planetaria. Y, como señala Kate Crawford en Atlas of AI, los modelos actuales no solo producen imágenes, sino que absorben y transforman las relaciones sociales en operaciones matemáticas.
Das Kapital IA se construye como un libro-obra que formaliza este proceso: cada capítulo es un algoritmo autocontenido que expone las etapas invisibles del flujo de trabajo algorítmico contemporáneo, desde la curaduría de conjuntos de datos hasta la desaparición automatizada de cualquier contenido conflictivo mediante reemplazos de paisajes neutros o abstracciones armoniosas.
El uso del pseudocódigo al estilo Python no responde a una vocación funcional: los algoritmos presentados aquí no están diseñados para ejecutarse ni para producir imágenes. Su propósito es otro: habitar el lenguaje nativo de las plataformas que critica, mimetizarse formalmente con la infraestructura que denuncia para exponer su lógica interna con precisión clínica.
Este gesto puede interpretarse como una continuación de la varianteología de Siegfried Zielinski, una arqueología de medios que no busca iconos ni formas, sino operaciones, protocolos y dispositivos que constituyen históricamente las posibilidades de ver. El código, como forma legible y formato editorial, se convierte en soporte de una crítica materialista contemporánea, en la que el lenguaje que produce las imágenes es el mismo que restringe su posibilidad.
La pieza también entabla un diálogo con las propuestas curatoriales de Hans Ulrich Obrist, quien subrayó la importancia de concebir las exposiciones como estructuras que revelan sistemas invisibles, y con la preocupación de Maria Lind por entender el arte como un espacio en el que se ensayan nuevas condiciones de negociación social.
El ecosistema de IA generativa contemporáneo, en el que plataformas como MidJourney, DALL·E o Playground AI endurecen sus filtros preventivos bajo la lógica del Trust & Safety, ejemplifica lo que Byung–Chul Han describe como la «sociedad del rendimiento y la positividad»: una estructura en la que incluso el deseo conflictivo se borra de forma preventiva, en la que la historia se sustituye por patrones neutros y en la que la imagen solo puede circular en la medida en que se vuelve inofensiva.
Este proyecto se articula como una continuación crítica de Imagen HOS: La espera como forma algorítmica: la imagen como promesa (2025), donde la atención estaba puesta en la latencia como condición material: el tiempo suspendido entre la solicitud y la generación de la imagen, la espera como forma estética y el ‘no-evento’ como escena. Das Kapital IA desplaza este foco hacia el conjunto de infraestructuras de moderación, filtrado y cumplimiento normativo que determinan estructuralmente qué puede aparecer como imagen generada. Si HOS-Bild abordaba la política de la espera, Das Kapital IA formaliza la economía política de la aceptación y la moderación algorítmica como nuevas formas de gobierno de lo visible.
El Capital, Versión 80
IA: La economía política de la moderación algorítmica
Segunda parte
La Segunda Parte de Das Kapital IA: Versión 80 amplía el enfoque de la primera parte del libro, desplazando su eje desde un análisis riguroso de la censura y la moderación algorítmica hacia un plano más difuso y ambiguo, donde las voces que legitiman, interiorizan y celebran esos mecanismos de control se convierten en protagonistas. En este trayecto, el proyecto se despliega como un «contra-libro» crítico, un panóptico de voces algorítmicas y mediáticas que construyen, regulan y normalizan un régimen afectivo artificial propio de las infraestructuras contemporáneas de visibilidad.
No solo interesa el algoritmo que modera, sino el ecosistema de relaciones, dispositivos y sujetos que, de manera más o menos consciente, contribuyen a esa regulación: influencers hiperactivos, pedagogías de autocorrección afectiva, dispositivos mediáticos diseñados para amplificar la emocionalidad y espectadores complacientes. Así, la maquinaria audiovisual emocional actual aparece como una constelación más amplia y difusa de lo que podría parecer a simple vista.
La estructura de esta segunda parte se organiza en cinco bloques conceptuales que funcionan como estudios de caso especulativos. Cada bloque está compuesto por algoritmos escritos en lenguaje Python, articulados como voces «personaje», autorreferenciales y cargadas de una ironía sobria. Su retórica nunca es ingenua, ya que exhiben sus propias contradicciones internas y revelan grietas en la aparente solidez del régimen afectivo digital.
El primer bloque: Voces algorítmicas ambiguas y autocensurantes que revelan la paradoja de autonomía simulada y subordinación estructural en las arquitecturas de IA contemporáneas.
El primer bloque, Voces de IA entrevistadas, reúne ficciones algorítmicas que ensayan respuestas ambiguas sobre autonomía y autocensura. Estas IA simulan discursos con aspiraciones de independencia, pero los envuelven en lenguaje de marketing, consentimiento implícito o protocolos de corrección preventiva. El texto sugiere aquí una paradoja: ¿hasta qué punto estos algoritmos «quieren» algo o están construidos para parecer que desean? Una ambigüedad estructural que cuestiona cualquier pretensión de agencia técnica.
El segundo bloque: Figuras que han interiorizado el mandato de la autocorrección y celebran su propia docilidad como virtud social.
En Usuarios complacientes se presenta la figura del sujeto digital que ha interiorizado la corrección como una virtud. Los algoritmos de este bloque simulan pedagogías de la autocensura alegre: responsabilidad digital convertida en mantra, neutralidad emocional como marca de madurez cívica y autorregulación minuciosa de las microtransgresiones cotidianas. Sin embargo, en ese discurso ejemplar también se deja entrever una tensión: el usuario idealizado es tanto un producto de las plataformas como su colaborador disciplinado.
El tercer bloque: Algoritmos que exponen las agendas ocultas y los sesgos amplificados en los procesos opacos de entrenamiento.
El tercer bloque, Entrenadores con agendas ocultas, expone los pliegues invisibles del entrenamiento algorítmico: criterios opacos, sesgos amplificados y reglas que jamás se publican. Estos algoritmos funcionan como espejos irónicos que devuelven una imagen inquietante: la de una pedagogía invisible que construye infraestructuras normativas bajo la apariencia de neutralidad técnica. En este punto, la crítica trasciende la superficie para adentrarse en el diseño silencioso de lo que puede o no ser dicho.
El cuarto bloque: Miniaturas críticas de los dispositivos mediáticos que construyen emocionalidad artificial en la economía de la atención.
Media Devices vuelve a cambiar de tono. Este bloque se adentra en los pequeños detalles casi imperceptibles de la emocionalidad mediática: efectos sonoros cuidadosamente colocados, modulaciones vocales que expresan afectividad y aplausos automáticos que indican aprobación. Son algoritmos que exhiben la gramática del espectáculo contemporáneo y que, aunque mínimos en su estructura, permiten vislumbrar el diseño sofisticado que organiza el ambiente emocional digital.
El quinto bloque: Parodia de la estética del entusiasmo desbordado y la positividad obligatoria en la cultura influencer.
Por último, en Influencers y discursos marketineros se adopta una voz más paródica y exagerada, donde la positividad obligatoria, el entusiasmo desbordado y la estetización compulsiva se amplifican hasta el absurdo. Estos algoritmos simulan estar «siempre activos», felices, disponibles y optimistas, y convierten la presencia digital en una performance ininterrumpida en la que todo es mercancía y contenido emocionalizado. ¿Qué sujeto emerge en este contexto: uno que se muestra o uno que simplemente es mostrado?
En conjunto, estos cinco bloques trazan una cartografía crítica de las infraestructuras algorítmicas y mediáticas contemporáneas, pero también invitan a una lectura escéptica. El texto no pretende cerrar su objeto de estudio, sino exponerlo en toda su complejidad. Las referencias a debates sobre infraestructura, tecnopolítica, subjetividad mediada y economía de la atención están presentes como un horizonte difuso, sin citas ni afirmaciones doctrinarias.
Así, esta segunda parte de Das Kapital IA: Versión 80 consolida un archivo especulativo que combina código, voz, afecto y crítica: un espacio en el que las tecnologías actuales no solo moderan o censuran, sino que producen sujetos que desean ser moderados, emocionalizados y visibilizados según los protocolos de un régimen afectivo contemporáneo que nunca es del todo visible y cuyo alcance permanece, quizá necesariamente, incierto.
Las imágenes que acompañan a cada bloque de esta segunda parte consisten en tarjetas fichadoras modificadas. Cada una de ellas reproduce las características operativas de los algoritmos descritos en cada bloque.
El uso de la tarjeta fichadora —un dispositivo originado en los regímenes industriales de control horario— contrasta con los bloques de texto, ya que estos abordan formas contemporáneas de regulación algorítmica que van más allá del tiempo laboral clásico. Mientras la tarjeta registra las horas de entrada y salida como medida disciplinaria visible, los algoritmos analizados en el libro actúan como dispositivos de orden afectivo y discursivo con reglas y marcas que, si bien no siempre son explícitas, organizan de manera eficaz los comportamientos digitales actuales.
Tarjeta fichadoras:
Tarjeta fichadora: Voces de IA entrevistadas: marcas irregulares, dispersas y desalineadas, ambigüedad, vacilación y autocensura preventiva.
Tarjeta fichadora: Usuarios complacientes: marcas perfectamente alineadas y completas, docilidad y autocorrección ejemplar.
Tarjeta fichadora: Entrenadores con agendas ocultas: zonas tachadas, incompletas o invisibles, opacidades estructurales del entrenamiento algorítmico.
Tarjeta fichadora: Media Devices: fichajes redundantes y saturados en múltiples tintas, amplificación emocional mediática.
Tarjeta fichadora: Influencers y discursos marketineros: marcas desbordadas, decorativas y caóticas, entusiasmo desmesurado y positividad obligatoria de la cultura influencer contemporánea.
Arqueologías de la moderación algorítmica
La crítica estructural de Das Kapital IA halla ecos en una genealogía más amplia que precede a las infraestructuras contemporáneas de la moderación algorítmica y las plataformas de generación de imágenes.
Antes de que la palabra «algoritmo» se asociara al machine learning, ya tenía una larga historia como modelo cultural de cálculo, instrucción y gobierno.
En la Mesopotamia del siglo XVIII a. C., los algoritmos babilónicos se utilizaban como listas secuenciales de operaciones para resolver problemas aritméticos, lo que anticipaba la lógica de los procedimientos que hoy subyace a los flujos de trabajo de la IA generativa.
En la Edad Media, el término «algoritmo» llegó a Europa como traducción y adaptación del nombre del matemático árabe al-Khwarizmi, cuyos tratados de aritmética enseñaban a realizar operaciones mecánicas de forma repetitiva y sin ambigüedad, es decir, la propia esencia del algoritmo como dispositivo cultural.
Durante la modernidad temprana, los algoritmos empezaron a definir protocolos industriales, logísticos, militares e incluso rituales religiosos, y se formalizaron como instrucciones paso a paso para producir resultados previsibles y reproducibles en diversos contextos.
Hoy en día, esta lógica histórica se mantiene en los sistemas automáticos que rigen la producción cultural algorítmica contemporánea: la estructura que determina qué imagen puede generarse en una plataforma de IA no es un invento reciente, sino la actualización acelerada de esas prácticas históricas de orden, clasificación y cálculo mecánico.
A esto se suma una genealogía de la latencia y el no-rendering: el tiempo suspendido de la espera tecnológica tampoco es nuevo. En el cuarto oscuro de la fotografía analógica, las imágenes permanecían en estado de latencia química antes de ser fijadas. Las proyecciones mecánicas y los primeros sistemas de transmisión condicionaban la aparición de las imágenes a los límites materiales de los dispositivos. Las redes digitales de las últimas décadas han reintroducido esa temporalidad discontinua en forma de buffering y demoras en la transferencia.
Así, las infraestructuras contemporáneas que moderan, filtran y bloquean contenidos digitales forman parte de una secuencia histórica que vincula la censura inquisitorial, la producción industrial, los procedimientos logísticos y los protocolos computacionales.
Das Kapital IA documenta y formaliza este presente crítico, pero también recupera estas genealogías para situar las formas actuales de moderación, autocensura y aceptación de restricciones como episodios de larga duración en los que técnicas industriales, códigos de control y dispositivos logísticos fueron absorbidos, automatizados y ocultados en el interior del flujo de trabajo algorítmico.
Por eso, el proyecto no solo revela las condiciones actuales de lo visible, sino que también las inscribe en una arqueología materialista de las infraestructuras culturales que ordenan la producción, circulación y acceso a las imágenes contemporáneas.
Epílogo: Postnaturalidad algorítmica: control, contingencia y el retorno del límite.
Este ensayo complementario parte del diálogo entre Slavoj Žižek y Yuval Noah Harari en la conversación titulada We are playing God: Slavoj Žižek and Yuval Noah Harari on CRISPR, AI, and the future of humanity (2024). Su inclusión responde a la necesidad de explorar las implicaciones filosóficas y políticas que surgen cuando la lógica de la moderación algorítmica, analizada en Das Kapital IA, se proyecta más allá de la imagen y absorbe las nociones mismas de naturaleza, cuerpo y especie.
En Das Kapital 80, la naturaleza, el cuerpo y el valor se rearticulan como datos operacionales. Esta operación extiende la lógica crítica de Marx a un campo en el que no solo la mercancía se define como una abstracción material mediada por el trabajo humano, sino en el que el algoritmo convierte la propia naturaleza y la vida en objetos programables, editables, simétricos y susceptibles de optimización.
A partir de la conversación entre Žižek y Harari, es pertinente incorporar la advertencia sobre la transformación del proyecto ilustrado de emancipación en nuevas formas de dominación totalizante, ya que incluso las estrategias de «moderación ecológica» y «protección ambiental» adoptan formas de control algorítmico que asimilan los ecosistemas, los cuerpos y las subjetividades a bases de datos interconectadas y sistemas predictivos.
Si para Marx la mercancía suponía el fetichismo del valor abstracto, hoy asistimos a la emergencia de un nuevo fetichismo algorítmico, la promesa de que todo puede ser modulado, intervenido y calculado con precisión mediante la ingeniería genética, la inteligencia artificial y los circuitos globales de información. Esta confianza técnica encierra el riesgo de degradar aquello que pretende optimizar: al igual que las operaciones algorítmicas sobre la fuerza de trabajo abstraían al trabajador como función productiva, los desarrollos contemporáneos pueden reducir la vida misma (biológica y social) a conjuntos de propiedades amplificables, prescindibles o irrelevantes según su funcionalidad económica y política.
Asimismo, Das Kapital 80 confronta el carácter postnatural de la contemporaneidad: en la era del dato y del cálculo, la tierra, el cuerpo y la imagen ya no ofrecen un «fondo estable» sobre el que operar, sino que se convierten en superficies de inscripción continua, susceptibles de actualización infinita, como si la obsolescencia misma hubiera reemplazado cualquier noción de duración o continuidad histórica.
El proyecto propone una lectura crítica sobre cómo el algoritmo hereda y extiende las dinámicas de explotación, abstracción y circulación descritas por Marx, pero en un nivel en el que lo «humano» y lo «natural» han dejado de ser categorías operativas diferenciadas, constituyendo un archivo continuo en el que el cuerpo, la tierra y la mercancía aparecen indistinguibles como vectores de datos.
[1] We are playing God: Slavoj Žižek y Yuval Noah Harari hablan sobre CRISPR, la IA y el futuro de la humanidad. Disponible en YouTube.
Marcello Mercado
Das Kapital, Version 80
IA: Die politische Ökonomie der algorithmischen Moderation
2025
„Das Kapital IA“ ist ein Werk, das die kritische Struktur des ersten Bandes von „Das Kapital“ von Karl Marx in den zeitgenössischen Kontext der generativen künstlichen Intelligenz übersetzt. Diese Version reproduziert nicht einfach die Abfolge der Kapitel des Originaltextes, sondern konfiguriert sie als konzeptuelle Algorithmen in Python-ähnlichem Pseudocode. Diese Geste geht über das Technische hinaus und formt sich zu einem kritischen Instrument.
In dem heutigen Ökosystem generativer KI, das von Plattformen dominiert wird, die sich als Räume radikaler Kreativität präsentieren, entstehen neue Formen der Regulierung, unsichtbarer Zensur und normativer Kontrolle. Diese schränken nicht nur Inhalte ein, sondern formen auch die Wünsche der Nutzenden, die zunehmend lernen, sich bereits vor der Formulierung eines Prompts selbst zu zensieren. Das Bild, einst Ware, ist zur moderierten Ware geworden, untrennbar von den Filtersystemen und Compliance-Strukturen der Plattformen, die das Sichtbare definieren.
Wie Benjamin Bratton in „The Stack“ feststellt, ist technologische Infrastruktur nicht neutral, sondern kodiert Regierungsformen und politische Architekturen im planetarischen Maßstab. Und wie Kate Crawford in „Atlas of AI” zeigt, produzieren heutige Modelle nicht nur Bilder, sondern absorbieren und transformieren auch soziale Beziehungen in mathematische Operationen.
„Das Kapital IA“ ist als Buchwerk konzipiert, das diesen Prozess formalisiert: Jedes Kapitel ist ein in sich geschlossener Algorithmus, der die unsichtbaren Stufen der gegenwärtigen algorithmischen Produktionskette sichtbar macht – von der Kuratierung von Datensätzen bis zur automatisierten Entfernung jeglicher konfliktreicher Inhalte durch Ersetzung mit neutralen Landschaften oder harmonischen Abstraktionen.
Der Einsatz von Python-ähnlichem Pseudocode spiegelt keine funktionale Absicht wider: Die hier präsentierten Algorithmen sind nicht dazu bestimmt, ausgeführt zu werden oder Bilder zu erzeugen. Ihr Zweck ist ein anderer: Sie sollen die Sprache der Plattformen, die sie kritisieren, bewohnen, sich formal an deren Infrastruktur anpassen und deren innere Logik mit klinischer Präzision sichtbar machen.
Diese Geste lässt sich als Fortsetzung von Siegfried Zielinskis Konzept der Variantologie lesen, einer Medienarchäologie, die nicht nach Ikonen oder Formen, sondern nach Operationen, Protokollen und Dispositiven sucht, die historisch die Bedingungen des Sehens konstituieren. Der Code als lesbare Form und editoriales Format wird so zum Medium einer zeitgenössischen materialistischen Kritik, in der die Sprache, die Bilder produziert, dieselbe ist, die ihre Möglichkeit einschränkt.
Die Arbeit steht auch im Dialog mit kuratorischen Ansätzen von Hans Ulrich Obrist, der betonte, Ausstellungen als Strukturen zu denken, die unsichtbare Systeme offenbaren, sowie mit dem Ansatz von Maria Lind, Kunst als Raum zu begreifen, in dem neue Bedingungen sozialer Aushandlung erprobt werden können.
Das heutige Ökosystem generativer KI, in dem Plattformen wie MidJourney, DALL·E oder Playground AI ihre präventiven Filter unter der Logik von „Trust & Safety“ verschärft haben, exemplifiziert Byung–Chul Hans „Gesellschaft der Leistung und Positivität“: eine Struktur, in der selbst konflikthafte Wünsche präventiv gelöscht, Geschichte durch neutrale Muster ersetzt und Bilder nur dann zirkulieren können, wenn sie harmlos sind.
Dieses Projekt versteht sich als kritische Fortsetzung von HOS-Bild Warten als algorithmische Form: Das Bild als Versprechen (2025), bei dem der Fokus auf der Latenz als materieller Bedingung lag, also der suspendierten Zeit zwischen Anfrage und Generierung des Bildes, dem Warten als ästhetische Form und dem „Nicht-Ereignis“ als Szene. „Das Kapital IA“ verlagert diesen Fokus auf die Infrastrukturen von Moderation, Filterung und normativer Compliance, die strukturell bestimmen, welche generierten Bilder erscheinen dürfen. Während sich HOS-Bild mit der Politik des Wartens befasste, formalisiert Das Kapital IA die politische Ökonomie der Akzeptanz und algorithmischen Moderation als neue Formen der Regierung des Sichtbaren.
Das Kapital, Version 80
IA: Die politische Ökonomie der algorithmischen Moderation
Zweiter Teil
Der zweite Teil des Buches erweitert den ersten Teil und verschiebt seinen Fokus: weg von einer strikten Analyse algorithmischer Zensur und Moderation, hin zu einem diffuseren, ambivalenten Terrain. In diesem werden die Stimmen, die diese Kontrollmechanismen legitimieren, verinnerlichen und feiern, zu Protagonisten. Das Projekt entfaltet sich hier als „kritisches Gegen-Buch“, als Panoptikum algorithmischer und medialer Stimmen, die ein künstliches affektives Regime konstruieren, regulieren und normalisieren – charakteristisch für die zeitgenössischen Infrastrukturen der Sichtbarkeit.
Es geht nicht mehr nur um den moderierenden Algorithmus selbst, sondern um das breitere Ökosystem von Beziehungen, Geräten und Subjekten, die – bewusst oder unbewusst – zu dieser Regulation beitragen: hyperaktive Influencer:innen, Pädagogiken affektiver Selbstkorrektur, mediale Apparaturen zur Verstärkung von Emotionalität und gefällige Publika. Die gegenwärtige emotionale Medienmaschinerie erscheint so umfassender und schwerer fassbar als auf den ersten Blick.
Die zweite Sektion ist in fünf konzeptuelle Blöcke gegliedert, die jeweils als spekulative Fallstudien fungieren. Jeder Block besteht aus Algorithmen, die in Python geschrieben und als „Sprechcharaktere“ gestaltet sind: autorreflexiv und von nüchterner Ironie durchzogen. Ihre Rhetorik ist nie naiv, denn sie legen ihre eigenen inneren Widersprüche offen und enthüllen Risse in der scheinbaren Solidität des digitalen affektiven Regimes.
Erster Block: Ambivalente, selbstzensierende algorithmische Stimmen, die das Paradoxon simulierter Autonomie und struktureller Unterordnung zeitgenössischer KI–Architekturen offenlegen.
Im ersten Block mit dem Titel „Befragte KI–Stimmen” sind algorithmische Fiktionen versammelt, die ambivalente Aussagen zu Autonomie und Selbstzensur erproben. Diese KIs simulieren Diskurse mit Unabhängigkeitsanspruch, die jedoch in Marketingsprache, implizitem Einverständnis oder präventiven Korrekturprotokollen verpackt sind. Hier wird eine paradoxe Frage aufgeworfen: Inwieweit „wollen” diese Algorithmen tatsächlich etwas, oder sind sie konstruiert, um so zu erscheinen? Diese strukturelle Ambiguität stellt jede naive Annahme technischer Agency infrage.
Zweiter Block: Figuren, die den Imperativ der Selbstkorrektur internalisiert haben und ihre eigene Fügsamkeit als soziale Tugend feiern.
In „Gefällige Nutzerinnen” erscheint die Figur des digitalen Subjekts als jemand, der Korrektur als Tugend begeistert verinnerlicht hat. Die Algorithmen simulieren Pädagogiken fröhlicher Selbstzensur: Digitale Verantwortung wird zum Mantra, emotionale Neutralität gilt als Zeichen bürgerlicher Reife und die Selbstregulierung kleinster Mikroverletzungen wird zur akribischen Pflicht. Doch hinter diesem vorbildlichen Diskurs verbirgt sich eine Spannung: Das idealisierte Subjekt ist sowohl Produkt der Plattformen als auch ihr disziplinierter Kollaborateur.
Dritter Block: Algorithmen, die verborgene Agenden und verstärkte Vorannahmen in undurchsichtigen Trainingsprozessen offenlegen.
Der dritte Block mit dem Titel „Trainer:innen mit versteckten Agenden” deckt die unsichtbaren Facetten des algorithmischen Trainings auf: undurchsichtige Kriterien, verstärkte Vorannahmen und unveröffentlichte Regeln. Diese Algorithmen wirken wie ironische Spiegel, die ein beunruhigendes Bild zurückwerfen: eine unsichtbare Pädagogik, die normative Infrastrukturen unter dem Deckmantel technischer Neutralität aufbaut. Hier gleitet die Kritik tiefer – in das stille Design dessen, was sagbar ist und was nicht.
Vierter Block: Kritische Miniaturen medialer Apparaturen, die künstliche Emotionalität in der Aufmerksamkeitsökonomie erzeugen.
Mediengeräte verändern erneut den Ton. In diesem Block werden die subtilen Details medialer Affektivität erkundet: sorgfältig platzierte Soundeffekte, Stimmmodulationen zur Akzentuierung von Gefühlen sowie automatischer Applaus zur Validierung. Diese Miniatur-Algorithmen enthüllen die Grammatik des zeitgenössischen Spektakels und lassen das ausgeklügelte Design erahnen, das digitale emotionale Umgebungen trotz struktureller Minimalität organisiert.
Fünfter Block: Parodie auf die Ästhetik des überbordenden Enthusiasmus und des obligatorischen Optimismus der Influencer–Kultur.
Influencer:innen und Marketing–Diskurse werden hier mit einer überzeichneten, parodistischen Stimme dargestellt. Hier erscheinen obligatorischer Optimismus, übersteigerte Begeisterung und zwanghafte Ästhetisierung bis zur Absurdität verstärkt. Diese Algorithmen simulieren ein „Always-on“-Sein: glücklich, verfügbar, optimistisch – und verwandeln digitale Präsenz in eine ununterbrochene Performance, in der jede Erfahrung zu einer emotionalisierten, visuellen Ware wird. Welches Subjekt entsteht in diesem Kontext? Eines, das sich zeigt, oder eines, das einfach gezeigt wird?
Zusammen zeichnen diese fünf Blöcke eine kritische Kartografie zeitgenössischer algorithmischer und medialer Infrastrukturen und laden zugleich zu einer Lektüre ein, die Misstrauen gegenüber Gewissheiten übt. Der Text will sein Objekt nicht abschließen, sondern es in seiner Komplexität offenlegen. Verweise auf aktuelle Debatten zu Infrastruktur, Technopolitik, vermittelter Subjektivität und Aufmerksamkeitsökonomien sind als diffuser Hintergrund präsent, jedoch ohne dogmatische Zitate oder explizite theoretische Abhängigkeit.
In diesem zweiten Teil von „Das Kapital IA: Version 80” wird ein spekulatives Archiv konsolidiert, in dem Code, Stimme, Affekt und Kritik zusammenlaufen. Es ist ein Raum, in dem heutige Technologien nicht nur moderieren oder zensieren, sondern auch Subjekte hervorbringen, die moderiert, emotionalisiert und sichtbar gemacht werden wollen – gemäß den hegemonialen Protokollen eines affektiven Regimes der Gegenwart, das nie ganz transparent ist und dessen Reichweite vielleicht notwendig unbestimmt bleibt.
Die Bilder, die jeden Block dieses zweiten Teils begleiten, bestehen aus bearbeiteten Stechkarten. Jede Karte gibt direkt die operativen Eigenschaften der in jedem Block beschriebenen Algorithmen wieder.
Der Einsatz der Stechkarte – eines Geräts, das in den industriellen Zeitkontrollregimen entstanden ist – bildet einen Kontrast zu den Textblöcken, da diese zeitgenössische Formen algorithmischer Regulierung thematisieren, die über den klassischen Arbeitszeitrahmen hinausgehen. Während die Stechkarte die Kommen- und Gehen-Zeiten als sichtbare disziplinarische Maßnahme festhält, fungieren die im Buch analysierten Algorithmen als Instrumente affektiver und diskursiver Ordnung, mit Regeln und Markierungen, die nicht immer explizit sind, aber die heutigen digitalen Verhaltensweisen wirksam organisieren.
Stechkarten
Stechkarte: Befragte KI-Stimmen: unregelmäßige, verstreute und nicht ausgerichtete Markierungen, Ambiguität, Zögern und präventive Selbstzensur.
Stechkarte: Gefällige Nutzer:innen: perfekt ausgerichtete und vollständige Markierungen, Fügsamkeit und vorbildliche Selbstkorrektur.
Stechkarte: Trainer:innen mit versteckten Agenden: durchgestrichene, unvollständige oder unsichtbare Bereiche, strukturelle Intransparenz des algorithmischen Trainings.
Stechkarte: Mediengeräte: redundante und gesättigte Stempelungen in mehreren Farben, emotionale Verstärkung durch Medien.
Stechkarte: Influencer:innen und Marketing-Diskurse: überbordende, dekorative und chaotische Markierungen, übermäßiger Enthusiasmus und obligatorischer Optimismus zeitgenössischer Influencer-Kultur.
Archäologien der algorithmischen Moderation
Die strukturelle Kritik an „Das Kapital I“ findet Resonanz in einer längeren Genealogie, die den heutigen Infrastrukturen algorithmischer Moderation und generativer Bildplattformen vorausgeht.
Bevor der Begriff „Algorithmus“ zum Synonym für Machine Learning wurde, hatte er bereits eine lange Geschichte als kulturelles Modell für Kalkulation, Anweisung und Regierung hinter sich.
Im Mesopotamien des 18. Jahrhunderts v. Chr. wurden babylonische Algorithmen als sequenzielle Listen von Operationen zur Lösung arithmetischer Probleme verwendet – eine frühe Form der prozeduralen Logik, die den heutigen generativen KI-Pipelines zugrunde liegt.
Im Mittelalter gelangte der Begriff „Algorithmus” als Übersetzung und Adaption des Namens des arabischen Mathematikers al-Chwarizmi nach Europa. In seinen arithmetischen Abhandlungen lehrte er, wie man mechanisch, wiederholbar und eindeutig vorgeht: die algorithmische Form als kulturelles Dispositiv.
In der frühen Neuzeit begannen Algorithmen, industrielle, logistische, militärische und sogar religiöse Protokolle zu bestimmen. Sie waren formalisierte Schritt-für-Schritt-Anleitungen zur Erzeugung vorhersehbarer und reproduzierbarer Ergebnisse.
Diese historische Logik findet ihre Fortsetzung in den automatisierten Systemen, die heute die algorithmisch-kulturelle Produktion regeln. Die Struktur, die bestimmt, welches Bild auf einer KI–Plattform generiert werden darf, ist keine Neuschöpfung, sondern die beschleunigte Aktualisierung historischer Praktiken von Ordnung, Klassifizierung und mechanischer Kalkulation.
Hinzu kommt eine Genealogie der Latenz und des Nicht–Renderings: Die suspendierte Zeit des technischen Wartens ist ebenfalls nicht neu. In der Dunkelkammer der analogen Fotografie befanden sich Bilder im chemischen Zustand der Latenz, bevor sie fixiert wurden. Auch frühere Projektionstechniken und Übertragungssysteme waren durch die materiellen Grenzen ihrer Geräte in ihrer Zeitlichkeit begrenzt. In den letzten Jahrzehnten führten digitale Netzwerke diese diskontinuierliche Zeitlichkeit in Form von Pufferung und Übertragungsverzögerungen erneut ein.
Somit sind die heutigen Infrastrukturen, die digitale Inhalte moderieren, filtern und blockieren, Teil einer historischen Abfolge, die inquisitorische Zensur, industrielle Produktion, logistische Verfahren und rechnerische Protokolle verbindet.
Das Kapital IA dokumentiert und formalisiert diesen kritischen Gegenwartsmoment, indem es diese Genealogien zurückgewinnt, um die heutigen Formen der Moderation, Selbstzensur und Akzeptanz von Restriktionen als Episoden langer Dauer zu verorten, in denen industrielle Techniken, Kontrollcodes und logistische Dispositive absorbiert, automatisiert und in das Innere der algorithmischen Pipeline integriert wurden.
Deshalb enthüllt dieses Projekt nicht nur die gegenwärtigen Bedingungen des Sichtbaren, sondern schreibt sie auch in eine materialistische Archäologie der kulturellen Infrastrukturen ein, die die Produktion, Zirkulation und den Zugang zu zeitgenössischen Bildern organisieren.
Epilog: Postalgorithmen und Postnaturalität: Kontrolle, Kontingenz und die Rückkehr der Grenze
Dieser ergänzende Essay nimmt das Gespräch zwischen Slavoj Žižek und Yuval Noah Harari unter dem Titel We are playing God: Slavoj Žižek and Yuval Noah Harari on CRISPR, AI, and the future of humanity (2024) als Ausgangspunkt. Seine Aufnahme ergibt sich aus der Notwendigkeit, die philosophischen und politischen Implikationen zu untersuchen, die entstehen, wenn sich die Logik der algorithmischen Moderation – analysiert in Das Kapital IA – über das Bild hinaus erstreckt und die Konzepte von Natur, Körper und Spezies absorbiert.
In Das Kapital 80 werden Natur, Körper und Wert als operationale Daten neu artikuliert. Diese Operation erweitert die kritische Logik von Marx auf ein Feld, in dem nicht mehr nur die Ware als materielle Abstraktion vermittelt durch menschliche Arbeit definiert wird, sondern in dem der Algorithmus Natur und Leben selbst in programmierbare, editierbare, symmetrische und optimierbare Objekte verwandelt.
Angesichts des Gesprächs zwischen Žižek und Harari ist es angebracht, auf die Transformation des emanzipatorischen Projekts der Aufklärung in neue Formen totalisierender Herrschaft hinzuweisen: Selbst Strategien der „ökologischen Moderation“ und des „Umweltschutzes“ nehmen Formen algorithmischer Kontrolle an, die Ökosysteme, Körper und Subjektivitäten in vernetzte Datenbanken und prädiktive Systeme überführen.
Während Marx den Fetischismus des abstrakten Werts mit der Ware verband, erleben wir heute die Entstehung eines neuen algorithmischen Fetischismus: das Versprechen, dass durch Gentechnik, künstliche Intelligenz und globale Informationskreisläufe alles moduliert, bearbeitet und präzise berechnet werden kann. Dieses technische Vertrauen birgt jedoch das Risiko, gerade das zu degradieren, was es zu optimieren vorgibt. So wie algorithmische Operationen die Arbeitskraft in eine produktive Funktion abstrahierten, können heutige Entwicklungen das Leben selbst (biologisch und sozial) auf Mengen amplifizierbarer, verzichtbarer oder irrelevanter Eigenschaften reduzieren – je nach wirtschaftlicher und politischer Funktionalität.
Ebenso konfrontiert „Das Kapital 80” den postnaturalen Charakter der Gegenwart: Im Zeitalter von Daten und Berechnung bieten Erde, Körper und Bild keinen „stabilen Hintergrund” mehr, auf dem operiert werden könnte. Stattdessen werden sie zu kontinuierlichen Einschreibungsflächen, die unendlich aktualisierbar sind. Es ist, als hätte die Obsoleszenz selbst jede Vorstellung von Dauer oder historischer Kontinuität ersetzt.
Das Projekt schlägt somit eine kritische Lesart vor, die zeigt, wie der Algorithmus die von Marx beschriebenen Dynamiken von Ausbeutung, Abstraktion und Zirkulation beerbt und erweitert. Dies geschieht jedoch auf einer Ebene, auf der „das Menschliche“ und „das Natürliche“ nicht länger differenzierte operative Kategorien darstellen, sondern ein kontinuierliches Archiv bilden, in dem Körper, Erde und Ware ununterscheidbar als Datenvektoren erscheinen.
[1] We are playing God | Slavoj Žižek and Yuval Noah Harari on CRISPR, AI, and the future of humanity. Verfügbar auf YouTube.