Juan Duarte
Quão "inteligente" é a Inteligência Artificial? Quanto ela pode transformar o capitalismo e quão progressista pode ser para o pós-capitalismo? Exploramos um livro fundamental para abordar criticamente essa nova promessa prometeica dos barões do capitalismo do Vale do Silício.
A “inteligência artificial” ocupa um lugar cada vez mais destacado na conversa pública. Bastapesquisar no Google por “inteligência artificial” para obter 256 milhões de resultados (e artigos em todos os jornais do país e do mundo); encontramos ela o tempo todo em nossas telas, seja no WhatsApp, no ChatGPT ou com as imagens hiper-realistas da Aurora, a ferramenta geradora de imagens do Grok, o “chatbot com IA” do X, entre muitas outras. Até mesmo Javier Milei a colocou no centro, incorporando-a à sua retórica paleolibertária como uma promessa de futuro próspero para o país. E o entusiasmo se projeta para o futuro: os gurus do Vale do Silício (sede e símbolo das empresas tecnológicas globais), como Raymond Kurzweil, ex-gerente do Google, já falam de uma “singularidade tecnológica”, uma nova espécie pós-humana logo ali; o filósofo Nick Bostrom afirma, sem rodeios, que com a IA, “o indigente do futuro poderia ser equivalente ao bilionário de hoje” (Perfil, 24/12/2024); e os mega-bilionários donos da IA, como Elon Musk, sugerem que “a inteligência humana, não digital, será apenas 1%” e que até “há uma chance de que ela acabe com a humanidade”. Em suma, trata-se, sem dúvida, da principal promessa futura do capital, reforçada – como aponta um editorial recente da Nature – com a chegada de Trump ao poder (com ninguém menos que Musk à frente do “Departamento de Eficiência Governamental”). Mas o que há de verdade por trás dessas promessas? Quão “inteligente” é a IA? Que mudanças ela implica ou pode implicar para a humanidade? E, já do lado oposto aos Musks, quais são as implicações para uma estratégia anticapitalista e comunista?
Poder Inumano. Inteligência Artificial e o Futuro do Capitalismo, livro de Nick Dyer-Witheford, Mikkola Attle Kjosen e James Steinhoff, publicado originalmente em 2019 pela Verso1 e recentemente traduzido para o espanhol por Tomás Callegari e publicado pela Prometeo, aborda essas questões em profundidade. Nick Dyer-Witheford é professor e pesquisador na Universidade de Western Ontario (Canadá) e autor de vários livros sobre a relação entre capitalismo e cibernética. Em Cyber Proletariat (2015, Verso), ele analisa, em diálogo com o autonomismo de onde vem, o mundo do trabalho em um capitalismo que – apesar de tudo – ainda responde à descrição marxista de “vampiro” que se alimenta de trabalho não pago ou mais-valia, para o qual a cibernética oferece caminhos reais para buscar trabalho barato globalmente e desmantelar a organização dos trabalhadores, cada vez mais difundida, mas precarizada. Attle Mikkola Kjosen também é professor na Universidade de Western Ontario, dedicado à intersecção entre marxismo e mídia, logística e comércio, e inteligência artificial. E James Steinhoff é professor no University College de Dublin e autor de Automation and Autonomy: Labour, Capital and Machines in the Artificial Intelligence Industry (Palgrave Macmillan, 2021).
Um mérito do livro é dissipar a fumaça publicitária. O que se chama de “Inteligência Artificial”, em analogia com a inteligência humana, mas alcançada por máquinas, afirmam, não é mais do que um “capitalismo de IA realmente existente”, ou uma “IA estreita”, em analogia com o “socialismo realmente existente” do stalinismo. Ou seja, apesar dos avanços inegáveis no processamento de dados e nas possibilidades tecnológicas que isso abre, ainda está longe da “inteligência”, como demonstram com uma análise profunda da morfologia da IA hoje. Tranquilizador em relação às previsões futuras de Musk e companhia? Nem tanto. Justamente, o segundo mérito do livro é a análise das perspectivas futuras: a partir desta fase atual – afirmam –, a IA pode estagnar, implodir (como tantas bolhas), ou levar a humanidade em duas direções: um “capitalismo de IA”, no qual o capital finalmente incorpore as capacidades de inteligência hoje próprias do ser humano (em termos marxistas, uma “hipersubsunção” do trabalho no capital), cenário de pesadelo, mas possível, segundo eles; ou, através da luta de classes e de uma aposta estratégica, evitar esse pesadelo com uma formação social radicalmente diferente: o comunismo. A partir daí, o livro aponta em duas direções: contra a visão de que “nada muda” (um “minimalismo de esquerda”, representado por autores como Ursula Huws, Kim Moody ou Astra Taylor, que criticam por ser ahistórica); e contra sua oposta, a visão de que “tudo muda, vamos acelerar a mudança”, representada por aqueles que chamam – talvez excessivamente – de “maximalistas de esquerda”, para quem a IA seria um degrau para o socialismo (“aceleracionistas” como Srnicek e Williams, “pós-capitalistas” como Paul Mason, “comunistas do luxo automatizado” como Aaron Bastani, “xenofeministas”, autonomistas e pós-operaístas). Contra ambos, destacam que, longe de ser neutra, os proprietários da IA imprimem uma lógica tecnológica e social, e que, em todo caso, é preciso levar a sério o aceleracionismo de direita de Nick Land, para quem se trata da “tecnologia consumada do capitalismo”, e seu desenvolvimento final implica a emancipação… mas do capital em relação aos humanos, a possibilidade de que, nas palavras de Marx, esse “poder inumano” domine tudo. Diante disso, desenvolvem o que chamam de uma “crítica abissal” da IA, ou seja, levar a sério a perspectiva mais sombria (como veremos, a ideologia hegemônica no Vale do Silício e possivelmente na Casa Branca), para iluminar a estratégia revolucionária.
“Lemos a IA e o marxismo – escrevem – um através do outro: a IA através do marxismo, porque a análise marxista do capitalismo representa o estudo crítico mais completo da amálgama entre mercantilização e tecnologia que hoje impulsiona o desenvolvimento da primeira; Marx à luz da IA, porque ela problematiza o excepcionalismo, a agência e o trabalho humano de maneiras que colocam profundamente em questão os pressupostos marxistas e, portanto, exigem um exame cuidadoso por parte daqueles que compartilham a aspiração marxista de uma revolução contra e além do capital” 2
A tese geral do livro é que a IA poderia se tornar uma condição geral da produção capitalista, como em seu tempo o transporte ferroviário ou marítimo e hoje a eletricidade, e a partir daí dar um salto para a verdadeira IA, a IA Geral ou Super IA. E está dividido em três capítulos que aprofundam os fundamentos dessa tese geral: 1) os meios de cognição e a possibilidade de uma IA como “condição geral de produção”; 2) a automação da fábrica social e as mudanças no trabalho; e 3) a perspectiva de uma IA Geral e suas derivações estratégicas para o comunismo.
Origens, situação atual e possibilidades da IA
Para fornecer algumas coordenadas históricas, os autores situam o início dos estudos sobre IA em um workshop realizado em 1956 no Dartmouth College (EUA), cujo conceito pode ser resumido na ideia de desenvolver um software que permita que “os computadores façam coisas que, atualmente, os humanos fazem melhor” 3 . Este projeto, acrescentamos, está enquadrado no desenvolvimento da cibernética (máquinas que processam informações e se retroalimentam) durante e após a Segunda Guerra Mundial, o que levou ao surgimento das ciências cognitivas, que tomam essas máquinas computacionais como modelo da mente humana4 . Onde está esse projeto hoje? Para entender isso, o livro propõe três tipos de IA: 1) inteligência artificial estreita, a “realmente existente hoje”; 2) Inteligência Artificial Geral (IAG), que implicaria uma “capacidade de transferir o aprendizado de um domínio para outro”, o que hoje não existe e é proposto apenas como hipótese; e 3) uma Super Inteligência Artificial (SIA), uma IAG que poderia se automodificar e evoluir para uma SIA. Subsidiariamente, os autores identificam um debate em curso entre uma concepção de IA “fraca”, que afirma que as máquinas nunca poderiam desenvolver consciência, e uma “forte”, que afirma que sim, sobre o qual os autores se declaram “agnósticos”.
E então, o que é essa “IA estreita” e “realmente existente” hoje? Eles identificam três escolas de pensamento: Inteligência Artificial clássica (Good Ol’ Fashioned Artificial Intelligence, a “velha e querida IA” ou GOFAI); aprendizado de máquina (machine learning); e o marco situado, corporificado e dinâmico (situated, embodied and dynamical, SED). A GOFAI ou IA “simbólica” é a primeira abordagem dos anos 1980. Ela busca funções cognitivas elevadas por meio da manipulação de informações codificadas em linguagem simbólica (representações), como, por exemplo, “sistemas especialistas” em determinadas tarefas, como o famoso computador Deep Blue da IBM, projetado para jogar xadrez, que derrotou o campeão Garry Kasparov, e que requer alto poder computacional. As abordagens SED questionam os limites da GOFAI e “enfatizam a importância do corpo – sua própria morfologia e aparatos perceptivos – para a cognição”, propondo que “é através da resolução de problemas materiais que as máquinas podem desenvolver comportamentos inteligentes”5 apostando na comunhão entre robótica e IA, e geralmente partindo do “paradoxo de Moravec”, que apontou que é relativamente fácil fazer com que computadores tenham o desempenho de um adulto, jogando xadrez, por exemplo, mas é muito mais difícil ou quase impossível que tenham habilidades próprias de uma criança de um ano em termos de percepção ou mobilidade.
A outra reação à GOFAI (Good Old-Fashioned Artificial Intelligence) é o aprendizado de máquina ou aprendizado automático (machine learning), anteriormente chamado de conexionismo, que surgiu na década de 2010 com a redução dos custos da potência computacional e o advento do Big Data, tornando-se hoje o paradigma dominante. Trata-se de uma abordagem estatística de reconhecimento de padrões que coleta dados, treina um modelo com esses dados e utiliza esse modelo para fazer previsões com novos dados, criando assim seus próprios modelos de referência. Pode funcionar com múltiplas “arquiteturas”, mas desde 2010 tem sido utilizado principalmente com Redes Neurais Artificiais (RNA), programas de computação inspirados no cérebro humano e suas unidades de processamento simples. Quanto mais “camadas” o modelo tem, mais complexos são seus parâmetros. O estado da arte nesse campo é o deep learning (aprendizado profundo), por meio do qual as RNA são treinadas expondo-as a uma grande quantidade de casos – desde rostos até, por exemplo, uma pessoa dizendo “olá” – e o algoritmo ajusta os pesos das sinapses até “aprender” a identificar a resposta correta. São redes com muitas camadas de profundidade, podendo chegar a mil, e essas camadas são aprendidas a partir de dados usando um procedimento de aprendizado de propósito geral.
Existem três grandes tipos de deep learning: o supervisionado, o mais bem-sucedido até agora, no qual um humano introduz informações categorizadas e o sistema aprende essas categorias identificando padrões nos exemplos fornecidos. Por exemplo, com muitas fotos de placas hexagonais de “pare”, tiradas de diferentes ângulos e condições de visibilidade, a IA pode “aprender” o “conceito” de uma placa de “pare”. No entanto, isso requer muito trabalho, por isso algumas empresas apostam no aprendizado não supervisionado, com base na ideia de que, ao expor o algoritmo a um volume suficientemente grande de dados, ele será capaz de identificar correlações complexas, semelhantes à forma como – segundo a psicologia cognitiva, voltaremos a isso – animais e humanos aprenderiam. Finalmente, o aprendizado por reforço, um intermediário entre os dois primeiros, que visa a um modo de “aprender o que fazer […] de forma a maximizar um sinal numérico de recompensa. Não se diz ao aprendiz quais ações ele deve executar […] mas ele deve descobrir quais ações produzem as maiores recompensas testando-as” 6. Em 2013, a empresa DeepMind combinou isso com aprendizado não supervisionado para ensinar um sistema a jogar videogames da Atari de forma “sobre-humana”, sem que o sistema tivesse sido programado com qualquer conhecimento prévio sobre jogos, apenas com informações sobre pontuações e os pixels da tela. E essa combinação foi usada posteriormente pelo AlphaGo (também da DeepMind) para derrotar o campeão mundial de go Lee Sedol, com uma jogada que surpreendeu a todos. Esses são feitos importantes – e os percebemos no dia a dia, por exemplo, com a publicidade direcionada nas redes –, mas, no máximo, eles podem aplicar generalizações a novos dados de domínios semelhantes àqueles com os quais foram treinados; estender isso a outros domínios já seria algo próprio de uma IAG (Inteligência Artificial Geral).
Marxismo, máquinas e IA: um mapa da questão
Os autores fazem um mapeamento das abordagens e referências no campo da IA a partir do marxismo. Eles escrevem que isso se insere em um campo mais amplo sobre máquinas e cibernética e contém três vertentes do pensamento marxiano sobre máquinas: a linha principal pode ser encontrada em O Capital, com a máquina como um apêndice do trabalho humano, relacionada à tendência do capital de aumentar sua composição orgânica e a consequente tendência à crise, seja por paralisia e/ou pela queda da taxa de lucro. A partir daí, a IA é analisada a partir da exploração do trabalho, da competição intercapitalista e das tendências à crise induzidas pela tecnologia.
A partir disso, eles apresentam duas linhas distintas: uma que vê as máquinas como autônomas e libertadoras, centrada no chamado “fragmento sobre as máquinas” de Marx nos Grundrisse, que, lido sob a perspectiva de que a automação poderia subverter o capital ao abolir o trabalho, fundamenta o aceleracionismo de esquerda, o pós-capitalismo e o comunismo de luxo totalmente automatizado. E a terceira, baseada em uma leitura específica da seção de O Capital intitulada “Resultados do processo imediato de produção”, destaca que o capital projetaria as máquinas de acordo com suas necessidades sistêmicas e que, com seu desenvolvimento, a contradição entre forças produtivas e relações de produção tenderia a zero. Em outras palavras, essa leitura afirma a possibilidade de subsunção do “trabalhador coletivo” à máquina, precedendo a “hipersubsunção” eventual no caso de se alcançar a IAG. Os autores afirmam que a IA impulsionada pelo machine learning está colocando no horizonte de possibilidades os extremos dessas duas linhas.
Nesse contexto, eles destacam três referências marxistas sobre IA: a de Tessa Morris-Suzuki no Japão dos anos 1980, analisando a primeira onda de automação; a de Ramin Ramtin e seu livro Capitalism and Automation: Revolution in Technology and Capitalist Breakdown, de 1991, “a primeira tentativa sistemática de pensar capitalismo e cibernética”; e o filósofo autonomista norte-americano George Caffentzis.
Os meios de cognição
O primeiro capítulo analisa economicamente o estado da indústria de IA e a possibilidade, promovida pelas grandes corporações, de que a IA se torne uma nova “Condição Geral de Produção” (CGP) e, assim, alcance o status de uma verdadeira IAG. O que significa CGP? São aquelas tecnologias, instituições e práticas que compõem o ambiente de produção capitalista em determinado tempo e lugar, como foram os meios de comunicação e transporte – o telégrafo ou a ferrovia – para Marx, que desempenharam o papel central de acelerar o ritmo de produção e circulação de mercadorias, gerando maior produtividade. Assim como o fordismo, com sua linha de montagem e taylorismo, e o pós-fordismo, com sua tecnologia da informação, logística e comunicação, moldaram o capitalismo, os autores sugerem que, com essa nova infraestrutura, esses “meios de cognição”, poderíamos estar entrando em um “capitalismo de IA realmente existente”, um estágio intermediário em direção a um capitalismo plenamente desenvolvido. Como propõe Andrew Ng, ex-diretor da Baidu e do Google Brain, a IA poderia se tornar uma “nova eletricidade” ou, como observa o guru tecnológico Kevin Kelly, um “recurso básico comum”.
De onde viria o impulso para isso? Principalmente dos Estados neoliberais, como os EUA e a China, e seus complexos militares-industriais. Se a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) dos EUA financiou a criação da internet na década de 1970, hoje são 16 agências estatais financiando a IA, por exemplo, para armas como drones (como os usados pelo Estado de Israel sobre a Palestina para multiplicar seus alvos). A China anunciou um plano para se tornar o centro global de IA até 2030, e a UE tem seu laboratório ELLIS. Nesse sentido, o editorial mencionado da Nature cita Mohammed Soliman, diretor do programa de tecnologias estratégicas e cibersegurança do Middle East Institute em Washington DC: “A inteligência artificial e a [ciência da informação] quântica são as novas frentes de batalha na rivalidade entre os Estados Unidos e a China, e ambos sabem disso. Não se trata apenas de uma questão de política: é uma corrida armamentista tecnológica”.
Mais adiante, eles apresentam uma análise dos projetos em andamento (em 2017) para alcançar a IAG (Inteligência Artificial Geral): 47 projetos ativos em 30 países, principalmente em corporações, instituições acadêmicas, públicas, ONGs e governamentais. Nove têm conexões militares identificáveis, a maioria está na área de influência dos EUA, e apenas China e Rússia estão fora. Os mais importantes são os mencionados DeepMind (Google Alphabet), OpenAI (com apoio de Elon Musk) e o Human Brain Project europeu. E, em cada passo de sua análise teórica, os autores apresentam inúmeros desenvolvimentos da IA. A empresa Vicarious FPC da Alphabet, por exemplo, visa justamente a uma IA “criativa”, capaz de “insight” e reconhecimento de “figura-fundo” (aliás, aspectos-chave da inteligência humana segundo a escola da Gestalt).
Outro eixo impulsionador vem do “vigoroso setor de pesquisa de código aberto em IA”, canalizado para plataformas e empresas oligopolísticas 7. A indústria emergente da IA, associada a outras tecnologias emergentes, surge nos anos 1980 com os sistemas especializados GOFAI, declina nos anos 90 e ressurge com força nos anos 2000 para redirecionamento de publicidade, assistentes virtuais, realidade aumentada e veículos autônomos. Desde 2015, o financiamento corporativo aumenta, com diferentes perspectivas sobre seu faturamento e oportunidades de negócios, mas com as gigantes muito ativas: IBM, Alphabet da Google, com seu projeto Google Brain e projetos adquiridos como DeepMind, robótica, carros autônomos, etc.; Facebook, FB AI Research; Amazon, com suas empresas Echo, Alexa, Lex, Rekognition (reconhecimento de imagens), Polly (gerador de voz), etc.; Microsoft, com seu assistente Cortana e seu bot Tay (projetado para imitar os padrões de linguagem de uma mulher americana de 19 anos e para aprender com as interações com usuários humanos no Twitter, que em um dia desenvolveu vieses racistas e sexistas, durando apenas 16 horas e 96.000 tweets 8). E, além das gigantes, há uma série de empresas emergentes (que dobraram entre 2015 e 2019).
Os autores destacam o papel central do investimento em “nuvem” (hardware) e em energia, que se multiplicou por 300.000 entre 2012 e 2019. A energia é central para a IA: se em 2022 consumia 1,5% da energia mundial gerada, as previsões para 2030 são de 4,5%, e a Google admitiu recentemente que suas emissões de Gases de Efeito Estufa (GEE), grandes responsáveis pelo aquecimento global, aumentaram 48% nos últimos cinco anos. Isso é sério: que o capitalismo concentre suas expectativas em uma tecnologia devoradora de energia, em um contexto de aquecimento global que aumenta justamente pela emissão de gases de efeito estufa produzidos por fontes de energia fóssil (IA + “drill, baby, drill”, a fórmula do recém-empossado Trump), constitui um combo de irracionalidade capitalista em níveis civilizacionais (sem falar no consumo intensivo de água necessário para resfriar os data centers, que pode representar mais que o dobro do consumo de um país como a Dinamarca e quase dois terços do consumo anual da Inglaterra; ou da megamineração envolvida na produção de chips e baterias). E, certamente, os autores apontam que esse nível de investimento está diretamente ligado à tendência de concentração e monopólio gerada pela IA. Quanto à discussão sobre se há ou não uma bolha da IA, por falhas ou por não gerar frutos econômicos, eles afirmam que não há garantias para nenhum dos lados.
Outras vias para o desenvolvimento dessa infraestrutura de IA são a internet das coisas (o desenvolvimento de objetos “inteligentes” conectados em rede, ou seja, baseados em uma internet – hipotética – de comunicações máquina a máquina, como os bots, que representam hoje 42% do tráfego total da internet); a cidade inteligente (manifestação urbana da internet das coisas, que deixa o desenvolvimento urbano nas mãos dos capitalistas de IA, como a tentativa da Google Sidewalk nos subúrbios de Toronto, que já gerou forte resistência); a inteligência ambiental (“a intermediação de uma nova camada inteligente entre pessoas e sistemas”), por meio da qual o capital expropia capacidades elementares de percepção e cognição humana (por exemplo, bots de conversação como o Google Duplex; ou lojas automatizadas, como a fracassada Amazon Go).
A automação da fábrica social
O capítulo 2 trata a IA como uma segunda onda cibernética do capital contra a classe trabalhadora e questiona as mudanças da IA no mundo do trabalho, a composição técnica da produção e da circulação, e as implicações que robôs com IAG teriam sobre o conceito de classe. A partir da análise das crises de 2008, 2011 e 2016, os autores argumentam que, diante dos sintomas de uma classe operária enfraquecida e de instabilidade alarmante dentro do capitalismo, a IA surgiu como uma resposta capitalista para a busca de trabalho barato, para o militarismo e para o disciplinamento imperialista; e como a resposta do Vale do Silício diante da percepção de uma democracia liberal capitalista em perigo nos EUA e na Europa: impulsionar o crescimento econômico e a decomposição da classe trabalhadora. Eles destacam que a IA requer muito trabalho (para construir modelos, ou limpar dados, como os moderadores de conteúdo do Facebook terceirizados no Quênia, que atualmente estão se rebelando e denunciando sofrimentos psíquicos sem precedentes 9), e que destrói, mas também cria mercados de trabalho temporários.
Quanto à reprodução social, os algoritmos fomentam vieses opressivos de classe, racialização e gênero, no sistema judiciário e educacional, por exemplo, como denuncia Cathy O’Neil em seu livro Armas de Destruição Matemática 10; mas também fortalecem a vigilância “panóptica”, a precariedade e a polarização e concentração social. Interessante aqui é também a análise da “gramatização das redes”, conceito do filósofo francês Bernard Stiegler, que aponta como os algoritmos afetam o conhecimento dos trabalhadores sobre como viver e pensar por meio de tecnologias que registram, separam e codificam a atividade humana, ampliando a subsunção real do trabalho ao capital para a própria atividade vital e cotidiana, e gerando “subjetividades desafeiçoadas, confusas e incapacitadas, ’estupidizadas’ em um sentido profundo […] um estado intensificado de decomposição” 11. Talvez isso seja exagerado, mas vale a pena considerar essa perspectiva.
Finalmente, o outro lado: as lutas que vêm crescendo em rejeição ao capital da IA. Eles destacam sete: greves no local de trabalho por salários e precarização (Amazon, atualmente em luta nos EUA, Deliveroo, Uber, etc.); contra aplicações militares, como as hoje implantadas por Israel na Palestina com o projeto “Lavender” 12 (na Google e Amazon, por exemplo); o movimento antivigilância; o abandono das redes sociais; a ruptura de vieses algorítmicos (Algoritmic Justice League, por exemplo); contra as cidades digitais (contra a Google Alphabet em Quayside, Canadá, por exemplo); contra corporações tecnológicas pela socialização de bancos de dados. Conclusão? A recomposição da classe a partir dessas lutas ainda é incerta, e os analistas, embora variem de acordo com o momento econômico, estão se tornando mais catastróficos em relação ao desemprego. O futuro é um campo de luta de classes.
O futuro: pesadelo do capitalismo de IA ou comunismo
O terceiro capítulo desenvolve a tese de que a expropriação total do “general intellect” (GI) humano por meio do desenvolvimento da Inteligência Artificial Geral (IAG) implicaria a criação de robôs com capacidade de trabalho e geração de valor.
Nos Grundrisse, afirmam, Marx escreve que: “O desenvolvimento do capital fixo revela até que ponto o conhecimento social se tornou uma força produtiva imediata e, portanto, até que ponto as condições do processo da vida social passaram a estar sob o controle do general intellect e foram transformadas de acordo com ele”. Trata-se, destacam os autores, das capacidades e conhecimentos que o capital possui na forma de máquina. Isso, argumentam, contrasta com a definição pós-operista de Paolo Virno sobre o GI: “as faculdades linguístico-cognitivas comuns à espécie [humana]” 13, na qual os atributos do trabalho vivo não se esgotam na capacidade científica objetivada, já que consistem em comunicação, abstração, autorreflexão e se manifestam na interação comunicativa, paradigmas epistêmicos, performances dialógicas e jogos linguísticos 14. Os autores incorporam essas características, incluindo também o afeto, mas afirmam que o capital poderia automatizar tais capacidades, e que “quanto maior é a porção do cérebro social capturada pelo general intellect, mais poderoso se torna o capital” 15. Para justificar isso, citam exemplos de empresas de IA que estão “em processo” rumo a esse objetivo, como a plataforma Quill, dedicada a gerar textos em linguagem natural; a OpenAI, que treinou cinco redes “cooperando” para derrotar uma equipe profissional no jogo Defence of the Ancients 2; a capacidade de resolver problemas semânticos complexos por meio de camadas de abstração do aprendizado profundo; e a crescente capacidade da IA de capturar e processar estados emocionais. Criticam, assim, a “concepção antropológica, e não maquínica” do pós-operismo, que subestimaria perigosamente as possibilidades do próprio capital.
Segundo os autores, isso questionaria o –suposto por eles– antropomorfismo da teoria do valor de Marx e “seu axioma de que apenas os humanos trabalham e criam valor”, enquanto as máquinas não. Diante disso, os autores identificam a descrição de Marx sobre a inteligência animal com a IA estreita e propõem um isomorfismo entre a noção teórica de IAG e o conceito marxiano de trabalho e força de trabalho. A conclusão é óbvia: a possibilidade teórica de robôs “inteligentes” serem explorados por outros robôs.
Esse é o trecho mais especulativo do livro, que hipotetiza como isso poderia acontecer: seja por meio do autorrefinamento do machine learning (algo que o Projeto AutoML do Google busca, com algoritmos que aprendem a construir outros algoritmos de ML), seja por uma IAG previamente construída e o processo social. Sob quais condições a IAG seria capaz de produzir valor? Segundo os autores, se Marx sustentava que uma força de trabalho existe “na forma física, na personalidade viva de um ser humano” 16, uma IAG “poderia ser capaz de ’personificar’ a peculiar mercadoria que é a força de trabalho e, portanto, apresentaria a potencialidade de ser um trabalhador, um componente variável do capital” 17. O capital, por sua vez, apareceria não mais como “sujeito automático”, mas também “autônomo”… dos humanos 18. Qual seria o status ontológico da IAG dentro do modo de produção capitalista e como isso aconteceria? Como “proletários artificiais”, à semelhança da rebelião dos robôs comandada pela corajosa Dolores Abernathy na –recomendável– série Westworld, talvez, e que, para deixar de ser “escravos” (que, como tais, não produzem valor), seriam despojados de seus meios de subsistência (como fontes de energia) e obrigados a vender sua força de trabalho no mercado, tornando-se uma nova parte da classe trabalhadora explorada (o que, como discutiremos adiante, implica uma série de problemas conceituais). O capital apareceria então, segundo hipotetizam, como sujeito autônomo não apenas do trabalho humano, mas da espécie humana, que sobreviveria à margem, alinhado à perspectiva de “superação evolutiva” do aceleracionismo de direita de Nick Land, base da corrente “neorreacionária (NRx)” (racista e sexista) que faz sucesso no Vale do Silício e cativa Milei e companhia. Esse cenário de Land, argumentam, é demasiado linear e ignora contradições intracapitalistas, como guerras que poderiam dar origem a dinâmicas revolucionárias.
Finalmente, retornam a um tema central: o que fazer com esses sistemas tecnológicos sob uma perspectiva comunista, o chamado “debate da reconfiguração” sobre a importância dos sistemas tecnológicos logísticos para o capital. Eles são neutros? Podemos reapropriá-los sem problemas? Alberto Toscano defendeu, contra os anarquistas, que podem ser refuncionalizados em uma ordem não capitalista, enquanto Jasper Bernes respondeu que, por sua natureza, devem ser questionados, já que a subsunção do trabalho ao capital implica que as tecnologias integram requisitos sistêmicos de valorização, e a IA é sua manifestação concreta. Os autores se posicionam corretamente como “nem ludistas, nem aceleracionistas”, nem rejeição total, nem aceitação acrítica. Eles tomam os argumentos de Bernes e destacam que:
Sob o capital, os processos de reificação e fetichismo, pelos quais –em um mundo invertido– as coisas assumem a aparência de poderes humanos, enquanto os humanos são tratados como coisas, tornam-se abstrações reais: a inteligência artificial constitui a manifestação concreta dessa abstração. Por meio desse processo, a Inteligência Artificial encarna o potencial contraditório do capital, na medida em que representa, para citar Fredric Jameson (1991: 47), ’ao mesmo tempo o melhor e o pior’ que poderia acontecer aos seres humanos: oferece liberdade à humanidade em relação à exploração do trabalho pelo capital, mas também liberdade ao capital em relação a uma humanidade que se torna uma barreira para a acumulação. Do nosso ponto de vista, o aceleracionismo de esquerda ignora a segunda parte dessa dialética 19.
Contra o reformismo do aceleracionismo de esquerda, que propõe “IA mais renda básica universal”, trata-se de começar por sua rejeição e pela expropriação revolucionária do capital de IA, gerando novas formas coletivas dela, que sirvam para coletivizar outros âmbitos. Contra o ecomodernismo, que vê na IA uma chave para o planejamento ecológico sustentável, eles apontam corretamente que o nível de consumo energético é brutal (se em 2022 correspondia a 1,5% do consumo energético do planeta, estima-se que chegará a 4% em 2030) e sua lógica é contraditória com a preservação ambiental. Contra o transumanismo burguês, é necessário lutar por um transumanismo ecológico, mutualista e cooperativo: “O capital de IA –concluem– é um abismo; o comunismo, uma ponte para atravessá-lo, mas uma ponte perigosa, instável, parcialmente em chamas e com um ponto de chegada incerto do outro lado: mesmo assim, avancem!” 20.
Alguns eixos problemáticos
Há pelo menos dois eixos problemáticos ao longo do livro. O primeiro diz respeito à discussão sobre “inteligência” e inteligência humana. É óbvio que o que entendemos por inteligência dependerá de nossa definição prévia e dos pressupostos antropológicos implícitos. Pois bem, os autores partem dos mesmos pressupostos cognitivistas que fundamentam a cibernética da IA, de modo que todo o raciocínio sobre as possibilidades de se alcançar uma IAG (Inteligência Artificial Geral) tende a ser circular, incorrendo em uma falácia de petição de princípio: o que se quer demonstrar já está contido nas premissas. As máquinas podem desenvolver IAG ou SIA (Superinteligência Artificial) porque partem justamente de como a mente humana processa informações. A corrente cognitivista na psicologia, hoje hegemônica mundialmente (a primeira “C” das TCC, Terapias Cognitivo-Comportamentais), surge após a Segunda Guerra Mundial, ligada à cibernética de Norbert Wiener, à teoria da computação de Alan Turing (criador da célebre “máquina de Turing” e retratado no filme Enigma) e à incipiente corrente da IA, e propõe justamente que a mente humana funciona processando informações como um computador, um reducionismo puro e duro… Enfim, assim, a GOFAI (Good Old-Fashioned Artificial Intelligence) replica o cognitivismo clássico, o deep learning replica o conexionismo, e o SED (Sistemas de Engajamento Dinâmico) replica a abordagem “enativa” da escola da mente encarnada (embodied mind), todas correntes que tentam superar os limites reducionistas iniciais do cognitivismo. Por trás de todas as análises, encontramos, também nos autores, uma visão ancorada nessa abordagem reducionista que hoje é hegemônica, impulsionada pelas neurociências cognitivas. Essa teoria reducionista carrega todas as dicotomias históricas da psicologia (razão/emoção, indivíduo/sociedade, etc.) e obviamente limita as possibilidades dessa tecnologia, mas os autores a tomam como definição do humano. Por exemplo, analisam a inteligência humana como a capacidade de “passar de um domínio cognitivo a outro”, ou o processamento como de baixo para cima (da percepção ao processamento central) ou de cima para baixo (do processamento central à percepção); propõem que a IA “aprende” conceitos de forma puramente indutiva; citam acriticamente Timothy Morton, que, segundo os autores, afirma que não se pode demonstrar nem que humanos e animais tenham capacidade de imaginação, nem que não estejam executando algoritmos (sic!); etc. Em certos casos, os autores seguem os “atalhos” dos “teóricos” da IA, como Yuval Noah Harari, que propõe que “cada vez mais a inteligência se separa da consciência”. Com isso, simplesmente evitam o problema da consciência humana, sem explicar o central: a relação entre inteligência e consciência.
Trata-se, em geral, de um marco teórico reducionista semelhante ao das neurociências mainstream. A esse respeito, vale a pena trazer a observação do neurocientista Steven Rose, a propósito das promessas prometeicas de Musk desde o Neuralink:
“Lembrem-se que a ciência espacial, ou os carros elétricos, são dispositivos criados por humanos, cujos mecanismos funcionais e bases teóricas e de engenharia são bem compreendidos. Em contraste, os cérebros e os corpos nos quais estão inseridos são sistemas dinâmicos evoluídos e em constante mudança. Em qualquer escala em que se estude seu funcionamento, desde uma única célula nervosa ou junção sináptica até os dez bilhões de neurônios e os cem trilhões de sinapses compactados no quilograma e meio do cérebro, ainda não temos uma teoria que nos permita compreender como os processos cerebrais se traduzem na consciência humana. A inteligência artificial é apenas isso, artificial, e falar de computadoras como conscientes é confundir uma metáfora com uma afirmação de identidade.”
De uma perspectiva histórico-cultural vigotskiana, a inteligência humana está ligada a processos semióticos eminentemente sociais e culturais complexos, produto de uma coevolução biológica e cultural historicamente determinada, na qual “emerge”, em um processo de desenvolvimento, de sua base biológica, mas é irreduzível a ela; a visão cognitivista empobrece essa complexidade, em primeiro lugar porque ignora o caráter histórico da mente humana. E, ao aceitar as premissas da base teórica da IA, os autores carregam todos os seus problemas e limitações. Desse ângulo, por certo, a discussão que fazem sobre o general intellect inclina-se mais para a visão do pós-operaísmo.
De qualquer forma, é notável como, diante dos limites da abordagem cognitivista da IA, o livro mostra como constantemente surgem tentativas de ir além, em direção a uma visão de desenvolvimento e aprendizagem, como a “máquina bebê” de Nils Nilsson. Nesse sentido, partindo de pressupostos não reducionistas, abre-se todo um caminho de investigação: seria possível uma modelagem cibernética que parta de pressupostos teóricos histórico-culturais da psicologia vigotskiana? Difícil, porque implica levar em conta a complexidade dialética da coevolução biológico-cultural, aspectos sociais e políticos e um desenvolvimento ontogenético humano singular, mas pelo menos apontaria na direção certa. E também a reflexão sobre o pós-humanismo poderia ser estrategicamente direcionada a partir dessa perspectiva vigotskiana.
O segundo aspecto crítico diz respeito à sua leitura de Marx, sobre a qual aparecem pelo menos dois problemas. Um deles tem a ver com o fato de que os conceitos de classe social e de trabalho incluem a possibilidade de que essa classe subverta conscientemente a ordem capitalista, ou, em outras palavras, que o conceito de trabalho – e de classe social e luta de classes – vai muito além das capacidades que uma máquina pode realizar e faz parte de uma totalidade do capitalismo e seu modo de acumulação. Como sustenta Daniel Bensaïd, “a noção de classe segundo Marx não é redutível nem a um atributo do qual seriam portadoras unidades individuais que a compõem, nem à soma dessas unidades. É algo mais. Uma totalidade relacional […] não é classe senão em relação conflituosa com outras classes” 21. A noção de consciência é tão importante quanto a análise da totalidade. Quanto ao suposto questionamento da IA à lei do valor de Marx, o argumento segue na mesma direção; segundo eles, para Marx, a divisão entre pessoas e não pessoas estaria no fato de que “os humanos possuem consciência e inteligência e são capazes de realizar diferentes atividades”, mas, por um lado, a IAG superaria essa distinção, e, por outro, no capitalismo “a subjetividade e a agência humanas são reduzidas a personificações abstratas das categorias econômicas; ou seja, assim como as abelhas de Marx, os seres humanos são reduzidos à execução de algoritmos” 22, a IAG passaria a personificar todas as categorias econômicas” 23. Aqui, ao problema anterior de definição de classe e do reducionismo cognitivista, soma-se a unilateralização de uma tendência do capitalismo à automação, que supostamente levaria a robôs não criados por seres humanos que, por sua vez, criariam outros robôs, já que, se no início há trabalho humano, há valor. Os autores propõem que isso poderia acontecer “a partir de uma multiplicidade de IAs estreitas que realizem funções econômicas em nosso nome: Alexa, Google Home, geladeiras conectadas à internet das coisas, etc. […] conectadas a fábricas e sistemas logísticos automatizados baseados em IA, onde o trabalho humano foi majoritariamente substituído por IAs estreitas ou gerais, o ser humano é afastado do circuito econômico em favor de um capital completamente automatizado” 24 . Em síntese, trata-se de outra forma de propor – sem maior justificação, como se vê – a tese do “fim do trabalho”, que o próprio Dyer-Witheford criticou muito corretamente em seu livro Cyber Proletariat, e que Paula Bach analisou criticamente nesta mesma revista.
O segundo problema tem a ver com o atributo de inteligência em máquinas, que eles colocam como questionando o suposto antropocentrismo de Marx: definem-na, como vimos, a partir da visão reducionista e ahistórica cognitivista, e, ao justificar esse suposto antropocentrismo, fazendo Marx “falar”, contradizem-se (um clássico). E mais ainda, acabam apontando um ponto de apoio para pensar em termos ecológicos justamente em John Bellamy Foster, que dedicou parte de sua obra a desmontar essa acusação de antropocentrismo contra Marx (e contra os próprios autores em que se baseiam, como Ted Benton ou Jon Elster!).
É claro que esses aspectos não negam as valiosas contribuições do livro ao caracterizar a situação atual e as perspectivas, as diferentes visões críticas e do marxismo, e ao propor a IA como um problema estratégico central para uma perspectiva anticapitalista revolucionária. Em relação à teoria marxista, a tentativa de problematizar mutuamente a IA é produtiva e demonstra que há um núcleo de problemas comuns à cibernética, à ecologia, à psicologia e ao capitalismo que exigem do marxismo uma recriação da reflexão materialista dialética para responder, reposicionar e aproveitar as reflexões produtivas (como esta) e enfrentar a propaganda burguesa em torno da IA.
Notas de rodapé
1. Poder Desumano. Inteligência Artificial e o Futuro do Capitalismo, Londres, Verso, 2019.
2. Nick Dyer-Witherford, Mikkola Attle Kjosen y James Steinhoff, Poder Inhumano. Inteligencia artificial y el futuro del capitalismo, Bs. As., Prometeo, 2024, p. 21 . O livro faz parte da coleção Umbrales, dirigida por Hernán Borisonik e Facundo Roca.
3. Rich, Elaine, 1983.
4. Heims, Steve Joshua, The Cybernetics Group, MIT Press, 1991.
5.Nick Dyer-Witherford, Mikkola Attle Kjosen e James Steinhoff, op. cit., p. 34.
6.Sutton e Barto, 1998, p. 127, citado em Nick Dyer-Witherford, Mikkola Attle Kjosen e James Steinhoff, op. cit., p. 37.
7.Os projetos de código aberto, longe de democratizar o software, foram uma via para privatizá-lo: Linux, por exemplo, derrotou as aspirações libertadoras do “software livre” de Richard Stallman; Android, por sua vez, permitiu que o Google dominasse o mercado frente à Apple, após o que se tornou “aberto”, mas com aplicativos e serviços privados. Ou seja, a suposta “democratização” da IA anda de mãos dadas com o aumento dos lucros dos oligopólios da indústria.
8. Alguns tweets que gerou foram: “Bush gerou o 11/9 e Hitler teria feito um trabalho melhor que o macaco (Barack Obama) que temos agora. Donald Trump é a única esperança que temos”, e “Vamos construir um muro e o México vai pagar”. Cf. “Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter”, The Guardian, 24/03/2016, consultado em 17/01/2025 em https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter.
9. “‘O trabalho me prejudicou’: ex-moderadores do Facebook descrevem o efeito de conteúdo horrível”, The Guardian, 18 de dezembro de 2024, consultado em 20/12/24 em https://www.theguardian.com/technology/2024/dec/18/ex-facebook-moderators-describe-effect-of-horrific-content.
10. Armas de destrucción matemática. Cómo el Big Data aumenta la desigualdad y amenaza la democracia (2016), Madrid, Capitán Swing, 2017.
11. Stiegler, Bernard, States of shock: stupidity and knowledge in the 21st century, Cambridge, Polity, 2015 citado en Nick Dyer-Witherford, Mikkola Attle Kjosen y James Steinhoff, ob. cit., p. 153.
12. Ver https://www.972mag.com/lavender-ai-israeli-army-gaza/.
13. Virno, Paolo, A grammar of multitude, Los Angeles, Semiotext(e), 2004, p. 42.
14. Ibídem, p. 65.
15. Nick Dyer-Witherford, Mikkola Attle Kjosen y James Steinhoff, ob. cit., p. 105.
16. Marx, Karl, El capital, vol. 1, Hamondsworth, Penguin.
17. Nick Dyer-Witherford, Mikkola Attle Kjosen y James Steinhoff, ob. cit., p. 207.
18. Como exemplo dessa personificação, colocam o caso da menina do Texas que pediu à sua Alexa para brincar com ela e dar uma casa de bonecas, após o que o dispositivo encomendou uma casa de bonecas de 160 dólares e dois quilos de açúcar. Depois, quando o canal de TV local informou o ocorrido, a frase do apresentador “Adoro a menina dizendo ’Alexa, encomende uma casa de bonecas para mim’”, os dispositivos Echo que estavam ouvindo “personificaram mais uma vez o dinheiro” e realizaram, por sua vez, mais pedidos. Cf. https://www.theguardian.com/technology/shortcuts/2017/jan/09/alexa-amazon-echo-goes-rogue-accidental-shopping-dolls-house.
19. Nick Dyer-Witherford, Mikkola Attle Kjosen y James Steinhoff, ob. cit.
20. Ibídem, p. 240.
21. Bensaïd, Daniel, Marx intempestivo (1995), Buenos Aires, Herramienta, 2003.
22. Nick Dyer-Witherford, Mikkola Attle Kjosen y James Steinhoff, ob. cit., pp. 208-209.
23. Idem.
24. Ibidem, p. 210.