Em 2018, durante a disciplina Teoria da Ciência 3 ministrada pelo professor Pinguelli Rosa, cotejei o que foi apresentando das ideias de Penrose, principalmente a questão da possibilidade ou não da simulação do cérebro humano, com outro trabalho publicado alguns meses antes, intitulado O cérebro relativístico: como ele funciona e porque não pode ser simulado por uma máquina de Turing, monografia escrita pelo neurocientista Miguel Nicolelis e pelo matemático Ronald Cicurel.
Os autores apresentam duas teses principais. A primeira delas “diz respeito a uma nova teoria abrangente sobre como cérebros complexos como o nosso funcionam. Batizada como Teoria do Cérebro Relativístico (TCR)”, ela se constitui de um novo modelo neurofisiológico que enxerga na articulação entre diferentes redes neuronais a conformação de um espaço tempo neural que se comunica através de “bobinas biológicas formadas por feixes de nervos que definem a substância branca, gerando campos eletromagnéticos neurais”. A deformação desse espaço mental seria a explicação de moléstias neurológicas e psiquiátricas.
A segunda tese dos autores é uma refutação, a partir do seu modelo, da possibilidade de uma inteligência artificial forte resultante da simulação dos processos cerebrais por máquinas universais de Turing. Isso porque a interação entre esses campos eletromagnéticos neuronais atua de forma analógica, não podendo ser completamente inscrita em algoritmos.
O primeiro capítulo, Registrando Populações de Neurônios e construindo Interfaces Cérebro-Máquina: o caminho experimental para desvendar o segredo do cérebro relativístico relata o trabalho de Nicolelis no desenvolvimento do método conhecido como registros crônicos com múltiplos eletrodos que “proporcionou a coleta de grandes quantidades de dados favorecendo a noção que populações de neurônios definem a verdadeira unidade funcional do cérebro dos mamíferos.”
Com base na tecnologia desenvolvida, Nicolelis e Chapin criaram um novo paradigma experimental chamado interfaces cérebro-máquinas (ICMs), a base do projeto Andar de Novo.
Para Nicolelis a evidência colhida sugere que “a mesma combinação de neurônios corticais nunca é repetida na produção do mesmo tipo de movimento”. Ou seja, os processos cerebrais não são redutíveis a uma conexão entre neurônios.
TABELA 1 – Princípios da Fisiologia de Populações Neurais
Princípios
Explicação
Processamento distribuído
A representação de qualquer parâmetro comportamental é distribuido por populações de neurônios e áreas cerebrais
Insuficiência do neurônio único
Neurônios individuais são limitados na capacidade de codificar parâmetros comportamentais
Multi-tarefa
Um mesmo neurônio pode participar na codificação de múltiplos parâmetros
Efeito de massa neuronal
O logaritmo do # de neurônios corticais incluídos numa população determina a capacidade de codificação comportamental dessa população.
Redundância
O mesmo comportamento pode ser produzido por diferentes populações de neurônios.
Plasticidade
Populações neurais se adaptam constantemente a novas estatísticas do mundo externo
Conservação de disparos
A taxa global de disparos de uma população de neurônios permanece constante durante o aprendizado ou execução de um comportamento
Contextualização
As respostas sensoriais evocadas de populações neurais mudam de acordo com o contexto da tarefa e da geração do estímulo sensorial
TABELA 1 – Publicado com permissão Nature Publishing do original de Nicolelis MAL e Lebedev MA. Nature Review Neuroscience 10: 530-540, 2009.
Para os autores, suas descobertas invalidam o paradigma dominado “por conceitos espaciais, como colunas e mapas corticais, e a sistemática e interminável descrição de propriedades peculiares de alguns tipos de neurônios”. Ao contrário:
“…do ponto de vista fisiológico, e em contraste direto com o clássico cânone da neuroanatomia cortical do século XX, não existem bordas espaciais absolutas ou fixas entre as áreas corticais que ditam ou restringem o funcionamento do córtex como um todo. Ao contrário, o córtex deve ser tratado como um formidável, mas finito, continuum espaço-temporal. Funções e comportamentos são alocados ou produzidos respectivamente por meio do recrutamento particular desse continuum de acordo com um série de restrições, entre as quais se encontram a história evolutiva da espécie, o layout físico do cérebro determinado pela genética e pelo processo ontológico, o estado da periferia sensorial, o estado dinâmico interno do cérebro, restrições do corpo que contém o cérebro, o contexto da tarefa, a quantidade total de energia disponível para o cérebro e a velocidade máxima de disparo de um neurônio.”
Para essa teoria:
“…quando confrontado com novas formas de obter informação sobre a estatística do mundo que o cerca, o cérebro de um indivíduo assimila imediatamente essa estatística, da mesma forma que os sensores e as ferramentas utilizadas para obtê-la. Desse processo resulta um novo modelo neural do mundo, uma nova simulação neural da noção de corpo e uma nova série de limites ou fronteiras que definem a percepção da realidade e do senso do eu. Esse novo modelo cerebral será testado e remodelado continuamente, por toda a vida desse indivíduo. Como a quantidade total de energia que o cérebro consome e a velocidade máxima de disparo dos neurônios são fixas, propõe-se que, durante a operação do cérebro, tanto o espaço como o tempo neural são relativizados de acordo com essas constantes biológicas”.
Os autores propõem um mecanismo através do qual emergeria esse continuum espaço-temporal, que eles descrevem no segundo capítulo A Teoria do Cérebro Relativístico: seus princípios e predições. Neste eles descrevem a geração, processamento e armazenamento de informações pelo sistema nervoso complexo de um sistema computacional híbrido digital-analógico, cujo componente digital é definido pelos potenciais de ação produzidos pelas redes de neurônios, algo já conhecido. A novidade proposta pelos autores é o componente analógico formado pela “superimposição de campos eletromagnéticos neurais gerados pelo fluxo de cargas elétricas pelos múltiplos feixes circulares de nervos que formam s substância branca do cérebro”.
A medição dos campos magnéticos corticais é algo rotineiro (através da magnetoencefalografia), mas os autores propõem a existência de campos subcorticais, mais fracos e de detecção mais difícil. Não existe ainda detecção desses campos subcorticais, mas evidências indiretas, como o estabelecimento de oscilações neuronais síncronas coerentes e disseminadas com mecanismos ainda não descritos.
Uma visão mais ativa do papel do cérebro na percepção dá base para o que os autores chamam de ponto de vista do cérebro, um estado que se vale da “experiência acumulada ao longo de toda a vida do indivíduo” que permite que o cérebro “esculpa e atualize continuamente esse “ponto de vista” interno, o qual pode ser interpretado como um modelo interno da estatística do mundo ao seu redor e do senso ser de cada um de nós”. Assim, o “cérebro vê antes de enxergar’, tendo um papel ativo na percepção. Isso permite a plasticidade que as máquinas não exibem. Ele cita o exemplo de ratos com implantes corticais que aprenderam a sentir a luz infravermelha (invisível para eles) como um novo sentido de tato.
Esta seria uma solução para o problema de ligação (binding problem), ou de como diferentes sistemas cerebrais se fundem na consciência. Segunda esta teoria, o cérebro não precisa reconstruir a imagem original do mundo exterior a posteriori, pois este já construiu uma hipótese analógica do que ele espera ver (expectativa a priori codificada nessa comunicação analógica). Para os autores isso torna seu sistema incompatível com um modelo computacionalista e digital do cérebro.
Experimentos com ratos demonstram que na iminência do contato com um objeto (mas antes do mesmo) há uma atividade neuronal antecipatória que precede o contato por centenas de microssegundos.
Essa teoria explicaria diferenças na esfera sensorial entre animais anestesiados, despertos e imóveis ou ativos, o que corresponderia a diferenças nos estados dinâmicos internos do cérebro. É importante para eles o conceito de imagem do corpo, permanentemente atualizada, que fica em evidência com os relatos das sensações em membros fantasmas (amputados), ou no experimento da mão de borracha. Esse mecanismo analógico também estaria implicado na sensação de dor que não pode ser recriada estimulando o córtex. Os sonhos seriam exemplos de computações analógicas criadas para, entre outras coisas, estocar memórias a nível cortical.
Existe uma argumentação matemática contida nessa teoria, que envolve a análise da geometria e da topologia desse “espaço mental, que define um continuum multidimensional”. Para os autores, os efeitos de drogas alucinógenas que modificam as percepções de tempo e espaço sugerem que o espaço mental seria mais Riemanniano que euclidiano.
Isso explica como o cérebro é capaz de recrutar áreas corticais para o processamento de informações táteis no caso de pessoas cegas, ou mesmo sua capacidade de acessar memórias de forma instantânea. De acordo com essa visão doenças mentais são uma “dobradura” inapropriada do continuum espaço-temporal.
No terceiro capítulo, A disparidade entre sistemas integrados como o cérebro e uma máquina de Turing os autores criticam o computacionalismo. Eles consideram, citando outros filósofos, como “‘puramente mística’ a visão que funções mentais superiores, envolvendo linguagem, tomadas de decisão e raciocínio possam, de alguma forma, ‘emergir das interações de comportamentos básicos”.
A ideia da complexidade é apresentada como um impedimento da possibilidade de simulação, pois “seria preciso incluir na definição de complexidade deste cérebro todas as suas interações com entidades externas, com o ambiente que o cerca e com os cérebros de outros indivíduos da sua espécie”.
A complexidade do sistema impediria que a infinidade de eventos interativos entre moléculas e circuitos que leva a propriedades emergentes não poderia ser simulado.
No quarto capítulo Os argumentos matemáticos e computacionais que refutam a possibilidade de simular cérebros numa máquina de Turing, os autores seguem na mesma linha de Penrose. A dificuldade da simulação de qualquer sistema físico é ilustrada pelo argumento de Michael Berry, sobre a tentativa de simular os sucessivos impactos de uma bola de bilhar num jogo, conhecendo completamente as condições iniciais. Calcular o que acontece durante o primeiro impacto é simples, mas, “para computar o nono impacto, é preciso levar em consideração o efeito gravitacional de alguém posicionado próximo à mesa de bilhar. E para computar o quinquagésimo sexto impacto, cada partícula individual de todo o universo precisa fazer parte das suas suposições; um elétron, no outro lado do universo, deve participar desses nossos cálculos’.
Os autores reconhecem que o próprio pai da computação, Turing, já reconhecia essa limitação, e por isso pensou num modelo mais poderoso que as Máquinas de Turing, campo hoje conhecido como hipercomputação. A solução de seu artigo de 1939 foi a introdução da figura do oráculo, capaz de resolver uma função arbitrária.
O capítulo segue relatando o trabalho de Chaitin, da Costa e Dória (Chaitin, da Costa et. al. 2011), bem como outros autores (Pour-El e Richards 1989), que propuseram a ideia que “sistemas analógicos, não os digitais, podem decidir algumas sentenças matemáticas não solucionadas”. Isso aconteceria porque mecanismos computacionais analógicos “computam fisicamente”, ou seja, eles computam simplesmente por obedecer às leis da física, ao invés de através de um algoritmo pré-formulado dentro de um sistema formal, criado para solucionar equações que têm a intenção de descrever o comportamento de um sistema. Colocado de outra forma, nos computadores analógicos não existe a separação entre “hardware” e “software”, porque a configuração do “hardware” desse computador está encarregada de realizar todas as computações necessárias e ainda modificar a si mesmo.
No quinto capítulo, O argumento evolucionário, os autores partem do experimento mental do Filme da Vida proposto por Stephan Jay Gould. Rebobine a fita da história de toda a vida na terra, e aperte o play, e você assistirá um filme diferente, que não resultaria no surgimento da espécie humana ao final.
Para os autores, isso prova que não é possível fazer engenharia reversa de algo que não foi construído. A quantidade de eventos aleatórios envolvidos em um processo destes, extremamente complexo, impediria que uma simulação pudesse repeti-lo.
No sexto capítulo, O cérebro humano como um sistema físico muito especial: o argumento da informação, os autores diferenciam dois tipos de informação, de tipo 1 e de tipo 2, respectivamente, informação extrínseca, de Shannon e Turing, e informação extrínseca, de Gödel. Se uma foto for mostrada para uma pessoa, pode-se mensurar a atividade elétrica do cérebro dessa pessoa e obter-se informação de tipo 1, enquanto que se perguntarmos como a pessoa se sentiu, obteríamos informação de tipo 2, que seria acessível apenas a partir do ponto de vista interno do cérebro.
Na conclusão os autores explicitam suas discordâncias com outras teorias. Citam o exemplo de Christopher Koch, diretor científico do Instituto Allen De Neurociência, que defendeu que a consciência pode emergir de qualquer sistema de informação suficientemente complexo, tendo declarado que: “Da mesma forma, eu proponho que nós vivemos num universo de espaço e tempo, massa, energia e consciência, emergindo de sistemas complexos”. Koch se refere a uma função designada como ϕ por Giulio Tononi (Tononi 2012) e que mede, em bits, a quantidade de informação gerada por um conjunto de elementos, acima e além da informação gerada pelos seus componentes. Koch propõe que ϕ oferece uma medida de consciência. Os autores, por outro lado, acreditam que “a complexidade é uma condição necessária, mas não suficiente, para gerar informação Gödeliana, e consequentemente, uma entidade consciente”. Para eles, “ϕ continua sendo uma medida de informação Tipo I (Shannon-Turing) e, como tal, imprópria para justificar o surgimento de funções cerebrais superiores responsáveis por fundir, em uma única imagem, o fluxo contínuo de informação sensorial e mnemônica”. A consciência humana só pode “emergir como consequência de uma “escultura evolucional” que lapidou e definiu a configuração física do cérebro”.
Eles concluem afirmando que Finalmente, nós gostaríamos de dizer que, de forma alguma, nós estamos sugerindo que funções cerebrais superiores não poderão um dia ser reproduzidas artificialmente. Essencialmente, nós simplesmente explicitamos uma série coerente de argumentos que demonstram que, se e quando isso acontecer, esse evento não será produto de uma máquina de Turing, não importa quão sofisticada e poderosa ela possa ser.
Como frisamos, a divisão proposta por Bevilaqua da Revolução Industrial em três fases, derivadas da análise de Marx dos três mecanismos que compõem o sistema de máquinas, admite a existência de sobreposições temporais, como a invenção de Joseph-Marie Jacquard, um pioneiro da automação que construiu, ainda em 1801, um tear programável através de cartões perfurados. Este trabalho é fundamental para a posterior criação dos computadores, da mesma forma que os trabalhos teóricos sobre as máquinas analíticas e algoritmos por Charles Babbage e Ada Lovelace, realizados ainda no século XIX (BEVILAQUA, 2015, p. 277 e 278).
O fato dos primeiros computadores comercializados terem sido construídos no final da Segunda Guerra Mundial, com base na solução proposta por Alan Turing ao “problema da decisão, Entscheidungsproblem, proposto por David Hilbert como um desafio em 1928”, é uma demonstração de como “diferentes ideias e inovações podem ser articuladas mesmo com séculos de distância entre elas e que nem toda invenção resulta imediatamente em uma inovação, e que sua difusão, revelando seu potencial, pode ocorrer muito tempo depois de seu primeiro uso” (BEVILAQUA, 2015, p. 277).
Independente de ser o acúmulo de trabalho de milhares de anos de desenvolvimento técnico, que pode ser remontado ao mecanismo de Anticítera, primeiro computador analógico de que se tem notícia, construído há mais de 2 mil anos, é só na terceira fase da Revolução Industrial, iniciada no pós-guerra, que a adoção de máquinas programáveis para exercer atividades de transmissão e controle revolucionam todo o processo produtivo.
Santos (1983, p. 40-41) observa como o custo dos microchips sofre uma redução a partir da década de 50 e como seu uso inicialmente se expande pelo setor de serviços e gestão. A partir daí eles se tornam ubíquos: na agricultura, na indústria, nos serviços, no sistema financeiro, na educação, na produção cultural, não existe departamento ou ramo da produção que não foi revolucionado pelo uso de computadores.
Ao assumirem as tarefas mais mecânicas controladas anteriormente pelo cérebro humano, através de uma estratégia reducionista de dividir o problema cognitivo em pequenas tarefas, os computadores, vistos como unidade dialética entre hardware e software, permitiram que diversas novas atividades fossem automatizadas.
Este processo pôde ser percebido por Marx, pois ainda que em sua época não houvesse mecanismos programáveis de controle, já havia uma sofisticação bastante grande nos mecanismos de transmissão, como correias, polias, etc. Na mineração, séculos antes de Marx, sistemas articulados de hastes de madeira chamados de Stangenkunsten transmitiam energia mecânica, obtida de geradores hidráulicos, para bombas, foles, e elevadores que transportavam os mineiros, nas montanhas, a quilômetros de distância dos vales dos rios.
Isso levou Marx a entender o sistema automático de máquinas, no sentido de que
automático é apenas a sua forma mais adequada, mais aperfeiçoada, e somente o que transforma a própria maquinaria em um sistema), posto em movimento por um autômato, por uma força motriz que se movimenta por si mesma; tal autômato consistindo em numerosos órgãos mecânicos e intelectuais, de modo que os próprios trabalhadores são definidos somente como membros conscientes dele” (MARX, 2011, p. 929).
Essa é uma diferença muita significativa com o papel que a ferramenta historicamente desempenhou como meio de trabalho, algo interposto entre o trabalhador e seu objeto de trabalho. As ferramentas são incorporadas pelo cérebro humano na representação mental que ele faz do nosso corpo. Por isso nós somos capazes de uma perícia tão grande ao manuseá-las, como se o nosso tato se estendesse para além da nossa pele e abarcasse a ferramenta, seja ela uma chave de fenda, uma bengala, um pincel ou o volante de um automóvel. Contrastando,
Em nenhum sentido a máquina aparece como meio de trabalho do trabalhador individual. A sua differentia specifica não é de forma alguma, como no meio de trabalho, a de mediar a atividade do trabalhador sobre o objeto; ao contrário, esta atividade é posta de tal modo que tão somente medeia o trabalho da máquina, a sua ação sobre a matéria-prima – supervisionando-a e mantendo-a livre de falhas (MARX, 2011, p.929 e 930).
Dessa perda de controle por parte do trabalhador direto decorre o estranhamento do qual escritores e cineastas se nutriram para construir um cenário no qual os humanos são desalojados por robôs, desde o Frankenstein da Mary Shelley. Marx nota que:
Não é como no instrumento, que o trabalhador anima como um órgão com a sua própria habilidade e atividade e cujo manejo, em consequência, dependia de sua virtuosidade. Ao contrário, a própria máquina, que para o trabalhador possui destreza e força, é o virtuose que possui sua própria alma nas leis mecânicas que nela atuam e que para seu contínuo automovimento consome carvão, óleo etc. (matérias instrumentais), da mesma maneira que o trabalhador consome alimentos. (MARX, 2011, p.930).
Vivenciamos no presente uma confirmação dessa projeção de Marx, com o acelerado desenvolvimento da inteligência artificial baseado em redes neurais, nos quais os sistemas aprendem ao considerarem uma série de exemplos, sendo capazes de tomar decisões sem que tenham sido programados para qualquer tarefa específica.
Os pioneiros das ciências da computação já haviam teorizado acerca das redes neurais ainda nos anos 40 e a Universidade de Stanford chegou a implementar uma rede neural funcional nos anos 60, ligando memistors1 em rede, chamada ADALINE, e que foi usada na prática para reduzir ecos em ligações telefônicas.
Contudo, a tecnologia enfrentou barreiras e o desenvolvimento da arquitetura de Von Neumann concentrou todas as atenções e financiamentos, convertendo-se no paradigma dominante, sendo-o até hoje.
Durante décadas, as redes neurais se mantiveram apenas como construções teóricas, de interesse acadêmico, com pouca aplicação prática. Mas, nos anos 80 foram disseminados os sistemas especialistas, uma das primeiras formas bem-sucedidas de uso de software de inteligência artificial. Eram programas que auxiliavam na realização de diagnósticos, no gerenciamento de riscos, mas também na área militar, como na detecção de submarinos.
Um novo salto ocorreu nas primeiras décadas do século XXI e os softwares de inteligência artificial se disseminaram rapidamente por toda a sociedade. Assumiram o comando de carros, aviões, trens e grandes embarcações. Recomendam livros, filmes e produtos com base no histórico pretérito de consumo. Reconhecem a voz, a face, as digitais e até o padrão de respiração das pessoas.
A IBM criou a plataforma Watson, que foi lançada como prova de conceito ao participar de jogos de perguntas e respostas, e hoje já é utilizada comercialmente em diversas aplicações, entre elas diagnósticos oncológicos, análise de investimentos, previsão do tempo, etc. O Google lançou o Alpha Go, que em março de 2016 venceu um match contra Lee Sedol, 18 vezes campeão mundial deste jogo extremamente popular na Ásia e que muitos consideravam um campo no qual as máquinas ainda levariam décadas para vencer os seres humanos, por conta do tamanho de seu tabuleiro, que comporta 2 x 10170posições, 1 milhão de trilhões de trilhões de trilhões de trilhões de vezes as posições possíveis em uma partida de xadrez. A segunda fase deste projeto, anunciada em dezembro de 2017, chama-se Alpha Zero, um software capaz de vencer qualquer outro humano, ou outro software criado até o momento, em diferentes jogos, que ele aprende jogando milhares de partidas contra si mesmo.
Ainda que somente agora o debate sobre os impactos da automação se generalizaram para sociedade como um todo, os efeitos deste processo vêm sendo estudados desde o pós-guerra. Santos (1983) refere-se ao trabalho de Radovan Richta, que promoveu um fértil debate no interior do campo socialista acerca do salto tecnológico ocorrido no pós-guerra. Este autor relaciona as transformações que testemunhava à tendência apontada nos Grundrisse da conversão da ciência na principal força do processo produtivo. Para este autor, esta nova configuração das forças produtivas não poderia ser contida dentro das relações sociais capitalistas, ou mesmo socialistas, requerendo para seu desenvolvimento de relações novas, superiores, comunistas.
Para Richta a “Revolução Científico-Técnica seria responsável por eliminar o trabalho elementar, substituindo-o pelo trabalho científico, que no núcleo da produção e da vida social, torna o desenvolvimento humano um fim em si mesmo. Esta tendência ao general intelect não está contudo concretizada em absoluto, mas já aparece como potência” (BEVILAQUA, 2015, p. 290).
Figura 11 – Centro de distribuição automatizado da Amazon
Fonte: The New York Times
O fato dessa tendência aparecer como potência não determina mecanicamente que ela se absolutizará, ainda mais quando sua afirmação implica, ao final, o agravamento da crise orgânica do capital. Muitas das tecnologias que hoje aparecem como inovadoras, como o carro elétrico, os drones, as redes neurais, existem há dezenas de décadas. Santos (1983), mostra como os monopólios retardam ao máximo a automação. Bevilaqua capta bem a
contradição desta fase de decomposição do sistema capitalista, na qual o desenvolvimento das forças produtivas é restringido pela crise do valor, pode ser constatada quando se observa que um operário de uma indústria de composição orgânica média, carrega em seu bolso um smartfone que incorpora mais tecnologia do que as máquinas na qual ele trabalha para seu sustento. A única explicação possível para tal fenômeno é a ação dos grandes monopólios que buscam desesperadamente retardar a adoção da automação, em uma tentativa de prolongar a vigência da lei do valor. Contudo, não conseguem reter esse movimento, dada a impossibilidade de um único monopólio dominar todo o mercado mundial, mas também, de forma cada vez mais acentuada, pela emergência da China, que se converteu nas últimas décadas na fábrica do mundo, investindo maciçamente em automação, o que renova a competição entre os sistemas (BEVILAQUA, 2015, p. 271).
O forte impacto dessas tecnologias na redução dos gastos com capital variável leva a uma corrida tecnológica entre as grandes empresas, que fica evidencia quando comparamos a lista das empresas que mais investiram em pesquisa e desenvolvimento em 2011 e 2017, segundo um estudo da PricewaterhouseCoopers.
Esta lista contém algumas omissões importantes, como o caso da gigante chinesa Huawei, que deveria estar na oitava posição com investimento de 11,2 bilhões de dólares, superior ao da Apple. Mas ela nos serve para ilustrar o rápido ritmo de substituição tecnológica.
Figura 12 – Investimento em pesquisa e desenvolvimento pelas grandes corporações
Fonte: PricewaterhouseCoopers
Nestes seis anos, a Amazon, que aumentou seu investimento em P&D em 830% e a Alphabet (nome da holding criada pela Google), que o fez em 271%, são duas grandes investidoras em inteligência artificial. A Amazon cresceu a partir de uma livraria online para um gigantesco comércio em geral (logística) e depois para uma megaholding que comprou diversas empresas de alta tecnologia, vendendo serviços ‘na nuvem’. Nos seus depósitos operam mais de 100 mil robôs, que complementam o trabalho das 125 mil pessoas que recebem os pedidos de compras, os separam, conferem, embalam e enviam.
O crescimento de 67% nos gastos com pesquisa e design da Volkswagen em 5 anos refere-se aos investimentos nos carros elétricos, mas também se insere nos esforços do Ministério da Educação e Pesquisa da República Federativa da Alemanha que criou um programa chamado Projeto Indústria do Futuro 4.0 (Zukunftsprojekt Industrie 4.0), no qual propõe, a partir da interação entre sistemas ciberfísicos, a criação da fábrica inteligente.
Dois rápidos exemplos e um dado nos mostram o nível de contradição que a atual onde de automação abre para um sistema que acumula riquezas, e poder político sobre a exploração do tempo de trabalho:
Em 1979, a General Motors empregava mais de 800 mil funcionários, e tinha receita de uns 11 bilhões de dólares. Em 2012, Google tinha receita de uns 40 bilhões de dólares, enquanto empregava 58 mil pessoas. […] No seu auge, em 2004, a Blockbuster tinha 84 mil funcionários, e tinha receitas de 6 bilhões de dólares. Em 2016, a Netflix tinha 4500 funcionários, e teve receita de 9 bilhões de dólares. […] Em 1998, empregados dos EUA trabalharam um total de 194 bilhões de horas. Ao longo dos 15 anos seguintes, o produto aumentou em 42%, mas em 2013, o total de horas trabalhadas por empregados dos EUA ainda era 194 bilhões de horas (KURZGESAGT. 2017)
Os sistemas automáticos de máquinas de novo tipo, baseados na inteligência artificial, estão sendo rapidamente adotados em todos os ramos da economia, inclusive no setor de serviços, que era visto como o baluarte dos empregos após a automação das fábricas. Médicos, arquitetos, músicos, professores, não existe profissão que não experimentará esses impactos.
Figura 13 – Design evolutivo com inteligência artificial
Fonte: ARUP
Nesta figura podemos ver um trabalho realizado como um projeto de pesquisa por uma empresa afirma global de engenheiros consultores, chamada Arup. O mais da esquerda é uma peça usada normalmente para fixar cabos. As outras duas componentes resultam da análise de um computador para encontrar o design ideal, capaz de fornecer a mesma força, mas usando menos material. O componente do meio foi otimizado mantendo-se os braços e cabos no mesmo local e resultou em uma economia de peso de 40%. A terceira versão foi obtida permitindo que o sistema reconectasse completamente toda a estrutura, o que levou a uma economia de peso de 75%.
É difícil antevermos qual será o impacto dessas tecnologias dentro de algumas décadas. E ainda mais, qual o significado destas para o desenvolvimento da luta de classes? Bevilaqua chama atenção para a contradição representada pela automação, que se por um lado atende uma necessidade econômica dos capitalistas, por outro afirma a autonegação do capital:
“automático é apenas a sua forma mais adequada, mais aperfeiçoada, e somente o que transforma a própria maquinaria em um sistema), posto em movimento por um autômato, por uma força motriz que se movimenta por si mesma; tal autômato consistindo em numerosos órgãos mecânicos e intelectuais, de modo que os próprios trabalhadores são definidos somente como membros conscientes dele” (MARX, 2011, p. 929).“automático é apenas a sua forma mais adequada, mais aperfeiçoada, e somente o que transforma a própria maquinaria em um sistema), posto em movimento por um autômato, por uma força motriz que se movimenta por si mesma; tal autômato consistindo em numerosos órgãos mecânicos e intelectuais, de modo que os próprios trabalhadores são definidos somente como membros conscientes dele” (MARX, 2011, p. 929).“automático é apenas a sua forma mais adequada, mais aperfeiçoada, e somente o que transforma a própria maquinaria em um sistema), posto em movimento por um autômato, por uma força motriz que se movimenta por si mesma; tal autômato consistindo em numerosos órgãos mecânicos e intelectuais, de modo que os próprios trabalhadores são definidos somente como membros conscientes dele” (MARX, 2011, p. 929).O grande impulso no desenvolvimento dessas máquinas ocorre já sob a sombra da crise orgânica do capital, mas, a primeira arma que ela municia ao capital, a automação, que se traduz num aumento de produtividade sem paralelo representa também a incidência do limite absoluto da relação capital, que se nega, ao tornar impossível a possibilidade de se mensurar o valor da ciência, como força produtiva, pelo tempo de trabalho (BEVILAQUA, 2015, p. 271).
Como vimos, a história do capitalismo é a história da Revolução Industrial. Esta, por sua vez estabelece uma complexa dialética entre ciência e tecnologia, ao ocorrer a “síntese entre o desenvolvimento do sistema produtivo e o desenvolvimento do conhecimento humano sistemático” (SANTOS, 1983, p.13). Limitados pelo escopo desta dissertação, pudemos apenas nos determos em alguns traços gerais desta relação. Antes de concluirmos, teceremos algumas observações sobre a Revolução Científica, focando em como, através de mudanças de paradigmas, o discurso científico articula sua lógica interna com as determinações socioeconômicas da prática científica.
1Componente eletrônico que se assemelha a um resistor, mas com memória e a possibilidade de realizar operações lógicas. Considerável como possível próximo paradigma em tecnologia de armazenamento.
Um século e meio após os estudos históricos de Marx e Engels, podemos perceber que se a primeira fase da Revolução Industrial, entre 1735 e 1840, é a parteira de um novo modo de produção, e uma segunda fase desta, entre 1848 e 19451, ao incorporar novas fontes de energia térmica à produção, é responsável pela expansão do sistema capitalista por todo o globo, sua terceira fase, iniciada no pós-guerra, e da qual somos contemporâneos, com a revolução dos mecanismos de transmissão e controle, a cibernética, ao permitir a automação da produção, leva o sistema capitalista a uma crise que se apresenta insuperável dentro dos marcos do sistema (BEVILAQUA, 2015).
Como vimos anteriormente, se não podemos responsabilizar diretamente a produção científica, entendida em seu sentido mais estreito como corpo de conhecimento sistematizado e promovido a partir de instituições oficiais (universidades, periódicos, conferências, etc), pelo impulso inicial que levou à industrialização, também não podemos descartar o poder explicativo neste contexto de um uso mais abrangente do termo ciência, considerado como uma nova atitude paradigmática frente a realidade material, experimentação empírica e autoridade da hierarquia religiosa.
Entretanto, com o tempo, essa distinção vai sendo apagada e o desenvolvimento da técnica
não é mais um resultado de avanços pragmáticos e empíricos na maneira de produzir. A ciência assumiu o papel de dirigente do desenvolvimento tecnológico, os ramos de produção se convertem em campos de atividades criados e controlados por ela. A ciência se converte em uma força produtiva direta (SANTOS, 1983, p. 9)
A economia passa a direcionar de forma mais contundente o conjunto da pesquisa científica, gigantescos ramos da indústria que não existiam são criados a partir de descobertas científicas e passam a atrair para si, em uma espécie de ciclo virtuoso, mais trabalho de pesquisa, como exemplificam o caso da indústria química, da aviação, da informática, entre outros. O trabalho científico sai da periferia e se coloca no centro do processo produtivo, como sua força mais importante.
Santos (1983) notou que a produção científica tornou-se parte essencial da acumulação. Os custos em pesquisa e desenvolvimento são parte do custo final do produto e os laboratórios e centros de pesquisa se transferem para dentro das empresas. A atividade científica é agora vista como um investimento que se incorpora ao capital constante e ao variável: entra nos custos de produção (SANTOS, 1983, p. 61-62).
Santos (1983) propõe uma ampliação do esquema original D-M-D de Marx, que, ao incorporar a atividade científica, pode ser reescrito da seguinte forma:
_________CI ……. I ____________ D – M _________CP …… M’ – D – M’ – CPI … MI – DI
Na qual CI é o capital investido em tecnologia, o que permite que um capital, acumulado anteriormente, torne-se CPI, ou capital investido em um novo produto, resultado da pesquisa realizada (SANTOS, 1983, p. 76-81).
Por sua vez, a ciência se converte em tecnociência, que para ser realizada requer, cada vez mais, a invocação de uma parcela gigantesca de trabalho acumulado na forma de laboratórios, instrumentos científicos e capital humano (trabalho pretérito em educação e formação). A partir deste ponto não bastam mais bons mecânicos, inventores, artesãos, autodidatas, homens e mulheres práticos, esses personagens que protagonizaram o desenvolvimento tecnológico na época da manufatura e nos primórdios da indústria.
O processo empírico, baseado na tentativa e erro, adquire um novo significado dentro do contexto da produção científica industrial. Em seu diário, Thomas Edison relata ter testado 1.600 diferentes fibras até chegar no carbono e posteriormente no tungstênio como materiais ideias para a fabricação do filamento de suas lâmpadas. Mas, não se pode tomar essa anotação como evidência de que ele fez tudo isso sozinho, sua empresa contava com dezenas de pesquisadores trabalhando em tempo integral no desenvolvimento de seus produtos.
Talvez Edison seja o melhor arquétipo desta transição, com a qual a produção científica passou a ser quantificada pelo número de patentes registradas. Mesmo que o sistema de patentes já existisse há séculos, e que já tivessem ocorridas ferozes disputas legais em torno dessas, como a experimentada por James Watt que patenteou o motor a vapor em 1796, Edson acumulou 1.093 patentes em seu nome, apenas nos Estados Unidos, e utilizou-se destas para se ascender à classe burguesa.
Santos (1983) nos mostra como, no pós-guerra, esse processo de entrelaçamento entre a ciência e o capital se estreita ainda mais. Em seu artigo Mudança Tecnológica e Economia Mundial, apresentado aos seus alunos, mas ainda não publicado,este autor chama atenção para o fato de que:
A questão da integração da ciência como força produtiva é parte indispensável do processo de produção, pode ser medida através da intensidade dos gastos com pesquisa e desenvolvimento em relação ao produto de cada setor econômico (SANTOS, 2002, manuscritos).
Neste texto, Santos apresenta os dados do informe sobre ciência e tecnologia da OECD colhidos em fins década de 1980 e, com base neles, demonstra como estes investimentos cresceram maciçamente depois da Segunda Guerra Mundial. Para se ter uma ideia de como essa tendência continuou evoluindo, em 2016, o total mundial desses gastos foi de cerca de 1,15 trilhão de dólares, ou seja, mais de 2% do PIB mundial. Estão aí englobados os gastos com pesquisa básica, aplicada e em desenvolvimento (ou seja inovações baseadas em tecnologia já existente).
Cada vez mais, as pesquisas de ponta em diversas áreas dependem de projetos multibilionários, todos eles com forte participação estatal. O Grande Colisor de Hádrons levou uma década para ser construído e consumiu 7,5 bilhões de euros até 2010. O orçamento anual para sua operação consome cerca de 1 bilhão de dólares por ano. O Observatório de Ondas Gravitacionais por Interferômetro Laser, que permitiu a observação de ondas gravitacionais custou 1,1 bilhão de dólares em 40 anos. No Projeto Genoma Humano foram dispendidos, até o sequenciamento concluído em 2003, 2,7 bilhões de dólares. São pesquisas que envolvem ciência básica, mas que também levaram ao desenvolvimento de diversas tecnologias para se viabilizarem, e resultam na criação de diversos novos produtos.
Nenhum destes projetos citados acima custou tanto quanto a Estação Espacial Internacional, cerca de 150 bilhões de dólares até 2015, divididos entre Estados Unidos, Rússia, Japão, Canadá e a Agência Espacial Europeia, composta por 13 países deste continente, quase 50% a mais que o projeto Apollo, que custou 23 bilhões de dólares em 1973, o que equivale a 107 bilhões de dólares se atualizarmos o valor para o parâmetro de 2016.
Podemos considerar como percursor desses megaprojetos de produção científica em escala industrial, o projeto Manhattan, que permitiu o controle sobre a fissão nuclear no final da Segunda Guerra, ao custo de 2 bilhões de dólares de então, o que hoje equivaleria a mais de 22 bilhões de dólares. A maioria destes projetos está ligada diretamente à área militar, sendo que o Manhattan foi desenvolvido no curso da Segunda Guerra, e permitiu a construção da bomba atômica, o que comprova o importante papel que este conflito e, posteriormente a corrida armamentista da guerra fria, desempenharam no crescimento dos investimentos em ciência.
Todos esses projetos foram financiados principalmente com recursos públicos e envolveram centenas, ou mesmo milhares, de pesquisadores trabalhando conjuntamente. Mas, a principal destinação dos investimentos foi em obras de infraestrutura, compra de equipamentos, gastos administrativos, entre outros custos indiretos.
O projeto Manhattan, por exemplo, chegou a empregar cerca de 130 mil pessoas, a maioria delas operários da construção civil, mas, neste e nos demais megaprojetos, foram significativas as contratações de trabalhadores especializados e qualificados, principalmente na produção dos equipamentos.
Na segunda metade do século XX, os gastos do setor privado com ciência e tecnologia seguiram o mesmo caminho de crescimento acelerado do investimento público, ainda que mais voltados para a pesquisa aplicada e para a inovação, onde o retorno é mais imediato.
A estruturação os centros de pesquisa e design dentro das grandes empresas começa no início do século XX, o que faz permite que esses assumam parte de um espaço que era até então exclusivo das universidades. Em 1925, com a emergência da telefonia como um negócio mundial, quatro mil cientistas e engenheiros foram contratados pelo recém-criado Bell Telephone Laboratories. Ao longo de sua história, esta instituição privada, mas que sempre recebeu bolsas da DARPA, agência de pesquisa em defesa dos EUA, hospedou 8 trabalhos que receberam o Nobel, além de ter sido lá que revolucionárias tecnologias foram desenvolvidas, como o transistor, o laser, o sistema operacional Unix e a linguagem de programação C. Desde 2016 este centro de pesquisa é de propriedade da gigante de telecomunicações finlandesa Nokia.
A participação da empresa Celera no Projeto do Genoma Humano e mais recentemente as mudanças relacionadas à indústria espacial nos Estados Unidos, com a NASA passando a conviver com outras fabricantes de foguetes, como a Space X e a Blue Origin, demonstram o controle cada vez mais direto do setor privado sobre essas áreas estratégicas.
1Por limites de tempo, não pudemos tratar especificamente da segunda fase da Revolução Industrial, período fundamental na história do sistema capitalista, pois compreende sua expansão por todo o globo e o surgimento do imperialismo. Sugerimos a leitura de BEVILAQUA (2015, p. 264-270) para uma interessante análise sobre como os novos problemas surgidos da necessidade de compreensão do mundo como um processo global levou a uma crise nos paradigmas científicos positivistas e ao surgimento das ciências de transformação como a Geologia e a Biologia Evolutiva.
Em famosa nota de rodapé em O Capital, Marx cita a história das espécies biológicas contada a partir de Darwin e lança o desafio da escrita de uma história da evolução dos projetos das máquinas, desestimando o papel dos inventores individuais, em favor das forças sociais e da luta de classes: “Uma história crítica da tecnologia provaria, sobretudo, quão pouco qualquer invenção do século XVIII cabe a um só indivíduo.” (MARX, 1996, l. 1, v. 2. p. 8).
Marx, que como vimos era um dedicado estudioso do desenvolvimento tecnológico, adianta alguns pontos dessa história em um breve relato que ele apresenta para ilustrar sua análise econômica mais abrangente da transição da manufatura à grande indústria. Nesta obra, Marx confere papel preponderante no início da Revolução Industrial ao desenvolvimento da máquina-ferramenta. A máquina-ferramenta que ele também chama de máquina de trabalho é a parte da máquina que, tendo recebido movimento da máquina-motriz e do mecanismo de transmissão, “se apodera do objeto de trabalho e o modifica conforme a uma finalidade” (MARX, 1996, l. 1, v. 2. p. 9).
Contudo, conforme nota Santos (1983, p. 18) é erroneamente dada “excessiva ênfase [da literatura atual] ao surgimento da máquina a vapor como causa da Revolução Industrial”. Marx já havia abordado diretamente esta questão:
É dessa parte da maquinaria, a máquina-ferramenta, que se origina a revolução industrial no século XVIII. Ela constitui ainda todo dia o ponto de partida, sempre que artesanato ou manufatura passam à produção mecanizada.[…] A própria máquina a vapor, como foi inventada no final do século XVII, durante o período manufatureiro, e continuou a existir até o começo dos anos 80 do século XVIII,11 não acarretou nenhuma revolução industrial. Ocorreu o contrário: foi a criação das máquinas-ferramentas que tornou necessária a máquina a vapor revolucionada. (MARX, 1996, l.1, v.2, p. 9, 11).
Exemplo dessa visão, criticada por Santos, é o trabalho de Wrigley, da cadeira de demografia histórica e presidente da Academia Britânica de Ciência entre 1994 e 2000, para quem o uso do carvão como energia é a chave para se entender a Revolução Industrial. Para este, a queima do carvão forneceu uma nova fonte maciça de energia, que permitiu o crescimento da indústria, sem que isso representasse uma acumulação sobre o que era dispendido com a alimentação e habitação da população (GRIFFIN, 2013). Contudo, tendo se tornado o polo dinâmico do desenvolvimento na fase seguinte, marcada pelos navios a vapor e pelas ferrovias, neste primeiro momento, o vapor era utilizado de forma limitada para drenar minas e pântanos, e para mover algumas máquinas.
Em contrapartida, Engels, em a Situação da Classe Operária na Inglaterra, descreve como a dinâmica estabelecida entre dois ramos interligados da indústria têxtil, a fiação e a tecelagem, sendo o primeiro produtor de matéria-prima utilizada no segundo processo, dentro do contexto da luta de classes, acelerou a mecanização da produção, que neste primeiro momento era movimentada por energia manual ou por rodas d’água.
Mais especificamente, tanto Engels, como Marx em O Capital estabelecem a invenção da máquina de fiar conhecida como Spinning Jenny como o início do processo de mecanização da produção. Esta máquina continha um quadro de fiação multifuso, o que permitiu que cada trabalhador operasse com até 8 carretéis ao mesmo tempo. A máquina de fiar hidráulica, que logo a superou, permitiu uma ampliação ainda maior da produção. Com isso,
tornou-se possível produzir muito mais fio: se antes um tecelão ocupava sempre três fiandeiras, não contava nunca com fio suficiente e tinha de esperar para ser abastecido, agora havia mais fio do que o número dos trabalhadores ocupados podia processar. (ENGELS, 2008, p. 48).
Se recuarmos um pouco a análise desta relação dialética entre os ramos têxteis, veremos que a invenção da máquina de fiar já respondia à anterior introdução da lançadeira volante de John Kay, que aumentou a produtividade dos teares ao fazer a lançadeira (que tem papel análogo ao da agulha do tricô) correr sobre uma ranhura de madeira auxiliada por rodinhas, o que permitiu que um número maior de tramas pudessem ser tecidas concomitantemente (MCNEIL, 2002, p. 821). Entretanto, a lançadeira volante, mera extensão do braço do tecelão, é considerada uma ferramenta e não uma máquina.
Conforme nota Mcneil, apesar das estimativas variarem entre os estudiosos, com a lançadeira volante e outros inventos, mas antes da invenção da Spinning Jenny, eram necessários, em média, oito fiadores para produzir o material utilizado por cada tecelão:
Todas as novas invenções que emergiram durante o século dezoito para produzir diferentes tipos de tecido de forma mais rápida precipitaram uma crise: porque todo linho, lã ou algodão tinham que ser fiados na roca de fiar medieval, que operava com uma única fibra, fazendo com que o suprimento de fios se tornasse inadequado (MCNEIL, 2002, p. 824)
Conforme se pode perceber, estabeleceu-se um ciclo de retroalimentação entre a produção de fios e a de tecidos, o que reduziu o preço do produto final levando, em um ciclo virtuoso, ao crescimento de sua demanda, que teve novo efeito impulsionador sobre a indústria têxtil. Outro fator importante de geração de demanda foi a aprovação no parlamento inglês, entre 1690 e 1721, da série de leis conhecidas como Calico Acts que proibiram a importação de tecido, criando uma reserva de mercado para os tecidos produzidos na Inglaterra (BEVILAQUA, 2015, p. 259).
Engels percebe o impacto que esta relação dialética teve no surgimento da classe operária e na destruição dos yeoman, os pequenos proprietários agrícolas ingleses:
houve necessidade de mais tecelões e seus salários aumentaram. Podendo ganhar mais trabalhando em seu tear, a pouco e pouco o tecelão abandonou suas ocupações agrícolas e dedicou-se inteiramente à tecelagem (…) Gradativamente, a classe dos tecelões-agricultores foi desaparecendo, sendo de todo absorvida na classe emergente dos exclusivamente tecelões, que viviam apenas de seu salário e não possuíam propriedade, nem sequer a ilusão de propriedade que o trabalho agrícola confere – tornaram-se, pois, proletários (working men). A isso se juntou a destruição da antiga relação entre fiandeiros e tecelões. Até então, na medida em que era possível, o fio era fiado e tecido sob um mesmo teto; agora, já que tanto a jenny quanto o tear exigiam mão robusta, os homens também se puseram a fiar e famílias inteiras passaram a viver exclusivamente disso (…) Foi dessa maneira que se iniciou a divisão do trabalho entre fiação e tecelagem, que seria levada ao grau extremo na indústria posterior. (ENGELS, 2008, p. 48 e 49).
Além do proletariado industrial, que passou a se concentrar nas cidades, a revolução industrial também transformou o panorama agrário. O proprietário médio (yeoman) não podia mais competir com a crescente classe dos latifundiários, que se beneficiou da migração dos antigos fazendeiros tecelões para as cidades, apossando-se de suas terras. Para o primeiro, “que não tinha outra alternativa senão vender sua terra – que já não o sustentava – e adquirir uma jenny ou um tear ou empregar-se como jornaleiro, proletário agrícola, de um grande arrendatário” (ENGELS, 2008, p. 49). Como nota Bevilaqua, “este é um exemplo de que na própria gênese da fase industrial do capitalismo se encontra o problema da desproporção entre os setores, e que, em invés dela representar a causa da crise orgânica do sistema, […] insere um desequilíbrio que enseja toda uma dinâmica de transformações tecnológicas” (BEVILAQUA, 2015, p. 261).
Esse movimento de incessante desenvolvimento de novas tecnologias foi ganhando momentum. Para Marx: “a mecanização da fiação tornou necessária a mecanização da tecelagem e ambas tornaram necessária a revolução mecânica e química no branqueamento, na estampagem e na tinturaria” (MARX, 1996, l. 1, v. 2, p. 18).
O passo seguinte é o desenvolvimento do tear mecânico:
É a colossal quantidade de fios disponibilizada pela spinning mule [uma sucessora da Spinning Jenny, movida com energia hidráulica] que leva à criação do tear mecânico, já que, como também nota Marx, os teares baseados na lançadeira volante, na qual o trabalhador ainda ditava o ritmo do trabalho, não cumpriam o critério de uma forma “emancipada da antiga forma corpórea tradicional da ferramenta, que se metamorfoseia em máquina” (BEVILAQUA, 2015, p. 262).
Por seu papel na criação de um novo panorama social, que, como vimos, tem profundas implicações demográficas, sociais, culturais e econômicas, a máquina é o que permite a passagem da subordinação formal do trabalho ao capital a uma subordinação real, na qual a subsunção dos trabalhadores proletários se dá, fundamentalmente, não através de imposições jurídicas e da coação direta, mas da necessidade econômica dos trabalhadores, separados dos meios de produção, que precisam vender sua força de trabalho para sobreviver.
Portanto, junto do proletariado surge seu antagonista, a burguesia industrial. Se antes, “o comerciante entregava matérias-primas aos artesãos e garantia a compra de seus produtos, fazendo com que os artesões trabalhassem para ele, sem em nada mudar suas condições de trabalho”, agora o capitalista passava a controlar diretamente o trabalho produtivo (SANTOS, 1983, p. 17).
Para entendermos o surgimento da indústria a partir do materialismo histórico, é necessário compreendermos o fato, demonstrado por Bevilaqua (2016), de que no método de Marx a máquina deve ser entendida como uma categoria econômica subsumida ao conceito de capital, o que contrasta com a abordagem mais histórico-descritiva de Rosenberg. Deve-se, primeiramente, entender o papel da máquina nas transformações ocorridas no processo de produção de valores de uso, um papel que a distingue da ferramenta, pois se ao longo de todo o período pré-industrial da história da humanidade era a força de trabalho o ponto de partida do revolucionamento do modo de produção, na grande indústria este ponto de partida está no meio de trabalho (MARX, 1996, Livro 1, v. 2. p. 8). Em contraste com a ferramenta e mesmo com a manufatura, o sistema de máquinas relativiza todos os limites impostos pela natureza do corpo humano à produção, o que é um pré-requisito para a aplicação extensiva e sistemática da ciência na produção.
O sistema de máquinas e aplicação da ciência na produção ocorrem após um longo desenvolvimento do processo de trabalho, durante o qual este se torna cada vez mais social:
o desenvolvimento da força produtiva social do trabalho pressupõe cooperação em larga escala, como só com esse pressuposto é que podem ser: organizadas a divisão e a combinação do trabalho; poupados meios de produção mediante concentração maciça; criados materialmente meios de trabalho apenas utilizáveis em conjunto, por exemplo, sistema de maquinaria etc.; postas a serviço da produção colossais forças da Natureza; e pode ser completada a transformação do processo de produção em aplicação tecnológica da ciência. (MARX, 1988, l. 1, v. 2 p. 255-256).
Já na perspectiva do processo de produção de valores, deve-se partir da concepção da máquina como capital constante em geral, ou seja, como trabalho morto objetivado, valor cristalizado. “Neste sentido, a máquina é um armazenador de trabalho vivo, que pode ser despendido em um outro ciclo produtivo” (BEVILAQUA, 2015, p. 256). Mas, além disto, no processo de produção de valores, se revela uma nova função da máquina que demarca novamente sua distinção da ferramenta e que vai além da mera redução de custos. Conforme Marx nota, o móbil da burguesia ao investir no desenvolvimento da maquinaria é: “baratear a mercadoria e, mediante o barateamento da mercadoria, baratear o próprio trabalhador.” (MARX, 1988, Livro 1, v. 1, p. 435).
Desta forma, a maquinaria aparece como produto da luta de classes, arma da burguesia contra o proletariado, o que está na base das razões históricas do surgimento do movimento de resistência dos ludistas. Prova disso é que seu emprego se dá primeiramente não nos locais onde a mão de obra era escassa, mas justamente na região da Inglaterra onde se concentrava um enorme exército industrial, o qual seu emprego regulava e disciplinava.
Da mesma forma, a luta interna entre a burguesia é fundamental para compreendermos a difusão das máquinas:
este papel só faz sentido ao observar-se a tendência à equalização da taxa de lucro entre os capitalistas que atuam em diversos ramos. A adoção das máquinas apenas se justifica em um mercado no qual se confrontam diversos capitalistas, sejam eles os primeiros industriais que expropriaram os tecelões de Lancashire no século XVIII, ou os grandes monopólios que nos dias de hoje travam guerras entre si. Sem isso a mecanização não se sustentaria; não seria possível a sobrevivência dos setores com alta composição orgânica se eles não fossem capazes, através das trocas desiguais, de se apropriarem da mais-valia produzida nos outros ramos, onde o uso do capital variável é mais intenso (BEVILAQUA, 2015, p. 257).
Isso explica porque a classe capitalista é a primeira classe dirigente na história cujos interesses estão indissoluvelmente ligados à mudança tecnológica e não à manutenção do status quo. Essa característica do modo de produção capitalista, que embutiu a constante renovação tecnológica à sua dinâmica econômica, levando à Revolução Industrial e à transformações que não encontram paralelo na história pós-neolítica, foi descrita por Marx e Engels na famosa passagem do Manifesto Comunista:
A burguesia não pode existir sem revolucionar continuamente os instrumentos de produção, portanto as relações de produção e, assim, o conjunto das relações sociais. Conservação inalterada do velho modo de produção foi, ao contrário, a condição primeira de existência de todas as classes industriais anteriores. O revolucionamento contínuo da produção, o abalo ininterrupto de todas as situações sociais, a insegurança e a movimentação eternas distinguem a época burguesa de todas as outras (MARX, 1998, p. 43).
Em sua existência como corporificação do capital, a máquina, vista como produto ou como processo industrial, transforma a ciência em uma força produtiva dominada pelos capitalistas:
O desenvolvimento do meio de trabalho em maquinaria não é casual para o capital, mas é a reconfiguração do meio de trabalho tradicionalmente herdado em uma forma adequada ao capital. A acumulação do saber e da habilidade, das forças produtivas gerais do cérebro social, é desse modo absorvida no capital em oposição ao trabalho, e aparece consequentemente como qualidade do capital, mais precisamente do capital fixo, na medida em que ele ingressa como meio de produção propriamente dito no processo de produção. A maquinaria aparece, portanto, como a forma mais adequada do capital fixo, e o capital fixo, na medida em que o capital é considerado na relação consigo mesmo, como a forma mais adequada do capital de modo geral (MARX, 2011, p. 581-582).
Desta forma, mesmo sendo o acúmulo de séculos do trabalho de cientistas, que, em muitos casos se converteram em proletários assalariados, ela se apresenta como alheia aos trabalhadores, levando à mistificação do capital, à máxima fetichização da mercadoria:
A ciência, que força os membros inanimados da maquinaria a agirem adequadamente como autômatos por sua construção, não existe na consciência do trabalhador, mas atua sobre ele por meio da máquina como poder estranho, como poder da própria máquina (MARX, 2011, p. 580-581).
Esse processo de estranhamento dos trabalhadores com relação à sua própria produção, à medida que seu corpo foi sendo objetivado nas três partes que, segundo Marx, constituem o sistema de máquinas: máquina-ferramenta, motor e mecanismos de transmissão e controle, ocorreu (e ocorre) em um longo período histórico de sucessivas ondas de incorporação tecnológica à produção, a Revolução Industrial. A lógica que permite sua divisão em três fases é objeto da análise de Bevilaqua (2015):
transformações nas três partes que conformam o sistema de máquinas, permitem a compreensão da dialética entre as três e, como cada uma delas, dentro de um determinado processo histórico, assume o lugar de polo dinâmico da relação, ditando o ritmo e a direção das transformações operadas nas outras. (BEVILAQUA, 2015, p. 251).
Comentários