Os negacionistas da importância da replicabilidade

Diante de um diagnóstico tão drástico, existem aqueles que relativizam a importância da replicabilidade, como o pesquisador do Instituto de Tecnologia da Informação e do Conselho Nacional de Pesquisa do Canadá, Chris Drummond. Para ele, na área de inteligência artificial, não existiria o problema de fraude de resultados, logo não há necessidade da replicação de experimentos (DRUMMOND, 2009).

Drummond responde diretamente àqueles que defendem a publicação de todos os códigos-fonte utilizados pelos pesquisadores na área de aprendizado de máquinas:

O compartilhamento de todos os artefatos dos experimentos de todas as pessoas não é uma atividade trivial. Isso exigirá uma grande parcela de trabalho extra não apenas dos autores, mas também dos revisores. Estou longe de estar convencido de que isso trará os benefícios que muitos pensam (DRUMMOND, 2009).

Fica claro que, por trás da problematização de Drummond focada na aparente inutilidade de um trabalho extra, estão os interesses dos detentores de direitos autorais e patentes de propriedade intelectual, uma forma jurídica de estabelecer um valor de troca para um tipo de mercadoria na qual a crise do valor já se expressa com uma nova qualidade há bastante tempo. É acerca disso que Marx se refere nos Grundrisse quando fala sobre a impossibilidade de se quantificar o valor do produto do trabalho científico de acordo com o tempo de seu desenvolvimento.

Outra voz que desestima a importância da replicabilidade é a premiada pesquisadora do Lawrence Berkeley National Laboratory, a especialista em câncer de mama Mina Bissell, para quem a propensão a trabalhar na replicação de descobertas poderia ter o efeito colateral de “esconder pesquisas promissoras e prejudicar injustamente a reputação de cientistas cuidadosos e meticulosos” (BISSELL, 2013).

Por isso, a autora assume um tom anedótico e não de consternação ao relatar que “de quando em quando, alguns dos meus pós-doutores ou estudantes, (…) com terror nos olhos, me diz que não puderam replicar um dos experimentos anteriores do meu laboratório, não importa o quão obstinadamente tentassem” (BISSELL, 2013).

Para explicar seu ponto, sem usar o termo explicitamente, ela recorre ao conceito de conhecimento tácito: experiências acumuladas que não podem ser propriamente descritas, faculdades obtidas por dado pesquisador após décadas de trabalho árduo com certa técnica específica, o que impediria que um outro laboratório pudesse obter o mesmo resultado, seguindo os procedimentos descritos no trabalho. Um argumento do tipo a mão da boleira e não a receita é o que impede o bolo de solar (BISSELL, 2013).

Desta forma ela coloca em dúvida os índices obtidos de trabalhos como os de BEGLEY (2012) e sua taxa de apenas 11% de replicação. Para Bissel, a falta de interação entre os laboratórios é a causa do problema ao impedir que os procedimentos e as condições sejam satisfatoriamente repetidos e a supervisão dos autores dos artigos originais na tentativa de replicação poderia resultar em uma confirmação de resultados muito maior.

Bissel afirma que

a coisa correta a ser feita como replicador da descoberta de alguém é consultar o autor original atentamente. Se e-mails e ligações telefônicas não resolverem o problema da replicação, peça para ir ao laboratório original reproduzir os dados conjuntamente, ou convide alguém do outro laboratório para vir ao seu (BISSELL, 2013).

O artigo de Bissel foi comentado no blog de Andrew Gelman, professor de estatística e ciência política e diretor do centro de estatística aplicada da Universidade de Columbia. Para ele o impulso pela replicação é positivo. Se os pesquisadores “estão achando que o movimento pela replicação é forte o suficiente para que eles precisem combatê-lo, isso representa boas notícias”. Sobre a solução apresentada por Bissel ele comenta:

Caso seu material publicado não seja claro – se um artigo não puder ser replicado sem e-mails, telefonemas, ou visitas a laboratórios – isso parece um problema para mim! Se pessoas de fora não podem replicar o estudo exato que você relatou, elas poderão ter problemas ao usar seus resultados em pesquisas futuras (GELMAN, 2013).

Gelman chama atenção para um outro problema decorrente da não concentração de esforços na replicabilidade. Muitas pesquisas partem de resultados anteriores acriticamente, assumindo-os como pressupostos de seus trabalhos. Richard Feynman faz uma observação similar ao relatar ter ficado

chocado ao saber de um experimento feito no grande acelerador do National Accelerator Laboratory, no qual um pesquisador usava deutério. Para comparar seus resultados utilizando hidrogênio pesado com o que poderia acontecer com o hidrogênio leve, ele precisou utilizar dados do experimento de uma outra pessoa sobre hidrogênio leve, que foi feito em um aparelho diferente. Quando perguntado, ele disse que não conseguiu marcar um horário na programação (porque há pouco tempo disponível e é um aparelho extremamente caro) para fazer o experimento com hidrogênio leve neste aparelho porque não haveria nenhum resultado novo. E assim, os responsáveis pelos programas da NAL estão tão ansiosos por novos resultados, para obter mais dinheiro para manter a máquina funcionando para propósitos de relações-públicas, que eles estão destruindo, possivelmente, o valor dos próprios experimentos, que é todo o propósito da coisa (FEYNMAN, 1974).

Para Bissel, contudo, o problema da replicabilidade é superestimado, sendo o verdeiro risco criado por essa insistência na replicabilidade:

As pessoas que tentam repetir a pesquisa dos outros frequentemente não têm tempo, financiamento ou recursos para obter a mesma experiência com o protocolo experimental, como os autores originais, que talvez estivessem operando sob uma bolsa federal de vários anos e visando uma publicação de alto perfil. Se um pesquisador gastar seis meses, digamos, tentando replicar esse trabalho e relatar que é irreprodutível, isto pode dissuadir outros cientistas de prosseguir uma linha de pesquisa promissora, comprometendo as chances dos cientistas originais de obter financiamento para continuar e potencialmente danificar suas reputações (BISSEL, 2013).

A crise de reprodutibilidade na psicologia

A crise de reprodutibilidade na psicologia

Na psicologia o debate entre os pesquisadores que afirmam que não há problema algum e o crescente grupo dos que acreditam que todo o campo está em uma profunda crise divide atualmente, de forma bastante antagônica, membros influentes da comunidade científica.

A polêmica se acirrou com um artigo do Open Science Collaboration (2015), que se tornou um marco no debate ao relatar a tentativa frustrada de se replicar 100 estudos publicados em 2008 em revistas de prestígio, o que resultou em apenas 31 casos de sucesso, ou seja, 69 dentre os estudos analisados não puderam ser replicados de forma independente.

O Open Science Collaboration, liderado por Brian Nosek, psicólogo e professor da Universidade da Virgínia, se define como um grupo aberto de pesquisadores, que afirma ter como objetivo promover a melhoria das práticas científicas. Para as replicações desse estudo, colaboraram 270 pesquisadores vinculados ao grupo.

Ironicamente, uma equipe de cientistas detratores da ideia de crise de reprodutibilidade, formada por dois pesquisadores de Harvard e um da Universidade da Virgínia, alegaram que não puderam reproduzir os resultados do estudo do Open Science Collaboration. Pelo contrário, afirmaram que os dados do Open Science Collaboration, se olhados criticamente, ajudavam a comprovar que a reprodutibilidade na psicologia era plenamente satisfatória. Para argumentar seu ponto, apontaram uma série de erros metodológicos do polêmico artigo (GILBERT, 2016).

A tréplica do Open Science Collaboration, publicada na revista Science e assinada por 41 pesquisadores de universidades da Europa e dos Estados Unidos, rebate as críticas apresentadas, apontando que foi o grupo do dr. Gilbert quem errou ao fazer uma avaliação otimista demais, “decorrente de equívocos estatísticos e de tecer inferências causais de dados correlatos interpretados seletivamente” (ANDERSON et al., 2016).

Gilbert afirmara que, dentre os estudos selecionados, aqueles entre os quais os autores originais não aprovaram a metodologia dos experimentos de replicação tiveram uma taxa de replicação de 15,4%, pior do que os 59,7% de replicações que obtiveram o aval dos autores dos estudos originais. Contudo, Anderson e seus colegas responderam lembrando que o fato de um cientista alegar que não confia na metodologia daqueles que farão a replicação poderia esconder a falta de confiança nos resultados de seu próprio estudo original, e não apenas da replicação em si.

Antes do estudo do Open Science Collaboration, uma edição especial da Social Psychology, que tratou de replicação em 2014, havia chegado a semelhante conclusão ao não conseguir replicar 10 de 27 estudos da área. Um dos que não puderam ser replicados foi o de SCHNALL (2008), no qual os pesquisadores afirmavam que se limpar, faria com que uma pessoa ficasse menos inclinada a perceber falhas morais nos outros. Os autores chegaram a essa conclusão após dividir um grupo de voluntários em dois e pedir que uma parte lavasse as mãos e outra não. Após isso foram feitas perguntas a esses mesmos indíviduos sobre o que eles achavam de determinadas ações, como fraudar um documento. Na época o artigo foi amplamente publicizado, tendo recebido cobertura nas páginas do The Economist, ABC News, Huffington Post, entre outros. Além disso ele foi citado mais de 200 vezes por outros pesquisadores.

Os dois estudantes de graduação e seu orientador, Brent Donnellan, da Miching State University, encarregados de replicar o estudo, não o puderam mesmo realizando o teste com quatro vezes mais voluntários do que o estudo original.

Inicialmente Schnall cooperou com os pesquisadores que se propuseram a replicar seu estudo, fornecendo-lhes os materiais que utilizou no estudo original. Além disso ela aceitou o convite dos editores da Social Psychology, na qual a tentativa de reprodução fracassada havia sido publicado, para revisar o protocolo experimental e a análise estatística que os replicadores seguiriam.

Contudo, após os resultados divergirem, Schnall passou a criticar a tentativa de reprodução, afirmando à revista Science que todo o processo fazia com que ela se sentisse uma criminosa, que seu trabalho havia sido difamado, e que isso havia prejudicado sua chance de receber financiamentos (BOHANNON, 2014).

Sua corrente, dos que buscam comprovar fenômenos explicados pelo efeito priming é uma das que mais recebem financiamento dentro da psicologia, o que é alvo da crítica daqueles que consideram essas conclusões exageradas e desprovidas de fundamento. Estes pesquisadores buscam correlações entre memórias implícitas após a exposição a um estímulo e a resposta não consciente a um outro estímulo posterior. Neste caso, lavar as mãos e tomar uma decisão moral.

A polêmica em torno da replicação se tornou mais virulenta, quando Susan Fiske, ex-presidente da Association for Psychological Science, e uma pesquisadora de renome de Princeton atacou aqueles que ela chamou de “adversários” da psicologia, segundo ela, verdadeiros “terroristas metodológicos”, “autoproclamados policiais de dados”. Para Fiske, para que o debate seja honesto, o mesmo não deveria ser público e deveria se restringir às publicações acadêmicas. Suas críticas, que vazaram antes de serem publicadas em uma coluna da revista de divulgação da Association for Psychological Science geraram uma grande reação de outros pesquisadores que resultaram na não publicação do mesmo.

Quando dois grandes grupos de cientistas estão debruçados sobre os mesmos dados chegando a conclusões completamente diferentes, está exposta uma fratura que nos permite cogitar a existência de um problema mais profundo.

Crise do capital, crise na ciência

Crise do capital, crise na ciência

No Capítulo XII de o Capital, intitulado Maquinaria e Grande Indústria, Marx explica como o surgimento do sistema de máquinas converteu a ciência em uma força produtiva social. A máquina, cujo constante desenvolvimento requer o avanço da ciência, deve ser entendida como uma categoria econômica, subsumida ao conceito de capital (BEVILAQUA, 2015, p. 240). Como capital constante, ela é armazenadora de trabalho vivo para o próximo ciclo produtivo, mas também é uma forma de “baratear as mercadorias, encurtar a parte do dia de trabalho da qual precisa o trabalhador para si mesmo, para ampliar a outra parte que ele dá gratuitamente ao capitalista. A maquinaria é meio para produzir mais-valia” (MARX, 1988, Livro 1, v. 2, p. 5).

A Revolução Industrial, ao possibilitar um descolamento entre o tempo de trabalho empregado e a quantidade de mercadorias criadas, através de um brutal ganho de produtividade, impulsionou a expansão das relações capitalistas por todo o planeta e impactou a manifestação concreta de cada uma das leis de seu sistema, sendo um dos fatores que permitiu o surgimento do imperialismo. Segundo descreveu Lênin, o “enorme incremento da indústria e o processo notavelmente rápido de concentração da produção em empresas cada vez maiores constituem uma das particularidades mais características do capitalismo” (LENIN, 1984). Porém, ao entrar em sua terceira fase, a Revolução Científico-Técnica, através da automação da produção, torna infinitesimal o quantum de valor-trabalho de cada produto. O papel da maquinaria na expansão das relações capitalistas é transformado, exaurindo-se o impulso anterior, e sua adoção em todo o planeta passa a representar um entrave para a acumulação global de capital.

Marx, no Caderno VII dos Grundrisse, manuscritos econômicos de 1857 e 1858, já havia desvelado este caráter contraditório do desenvolvimento da relação capital:

A troca de trabalho vivo por trabalho objetivado, i.e., o pôr do trabalho social na forma de oposição entre capital e trabalho assalariado, é o último desenvolvimento da relação de valor e da produção baseada no valor. O seu pressuposto é e continua sendo a massa do tempo de trabalho imediato, o quantum de trabalho empregado como o fator decisivo da produção da riqueza. No entanto, à medida que a grande indústria se desenvolve, a criação da riqueza efetiva passa a depender menos do tempo de trabalho e do quantum de trabalho empregado que do poder dos agentes postos em movimento durante o tempo de trabalho, poder cuja poderosa efetividade, por sua vez, não tem nenhuma relação com o tempo de trabalho imediato que custa sua produção, mas que depende, ao contrário, do nível geral da ciência e do progresso da tecnologia, ou da aplicação dessa ciência à produção (p.615).

A redução do tempo de trabalho a um mínimo é produto da aplicação das inovações tecnológicas à produção. Algumas linhas mais adiante, o fundador do materialismo histórico explica como o desenvolvimento tecnológico, que tornou possível a grande indústria, leva, com o tempo, à erosão do paradigma do valor, processo que compele o modo de produção capitalista à crise.

O roubo de tempo de trabalho alheio, sobre o qual a riqueza atual se baseia, aparece como fundamento miserável em comparação com esse novo fundamento desenvolvido, criado por meio da própria grande indústria. Tão logo o trabalho na sua forma imediata deixa de ser a grande fonte da riqueza, o tempo de trabalho deixa, e tem de deixar, de ser a sua medida e, em consequência, o valor de troca deixa de ser [a medida] do valor de uso. […] O próprio capital é a contradição em processo, [pelo fato] de que procura reduzir o tempo de trabalho a um mínimo, ao mesmo tempo que, por outro lado, põe o tempo de trabalho como única medida e fonte da riqueza. (p.942).

Bevilaqua, em sua investigação acerca da atual crise econômica mundial, defende que a acepção de crise que mais contribui para a análise do desenvolvimento histórico contemporâneo é a que se depreende da leitura dos Grundrisse. Isso porque a contradição que ela expressa abarca o coração do sistema do capital, o próprio processo de valorização, sobre o qual se funda toda a estrutura econômica e social. Desta forma, esta é a formulação mais abrangente por ser capaz de articular os diferentes usos da ideia de crise em O Capital. Como descreve esse autor:

Todas estas interpretações da crise em Marx sofreram uma significativa modificação com a redescoberta dos Grundrisse de 1858-59. Este estudo de Marx, considerado um esboço da sua obra magna, desenvolve o conceito de capital em geral articulado pela categoria valor e, necessariamente, desenvolve também a categoria crise enquanto momento que expressa sua negação. Neste sentido, apresenta uma concepção do movimento do valor ao seu antivalor mediado por uma série histórica de momentos de negação do valor que permeiam o movimento do substrato material do conceito de capital em geral até a transformação do mesmo, real e conceitual, ou objetiva e subjetiva. Esta concepção permite uma compreensão da unidade conceitual da crise presente em O Capital, que pode ser traduzida como a dialética de limites e barreiras, de leis gerais e leis específicas que conformam a relação capital-trabalho. (BEVILAQUA, 2015, p. 197)

Esta formulação de Marx, esparsa em seus escritos, não obstante presente, também pode ser derivada de seu método, tanto é que teve elementos redescobertos na formulação da Lei da Acumulação e do Colapso de Henryk Grossmann, uma contribuição feita em uma época em que os Grundrisse ainda não haviam sido publicados, mas na qual já existia um importante debate sobre o tema, que partia dos esquemas de reprodução apresentados no Livro II de O Capital (BEVILAQUA, 2015, p. 105 e 212). Para Grossmann, ao analisar a composição valor do capital em seus sucessivos circuitos, o crescimento proporcionalmente maior do capital constante adicional com relação ao restante do capital, como salários, faz com que seja colocada em xeque a parcela da mais-valia destinada ao capitalista, uma parte intrínseca das relações de poder que sustentam este sistema. Em seu modelo, um dos principais fatores que dinamizam o colapso é o aumento da composição orgânica do capital, efeito da aplicação da ciência no processo produtivo (GROSSMANN, 2004).

Essa ideia já estava presente no capítulo sobre a Lei Geral da Acumulação Capitalista em O Capital, no conceito de composição orgânica do capital, que relaciona a composição valor e a composição técnica do capital. Seu incremento indica o processo de substituição do trabalho vivo pelo trabalho morto (MARX, 2010, v. 35, pos. 1706) (BEVILAQUA, 2015, p. 224 – 225), principalmente a partir da introdução da maquinaria, como Marx chama atenção neste trecho dos Grundrisse:

Como vimos, a tendência necessária do capital é o aumento da força produtiva do trabalho e a máxima negação do trabalho necessário. A efetivação dessa tendência é a transformação do meio de trabalho em maquinaria. Na maquinaria, o trabalho objetivado se contrapõe materialmente ao trabalho vivo como o poder dominante e como subsunção ativa deste a si. (MARX, 2011, p. 931).

A ciência assume um papel central no processo produtivo. Sua aplicação na indústria, através das inovações tecnológicas, leva à automação da produção material, o que transforma qualitativamente o caráter do trabalho e da classe operária. O tempo socialmente necessário à produção da reprodução da vida material torna-se insignificante diante da colossal produtividade decorrente do desenvolvimento das forças produtivas, uma contradição que passa a comprometer o padrão de acumulação deste modo de produção.

O trabalho de Theotonio dos Santos (1983, 1987) em torno da Revolução Científico-Técnica descreve como a inovação é incorporada no processo de produção de valor, concentrando-se, cada vez mais, nos departamentos de Pesquisa e Design dos monopólios, que se agigantam quando comparados com a pesquisa básica, circunscrita às universidades. Isso se deve ao papel que a ciência vai adquirindo no centro da produção e à dinâmica própria da rotação do capital empregado em inovação.

Paralelamente, a precificação da própria produção científica torna-se um problema candente para a manutenção da apropriação privada do valor fundado no tempo de trabalho, e do reconhecimento deste como o equivalente geral dos intercâmbios da sociedade, em torno do qual orbitam todas as outras medidas de valor. Todavia, o conhecimento humano não pode ser mensurado com base no tempo socialmente necessário para produzi-lo, porque sua reprodução requer um tempo praticamente insignificante. Marx já havia adiantado nas Teorias sobre a mais-valia o argumento que hoje embasa movimentos como o do Software Livre e o do Copyleft:

O produto do trabalho intelectual – a ciência – é sempre muito inferior a seu valor, porque o tempo de trabalho necessário para sua reprodução não guarda proporção alguma com o [trabalho] exigido para sua criação original. Por exemplo, qualquer jovem no colégio pode aprender em uma hora a teoria dos binômios (MARX, 1980, v.1, p. 327, tradução nossa)

Surge daí a batalha pela posse do conhecimento coletivo da humanidade e de sua manipulação através de diferentes formas de controle como as patentes, a desigualdade de condições, a restrição ao acesso de dados, roubo de cérebros, etc.

Podemos afirmar que, paulatinamente, a ciência se embrenhou da lógica da reprodução do capital, da sua reprodução como valor e da apropriação da criação alheia através da fraude. Estabeleceu-se o contrato de servidão da ciência ao sistema do capital, algo análogo ao risco para o qual Francis Bacon alertara em sua obra O progresso do conhecimento, de 1605. Aí já aparece claramente a ideia de que os interesses dos detentores da ciência condicionam sua produção, conduzindo-a ao erro:

Porque, tal e como agora se transmitem os conhecimentos, há uma espécie de contrato de erro entre o transmissor e o receptor: pois o que transmite conhecimento deseja fazê-lo da maneira que seja mais bem acreditado, e não mais bem examinado; e o que o recebe, mais deseja satisfação imediata que indagação antecipada, e assim antes não duvidar que não errar, fazendo o afã de glória com que o autor não descubra sua fraqueza, e a indolência com que o discípulo não conheça sua força (BACON, 2007. p. 203).

A constatação da crise da reprodutibilidade nas ciências biomédicas (Hirschhorn, Ioannidis e Begley)

No campo da biologia molecular, esse problema é debatido no mainstream há pelo menos 15 anos, vide o estudo de HIRSCHHORN (2002) publicado na Genetics in Medicine, publicação oficial da Escola Americana de Genética e Genômica Médica. Nele, os autores apresentam a seguinte constatação empírica:

Descobrimos que mais de 600 associações positivas entre variantes genéticas comuns e doenças foram relatadas. Essas associações, caso verdadeiras, teriam uma importância tremenda para a prevenção, antecipação e tratamento de doenças muito comuns. Contudo, a maior parte das associações relatadas não são robustas: Das 166 associações que foram estudadas três ou mais vezes, apenas seis foram consistentemente replicadas (HIRSCHHORN, 2002).

O significado dessa revelação é potencializado por ser a saúde humana o campo de investigação científica que mais cresceu desde o pós-guerra com o agigantamento da indústria farmacêutica. Essa área de pesquisa encontra-se abaixo apenas da pesquisa militar como destino do financiamento científico mundial. Apenas o orçamento federal dos Estados Unidos destinou a esse campo, em 2016, mais de 30 bilhões de dólares, quase o triplo do investido em pesquisa de energia, a terceira colocada.

Corroborando essa constatação, encontra-se o famoso artigo de Ioannidis (2005) que se converteu no mais citado da prestigiosa revista PLOS Medicine, de ciências médicas. Após uma revisão de publicações nesta área, o autor afirma categoricamente que: “pode ser provado que a maior parte dos resultados de pesquisas apresentados são falsos”. Sua conclusão está embasada em artigos que demonstram a ausência de consistência e coerência nas assertivas causais estabelecidas como verdadeiras pelos pesquisadores entre diferentes substâncias e seus efeitos, seja na tradicional área da epidemiologia, ou nas mais avançadas pesquisas moleculares.

A metodologia empregada por Ioannidis é a meta-análise, disciplina estatística que combina o resultado de uma série de estudos em busca de uma verdade subjacente aos resultados de cada estudo individual, posto que esses estão mais sujeitos a erros decorrentes de flutuações estatísticas, pelo simples fato de que uma amostra nunca é idêntica ao universo estudado. É, portanto, uma técnica que ajuda a revelar os aspectos quantitativos àqueles que buscam fazer uma revisão sistemática da literatura científica disponível sobre dado tema.

Trataremos mais adiante destes aspectos particulares da meta-análise ao abordarmos a Crise Estatística. Neste momento, interessa apenas o fato de que uma técnica que tem como objetivo diminuir a incidência de flutuações estatísticas nos resultados finais, ou seja, ajustar os desbalanços de diferentes estudos confrontando-os entre si, serviu para comprovar a existência de um problema muito mais profundo, que se convencionou chamar de Crise de Reprodutibilidade. As “simulações demonstram que, para a maioria dos planejamentos e configurações, é mais provável que a assertiva feita em um estudo seja falsa do que verdadeira” (IOANNIDIS, 2005).

Esse descompasso não é de todo ignorado pela sociedade em geral, que acompanha o avanço da ciência através da grande imprensa, tendo acostumado-se com notícias de reviravoltas na condenação ou idolatração de alguns alimentos, apenas um exemplo de um problema mais geral que leva a uma desconfiança generalizada das afirmações dos especialistas. Ovo, carne suína e gordura são alguns exemplos de alimentos que tiveram suas recomendações revistas diversas vezes, alternando-se em uma gangorra de expurgos e de reabilitações, o que gerou um grande número de manchetes bombásticas.

Para descrever essa mesma alternância, só que no campo da genética molecular, Ioannidis cunhou o termo Fenômeno Proteus, em referência ao deus grego que podia mudar de aparência instantaneamente, ao constatar como o viés de publicação faz com que as primeiras replicações de um trabalho quase sempre contradigam os trabalhos originais de forma extrema, não corroborando seus resultados. Ele e seu colega, Trikalinos, apresentam como hipótese que “dados controversos são atrativos para investigadores e editores, e, desta forma, os resultados mais extremos e opostos aparecem cedo, dado que os dados possam ser gerados rapidamente, e não tardiamente, conforme os dados se acumulam” (IOANNIDIS, 2015B).

O mérito principal do artigo de Ioannidis é o de não ficar apenas na constatação do problema, mas, ao analisar as causas que diminuem o valor preditivo positivo (VPP), ou seja, sua probabilidade de serem verdadeiras, ele enuncia sei corolários que lançam luz sobre as raízes deste embaraço:

Corolário 1: Quanto menores forem os estudos conduzidos em um campo científico, menores serão as chances das descobertas da pesquisa serem verdadeiras. (…)

Corolário 2: Quanto menores forem os efeitos em um campo científico, menor a chance de que as descobertas da pesquisa sejam verdadeiras. (…)

Corolário 3: Quanto maior o número e quanto menor for a seleção das relações verificadas em um campo científico, menores serão as chances das descobertas da pesquisa serem verdadeiras. (…)

Corolário 4: Quanto maior for a flexibilidade nos desenhos, definições, resultados e modos analíticos em um campo científico, menores serão as chances das descobertas da pesquisa serem verdadeiras. (…)

Corolário 5: Quanto maiores forem os interesses financeiros e outros interesses e preconceitos no campo, menores serão as chances das descobertas da pesquisa serem verdadeiras. (…)

Corolário 6: O quão mais quente for um campo científico (mais equipes científicas envolvidas), menores serão as chances das descobertas da pesquisa serem verdadeiras. (…) (IOANNIDIS, 2005).

Alguns anos depois do alerta de Ioannidis, uma nova onda de consternação nos círculos especializados ocorreu com a publicação de um artigo na Nature pelo consultor e ex-vice-presidente e líder global de hematologia e pesquisa oncológica da Amgen1, no qual relata os esforços de seu laboratório em reproduzir 53 estudos considerados marcos na pesquisa de tratamentos para o câncer, tendo conseguido confirmar as descobertas científicas em apenas seis estudos, o que representa 11% dos casos (BEGLEY, 2012). Aqui, a novidade advém do fato de que não se trata mais da voz de um pesquisador influente, mas independente, remando contra a correnteza, e sim da posição de um cientista que personifica os interesses do multibilionário capital da indústria farmacêutica.

Begley chama atenção para o fato de que seus dados estão em harmonia com outros publicados um ano antes, em 2011, por uma equipe de pesquisadores da Bayer2 que, em um esforço similar de replicação, relatou que apenas “25% dos estudos pré-clínicos publicados puderam ser validados ao ponto além do qual os projetos poderiam prosseguir” (PRINZ, 2011).

A principal indagação a ser feita, caso aceitemos os resultados destes estudos, é sobre como foi possível tantos resultados falsos terem sido publicados com tão pouca ponderação em uma área que movimenta bilhões de dólares de financiamento público e privado, e da qual depende a vida de diversos pacientes. Como será aprofundado ao longo desta dissertação, acompanhando a natureza dual da ciência cativa do capital, usar ou não uma substância em um tratamento aparece como um problema dual que compreende não apenas o benefício e o malefício causado ao doente, mas também o retorno esperado de quem investiu em determinada droga. É um processo de descolamento da produção científica que passa a flutuar sobre a investigação da realidade, passando a responder mais à lógica de acumulação do capital do que coadunar com a verdade material dos objetos estudados.

1Conglomerado estadunidense com faturamento anual de 22,99 bilhões de dólares em 2016.

2A Bayern, com faturamento de 46 bilhões de euros em 2016, investiu no mesmo ano 4,7 bilhões de euros em pesquisa científica.

Crise de Replicabilidade e da Reprodutibilidade

Entre os grandes problemas contemporâneos que afetam a produção científica, talvez nenhum tema tenha perpassado de forma tão longitudinal o debate entre os mais díspares campos do conhecimento como a questão da Crise de Reprodutibilidade, que se tornou objeto de estudo da filosofia e da sociologia da ciência.

Existe uma diferença entre replicabilidade e reprodutibilidade, ainda que sem um consenso absoluto sobre o que distingue esses termos, que são algumas vezes utilizados de forma trocada (LIEBERMAN, 2015). A distinção entre ambos mais comumente utilizada parece ser a de que a replicabilidade pode ser definida como a obtenção dos mesmos resultados de um estudo por uma equipe de pesquisadores que repita um experimento de forma totalmente independente, incluindo uma nova coleta de dados, enquanto que a reprodutibilidade é a verificação dos resultados de uma pesquisa por outra equipe que tenha acesso aos dados e aos códigos utilizados pela primeira, submetendo-os a uma análise alternativa (PENG, 2009). Logo, a replicabilidade é mais difícil de ser obtida do que a reprodução de resultados. Contudo, na abordagem dessas reflexões, o rigor com essa distinção não modifica em nada os argumentos, por isso trataremos ambos os conceitos de forma conjunta, seguindo a terminologia de cada um dos autores citados.

A crise orgânica do capital: o valor, a ciência e a educação

A crise orgânica do capital: o valor, a ciência e a educação

Com efeito, ao assumirmos o método de Marx, consideramos que causa e consequência de um processo histórico não existem separadamente ou relacionadas apenas em caminhos de mão única. Desta forma, a crise na produção científica, que pode ser vista como uma consequência da crise econômica, produto, por exemplo, de cortes de investimento no setor, como destacam diversas matérias de jornal, é, ao mesmo tempo, uma das causas da mesma. O método com o qual Marx analisa o capitalismo permite pensar este complexo fenômeno em suas múltiplas determinações, o que leva à definição de uma Crise Orgânica do Capital. Com a conversão da ciência na principal força produtiva, as contradições inerentes à Lei Geral da Acumulação Capitalista (MARX, 1988) levam à erosão do paradigma do valor, conforme antecipou Marx nos Grundrisse, o que emperra a acumulação de capital e, consequentemente, coloca a própria relação-capital em cheque. Além disso, para entender qualquer movimento dialético e a forma como se articula uma unidade de seus contrários, deve-se dar a devida importância à escolha das categorias que nos possibilitam compreender o real significado deste processo.

O ponto de partida que nos permitirá transcender a aparência deste fenômeno é a argumentação apresentada na tese A crise orgânica do capital: o valor, a ciência e a educação de Aluisio Pampolha Bevilaqua (2015). Em seu trabalho, o autor defende que a crise do capital, momento de autonegação dialética da própria relação-capital, que por sua vez é a relação social dominante da formação econômica-social atual, generaliza-se para todas as esferas da sociedade e se expressa particularmente na produção científica mundial como uma crise de paradigmas. Em trabalho anterior, intitulado A Crise do Capital em Marx e suas implicações nos Paradigmas da Educação, o autor já mostrara como as categorias produção, ciência e educação encontram-se subsumidas à categoria capital através dos conceitos de crise, paradigma e pedagogia. Durante a crise, a ciência, cativa do capital e convertida em mais uma de suas manifestações, precisa desesperadamente ser mensurada como valor de troca, o que entra em choque com seu estatuto de conhecimento organizado e validado através de sua confrontação com a realidade material (na prática). Ele mostra como o caráter dessa crise é responsável pelo descompasso entre os objetivos postulados pela comunidade científica para seu trabalho e os resultados destes percebidos pela sociedade. Trata-se de um processo que se retroalimenta, pois a incorporação da ciência como investimento na produção acentua a erosão do paradigma do valor, logo agrava a crise econômica ao prejudicar a acumulação capitalista de trabalho vivo (BEVILAQUA, 2015, p. 9 e 356) (BEVILAQUA, 2011, p. 235).

Da mesma forma, toma-se como base a tese de Theotonio dos Santos, também referenciada no trabalho de Bevilaqua, que demonstra o impacto da Revolução Científico-Técnica, cujo início pode ser situado após a Segunda Guerra Mundial, quando a ciência passou a ser, cada vez mais, vista como investimento. Este processo, que pode ser classificado como a terceira fase da Revolução Industrial e que deriva na crescente automação da produção, é raiz de profundas transformações, ainda em curso, que apontam para os limites históricos do modo de produção baseado na apropriação privada da riqueza social (SANTOS, 1983, p. 52 e 247;1987, p.275).