Resenha: O cérebro relativístico: como ele funciona e porque não pode ser simulado por uma máquina de Turing.

Resenha: O cérebro relativístico: como ele funciona e porque não pode ser simulado por uma máquina de Turing.

Em 2018, durante a disciplina Teoria da Ciência 3 ministrada pelo professor Pinguelli Rosa, cotejei o que foi apresentando das ideias de Penrose, principalmente a questão da possibilidade ou não da simulação do cérebro humano, com outro trabalho publicado alguns meses antes, intitulado O cérebro relativístico: como ele funciona e porque não pode ser simulado por uma máquina de Turing, monografia escrita pelo neurocientista Miguel Nicolelis e pelo matemático Ronald Cicurel.

Os autores apresentam duas teses principais. A primeira delas “diz respeito a uma nova teoria abrangente sobre como cérebros complexos como o nosso funcionam. Batizada como Teoria do Cérebro Relativístico (TCR)”, ela se constitui de um novo modelo neurofisiológico que enxerga na articulação entre diferentes redes neuronais a conformação de um espaço tempo neural que se comunica através de “bobinas biológicas formadas por feixes de nervos que definem a substância branca, gerando campos eletromagnéticos neurais”. A deformação desse espaço mental seria a explicação de moléstias neurológicas e psiquiátricas.

A segunda tese dos autores é uma refutação, a partir do seu modelo, da possibilidade de uma inteligência artificial forte resultante da simulação dos processos cerebrais por máquinas universais de Turing. Isso porque a interação entre esses campos eletromagnéticos neuronais atua de forma analógica, não podendo ser completamente inscrita em algoritmos.

O primeiro capítulo, Registrando Populações de Neurônios e construindo Interfaces Cérebro-Máquina: o caminho experimental para desvendar o segredo do cérebro relativístico relata o trabalho de Nicolelis no desenvolvimento do método conhecido como registros crônicos com múltiplos eletrodos que “proporcionou a coleta de grandes quantidades de dados favorecendo a noção que populações de neurônios definem a verdadeira unidade funcional do cérebro dos mamíferos.”

Com base na tecnologia desenvolvida, Nicolelis e Chapin criaram um novo paradigma experimental chamado interfaces cérebro-máquinas (ICMs), a base do projeto Andar de Novo.

Para Nicolelis a evidência colhida sugere que “a mesma combinação de neurônios corticais nunca é repetida na produção do mesmo tipo de movimento”. Ou seja, os processos cerebrais não são redutíveis a uma conexão entre neurônios.

TABELA 1 – Princípios da Fisiologia de Populações Neurais
Princípios
Explicação

Processamento distribuídoA representação de qualquer parâmetro comportamental é distribuido por populações de neurônios e áreas cerebrais
Insuficiência do neurônio únicoNeurônios individuais são limitados na capacidade de codificar parâmetros comportamentais
Multi-tarefaUm mesmo neurônio pode participar na codificação de múltiplos parâmetros
Efeito de massa neuronalO logaritmo do # de neurônios corticais incluídos numa população determina a capacidade de codificação comportamental dessa população.
RedundânciaO mesmo comportamento pode ser produzido por diferentes populações de neurônios.
PlasticidadePopulações neurais se adaptam constantemente a novas estatísticas do mundo externo
Conservação de disparosA taxa global de disparos de uma população de neurônios permanece constante durante o aprendizado ou execução de um comportamento
ContextualizaçãoAs respostas sensoriais evocadas de populações neurais mudam de acordo com o contexto da tarefa e da geração do estímulo sensorial

TABELA 1 – Publicado com permissão Nature Publishing do original de Nicolelis MAL e Lebedev MA. Nature Review Neuroscience 10: 530-540, 2009.

Para os autores, suas descobertas invalidam o paradigma dominado “por conceitos espaciais, como colunas e mapas corticais, e a sistemática e interminável descrição de propriedades peculiares de alguns tipos de neurônios”. Ao contrário:

“…do ponto de vista fisiológico, e em contraste direto com o clássico cânone da neuroanatomia cortical do século XX, não existem bordas espaciais absolutas ou fixas entre as áreas corticais que ditam ou restringem o funcionamento do córtex como um todo. Ao contrário, o córtex deve ser tratado como um formidável, mas finito, continuum espaço-temporal. Funções e comportamentos são alocados ou produzidos respectivamente por meio do recrutamento particular desse continuum de acordo com um série de restrições, entre as quais se encontram a história evolutiva da espécie, o layout físico do cérebro determinado pela genética e pelo processo ontológico, o estado da periferia sensorial, o estado dinâmico interno do cérebro, restrições do corpo que contém o cérebro, o contexto da tarefa, a quantidade total de energia disponível para o cérebro e a velocidade máxima de disparo de um neurônio.”

Para essa teoria:

“…quando confrontado com novas formas de obter informação sobre a estatística do mundo que o cerca, o cérebro de um indivíduo assimila imediatamente essa estatística, da mesma forma que os sensores e as ferramentas utilizadas para obtê-la. Desse processo resulta um novo modelo neural do mundo, uma nova simulação neural da noção de corpo e uma nova série de limites ou fronteiras que definem a percepção da realidade e do senso do eu. Esse novo modelo cerebral será testado e remodelado continuamente, por toda a vida desse indivíduo. Como a quantidade total de energia que o cérebro consome e a velocidade máxima de disparo dos neurônios são fixas, propõe-se que, durante a operação do cérebro, tanto o espaço como o tempo neural são relativizados de acordo com essas constantes biológicas”.

Os autores propõem um mecanismo através do qual emergeria esse continuum espaço-temporal, que eles descrevem no segundo capítulo A Teoria do Cérebro Relativístico: seus princípios e predições. Neste eles descrevem a geração, processamento e armazenamento de informações pelo sistema nervoso complexo de um sistema computacional híbrido digital-analógico, cujo componente digital é definido pelos potenciais de ação produzidos pelas redes de neurônios, algo já conhecido. A novidade proposta pelos autores é o componente analógico formado pela “superimposição de campos eletromagnéticos neurais gerados pelo fluxo de cargas elétricas pelos múltiplos feixes circulares de nervos que formam s substância branca do cérebro”.

A medição dos campos magnéticos corticais é algo rotineiro (através da magnetoencefalografia), mas os autores propõem a existência de campos subcorticais, mais fracos e de detecção mais difícil. Não existe ainda detecção desses campos subcorticais, mas evidências indiretas, como o estabelecimento de oscilações neuronais síncronas coerentes e disseminadas com mecanismos ainda não descritos.

Uma visão mais ativa do papel do cérebro na percepção dá base para o que os autores chamam de ponto de vista do cérebro, um estado que se vale da “experiência acumulada ao longo de toda a vida do indivíduo” que permite que o cérebro “esculpa e atualize continuamente esse “ponto de vista” interno, o qual pode ser interpretado como um modelo interno da estatística do mundo ao seu redor e do senso ser de cada um de nós”. Assim, o “cérebro vê antes de enxergar’, tendo um papel ativo na percepção. Isso permite a plasticidade que as máquinas não exibem. Ele cita o exemplo de ratos com implantes corticais que aprenderam a sentir a luz infravermelha (invisível para eles) como um novo sentido de tato.

Esta seria uma solução para o problema de ligação (binding problem), ou de como diferentes sistemas cerebrais se fundem na consciência. Segunda esta teoria, o cérebro não precisa reconstruir a imagem original do mundo exterior a posteriori, pois este já construiu uma hipótese analógica do que ele espera ver (expectativa a priori codificada nessa comunicação analógica). Para os autores isso torna seu sistema incompatível com um modelo computacionalista e digital do cérebro.

Experimentos com ratos demonstram que na iminência do contato com um objeto (mas antes do mesmo) há uma atividade neuronal antecipatória que precede o contato por centenas de microssegundos.

Essa teoria explicaria diferenças na esfera sensorial entre animais anestesiados, despertos e imóveis ou ativos, o que corresponderia a diferenças nos estados dinâmicos internos do cérebro. É importante para eles o conceito de imagem do corpo, permanentemente atualizada, que fica em evidência com os relatos das sensações em membros fantasmas (amputados), ou no experimento da mão de borracha. Esse mecanismo analógico também estaria implicado na sensação de dor que não pode ser recriada estimulando o córtex. Os sonhos seriam exemplos de computações analógicas criadas para, entre outras coisas, estocar memórias a nível cortical.

Existe uma argumentação matemática contida nessa teoria, que envolve a análise da geometria e da topologia desse “espaço mental, que define um continuum multidimensional”. Para os autores, os efeitos de drogas alucinógenas que modificam as percepções de tempo e espaço sugerem que o espaço mental seria mais Riemanniano que euclidiano.

Isso explica como o cérebro é capaz de recrutar áreas corticais para o processamento de informações táteis no caso de pessoas cegas, ou mesmo sua capacidade de acessar memórias de forma instantânea. De acordo com essa visão doenças mentais são uma “dobradura” inapropriada do continuum espaço-temporal.

No terceiro capítulo, A disparidade entre sistemas integrados como o cérebro e uma máquina de Turing os autores criticam o computacionalismo. Eles consideram, citando outros filósofos, como “‘puramente mística’ a visão que funções mentais superiores, envolvendo linguagem, tomadas de decisão e raciocínio possam, de alguma forma, ‘emergir das interações de comportamentos básicos”.

A ideia da complexidade é apresentada como um impedimento da possibilidade de simulação, pois “seria preciso incluir na definição de complexidade deste cérebro todas as suas interações com entidades externas, com o ambiente que o cerca e com os cérebros de outros indivíduos da sua espécie”.

A complexidade do sistema impediria que a infinidade de eventos interativos entre moléculas e circuitos que leva a propriedades emergentes não poderia ser simulado.


No quarto capítulo Os argumentos matemáticos e computacionais que refutam a possibilidade de simular cérebros numa máquina de Turing, os autores seguem na mesma linha de Penrose. A dificuldade da simulação de qualquer sistema físico é ilustrada pelo argumento de Michael Berry, sobre a tentativa de simular os sucessivos impactos de uma bola de bilhar num jogo, conhecendo completamente as condições iniciais. Calcular o que acontece durante o primeiro impacto é simples, mas, “para computar o nono impacto, é preciso levar em consideração o efeito gravitacional de alguém posicionado próximo à mesa de bilhar. E para computar o quinquagésimo sexto impacto, cada partícula individual de todo o universo precisa fazer parte das suas suposições; um elétron, no outro lado do universo, deve participar desses nossos cálculos’.

Os autores reconhecem que o próprio pai da computação, Turing, já reconhecia essa limitação, e por isso pensou num modelo mais poderoso que as Máquinas de Turing, campo hoje conhecido como hipercomputação. A solução de seu artigo de 1939 foi a introdução da figura do oráculo, capaz de resolver uma função arbitrária.

O capítulo segue relatando o trabalho de Chaitin, da Costa e Dória (Chaitin, da Costa et. al. 2011), bem como outros autores (Pour-El e Richards 1989), que propuseram a ideia que “sistemas analógicos, não os digitais, podem decidir algumas sentenças matemáticas não solucionadas”. Isso aconteceria porque mecanismos computacionais analógicos “computam fisicamente”, ou seja, eles computam simplesmente por obedecer às leis da física, ao invés de através de um algoritmo pré-formulado dentro de um sistema formal, criado para solucionar equações que têm a intenção de descrever o comportamento de um sistema. Colocado de outra forma, nos computadores analógicos não existe a separação entre “hardware” e “software”, porque a configuração do “hardware” desse computador está encarregada de realizar todas as computações necessárias e ainda modificar a si mesmo.

No quinto capítulo, O argumento evolucionário, os autores partem do experimento mental do Filme da Vida proposto por Stephan Jay Gould. Rebobine a fita da história de toda a vida na terra, e aperte o play, e você assistirá um filme diferente, que não resultaria no surgimento da espécie humana ao final.

Para os autores, isso prova que não é possível fazer engenharia reversa de algo que não foi construído. A quantidade de eventos aleatórios envolvidos em um processo destes, extremamente complexo, impediria que uma simulação pudesse repeti-lo.

No sexto capítulo, O cérebro humano como um sistema físico muito especial: o argumento da informação, os autores diferenciam dois tipos de informação, de tipo 1 e de tipo 2, respectivamente, informação extrínseca, de Shannon e Turing, e informação extrínseca, de Gödel. Se uma foto for mostrada para uma pessoa, pode-se mensurar a atividade elétrica do cérebro dessa pessoa e obter-se informação de tipo 1, enquanto que se perguntarmos como a pessoa se sentiu, obteríamos informação de tipo 2, que seria acessível apenas a partir do ponto de vista interno do cérebro.

Na conclusão os autores explicitam suas discordâncias com outras teorias. Citam o exemplo de Christopher Koch, diretor científico do Instituto Allen De Neurociência, que defendeu que a consciência pode emergir de qualquer sistema de informação suficientemente complexo, tendo declarado que: “Da mesma forma, eu proponho que nós vivemos num universo de espaço e tempo, massa, energia e consciência, emergindo de sistemas complexos”. Koch se refere a uma função designada como ϕ por Giulio Tononi (Tononi 2012) e que mede, em bits, a quantidade de informação gerada por um conjunto de elementos, acima e além da informação gerada pelos seus componentes. Koch propõe que ϕ oferece uma medida de consciência. Os autores, por outro lado, acreditam que “a complexidade é uma condição necessária, mas não suficiente, para gerar informação Gödeliana, e consequentemente, uma entidade consciente”. Para eles, “ϕ continua sendo uma medida de informação Tipo I (Shannon-Turing) e, como tal, imprópria para justificar o surgimento de funções cerebrais superiores responsáveis por fundir, em uma única imagem, o fluxo contínuo de informação sensorial e mnemônica”. A consciência humana só pode “emergir como consequência de uma “escultura evolucional” que lapidou e definiu a configuração física do cérebro”.

Eles concluem afirmando que Finalmente, nós gostaríamos de dizer que, de forma alguma, nós estamos sugerindo que funções cerebrais superiores não poderão um dia ser reproduzidas artificialmente. Essencialmente, nós simplesmente explicitamos uma série coerente de argumentos que demonstram que, se e quando isso acontecer, esse evento não será produto de uma máquina de Turing, não importa quão sofisticada e poderosa ela possa ser.

Superbactérias: ficção científica ou mazela do capitalismo?

Superbactérias: ficção científica ou mazela do capitalismo?

A humanidade enfrenta problemas cada vez mais complexos e globais, que emergiram com a revolução industrial e a forma com a qual o capitalismo levou ao extremo sua visão unilateral de aplicação da ciência.

Um Relatório Global da OMS (Organização Mundial da Saúde), intitulado “Resistência Antimicrobiana”, trouxe a atenção da mídia para um problema ecológico global com um potencial catastrófico para a humanidade comparável ao do aquecimento global.

O prefácio do texto, assinado pelo Dr Keiji Fukuda, afirma taxativamente: “Uma era pós-antibióticos, na qual infecções comuns e pequenos ferimentos podem matar, longe de ser uma fantasia apocalíptica, é na verdade uma possibilidade muito real para o século 21”.

Estamos assistindo ao surgimento de cepas de bactérias totalmente resistentes a todo o tipo de medicação desenvolvida até então. Esse relatório traz à tona o caso de sete espécies de bactérias, tanto gram-positivas, quanto gram-negativas (afetadas por diferentes classes de antibióticos), que desenvolveram cepas resistentes às drogas de último recurso.

Essas drogas, com nomes complicados como carbapenêmicos, fluoroquinolona e ciprofloxacina, são usadas apenas no caso de pessoas com infecções que não puderam ser controladas com outros medicamentos.

No caso delas falharem, não há muito que a medicina atual pode fazer.


O Brasil tem um papel destacado neste debate.

A brasileira Carmem Lúcia Pessoa-Silva é chefe do programa da OMS para combate a micróbios resistentes a antibióticos. Em recente entrevista a um blog de divulgação científica, ela foi categórica ao falar sobre a necessidade da produção de antibióticos não ser regida pela lógica capitalista, e aponta os culpados por essa situação:

“O antibiótico, então, não pode mais ser visto como um bem comercial.Tem de ser visto como um bem público. Nós deveríamos desconectar os custos de desenvolvimento e de fabricação do retorno financeiro com as vendas. É para projetar essa transição que a OMS está promovendo agora diálogos com a indústria farmacêutica e a indústria alimentar.

Esta outra é uma das grandes responsáveis pelo surgimento de bactérias resistentes, também por uma falha da economia de mercado que permite o uso de antibióticos para engorda na pecuária, para prejuízo da medicina humana”.

No que consiste esse problema? Com certeza, não se trata de nenhuma novidade. Alexander Flemming, responsável pela descoberta da penicilina em 1928, ao receber o prêmio Nobel, em 11 de Dezembro de 1945, alertou:

“Mas eu gostaria de fazer uma advertência. A penicilina é para todos os efeitos não-tóxica, por isso não há necessidade de se preocupar com uma overdose ou envenenamento do paciente. Pode haver, contudo, um risco de subdosagem. Não é difícil criar micróbios resistentes à penicilina em laboratório, expondo-as a concentrações não suficientes para matar, e o mesmo tem acontecido ocasionalmente no corpo”.

As bactérias se reproduzem a uma velocidade muita rápida, e essa reprodução, como a de qualquer ser vivo, está sujeita à introdução de mutações, que podem propiciar uma resistência aos efeitos dos antibióticos.

Dessa forma, quando o tratamento mata uma grande porcentagem, mas não a totalidade de uma certa colônia de bactérias, as que sobram vivas podem portar o gen resistente. Após um certo tempo e do repovoamento do ambiente, todas as bactérias da colônia exibem a resistência.

Como o próprio Flemming relatou, o surgimento de bactérias resistentes a penicilinas já havia sido identificado antes mesmo do lançamento comercial da mesma nos anos 1940. O termo “superbactérias”, usado pela mídia de forma sensacionalista não ajuda em nada na educação acerca do fenômeno.

Para os biólogos marxistas, não se trata de um roteiro de ficção científica, mas sim das condições materiais da vida das pessoas. Levins e Lewontin, em seu artigo “Será o capitalismo uma doença?” lembram do exemplo da Praga na Europa.

Aprendemos nos livros de história que a Praga foi levada à Europa através dos navios que vinham da Ásia. Na verdade, essa explicação monocausal é falha. Ela não leva em consideração que a Praga já havia aparecido no século VI, durante o final do Império Romano.

O que nos leva à explicação mais plausível de que a Praga entrou na Europa diversas vezes, mas que ela teve que encontrar condições específicas para prosperar, um momento no qual a população se tornou mais vulnerável a doenças transmitidas por ratos, através de uma crise social que levou à miséria.

A indústria farmacêutica está criando um fenômeno que coloca em risco milhões de vidas humanas. Porém uma verdadeira política de saúde pública não significa derrotar apenas os capitalistas da indústria farmacêutica, mas esse sistema como um todo. Como a OMS alertou, um dos principais responsáveis pelo surgimento desse problema é o uso de antibióticos nas rações de animais, como a vancomicina que é dada aos frangos e que acaba chegando pelo garfo ao nosso corpo.

É fundamental uma compreensão mais totalizante desse problema, relacionando-o com todos os outros aspectos da vida no planeta e mais especificamente numa sociedade de classes.

As bactérias são os primeiros habitantes do planeta terra, tendo existindo por quase 3 bilhões de anos, antes do surgimento dos primeiros seres multicelulares, e ainda continuam sendo, de acordo com muitos critérios, a forma de vida dominante em nosso planeta.

Em termos de biomassa total, em todo o planeta, as bactérias, apesar do seu tamanho microscópico, são campeãs, acima das plantas e dos animais somados. Em uma única grama de solo existem em média 40 milhões de bactérias.

Não podemos abordar essa questão como um problema de competição entre nós e elas. Na verdade, para cada célula em nosso corpo, temos pelo menos 10 bactérias que o habitam. Muitas dessas bactérias, como as presentes em nosso sistema digestivo são absolutamente essenciais para a vida humana.

Um ser humano totalmente isento de germes não poderia sobreviver. Na verdade, cada pessoa é um ecossistema, no qual nosso DNA e o de trilhões de bactérias convivem em simbiose.

Não existe uma forma simples de se abordar um problema que envolve um processo dinâmico, como é a vida, com uma infinidade de variáveis. Quando utilizamos um antibiótico de amplo espectro, é como se jogássemos uma bomba atômica nessa comunidade.

As bactérias mais adaptadas ao nosso organismo e com a qual convivemos bem, são as que tem menos defesas, já que não enfrentam oposição do nosso sistema imunológico. Essas bactérias competem diretamente com as que nos são nocivas.

Ao matá-las estamos na verdade destruindo um sistema de proteção que criamos durante toda a coevolução entre nosso espécie e essas bactérias.

A única solução para este problema é a mudança de modo de produção, de forma a estabelecer o poder político nas mãos da classe operária, dos produtivos, que constituem o aspecto consciente da humanidade.

Apenas com novos valores podemos abordar esse problema de forma integral, com uma visão ecológica e social.

Texto publicado originalmente em junho de 2014 na Edição nº 473 do Jornal inverta