A CRIANÇA, A ÁGUA DO BANHO E O RELATIVISMO COGNITIVO

Alaor Chaves

 

RESUMO

Este artigo aborda três questões. A maior ênfase é uma refutação da teoria de Thomas Kuhn sobre o desenvolvimento da ciência, principalmente da sua tese da incomensurabilidade dos paradigmas científicos. Por meio de vários exemplos da história da ciência e de questões científicas pendentes, tentamos mostrar que a história da ciência, o método científico e as mudanças de paradigmas são muito mais complexos do que descreveu Kuhn. Apontamos que os equívocos de Kuhn, que além de graves têm sido mal interpretados pelos seus admiradores, agravaram as divergências e atritos entre os cientistas naturais e muitos intelectuais ligados às humanidades, que negam a racionalidade e a objetividade da ciência e a consideram uma mera construção social. Claro que a ciência, como empreendimento, é uma construção social, mas não o seu conteúdo. Apontamos também que o reduzido apoio do setor público à pesquisa e à reflexão em áreas do conhecimento essenciais para o desenvolvimento da modernidade e da própria civilização, além de danoso em si, é em parte responsável por questionamentos um tanto exagerados das ciências naturais oriundos de intelectuais ligados às humanidades e às ciências sociais.

Diz-se que Idade Média europeia a mesma água era usada no banho anual de toda a família, em uma ordem hierárquica. No final, a criança caçula, a de menor status na família, corria o risco de ser descartada junto com a água imunda. Desse alarmante descuido higiênico pode ter surgido o provérbio alemão “Não jogue fora a criança junto com a água de banho”. O primeiro registro escrito do provérbio foi feito em 1512 por Thomas Murner, no livro satírico Narrenbeschwörung (Apelo a idiotas). Não é preciso saber alemão para decifrar o que Murner quis dizer com a expressão Schüttet das Kind mit dem Bade aus, pois ele ilustrou o ato mencionado com a eloquente Figura 1.

Fig. 1 – Criança descartada na água do banho

Vários literatos alemães repetiram o provérbio e Johanes Kepler foi o primeiro a empregá-lo em um texto científico, ou melhor, em um texto sobre astrologia. A expressão “jogar a criança fora com a água do banho” tem sido usada como metáfora para atos em que, no propósito de livrar-se de algo secundário ou indesejado, perde-se também o valioso e essencial. Em inglês a metáfora foi usada pela primeira vez por Thomas Carlyle (Occasional Discourse on the Nigger Question, 1853), ao apontar que ao tomar iniciativas contra a escravatura poderíamos gerar também resultados maléficos para os escravos. Após ser popularizada por Bernard Shaw, a metáfora tornou-se frequente em várias línguas.

Thomas Kuhn não via o provérbio alemão como um bom preceito no campo da pesquisa científica. Kuhn estudou física em Harvard, do bacharelado ao doutorado, mas já durante o doutorado seu interesse voltou-se para a história e filosofia da ciência. Seu livro “A Estrutura das revoluções científicas”, publicado em 1962, teve enorme impacto e logo se transformou na principal referência em discussões sobre filosofia da ciência. O livro tem importância singular na área, não tanto pela solidez da análise, mas principalmente pelas acaloradas discussões que suscitou. Tanto críticas dos argumentos quanto apropriações distorcidas de ideias do livro levaram Kuhn a introduzir um longo posfácio na reedição de 1969, no qual detalhou e em alguns casos reviu os conceitos.

Kuhn apresenta o avanço da ciência em ciclos dominados por paradigmas, que é a palavra-chave mais usada e mais importante do livro, infelizmente com uns vinte significados distintos. Filtradas as inconsistências, o paradigma kuhniano é um conjunto de princípios, técnicas, métodos, valores e regras de validação de teorias compartilhados por quase toda a comunidade científica dedicada a uma disciplina. Durante a vigência de um paradigma, tem-se o que Kuhn denominou ciência normal, cuja agenda é elucidar questões internas do paradigma, investigar o que se pode deduzir com base nele e ampliar o âmbito dos dados empíricos que lhe dão suporte. O avanço da ciência normal acaba expondo fatos discordantes das predições do paradigma ou novos fenômenos não explicados por ele (anomalias). Nesse estágio, em vez de descartar o paradigma, a comunidade que se norteia por ele introduz modificações ad hoc (articulações) na teoria em busca de concordância com os fatos. Incialmente o expediente costuma funcionar, mas com o tempo os fatos discordantes e os fenômenos não explicados vão se acumulando. Tem-se então uma crise. Entra-se nesse estágio numa fase de ciência extraordinária em que parte da comunidade trabalha na proposição de paradigmas alternativos. Finalmente, cria-se um consenso sobre um dos paradigmas competitivos. Ocorre nesse caso uma mudança de paradigma e o trabalho dos que ainda se apegam ao paradigma antigo passa a ser ignorado pelos convertidos.

Kuhn vê a mudança de paradigma científico como análoga a uma mudança de gestalt, como as que ocorrem na visualização de algumas imagens. Por exemplo, na Figura 2, criada por Escher, nosso sistema cognitivo tanto pode perceber pássaros brancos sobre um fundo azul como pássaros azuis sobre um fundo branco. As mudanças de gestalt entre as duas percepções são reversíveis e não é difícil realizá-las. Em contraste, alega Kuhn, após converter-se a um novo paradigma o cientista torna-se incapaz de repensar o antigo esquema com fidelidade. Em particular, como segundo Kuhn a mudança de paradigma inclui mudanças nas regras de avaliação do sucesso ou falha de uma teoria científica, o cientista torna-se incapaz de comparar o mérito dos dois paradigmas. Resulta disso o que Kuhn denominou incomensurabilidade dos dois paradigmas, ou seja, a ausência de padrões objetivos de comparação entre eles. Tais regras teriam de ser externas aos dois paradigmas em competição.

Fig. 2 – Patos brancos em um fundo azul ou patos azuis em um fundo branco.

No intuito de sustentar suas teses, Kuhn descreve várias mudanças de paradigma, todas nos campos da física e da química. Nas ilustrações, revela o conhecimento adequado dos paradigmas envolvidos na revolução. O que surpreende, fato apontado por Steven Weinberg (Weinberg, Facing Up : Science and its Cultural Adversaries, Harvad University Press 2001 p. 193), é o fato de Kuhn considerar os paradigmas incomensuráveis. Pois ele sabia muito bem que a física newtoniana (mecânica e gravitação), que Kuhn denomina paradigma newtoniano, é a primeira coisa ensinada ainda hoje nos cursos de física. Ao aprender mais tarde a teoria da relatividade de Einstein e a mecânica quântica, nenhum físico perde a capacidade de entender a física newtoniana nem de empregá-la nos limites em que ela permanece válida. A teoria da relatividade recai naturalmente, de forma assintótica, na mecânica e na gravitação newtonianas nos limites em que as velocidades dos objetos e suas velocidades de escape dos campos gravitacionais em que estão aprisionados são pequenas comparadas com a velocidade da luz. Já a mecânica quântica, teoria capaz de descrever a dinâmica de objetos com massa atômica ou subatômica, também recai naturalmente na mecânica newtoniana na descrição da dinâmica dos objetos macroscópicos, com massa muito maior do que a dos átomos. Na verdade, ao construir a teoria da relatividade, Einstein já tinha em mente o fato de que qualquer nova teoria para a mecânica e para a gravitação teria de antever a física newtoniana nos limites em que essa teoria já tinha sido confirmada por uma imensa massa de fatos empíricos. Einstein exerceu sua genialidade para evitar que a belíssima criança gerada por Newton fosse descartada na água do banho em que ele a livrou dos antigos fundamentos. Distintamente da física newtoniana, a teoria da relatividade se fundamenta em princípios de simetria. Resulta matematicamente desses princípios que tempo e espaço não são entidades absolutas e sim relativas ao movimento do observador e ao campo gravitacional. Isso faz da relatividade uma profunda revolução conceitual. Contudo, nem a mecânica nem a gravitação newtoniana tornaram-se campos obsoletos da física. Todos os fenômenos da nossa experiência comum continuam sendo investigados com base no paradigma newtoniano e nele também se assenta toda a tecnologia mecânica, até mesmo a tecnologia espacial.

Vários matemáticos, principalmente Leonard Euler, Joseph-Louis Lagrange, Carl Friederich Gauss e William Hamilton desenvolveram métodos matemáticos poderosos para a solução de problemas da física newtoniana. Dos trabalhos de Lagrange e de Hamilton resultaram formulações equivalentes1, mas mais poderosas que a formulação de Newton para a mecânica. Tudo isso foi parte da ciência comum dentro do paradigma, como já apontou Kuhn. A mecânica quântica também recebeu três formulações matemáticas equivalentes. Duas delas, a de Werner Heisenberg e a de Erwin Schrödinger, baseiam-se no hamiltoniano, fundamento da mecânica de Hamilton, e a de Richard Feynman baseia-se no lagrangeano, fundamento da mecânica de Lagrange. A formulação de Feynman torna imediatamente evidente que a mecânica quântica tem como limite assintótico a mecânica newtoniana quando as massas das partículas crescem muito além da massa dos átomos2. Também os formuladores da mecânica quântica foram sábios em preservar a criança ao descartar o indesejado para as suas teorias. Na verdade, agiram assim por necessidade, pois ninguém vislumbrou como se poderia chegar à mecânica quântica sem a utilização da mecânica newtoniana. Sem entender a mecânica newtoniana parece até mesmo impossível entender a mecânica quântica.

Poderíamos chamar paradigma newtoniano outro aspecto ainda mais duradouro, e talvez mais fundamental, da sua obra. A mecânica newtoniana se fundamenta numa equação de movimento, matematicamente expressa por uma equação diferencial no espaço e no tempo. Outros campos da física desenvolveram-se desde então e novas teorias foram elaboradas tanto para descrever os novos campos quanto para reformular a mecânica. Ocorre que em todas as teorias criadas desde então as leis fundamentais são equações de movimento também expressas como equações diferenciais no espaço e no tempo. Esse princípio permaneceu válido no eletromagnetismo, na teoria da relatividade e na mecânica quântica (Alaor Chaves 2001 Física, vol. 1, Reichmann & Affonso Eds.). Vemos aqui um metaparadigma que transcendeu todas as mudanças de paradigma desde então.

A análise de Kuhn tem méritos inegáveis. Em especial, ela desfaz um importante equívoco de Karl Popper no seu influente livro A Lógica da pesquisa científica, publicado em 1959 (Editora Pensamento-Cultrix LTDA, 2012). Popper defende que a distinção entre ciência e outras formas de conhecimento é o que ele chama falseabilidade. Uma teoria científica tem de ser falseável, ou seja, tem de fazer previsões que possam ser comparadas com fatos. Se uma teoria não satisfizer esse requisito, não é científica. Nenhuma massa de dados empíricos, prossegue Popper, é capaz de comprovar uma teoria e por isso sua validade sempre terá caráter provisório. Ou seja, a validade de uma teoria é empiricamente subdeterminada. O que os experimentos podem fazer é encontrar algum fato discordante das predições da teoria. Se isso ocorrer, Popper diz que a teoria foi falseada e tem de ser substituída por outra que explique o novo dado, além dos que davam suporte à teoria antiga. Esse descarte sumário de uma teoria contradita por algum dado não é concordante com a história da ciência, como mostra Kuhn por meio de exemplos. Na verdade, há teorias científicas que pelo critério de Popper já nascem falseadas, fato não incluído na análise de Kuhn. É o caso da própria teoria da gravitação de Newton. Este cientista reconheceu que um sistema de partículas que interagem com uma força que cai com o inverso do quadrado da distância entre elas é instável, o que era falseado pelos fatos aceitos na época: um céu com estrelas em posições imutáveis e um sistema solar no qual os planetas repetiam por milênios as mesmas órbitas. Buscou em vão resolver esse problema e legou sua solução para a posteridade, um tipo de legado que Newton sabiamente nos deixou mais de uma vez.

Esse problema da gravidade tem uma história que ainda não terminou. Ao formular uma nova teoria da gravitação, Einstein descobriu que sua teoria também não admitia como solução um universo macroscopicamente estático. Sanou o problema com uma modificação ad hoc da teoria, introduzindo nela a chamada constante cosmológica, expressa por um lambda maiúsculo (ᴧ). O valor de ᴧ seria a densidade de uma suposta energia intrínseca do vácuo. Essa energia cria uma repulsão que na escala cósmica neutraliza a atração da gravidade. Em 1929 Edwin Hubble descobriu que o universo não é estático e sim um sistema em expansão, e Einstein renegou sua ideia qualificando-a como seu maior fiasco científico. A Figura 3 exibe os dados de velocidade de recessão das galáxias que Hubble usou para sustentar sua proposta. A reta que ele usou para ajustar os dados obtidos até 1929 não é convincente. Claro que Hubble só se aventurou a usar aquela reta porque já estava convencido de que o universo poderia ter um movimento de expansão, ideia que já tinha sido teoricamente proposta três vezes antes, por Willem de Sitter, Alexander Friedmann e Georges Lemaître. Mas investigando galáxias mais distantes, Hubble obteve os dados apresentados em 1931. Estes últimos foram os dados que convenceram Einstein. Fatos semelhantes a este ocorrem com alguma frequência na ciência, o que justifica a afirmação de Kuhn de que há na sustentação das teorias científicas mais coisas do que dados empíricos. Mas, por outro lado, as teorias científicas consagradas sempre se apoiam em vários dados de boa precisão obtidos por pesquisadores distintos.

Fig. 3 – Dados usados por Hubble para propor e 1929 a expansão do Universo e sua versão de 1931, muito mais convincente.

Voltando à constante cosmológica, como apontou alguém que não recordo, uma vez retirado da garrafa tem sido difícil colocar o gênio de volta. Uma das consequências da mecânica quântica é a de que o vácuo é de fato preenchido por energia. Ao calcular a densidade dessa energia, encontra-se um valor assombrosamente alto, o que resultaria numa constante cosmológica tão grande que seu efeito desintegraria quase instantaneamente todo o universo. Tem-se especulado que em uma teoria mais fundamental apareceria alguma simetria que resultaria no cancelamento da constante cosmológica. Mas o avanço da ciência é cheio de surpresas. Investigações do movimento de galáxias muito distantes, que iniciaram em 1988, culminaram uma década depois na verificação de que a expansão do universo é acelerada, e não freada pela gravitação, como era esperado. Ou seja, a expansão do universo é impulsionada por algo que gera uma constante cosmológica não só capaz de neutralizar a gravitação, como pretendia Einstein, mas de superá-la. Essa constante cosmológica não é a prevista pela mecânica quântica. Temos então em mãos dois problemas, primeiro entender porque a mecânica quântica falha tão desastradamente no cálculo da constante cosmológica e depois desvendar a origem da constante cosmológica descoberta pelos estudos astronômicos. Para sermos bem honestos, temos um falseamento e uma anomalia.

Newton ignorou a interação entre os planetas na sua análise das órbitas planetárias. A análise do sistema com a inclusão dessas interações permanece sem solução exata, embora as aproximações feitas sejam muito satisfatórias. Mas Newton anteviu que com a inclusão dessas interações o sistema solar teria um comportamento caótico no qual as órbitas teriam oscilações muito grandes, o que contraria os registros de dois milênios. Esse problema (um aparente falseamento da teoria de Newton) permaneceu aberto até 1773, quase um século após a publicação do Principia, quando Pierre Simon de Laplace demonstrou que o planeta Júpiter, por ter massa muito maior do que a dos outros planetas, estabiliza as órbitas do conjunto. Na forma madura deixada por Laplace, a mecânica celeste (movimento do sistema solar) tornou-se uma ciência extremamente precisa em suas predições. Os planetas Netuno e Plutão foram previstos teoricamente para explicar perturbações na órbita de Urano e observados em 1846 e 1930, respectivamente. Fenômenos como eclipses, decorrentes de alinhamento muito preciso de corpos celestes, podem ser previstos com milênios de antecedência.

Vemos problemas semelhantes também em outras áreas científicas. A teoria da evolução é o grande paradigma da biologia. A excepcional importância dessa teoria levou o geneticista Theodosius Dobzhansky a declarar que “Nada na biologia faz sentido exceto à luz da evolução.” Entretanto, já no Origem das espécies (1859) Darwin apontou um fato que no seu entender falseava a sua teoria. Ocorre que, lhe parecia consequência lógica da teoria, todos os animais deveriam agir egoisticamente, no sentido de sempre tentar maximizar a abundância da sua prole. Entretanto, o comportamento altruísta é muito comum. Animais sociais dão alarme da presença de predadores e com isso põem em risco a sua sobrevivência etc. Darwin mostrou-se especialmente intrigado com o comportamento dos insetos eusociais, como as formigas, as abelhas e as vespas. Numa colônia desses animais, as operárias deixam de gerar suas crias para cuidar das crias da rainha, a única fêmea fértil da colônia (em alguns casos a colônia tem mais de uma rainha, mas isso não altera o enigma). Na opinião do próprio Darwin, a falta de uma explicação desse comportamento poderia por abaixo toda a sua teoria. O problema só foi resolvido um século depois por William D. Hamilton, que reviu a teoria da evolução considerando um novo mecanismo de seleção. Até então, a seleção era vista como atuante em três níveis, o do organismo (indivíduo), o de grupo e o de espécies. Reconhecia-se que grupos de animais cooperativos (altruístas) são mais bem sucedidos em competição com grupos de animais egoístas. Mas ao mesmo tempo deparava-se com outro problema, analisado em profundidade por George C. Williams. Em um grupo de animais altruístas, os variantes egoístas são beneficiados pelo altruísmo dos parceiros sem realizar nenhum sacrifício. Com isso, são mais adaptados no sentido darwiniano (deixam prole mais abundante) e seus genes se disseminam, fazendo com que enfim todo o grupo seja egoísta. Em trabalhos independentes e complementares, Williams, George Price, John Maynard Smith, Robert Trivers e Hamilton reelaboraram a teoria da evolução dando ênfase à seleção natural a nível de genes. Se um gene é capaz de influenciar o comportamento do organismo de maneira que cópias de si mesmo sejam mais abundantes na geração seguinte, ele se disseminará no grupo. O comportamento do indivíduo pode ser altruísta, o que faz com que ele próprio transmita menos cópias do referido gene, desde que com isso aumente com sobra as cópias do mesmo gene transmitidas por indivíduos favorecidos pelo seu ato altruísta. Isso é mais provável se os indivíduos envolvidos forem parentes, o que levou Hamilton a teorizar o processo de seleção de parentesco, também chamada aptidão inclusiva. O trabalho de Hamilton, publicado em dois artigos em 1964, é considerado por muitos o maior avanço na teoria da evolução desde Darwin. Mas a teoria da evolução, apesar de ser aceita por todos os biólogos nos seus fundamentos, gera inúmeras divergências no que se refere aos mecanismos de evolução. A teoria de Hamilton da aptidão inclusiva contém uma desigualdade que determina em que condições um ato altruísta é favorável ao gene que o condiciona. O ato altruísta tem um custo C para o autor e gera um benefício B para o favorecido. C e B são medidos em termos das mudanças na chance de procriação dos envolvidos após o ato. Os atores têm um grau de parentesco medido pela fração r de genes que compartilham. Hamilton concluiu que o ato é benéfico para o gene se

(critério de Hamilton). (1)

Acontece que todas as grandezas envolvidas na desigualdade são muito difíceis de calcular ou medir, o que limita em muito a sua aplicação. Isto levou alguns evolucionistas a questionar a teoria de Hamilton. Em 2010, Wilson, um dos primeiros defensores da teoria de Hamilton e seguidor dela por mais de quarenta anos, juntamente com os matemáticos Martin Nowak e Tarnita Corina, publicou um artigo que pretende explicar a eusocialidade sem apelo à aptidão inclusiva (Nowak, Martin A., Corina E. Tarnita, and Edward O. Wilson. 2010. The Evolution of Eusociality. Nature 466:1057-1062.). O artigo gerou várias cartas de protesto à revista Nature, assinadas por um total de cerca de 150 teóricos da evolução que formam um verdadeiro who is who da área. Em 2011, Martin Nowak publicou o livro Super Cooperators: Altruism, Evolution and Why we Need Each Other to Succeed (Ed. Free Press) e em 2012 Wilson publicou o livro The Social Conquest of Earth (Liveright Publishing Corporation), nos quais defendem suas ideias. A principal base teórica da crítica é a dificuldade de se obterem os valores das grandezas envolvidas no critério de Hamilton. Na verdade, fato que escapou aos críticos de Nowak e colaboradores, o mesmo tipo de crítica poderia ser feito à segunda lei da termodinâmica, cuja expressão matemática é a desigualdade

, (Segunda Lei da Termodinâmica), (2)

pois na maioria dos casos não é possível calcular a variação dS de entropia do sistema e entropia é uma grandeza muito dificilmente mensurável. No entanto, a desigualdade acima é uma das principais leis da física. Na verdade, quando a Segunda Lei foi formulada, em meados do século 19, não se tinha a menor ideia do significado físico da entropia. Somente em 1877, Ludwig Boltzmann interpretou entropia como sendo uma medida da desordem do sistema e a expressou pela fórmula matemática

(Fórmula de Boltzmann), (3)

onde W é o número configurações microscópicas do sistema no estado macroscópico em que se encontra, ln indica logaritmo neperiano e k é a hoje chamada constante de Boltzmann. A fórmula de Boltzmann é consagrada na física e aceita por todos, mas temos um problema: ainda não se encontrou métodos para calcular W para nenhum sistema real, como um cristal de silício, um copo de água ou uma estrela. Entretanto, a confiança na Segunda Lei é tamanha que com base nela Jacob D. Bekenstein previu em 1972 que os buracos negros deveriam irradiar, o que foi teoricamente confirmado por outros métodos em 1974 por Stephen Hawking. Essa radiação ainda não foi comprovada por observações astronômicas, mas é aceita por quase todos os astrofísicos.

A segunda lei da termodinâmica tem um caráter distinto das outras leis da física. Ela expressa o fato de que a desordem de um sistema fechado aumenta com o tempo até atingir um valor máximo possível. Ela envolve grandezas difíceis de calcular e de medir, mas isso não tira o seu mérito e sua validade. O mesmo se aplica ao critério de Hamilton.

Os exemplos da segunda lei da termodinâmica e do critério de Hamilton ilustram o fato de que algumas vezes as ciências naturais envolvem leis consagradas expressas por grandezas muito difíceis de calcular e também de medir, de modo que seus métodos de validação ou de falseamento não se enquadram nos métodos discutidos por Popper e por Kuhn. O desenvolvimento da ciência é muito mais complexo do que as descrições feitas até hoje pelos filósofos da ciência. Essa é provavelmente a razão pela qual muitos físicos dão pouca atenção à filosofia da ciência. Richard P. Feynman, o maior físico da história americana, foi áspero sobre o assunto a ponto de dizer que filosofia da ciência é tão útil para cientistas quanto ornitologia é útil para pássaros. Curiosamente, de nenhum outro físico vi considerações mais interessantes sobre a filosofia da física do que algumas feitas por Feynman. Steven Weinberg coloca a questão em outros termos: É fazendo ciência que se entende filosofia da ciência.

No campo da física, há exemplos de anomalias e até mesmo de falseamento de teorias que conseguem mesmo assim manterem-se como paradigmas. Em 1928, Paul Dirac formulou uma teoria quântica consistente com a teoria da relatividade restrita – que não inclui a gravidade. Após quase duas décadas de dificuldades decorrentes de valores infinitos previstos para grandezas físicas, a questão foi resolvida pelo método chamado renormalização, que filosoficamente descontentou até mesmo os seus formuladores. Pelo método da renormalização, há de fato várias grandezas que são infinitas, mas as grandezas efetivamente observadas são finitas e podem ser não só calculadas quanto medidas com precisão. Com esse método, criou-se no final dos anos 40 a chamada eletrodinâmica quântica (QED), a mais bem sucedida das teorias científicas. A concordância entre os valores medidos e calculados pela teoria é espetacular. Um exemplo dessa concordância refere-se ao dipolo magnético do elétron: a concordância entre teoria e experiência é equivalente à de se prever teoricamente o diâmetro da Terra com erro menor do que o diâmetro de um fio de cabelo, e não há questionamento filosófico capaz de desafiar tamanho sucesso preditivo. Teorias semelhantes à QED foram completadas, até o início dos anos 70, para a força nuclear e a força fraca, completando assim o que Weinberg chamou modelo padrão de partículas e campos. Modelo padrão porque em torno dele se formou um consenso, ou seja, a teoria baseada na filosoficamente intrigante renormalização tornou-se paradigmática. Não há nenhum dado discordante do modelo padrão. Mas há uma dramática anomalia. O método da renormalização não é aplicável à gravidade descrita pela relatividade geral (RG), e disso resulta que quando combinamos mecânica quântica (MQ) com RG os valores calculados para as grandezas observáveis são infinitos. Sabe-se não se tratar de uma questão técnica e sim de algo mais fundamental: RG e MQ são incompatíveis. As duas teorias não podem ser inteiramente corretas ao mesmo tempo. Temos aqui uma situação singularmente desconfortável em que uma de duas teorias paradigmáticas (na verdade, dois pilares da física contemporânea) é falsa e sequer sabemos qual delas. A crença dominante é de que ambas são aproximações de teorias mais fundamentais ainda não desenvolvidas. Mas nenhum físico acredita que a teoria que porventura demonstrar-se falsa será descartada. Continuará sendo usada como aproximação da teoria mais exata que a substituir.

Um exemplo a mais de mudança de paradigma no campo da física nos parece conveniente no propósito de dar mais solidez à conclusão que virá a seguir. Pouco depois que Darwin construiu sua teoria da evolução, James Maxwell elaborou uma grande síntese do eletromagnetismo e da óptica, fundamentando as duas disciplinas nas chamadas equações de Maxwell. Previu que a luz é uma onda eletromagnética e calculou sua velocidade com precisão a partir de uma constante eletromagnética. Pela teoria de Maxwell, a energia transportada pela onda eletromagnética pode variar continuamente. Entretanto, Max Planck (1900) e Einstein (1905) mostraram que a energia é quantizada em pacotes indivisíveis, mais tarde denominados fótons, o que acabou levando à criação da mecânica quântica. Entretanto, nas inúmeras situações em que a quantização tem efeito prático irrelevante, as equações de Maxwell continuam sendo usadas e funcionam sem qualquer discordância detectável com os fatos. Em particular, toda a eletrotécnica ainda se fundamenta em Maxwell. O notebook em que escrevo e registro este texto opera por meio de fenômenos eletromagnéticos, além de outros fenômenos ocorrentes em dispositivos de materiais semicondutores, como o transistor. A parte eletromagnética do aparato ainda é descrita precisamente pelas velhas equações de Maxwell.

Como apontou Weinberg (Weinberg 2001 p. 198), há nas teorias físicas duas componentes que devem ser separadas para um melhor entendimento da história da física. Uma delas, mais sólida e duradoura (hard), é composta pelas equações que expressam as leis fundamentais. A outra, mais flexível e mutável (soft), contém a visão da realidade que usamos para entender a validade das equações. Podemos dizer que a parte soft é composta de conceitos metacientíficos. A teoria de Maxwell é útil para ilustrar essa divisão. A parte sólida da teoria é o conjunto das equações de Maxwell. No seu livro A Tratise on Electricity and Magnetism (1873), onde o conjunto das equações aparece pela primeira vez, Maxwell descreve os campos elétrico e magnético como tensões em um meio transparente e sem massa, denominado éter, que também seria o meio no qual a luz propaga. Experimentos diversos realizados principalmente nos anos 1890 demonstraram a inexistência do éter e em 1905 Einstein, na teoria da relatividade restrita, colocou a teoria de Maxwell em outros pressupostos e também a tornou mais harmoniosa com a mecânica. Após Einstein, a maneira de entender as equações de Maxwell passou a ser outra, mas as equações permaneceram intocadas. Ou seja, a parte sólida da teoria de Maxwell ficou intocada pela revolução einsteiniana enquanto quase nada restou da parte flexível. Einstein completou sua revolução em 1915 com a finalização da teoria da relatividade geral. Suas teorias mudaram inteiramente nosso modo de ver a mecânica e a gravidade, de modo que também nada restou da parte flexível da teoria newtoniana. Mas a parte sólida da teoria de Newton continua sendo uma boa aproximação em limites apropriados. Estes e outros exemplos evidenciam uma dinâmica que tem caracterizado a história da física desde Newton. As revoluções científicas envolvem mudanças profundas em nossa maneira de ver a realidade e com isso substituições completas da parte flexível das teorias. Este tem sido o principal teor das mudanças de paradigma. Entretanto, a parte sólida das teorias sofre alterações menores, podendo até mesmo permanecer inalterada.

Simplificações como as feitas por Kuhn na descrição da história da ciência têm o atributo de fascinar a mente humana, em parte por sua atração estética, em parte pela tendência de nossa mente para ver padrões no mundo que nos cerca. Mas raramente são capazes de representar bem uma dinâmica complexa, como é a da história. Os ciclos descritos por Kuhn não descrevem bem a história da ciência. Com exceção de alguns paradigmas que Kuhn usou para fundamentar suas teses, como o de que o fogo seria um dos elementos (flogiston), ou de que a eletricidade seria um fluido, a física, a biologia molecular e a química, cujos fundamentos são o eletromagnetismo, a mecânica quântica e a física atômica, continuam sendo fundadas em leis matemáticas que permanecem sendo usadas após serem substituídas por outras mais poderosas, não algo que é descartado em cada revolução. Além disso, as teorias antigas têm sido usadas como inspiração para a construção das novas. Essa dinâmica faz da ciência um processo cumulativo pelo qual os fenômenos naturais são descritos com precisão e abrangência crescentes. Não há incomensurabilidade entre os diferentes paradigmas, como ilustramos com alguns dos maiores avanços científicos desde Newton. E um quadro mais ambicioso de ilustrações deste fato preencheria todo um livro.

A teoria da evolução de Darwin tem notável semelhança com a teoria termodinâmica, no aspecto de que ambas são teorias de caráter estatístico e apelam para fenômenos aleatórios. A termodinâmica, formulada na época em que Darwin trabalhava a sua teoria, suportou de forma incólume as revoluções do século 20, exceto pela descoberta da terceira lei termodinâmica, de origem quântica. Atribui-se a Einstein a afirmação de que a segunda lei da termodinâmica seja talvez a única lei física que nunca será trocada por outra mais precisa. Sobre os fundamentos da teoria darwiniana, (diversidade, hereditariedade e seleção natural) talvez se possa dizer o mesmo. Descobrem-se as leis da genética, desvenda-se o mecanismo molecular dessas leis, mas os fundamentos de Darwin transcendem a tudo isso e na verdade parecem cada vez mais sólidos.

Kuhn também argumentou que a opção de uma comunidade por um novo paradigma envolve não só dados factuais sobre a natureza, mas também valores da comunidade científica e dos poderosos na referida época. Exemplos não são apontados para sustentar a afirmação. Na verdade, essa é uma tese que não parece corresponder aos fatos históricos. Dentre outros, há um fato de enorme relevância que nos parece contradizer essa tese. Até bem recentemente, a grande maioria dos cientistas ocidentais era formada por cristãos. Entretanto, a começar pelo cônego católico Nicolau Copérnico, promoveram revoluções que contrariam dogmas do cristianismo, principalmente da Igreja Católica, varias vezes pondo em risco a própria vida. O livro de Copérnico, expondo sua teoria formulada décadas antes, só foi publicado meses após sua morte, e mais tarde incluído no Index dos livros proibidos pelo Santo Ofício. Galileu, cujas observações astronômicas sustentavam o heliocentrismo e cujos dados experimentais falsificavam a física aristotélica, foi condenado pelo Santo Ofício à prisão domiciliar e a abjurar suas teorias. Também teve todos os seus livros incluídos no Index. Newton era um cristão que dedicou enorme tempo à tentativa do entendimento do mistério da Santíssima Trindade. Entretanto, construiu um sistema de mundo estritamente mecânico do qual Deus ficou ausente. Darwin era religioso e seu pensamento foi influenciado pelas ideias do clérigo e teólogo William Paley, principalmente sua brilhante defesa de um designer inteligente para os seres vivos, antes de descobrir por meio das suas observações evidências da evolução das espécies, o que acabou levando-o a perder a crença em um criador inteligente e finalmente transformar-se em um agnóstico. Desde a Revolução Científica, avanços científicos promovidos por pessoas religiosas acabaram gerando uma visão do mundo que dispensa a hipótese de um criador, o que vem gerando uma comunidade científica cada vez mais agnóstica ou ateísta.

Kuhn admite que a ciência avança nas mudanças de paradigma, mas não no sentido de se aproximar da verdade. Bem, verdade é uma palavra que os cientistas quase nunca usam. O conceito de verdade foi introduzido por filósofos gregos e passados mais de dois milênios sequer encontrou-se uma definição para o significado do termo. A ciência não é a busca da verdade, até porque os cientistas não saberiam o que estivessem procurando. A ciência busca descrições da natureza que sejam consistentes com os fatos já observados e que também sejam capazes de prever outros fatos ainda não observados, e é nesse sentido que ela avança.

Kuhn está correto ao apontar que interesses sociais diversos influenciam os temas investigados pelos cientistas. Um notável exemplo disso foi a intensa pesquisa realizada por mais de meio século para desenvolver máquinas térmicas mais eficientes, importantes para o avanço da Revolução Industrial, e que levou à transformação da termodinâmica em ciência consolidada e aceita por todos os cientistas. No século 20, as duas grandes guerras determinaram a maior parte da agenda da pesquisa. O esforço para desenvolver o sonar, o radar, rádios com sintonia mais fina, aviões, e armamentos canalizou quase todo o dinheiro público destinado à pesquisa nos EUA, Japão e potências da Europa. Durante a Segunda Guerra, o governo Roosevelt criou o Office of Scientific Research and Development (OSRD). Em 1944, Roosevelt pediu que o diretor do OSRD, Vannevar Bush, estudasse formas de sustentação estatal da ciência no período pós-guerra. O relatório de Bush, Science, the Endless Frontier, foi entregue após a morte de Roosevelt. Bush propôs a criação da National Science Foundation (NSF), tão poderosa quanto o OSRD, o que se realizou em 1950 (Donald E. Stokes, O Quadrante de Pasteur, Editora Unicamp, 2005). Além da NSF, várias agências do governo federal dão suporte à pesquisa científica americana. Com orçamento de US$31 bilhões, os National Institutes of Health, com raízes no século 19, consomem cerca de metade dos recursos federais. Mas à pesquisa ligada às humanidades e às ciências sociais só é destinada uma pequena fração do orçamento da NSF, que soma US$7 bilhões. Quando se considera que cerca de 70% dos dispêndios em pesquisa nos EUA e nos principais países da OCDE são realizados pelas empresas, verifica-se que os recursos destinados às humanidades e ciências sociais no mundo moderno são realmente muito modestos, o que gera inúmeras consequências que incluem empobrecimento da cultura contemporânea e um perceptível ressentimento de pessoas ligadas às áreas humanísticas. Em uma entrevista concedida em 1965, Kuhn faz referência a esse problema:

Sua carreira inicia-se como físico e, até a defesa de sua tese de doutorado, tinha tido poucos contatos com a filosofia. Sua justificativa para este pouco contato com a filosofia é fundada principalmente na ocorrência da Segunda Guerra, pois havia, segundo ele, uma enorme pressão para empreender carreiras científicas e um grande desprezo em relação às matérias humanísticas”. (http://pt.wikipedia.org/wiki/Thomas_Kuhn).

A pesquisa em humanidades, ciências sociais e outras áreas soft é realizada quase que unicamente nas universidades, exceto no caso da Economia. Já a pesquisa em ciências naturais, engenharia, tecnologia, medicina e outras áreas duras conta, além do trabalho do setor acadêmico e dos centros empresariais de pesquisa, com grande contribuição vinda de centros temáticos de pesquisa financiados pelo Estado. A pesquisa nesses centros é altamente multidisciplinar, o que possibilita o enfrentamento e solução de problemas muito desafiadores. Em diversos casos, embora numa análise superficial possamos concluir que tais centros se justifiquem só por sua missão científica, um exame mais abrangente sempre mostra que na verdade os governos os financiam principalmente pelo retorno que eles dão para o avanço da economia. O Projeto Apolo, que levou o homem à Lua, custou, em dinheiro de hoje, cerca de US$100 bilhões. Mas as tecnologias desenvolvidas dentro do programa renderam à economia americana várias vezes esse valor. O LHC (Large Hadron Collider), do CERN, um consórcio internacional, custou US$12 bilhões. Mas dentro do CERN foi desenvolvida a WWW, franqueada a toda a humanidade, cuja contribuição para a economia mundial situa-se na casa dos US$ trilhões, não de bilhões. Centros similares seriam muito importantes nas áreas soft. Pela própria natureza da pesquisa, que dispensa equipamento muito dispendioso, os custos desses centros seriam menores do que os das áreas duras. A congregação de equipes de humanistas e cientistas na pesquisa multidisciplinar de temas importantes para um desenvolvimento mais sustentável, saudável, justo e pacífico da humanidade geraria frutos que pagariam com muita sobra todos os dispêndios. Até mesmo o retorno econômico provavelmente seria muito significativo.

O ambiente acadêmico gerado pelo status privilegiado alcançado pelas ciências naturais levou a reações talvez em parte emotivas contra as ciências. Filósofos como Paul Feyerabend e Richard Rorty apoiaram-se em Kuhn para concluir que a ciência é arbitrária, não racionalista como pretendem os cientistas. Uma boa anotação sobre Feyerabend pode ser encontrada na Wikipedia:

Feyerabend descreveu a ciência como sendo essencialmente anarquista, obcecada com sua própria mitologia e proclamadora de verdades muito além de sua capacidade atual. Ele indignou-se especialmente com atitudes condescendentes de muitos cientistas em relação a tradições alternativas. Por exemplo, ele pensava que opiniões negativas a respeito da astrologia e a eficiência de danças da chuva não estavam justificadas por pesquisas científicas, e dissimulavam predominantemente atitudes negativas de elitismo e racismo”. (http: //pt.wikipedia.org/wiki/Paul_Feyerabend‎).

Esse comentário, que usamos para ilustrar o profundo ceticismo de Feyerabend sobre as ciências, não significa que tenhamos qualquer julgamento negativo sobre o resto da sua obra filosófica, até mesmo porque nos falta competência para julgá-la.

O amplo e multifacetado movimento intelectual denominado pós-modernismo gerou várias ideias depreciativas, ou no mínimo céticas, sobre a ciência. A ciência seria uma construção social análoga ao basebol, o Rotary Club ou o uso das cores azul e rosa para crianças dos distintos gêneros. A ciência passou a ser associada ao capitalismo, ao militarismo, ao machismo e à arrogância da cultura ocidental. Nos meios literários, desconhecer ciência passou a ser algo chique que algumas pessoas revelam orgulho de demonstrar. Criaram-se assim duas comunidades que pouco se falam e que demonstram mútua desconfiança e desconsideração. Na verdade, essa divisão era perceptível desde os finais do século 19, quando foi cunhada a palavra intelectual, que cada vez menos era aplicada nas referências a cientistas. Isso incomodou particularmente C. P. Snow, físico inglês que se tornou escritor e fez comentários esparsos sobre o assunto desde os anos 30. Certa vez Snow queixou-se a um amigo, o matemático Godfrey H. Hardy: “Criaram uma definição de intelectual que exclui Littlewood, Rutherford e Dirac”. Em 1959, Snow proferiu uma palestra cujo conteúdo formou o livro The Two Cultures (Cambridge University Press, 1998), que gerou intensa reação entre os intelectuais literários. Alguns outros cientistas também manifestaram insatisfação com a postura dos autoproclamados intelectuais. O biólogo Peter Medawar, único nobelista nascido no Brasil, é apontado por muitos o cientista de maior cultura humanística do século 20. Comentou ser injusto um cientista que não conheça muito bem arte e música ser tratado com desdém pelos intelectuais literários, enquanto os literários julgam desnecessário conhecer alguma ciência para serem considerados educados (John Brockman, The Third Culture, Simon & Schuster Publishers 1995, p. 21).

Também com fundamento no trabalho de Kuhn, ganhou corpo a crença na universalidade do relativismo cognitivo. Ou seja, assim como os valores morais e os costumes, as teorias científicas também só seriam válidas em um dado contexto e dentro de uma dada cultura. Na verdade, o próprio pressuposto de que os valores morais e os costumes são inteiramente construções sociais é negado por grande parte dos antropólogos, pois há mais de meio século tem-se conhecimento dos chamados universais humanos, ou seja, comportamentos e valores encontrados em todas as sociedades já investigadas. Tais universais foram amplamente listados por Donald Brown (Brown, Human Universals, McGraw-Hill, 1991, Steven Pinker, The Blank Slate: The Modern Denial of Human Nature, Penguin Books, 2002, pp. 435-439). Com o relativismo, a antiga ideia dos filósofos eleáticos, que renasce de vez em quando, de que nossas percepções não refletem uma realidade objetiva, ganhou nova vida. Na sua versão mais radical, essa ideia leva à negação de um mundo real externo à nossa consciência, em versões mais brandas a variáveis graus de ceticismo. Como disse Jorge Luis Borges, trata-se de ideias irrefutáveis nas quais ninguém acredita. De fato, ele poderia ter acrescentado, nenhum idealista ou solipsista demonstrou convicção suficiente nas suas ideias para negar a força da gravidade e saltar de um vigésimo andar. Borges, considerado o pioneiro do pós-modernismo na literatura, usou sua inteligência e seu insuperável estilo literário para desenvolver teses absurdas e até antagônicas de maneira difícil de refutar. Fez isso várias vezes com a ideia milenar do universo cíclico, até que no último ensaio a refutou usando a segunda lei da termodinâmica.

O movimento feminista também adotou uma atitude anticiência. Talvez pelo fato de a participação de mulheres na matemática e nas ciências naturais ser bastante reduzida, o que ainda é válido, apesar do considerável aumento do número de mulheres cientistas, muitas líderes do feminismo passaram considerar a ciência uma construção social essencialmente machista. Como reação, e apoiando-se no relativismo cognitivo, criaram o conceito de ciência feminista. Haveria assim dois manuais de ciência, um masculino e outro feminino, o que merece ser ilustrado com exemplos.

No influente livro Against Our Will: Men, Women and Rape, Susan Brownmiller (Fawcett Ballantine Books 1975) afirma já na introdução que o estupro “É nada mais nada menos do que um consciente processo de intimidação pelo qual todos os homens mantêm todas as mulheres em um estado de medo.” Essa se tornou a teoria oficial entre as feministas, entre os intelectuais “politicamente corretos” e até mesmo nos meios jurídicos. Em vários estados americanos, o estupro deixou de ser um crime sexual, pois “estupro nada tem a ver com sexo”, e passou a ser um crime de agressão. No livro Rape: Sex Violence History, a historiadora Joanna Bourke (Schoemaker Hoard, 2007) apresenta grande massa de fatos que contraria a teoria de Brownmiller, mas no fim declara que a ideia foi politicamente muito inteligente. Ou seja, no relativismo em que “qualquer coisa vale”, uma tese científica pode ser simplesmente uma estratégia política. Ilustrações de ciência feminista podem ser encontradas em várias disciplinas científicas. A filósofa feminista Luce Irigaray escreve:

É E = Mc2 uma equação sexuada? Talvez seja. Consideramos a hipótese afirmativa, na medida em que privilegia a velocidade da luz em comparação com outras velocidades que nos são vitalmente necessárias. O que parece indicar a possível natureza sexuada da equação não é precisamente o seu uso em armas nucleares, mas sim o fato de ter privilegiado o mais rápido.” (Alan Sokal e Jean Bricmont, Imposturas Intelectuais: o abuso da Ciência pelos filósofos pós-modernos p. 112, Editora Record 4ª Ed. 2010). Não menos excessiva foi a filósofa da ciência feminista Sandra Harding ao referir-se ao Principia Mathematica de Newton como “um manual de estupro.” (http://en.wikipedia.org/wiki/Sandra_Harding).

Acho oportuno declarar meu apoio ao movimento feminista e meu reconhecimento da sua importância para o avanço do processo civilizatório, e tornar claro que o que está sendo questionado é a proposição de duas ciências, uma masculina e outra feminina. Nas ciências naturais, área à qual me dediquei, nunca conheci uma mulher que estudasse a natureza de modo distinto dos homens. Na sociologia e na antropologia, é perceptível que a agenda científica das mulheres dá mais atenção a questões importantes para o feminismo, o que é justificável e positivo para o avanço das relações entre os gêneros.

Paradoxalmente, parte dos intelectuais pós-modernos passou a usar, fora do contexto e de forma incorreta, conceitos científicos, no aparente intuito de parecerem eruditos e avant garde. Em 1996 o físico Alan Sokal enviou à prestigiada revista Social Text um artigo com o título: Transgredindo as fronteiras: em direção a uma hermenêutica transformativa da gravitação quântica”. Logo após sua publicação, Sokal revelou que o artigo era uma paródia. Em 1997, junto com Jean Bricmont, Sokal publica o livro Imposturas Intelectuais. Transcrevo literalmente palavras do texto de orelha da publicação em Português: “Seu objetivo era, usando a sátira, atacar o cada vez mais comum abuso da terminologia científica e a irresponsável extrapolação de ideias das ciências naturais para as ciências sociais. […] mistificações físico-matemáticas perpetradas por Jacques Lacan, Julia Kristeva, Luce Irigaray, Bruno Latour, Jean Baudrillard, Giles Deleuze, Félix Guattari e Paul Virilio. Aqui Sokal e Bricmont mostram que, sob o jargão pernóstico e a aparente erudição científica, o rei está nu”.

O artigo e o livro de Sokal geraram enorme reação, tanto de aprovação quanto de repúdio, nos meios intelectuais, que perdurou anos e agravou as divergências entre cientistas naturais e filósofos e cientistas sociais conhecidas como Guerras das Ciências. Vários simpósios foram organizados, reunindo tanto cientistas naturais quanto humanistas, filósofos e cientistas sociais, no intuito de sanar mal entendidos e buscar uma convivência mais pacífica entre as partes. Após ler anais de três desses simpósios, fiquei com a opinião de que muito pouco de concreto foi alcançado que possa beneficiar o avanço do conhecimento. As partes revelaram poucas mudanças em seus pontos de vista, apesar de moderarem a agressividade do seu discurso, o que gerou uma trégua.

Naturalmente, a ciência como empreendimento é uma construção social. Isso não significa que as teorias científicas sejam uma construção social, um mero consenso entre cientistas, uma mera narração, como defendem os construtivistas. Também é válida a tese desenvolvida por Kuhn de que não há um método científico que tenha sido usado de maneira uniforme em todas as revoluções científicas. Em outras palavras, não há um manual intitulado Método Científico ao qual se possa recorrer para superar uma situação de crise. As práticas científicas mudam com o avanço da ciência. Mas essa mutabilidade não significa que a ciência não seja metódica. A ciência sempre se inspira em dados factuais ainda inexplicados na busca de novas teorias e dessas teorias sempre decorrem logicamente também outras previsões que podem ser falseadas por novos experimentos. O descarte sumário de teorias consagradas falseadas em algum(s) detalhe(s) seria falta de sabedoria, pois se uma teoria é bem sucedida em explicar uma grande massa de dados factuais, tem de ser vista como pelo menos aproximadamente correta. Por isso, os cientistas as preservam e continuam a usá-las, encarando-as também como possível alavanca para a construção de teorias mais avançadas. E também essas algum dia provavelmente serão vistas como sendo apenas aproximadamente corretas. Pode-se questionar porque se usa uma teoria aproximada quando se dispõe de outra mais acurada. Esse uso ocorre porque comumente é mais fácil utilizar a teoria antiga no trato de questões práticas.

Acho oportuno fazer um esboço das fronteiras da ciência, pois com isso se ilustra a diversidade de métodos usados por ela. Essas fronteiras se dividem em três frentes: o muito pequeno, o muito grande e o complexo. Usarei aqui o termo sistema complexo em um sentido mais amplo do que o da nomenclatura vigente para que a classificação fique mais simples. A fronteira do muito pequeno busca teorias cada vez mais fundamentais, que sejam válidas em escalas de tamanho cada vez menor. A energia necessária para acessar uma dada escala de tamanho é inversamente proporcional a esse tamanho. Por isso, a física que investiga a fronteira do muito pequeno é também chamada física de altas energias. Alguns números podem dar ideia das dimensões na fronteira do muito pequeno. Um átomo tem um décimo de bilionésimo do tamanho de um homem. O tamanho do próton e do nêutron, componentes do núcleo atômico, é um centésimo de milésimo do tamanho do átomo. A física atual já investiga dimensões de alguns centésimos de milésimos do tamanho do próton, e o modelo padrão de partículas e campos é concordante com todos os fatos conhecidos até essa escala. Por extrapolação do que já é conhecido, o menor tamanho com significado geométrico é a chamada escala de Planck, que é alguns milionésimos de bilionésimo da menor dimensão já investigada. Vê-se que o intervalo entre a escala de Planck e a menor dimensão hoje acessível por experimentos é igual ao intervalo entre o tamanho de um homem e o tamanho do próton. Há muitos fatos sugestivos de que as leis realmente fundamentais da natureza só possam ser verificadas diretamente por experimentos na escala de Planck. Os experimentos na física de altas energias são realizados nos aceleradores de partículas, as máquinas mais caras já produzidas pelo homem. A observação de raios cósmicos, que são partículas de alta energia que atingem a Terra vindo de pontos distantes da nossa galáxia, também tem fornecido informações importantes sobre a física de altas energias. O maior acelerador em operação é o LHC, situado em Genebra, que custou cerca de US$12 bilhões. Um acelerador que usasse tecnologia similar à do LHC e fosse capaz de investigar a escala de Planck teria o tamanho da Via Láctea. Estamos, portanto, diante de um gap de tecnologia verdadeiramente assombroso e sugestivo de que provavelmente nunca acessaremos diretamente escala de Planck. Apesar disso, desde Einstein muitos físicos sonham com uma teoria final sobre os fundamentos da natureza (Steven Weinberg, Dreams of a Final Theory: The Search For the Ultimate Laws of Nature. Vintage Random House 1994). A busca dessa sonhada teoria envolve mudanças no método científico, pois sua comprovação provavelmente não poderá ser feita por comparação direta entre teoria e fatos na escala de Planck, mas por comparação entre teoria e fatos nas escalas acessíveis, mais a inclusão da gravitação quântica e a capacidade de calcular umas duas dezenas de grandezas físicas não calculáveis pelas teorias vigentes, tais como as constantes universais (constante de Planck, constante gravitacional, velocidade da luz, carga do elétron), massa das partículas elementares etc. a partir dos princípios fundamentais.

O muito grande atinge a escala cósmica. O universo foi criado há 13,7 bilhões de anos em um evento súbito chamado big-bang. Como nada pode viajar com velocidade maior do que a da luz, não podemos observar nada que estivesse a mais de 13,7 bilhões de anos-luz de distância no momento em que emitiu a luz ou outra coisa que possamos detetar. Essa distância define o raio do universo observável, cujo valor é 1026 metros (1026 é o número 1 seguido de 26 zeros). A cosmologia é o estudo do universo na escala cósmica. Curiosamente, estudos nessa escala são também úteis para a compreensão da natureza no limite do muito pequeno, pois a estrutura do universo foi defnida em processos de altíssima energia ocorridos no big bang. A cosmologia tem um aspecto muito interessante, muitas vezes desconhecido do grande público. Quando observamos um corpo celeste situado a n anos-luz de distância, o vemos como ele era n anos atrás. Quanto mais distante o corpo observado, mais antiga é a imagem observada. Vemos assim que o universo é um enorme museu, e que ao contemplar o céu, estamos olhando para o passado. É impossível ter informação direta de como o universo foi em nenhum momento da sua história. Naturalmente, a reconstrução da evolução do universo por meio dessas imagens circulares ordenadas no tempo requer metodologias distintas das comuns no resto da física. Cosmologia tem muito a ver com geologia, paleontologia e arqueologia, só que a compreensão do conjunto de peças requer análise matemática muito sofosticada. Os métodos de datação dos objetos são também muito distintos, pois são feitos por meio de medidas de distâncias de nós até os objetos, e a medição de grandes distâncias requer teorias sobre propriedades dos objetos observados. Parece até que se está praticando um vício de circularidade, mas isso não ocorre.

Partículas elementares se agregam para formar átomos, esses se agregam para formar moléculas e corpos macroscópicos, como um ser vivo, uma pedra de gelo ou uma estrela. Embora as propriedades dos corpos macroscópicos sejam decorrentes das propriedades e da dinâmica dos elementos constitutivos, na maioria das vezes, em decorrência de interações não lineares entre as partes, os sistemas compostos apresentam propriedades que não decorrem trivialmente das propriedades dos elementos constituintes. Tais propriedades são chamadas emergentes e seguem leis próprias que tem de ser entendidas e expressas no nivel mais elevado da sua integralidade. Isso dificulta ou até mesmo inviabiiza a redução das propriedades do sistema às propriedades dos seus constituintes. Um sistema complexo pode ser imaterial, como, por exemplo, as culturas, o mercado de ações e redes diversas. A internet é um sistema muito complexo, as culturas, mais ainda. A fronteira da complexidade é a única fronteira unanimente reconhecida como infinita, pois não há limite para a complexidade de um sistema. O limite do muito grande inclui também sistemas complexos, tais como as estrelas e as galáxias. Transições de fase, um tipo de fenômeno complexo, também são comuns na cosmologia. Os métodos usados no estudo da complexidade são muito distintos dos usados na física de altas energias. As leis emergentes não são leis fundamentais e sim decorrentes das leis fundamentais que regem o muito pequeno. As propriedades dos átomos e de moléculas não muito grandes já são inteiramente redutíveis às propriedades do núcleo atômico e dos elétrons, por meio da mecânica quântica. Mas ainda não se atingiu a redução de moléculas biológicas, como, por exemplo, as proteínas. Alguns sistemas compostos são caóticos, uma classe distinta dos sistemas complexos, embora um mesmo sistema possa passar da condição de complexo para a de caótico. Outros sistemas de muitas partículas não são nem complexos nem caóticos, são simplesmente sistemas complicados. A investigação dos sistemas complexos, caóticos e complicados, que para simplificação estamos classificando como complexos, faz uso de métodos bem distintos dos tradicionais. A ferramenta teórica mais eficiente para sua pesquisa é a computação numérica. Para essa computação, com frequência se faz uso dos chamados modelos de brinquedo (toy models). Esses modelos são expressos por equações extremamente simples e facilmente computáveis, que supostamente são uma mímica do sistema real capaz de revelar suas propriedades mais relevantes. No trato dos sistemas complexos, a comunidade científica se divide em duas escolas. Uma insiste no esforço reducionista de entender os sistemas a partir dos seus elementos constituintes. A outra, na análise dos sistemas na sua integralidade e atribuindo às leis emergentes o mesmo status das leis fundamentais da natureza. Vê-se que neste caso temos a convivência de dois paradigmas, em situação distinta da considerada por Kuhn – embora ele tenha apontado a existência de escolas nas ciências naturais. Em resumo, a visão do método científico dos humanistas (historiadores, filósofos e cientistas sociais) nos parece muito simplificada. Talvez para uma melhor compreensão do método científico seja necessário trabalho cooperativo envolvendo cientistas e humanistas.

A origem da divisão nem sempre amigável entre os humanistas (incluindo os artistas e intelectuais literários) e os cientistas naturais na verdade remonta ao final da Idade Média. Desde o início da I.M., os estudos superiores cobriam as sete artes liberais, de origem grega. Estas se classificavam no trivium (do latim três caminhos), que incluía a lógica, a retórica e a gramática – história e estudos literários ficavam incluídos na gramática – e no quadrivium (do latim quatro caminhos), que incluía a aritmética, a música (no sentido pitagórico de teoria aritmética da harmonia), a geometria e a astronomia. O trivium era considerado essencial para o desenvolvimento da mente, e o quadrivium era o estudo da quantidade e da matéria. Nas primeiras universidades medievais, o estudo do trivium era prerequisito para se ingressar no quadrivium. No início do século 14, iniciou-se o movimento mais tarde chamado humanismo. Francesco Petrarca (1304 –1374) é com frequência apontado como o marco inicial desse movimento. Os humanistas empenharam-se em recuperar os clássicos da antiguidade e a estudá-los, o que foi um grande avanço em relação à escolástica. O resultado foi magnífico, pois resultou no Renascimento, um dos maiores movimentos culturais do Ocidente. No final do Renascimento, o grupo que se ateve ao quadrivium iniciou a Revolução Científica, que marca a origem do mundo moderno.

Tanto por falta de tempo quanto em alguns casos por inabilidade no trato dos temas do quadrivium, os humanistas passaram a restringir seus estudos ao trivium. Essa divisão era talvez inevitável, mas gerou também efeitos indesejáveis. Do trivium surgiu o adjetivo trivial, com sentido pejorativo. A palavra trivial foi usada em inglês com o sentido atual no início do século 17, em plena Revolução Científica. A expansão do conhecimento levou à sua fragmentação em especialidades, mas a divisão de piores consequências foi a que ocorreu entre humanistas e cientistas. O Iluminismo tentou sanar essa divisão, mas seu esforço teve efeito pouco duradouro.

Sobre a Revolução Científica, disse o historiador Herbert Butterfield: “… ela ofusca tudo desde a origem do cristianismo e reduz a Renascença e a Reforma à classe de meros episódios, meros deslocamentos internos dentro do sistema do cristianismo medieval… [Ela] parece tão clara como a origem real tanto do mundo moderno quanto da mentalidade moderna que a costumeira periodização da história europeia tornou-se um anacronismo…”. (Herbert Butterfield 1959, The Origins of Modern Science, 1300 – 1800, p. viii, Macmillan Co.).

Comparações como essa são inconvenientes e agravam as relações entre as duas comunidades. Por exemplo, no meio humanístico tornou-se comum até mesmo negar que tenha havido uma revolução científica, e a literatura referente à Renascença supera em ordens de grandeza a dedicada à Revolução Científica. O historiador e sociólogo da ciência Steven Shapin ironiza a situação ao iniciar seu livro The Scientific Revolution com as palavras “Não houve a tal de Revolução Científica, e este é um livro sobre ela”.

Em um posfácio adicionado ao seu livro em 1964, Snow professou esperanças de que surgiria uma terceira cultura, formada tanto por humanistas como por cientistas, que recompusesse o diálogo entre os dois tipos de intelectuais. Mas, segundo John Brockman (Brockman, The Third Culture, Touchstone Book, 1995), a terceira cultura que emergiu foi uma fração de cientistas que fala direto para o grande público em linguagem que este possa compreender. Dentre esses cientistas podemos apontar Edward O. Wilson, Richard Dawkins, Stephen Jay Gould, James Watson, Richard Leakey, Stephen Pinker, Ian Tatterssall, Sarah B. Hrdy, Jane Goodall, Dian Fossey, Thedosius Dobzhansky, Stuart Kauffman, Stephen Weinberg, Brian Greene, Paul Davies, Carl Sagan, Marcelo Gleiser, Stephen Hawking, Jacob Bronowsky, Lisa Randall, John Barrow, Roger Penrose, Alan Guth, Lee Smolin, Martin Rees, W. Daniel Hillis, Marvin Minsky, jornalistas científicos como Matt Ridley e Robert Wright e muitos outros cientistas e jornalistas científicos. Essas pessoas despertam muito interesse no grande público expondo os mistérios do cosmos, a teoria da evolução biológica, a psicologia evolucionária, as fronteiras do muito pequeno, do muito grande e da complexidade. Falam também de coisas que estão afetando e afetarão cada vez mais a vida das pessoas, tais como nanociência e nanotecnologia, computação quântica, genoma, organismos geneticamente modificados, cibernética, células tronco etc. Mantendo o seu tradicional estilo de linguagem hermética e de citações de citações tipo “ela disse que ele disse”, muitos humanistas despertam menor interesse na nova geração.

Tudo isso é lamentável. A terceira cultura apontada por Brockman é uma realidade, mas mais parece uma proclamação de vitória por parte dos cientistas naturais. O que o mundo contemporâneo pede é uma atuação complementar dos atualmente litigantes, para a qual é necessária formação mais abrangente e multidisciplinar tanto dos cientistas naturais quanto dos engenheiros e intelectuais ligados às humanidades. Para que a atuação seja complementar, é também necessário que pessoas dos dois setores trabalhem em colaboração em centros de pesquisa dedicados a abordar problemas desafiadores e humanamente importantes, muitos dos quais há muito aguardam solução. Vários desses problemas referem-se à natureza humana, cuja compreensão é indispensável para que nos tornemos não só afluentes, mas verdadeiramente civilizados. O poder público precisa destinar recursos mais abundantes aos estudos de história, de filosofia (incluindo filosofia da ciência), de psicologia, de sociologia, de antropologia e de outros assuntos essenciais para que a civilização tecnológica seja mais do que tecnológica. Com mais recursos, essas carreiras atrairiam mais talentos e com o trabalho realizado em equipes multisciplinares os padrões de rigor das atividades envolvidas iriam subir. Em 1993, o pró-reitor de pós-graduação da Harvard, um humanista inglês cujo nome não recordo, proferiu uma palestra em um simpósio internacional organizado pela Capes. Segundo ele, não existem critérios para avaliar a qualidade de humanistas e há tempo Harvard desistiu de avaliá-los. Questionado sobre como contratam e promovem os docentes humanistas, ele respondeu: Harvard compete não para ter os melhores professores, e sim os melhores alunos. Se um humanista é famoso, atrai bons alunos e por isso o contratamos sem questionar como ficou famoso (citação feita de memória). Ele foi mais longe na sua exposição. Um cientista, disse, lê um artigo científico e no fim conclui sobre o autor: Este é um bom cientista. Já um humanista, pega um artigo e primeiro olha o nome do autor. Daí presume: Este deve ser um bom artigo. A publicação da paródia de Sokal pela Social Text comprova a ausência de padrões de qualidade da revista, pois o artigo está repleto de sentenças sem qualquer sentido que poderiam ser facilmente percebidas. Um dos editores afirmou que o artigo foi aceito sem avaliação porque seu autor era um físico conceituado.

O respeito pela autoridade faz parte da prática também nas ciências naturais. Isso é frequente no que se refere a especulações e hipóteses, mas não se discute com um teorema ou com um experimento repetido e comprovado por outros pesquisadores. Já uma hipótese audaciosa tende a ser ignorada pelos cientistas, a menos que venha de alguém cujo talento distintivo seja reconhecido. Mas se autor é altamente respeitado, geralmente grande esforço é dedicado à analise das consequências da especulação ou hipótese e da sua consistência com os fatos ou teorias consagradas. A história está cheia de exemplos dessa diferença de tratamento. Mas as ciências naturais, com exceção de partes da biologia, são mais simples do que as ciências humanas, e disso resulta que as divergências de visão sejam mais facilmente eliminadas em ciências como física, astronomia e química. A maior complexidade dos temas estudados pelas ciências humanas leva a que as divergências permaneçam longamente não resolvidas e por isso as escolas sejam um fenômeno tão frequente nessa área. Disso resulta naturalmente o respeito à autoridade intelectual dos autores, a importância das afinidades ideológicas e dos valores individuais. A consequência, como apontou o mencionado pró-reitor de Harvard, é que os intelectuais da área tendem a concordar com o texto ou discordar dele antes mesmo de lê-lo. Esse problema pode ser mitigado com o incentivo público a essas áreas soft, mas nunca eliminado, pois a complexidade dos problemas com que elas lidam é realmente muito grande.

O pequeno suporte que o poder público dá às ciências humanas tem consequências muito graves para o avanço da sociedade. Não discutiremos a importância intrínseca dessas ciências, pois presumo que isso seja reconhecido por todos, e nos concentraremos na importância prática. A humanidade defronta-se com problemas sociais e políticos cada vez mais complexos e o sucesso no enfrentamento desses problemas depende de uma compreensão mais profunda da natureza humana e de quanto a cultura é capaz de tornar mais positiva a expressão dos nossos genes. A natureza humana é maleável, mas não conhecemos os limites dessa maleabilidade. O problema envolve várias áreas do conhecimento, que vão da psicologia evolucionária à antropologia (tanto a cultural quanto a sociobiológica), a etnografia, a sociologia e as ciências políticas. A pesquisa nesses setores precisa crescer muito, tanto em quantidade quanto em qualidade, e para isso é imprescindível a criação de centros temáticos focados nessas áreas. Desde a Revolução Industrial, a humanidade avançou enormemente na capacidade de gerar produtos e riqueza, mas muito menos na compreensão de como lidar com essa afluência. Também os benefícios dessa afluência são muito mal distribuídos, e não sabemos como corrigir isso de maneira eficiente. Consequentemente, o enfrentamento do problema tem sido mais ideológico do que científico. Além das humanidades e ciências sociais há todo um setor das ciências soft que tem sido negligenciado porque não interessa diretamente ao setor econômico. O setor econômico negligencia os benefícios que teria com a proteção do meio-ambiente, com uma melhor distribuição de renda e com a educação das pessoas para viver em um mundo crescentemente tecnológico e cibernético. Temos também os problemas de sustentabilidade do desenvolvimento econômico, que dependem de pesquisa intensa e de alta qualidade em vários setores. O despreparo do mundo moderno, cada vez mais tecnológico, para lidar com esses problemas leva muitos cidadãos comuns e intelectuais ligados às humanidades e às ciências sociais a ter uma opinião negativa não só das ciências naturais como do mérito da própria modernidade. E se as ciências naturais seguirem avançando em descompasso com essas outras formas de saber, a modernidade acabará sendo de fato geradora mais de infortúnios do que de qualidade de vida.

1 Equivalentes no sentido de que todas as formulações resultam em predições idênticas. Uma formulação é mais poderosa do que outra se torna mais simples a solução de problemas.

2 Isso não quer dizer que todos os fenômenos macroscópicos podem entendidos com base na mecânica newtoniana, pois os corpos são compostos de átomos e a dinâmica dos átomos é o que determina as suas propriedades.

Alaor Chaves Written by:

Be First to Comment

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *