Posts com a Tag ‘ARENHART Jonas Rafael Becker (Res)’
The infamous boundary: seven decades of heresy in quantum physics – WICK (D)
WICK, D. The infamous boundary: seven decades of heresy in quantum physics. New York: Copernicus, 1996. Resenha de: ARENHART, Jonas Rafael Becker; SCHINAIDER, Jaison. Dissertatio, Pelotas, v.37, 2013.
Talvez um dos únicos pontos não controversos acerca da mecânica quântica seja o fato de que a teoria é um sucesso em matéria de predições. Por outro lado, a interpretação desta teoria, juntamente com uma explicação coerente sobre como ela ‘descreve’ a realidade, é questão de pura controvérsia.
Com efeito, um dos principais aspectos desta disputa se refere ao modo como devemos entender (ou seja, interpretar) aquilo de que a teoria trata. Esta é uma querela que começa com o próprio nascimento da chamada “nova” mecânica quântica nos anos de 1925 e 1926 e se alonga até os dias de hoje. O livro de que tratamos aqui, The Infamous Boundary: Seven Decades of Heresy in Quantum Mechanics, de autoria de David Wick, é mais uma testemunha de que a questão sobre a interpretação que pode ser considerada a mais adequada para a mecânica quântica (se alguma houver) ainda é um problema que desperta o interesse tanto de cientistas quanto de filósofos e que, com certeza, não se esgotou no tempo dos criadores desta teoria (que inclui figuras como Heisenberg, Schrödinger, Bohr, Einstein, Dirac entre outros).
Trata-se de um livro destinado ao grande público, mas também a especialistas que desejam uma abordagem que abranja quase todos os aspectos que são comuns à discussão em torno do desenvolvimento e interpretação da mecânica quântica. A exposição de Wick é em geral clara e precisa, entremeando história, exemplos ilustrativos, muitas anedotas (algumas vezes beirando o exagero) e divulgação científica de qualidade. Apesar de deixar a desejar no que se refere a uma explicação mais detalhada de algumas passagens mais obscuras de algumas das propostas tratadas, pode-se dizer que o resultado final é, como dito, um livro de interesse geral que não pede ao leitor o domínio de muitos pré-requisitos e que também não se utiliza de uma sofisticação matemática comum em exposições padrão desta teoria. Para os que desejam tal sofisticação, o livro inclui um apêndice matemático de cerca de cinqüenta páginas, escrito por W. Farris, trazendo uma formulação geral da mecânica quântica em bases um pouco mais matemáticas e abordando temas como o tratamento da probabilidade no contexto quântico e as desigualdades (ou teoremas) de Bell (primeiro e segundo). Trata-se assim de um excelente livro para filósofos da ciência que estão começando a tomar contato com a teoria quântica e suas controvérsias, um livro que aponta diretamente para as dificuldades da teoria. No entanto deve ficar claro desde o início: não se trata de um livro de caráter meramente expositivo, pois, como mencionaremos adiante, Wick pretende defender uma posição realista, contra posições positivistas e anti-realistas. Parte de sua argumentação, deste modo, se volta contra a ortodoxia de Copenhague e sua aparentemente injustificada divisão do mundo em dois domínios, um clássico e um quântico, regidos por leis distintas e entendidos de modo completamente distintos. Wick busca argumentar que esta divisão (a Infamous Boundary – termo que dá título à obra e que foi, diga-se de passagem, retirado de um artigo de J. S. Bell – BELL, 1987, p. 35) não se justifica de modo algum e que podemos ter sim uma compreensão realista da mecânica quântica.
Interessante notar que, neste contexto, os realistas tornam-se os céticos que assumem a posição de duvidar da ortodoxia (principalmente da chamada interpretação de Copenhague), enquanto os positivistas são rotulados como dogmáticos defensores do status quo.
Assim, a proposta de Wick é clara desde o início de seu livro: pretende questionar a ortodoxia da interpretação de Copenhague e defender (ou pelo menos argumentar a favor da plausibilidade de) uma interpretação realista da mecânica quântica, na qual os objetos tratados pela teoria possuem propriedades independentes do observador. Admite-se, porém, que, em alguns casos, uma mensuração possa sim afetar o objeto mensurado (por exemplo, no caso da medição da temperatura de uma pequena quantidade de água com um termômetro: a temperatura do termômetro irá interferir na temperatura dessa pequena quantidade de água e resultar em um valor ‘incorreto’. Todavia, essa diferença pode ser explicada e/ou compensada – cf.p. 172). Uma das perguntas que Wick coloca é que, já que existem alternativas realistas à interpretação de Copenhague, como, por exemplo, a interpretação de David Bohm (apresentada em um capítulo de seu livro), por que ainda se trata este tipo de opção como uma heresia? Segundo Wick, as propostas de tipo realista também merecem ser levadas a sério, e um dos objetivos deste autor é exatamente mostrar que este tipo de interpretação consegue resistir às principais objeções levantadas contra ela. Para tanto, o autor argumenta que será preciso primeiramente separar teoria e ideologia e mostrar o que a teoria implica e o que a autoridade de figuras como Niels Bohr (um dos pais da mecânica quântica e um dos principais proponentes da interpretação de Copenhague, segundo Wick) introduziu – muitas vezes sem justificações adequadas – no imaginário coletivo. De fato, um tema recorrente no livro é a afirmação de que a ortodoxia da interpretação de Copenhague, com seu tom altamente positivista está fundamentada, segundo o autor, muito mais em dogmas, obscuridades e em uma sutil ideologia, do que em argumentos aceitáveis (cf. p. xiii). Desse modo, será preciso abrir caminho por estas vias para mostrar que, ao contrário do que se argumenta usualmente, uma interpretação realista, longe de ser apenas uma curiosidade ou uma mera possibilidade conceitual, é altamente recomendável.
A partir de agora, trataremos mais detidamente de alguns pontos específicos discutidos no livro. Nos primeiros capítulos, Wick apresenta uma breve história do início dos desenvolvimentos da teoria quântica desde o final do século XIX e começo do XX. Esta recapitulação se inicia com o positivismo de Mach, que duvidava da existência de átomos e restringia o que podemos conhecer àquilo que fosse observável (um princípio metodológico que será retomado por Heisenberg no desenvolvimento da mecânica de matrizes), passando pelas contribuições de Einstein com sua teoria sobre o efeito fotoelétrico e pelo átomo de Bohr até os desenvolvimentos da mecânica de matrizes de Heisenberg, da mecânica ondulatória de Schrödinger e do Princípio de Complementaridade de Bohr. A exposição de Wick segue a ordem cronológica dos eventos, reservando grande espaço para anedotas e aspectos centrais da biografia dos protagonistas do desenvolvimento da teoria quântica (o que é, diga-se de passagem, um grande atrativo para leitores que não estão acostumados com a carga teórica do assunto). Wick chama a atenção principalmente para o papel de Bohr nesta etapa do desenvolvimento da teoria. Segundo ele, foi Bohr o responsável por se criar uma espécie de hegemonia positivista no que diz respeito à interpretação da teoria quântica.
Um dos conceitos-chave na interpretação proposta por Bohr, posteriormente adotada por vários dentre os principais físicos envolvidos no desenvolvimento da teoria quântica (com as notáveis exceções de Broglie, Einstein e Schrödinger), foi a noção de complementaridade. Este, como Wick enfatiza (até demais), é um dos conceitos mais vagos e difíceis de serem compreendidos na literatura sobre a mecânica quântica. A prosa de Bohr, em geral confusa e por vezes ambígua, dificulta ainda mais a compreensão desta noção-chave da interpretação de Copenhague. Eventos complementares, falando por alto, são aqueles que são mutuamente excludentes e conjuntamente exaustivos, ou seja, não ocorrem simultaneamente, mas são ambos imprescindíveis para se explicar completamente o fenômeno. Deste modo, por exemplo, a famosa dualidade onda-partícula é um exemplo paradigmático em que a noção de complementaridade deve ser empregada.
Realmente, nada pode ser onda e partícula ao mesmo tempo. Porém, se tomarmos o famoso experimento das duas fendas e tentarmos explicar o padrão de interferência registrado em um anteparo quando as duas fendas estão abertas, só podemos fazê-lo se utilizarmos a noção de onda e os conceitos de interferência construtiva e destrutiva; por outro lado, quando apenas uma das fendas está aberta, o padrão formado pela chegada dos ‘objetos’ no anteparo atrás da fenda é outro, o qual só pode agora ser explicado se passarmos a utilizar a noção de partícula (e com isso também podemos assumir o fato de que aparentemente, neste caso, podemos falar de uma trajetória bem definida para essas partículas – cf. p. 45-46). Assim, um elétron, por exemplo, é onda e é partícula, mas isto não significa que possua as duas características ao mesmo tempo: estes dois conceitos, com relação ao elétron, são complementares. Outra versão do princípio da complementaridade (que Wick simplesmente rejeita como muito confusa) diz respeito aos modos de descrição dos sistemas quânticos. Por um lado, um sistema quântico quando considerado apenas em si mesmo, não perturbado por aparatos de mensuração, não poderá ser conhecido. Por outro lado, se quisermos conhecer algo desse sistema devemos efetuar uma medição sobre ele. Podemos então conhecer os valores de determinadas grandezas (aquelas sendo medidas), mas não podemos atribuir os valores assim obtidos ao sistema físico em si (como acontece na mecânica clássica), haja vista que ao realizarmos esta medição interferimos de modo essencial com o sistema quântico. De certo modo, em uma medição quântica, é impossível dissociar o sistema do aparato de medição para podermos distinguir o que é realmente uma propriedade do sistema e o que é na verdade resultado de interferência do aparato: aparato e sistema tornam-se um só e são complementares.
A complementaridade também é utilizada para se interpretar as relações de incerteza de Heisenberg. Estas relações, derivadas por Heisenberg para pares de observáveis que não comutam, sendo os mais famosos deles os pares posição-momento e energia-tempo (tempo não é, estritamente falando, um observável), despertam muita controvérsia sobre o modo como devem ser entendidas, tendo sido responsáveis até mesmo por um pequeno atrito entre Heisenberg e Bohr com respeito a isto. Como Wick argumenta (p. 73-74), a leitura das relações como nos dizendo que não podemos conhecer os valores para estas duas grandezas simultaneamente não se justifica, pois, permitindo a possibilidade de retrodição, em muitos casos podemos conhecer sim os dois valores (como o momento e posição, por exemplo) com bastante precisão; só não podemos é prever estes valores, com um grau se precisão arbitrária, antes do experimento ser feito (de qualquer forma para Heisenberg era, na verdade, “matéria de crença pessoal se um cálculo desse tipo, concernindo a história passada [da partícula], pode designar qualquer realidade física ou não [ao ‘caminho’ da partícula]” – p. 74). Heisenberg também havia proposto que podemos ilustrar as relações de incerteza através da famosa experiência mental do microscópio, na qual observamos um elétron com um microscópio. Para determinarmos, por exemplo, a posição do elétron com grande precisão, devemos iluminá-lo com bastante luz, o que resulta que os fótons do feixe luminoso ao, atingirem o elétron, perturbam seu momento.
Para determinarmos, por sua vez, seu momento com alta precisão, devemos fazer o elétron colidir com outra partícula, de modo que sua posição se alterará e não poderemos mais determiná-la precisamente. Segundo Bohr, esta forma de se motivar as relações de incerteza gera grandes dificuldades, e o modo correto de as entendermos, na verdade, consiste em percebermos que elas expressam o fato de que para medir grandezas como momento e posição, que figuram na formulação mais famosa das relações de incerteza, precisamos de aparatos de medição complementares que não podem ser utilizados simultaneamente (p. 43-44).
Mas a utilização mais importante da complementaridade, e que ocupa um papel central no livro de Wick, consiste em seu uso para mostrar que o famoso argumento de Einstein-Podolski-Rosen contra a alegada completude da mecânica quântica estava equivocado. Este é, segundo o autor, um dos principais golpes que deslanchou o crescente sucesso da interpretação de Copenhague e a crença de que interpretações realistas não teriam sucesso.
Einstein, desde os primórdios da teoria quântica, não escondia que estava insatisfeito com o seu caráter eminentemente probabilístico. Segundo ele, a mecânica quântica deveria ser parte de uma teoria mais completa da realidade, na qual a probabilidade representasse no máximo o grau de ignorância acerca das informações que temos disponíveis em determinado momento e não uma característica intrínseca da realidade. Sustentou esta crença até o fim de sua vida, tentando construir uma teoria de campo unificado em que os postulados quânticos se tornassem ‘casos particulares’ dos axiomas desta teoria unificada. Sua busca foi infrutífera, mas muitos dos princípios filosóficos que o motivaram despertam interesse até hoje.
O primeiro grande encontro de Einstein e Bohr e o consequente debate que daí resultou (que ficou famoso como sendo um dos maiores debates intelectuais da história), iniciou nas Conferências Solvay de 1927, na qual os grande nomes da mecânica quântica (que acabara de aparecer) discutiam seu significado e sua interpretação. Entre eles estavam Heisenberg e Born (que propunham, seguindo uma linha positivista, que a teoria era completa e não admitia extensões), e Einstein, que concordava que de Broglie estava no caminho certo ao propor uma interpretação dualista, aceitando tanto ondas quanto partículas em seu quadro conceitual, mas buscando uma interpretação mais próxima da física clássica para os fenômenos quânticos (cf. p. xi). O próprio de Broglie, no entanto, foi depois temporariamente persuadido de que sua posição não se sustentava (devido essencialmente à críticas feitas a ele neste mesmo congresso, principalmente aquelas apresentadas por Wolfgang Pauli, que era outro simpatizante das idéias de Bohr). Foi também nesse congresso que Bohr apresentou seu Princípio de Complementaridade pela segunda vez; a primeira com Einstein na platéia (Bohr já havia apresentado o seu Princípio de Complementaridade meses antes em um congresso em Como, na Itália, mas Einstein estava ausente).
Segundo Bohr, a complementaridade engloba um dos principais aspectos da nova teoria, a chave para se resolver muitas das dificuldades apresentadas por ela. Em seus vários textos tratando do assunto, diversas formulações são propostas com o objetivo de se atingir uma versão rigorosa deste princípio, aparentemente, sem muito sucesso (muitas vezes devido, como dito, à própria obscuridade da prosa de Bohr). Com efeito, Wick, em sua exposição, enfatiza a vagueza e falta de precisão desse cientista ao formular este princípio, e levanta a questão sobre como um princípio tão vagamente enunciado possa ter tido tanto sucesso e agregado tantos partidários.
A princípio, o alvo das críticas de Einstein nessas conferências são as relações de incerteza de Heisenberg. A famosa disputa com Bohr, que começava geralmente pela manhã durante o café, com Einstein propondo alguma experiência mental (as famosas Gedankenexperimente), e terminavam no final da tarde, com Bohr apontando algum equívoco ou dificuldade na experiência, entraram para a história (vale a pena enfatizar que todas as críticas ou experimentos mentais propostos por Einstein durante as conferências, no intuito de mostrar que a mecânica quântica estava errada ou era incompleta, foram respondidas ou mostradas que estavam equivocadas por Bohr, como se costuma aceitar). Posteriormente, em 1935, Einstein, com seus colegas Boris Podolski e Nathan Rosen, passou a atacar não mais o princípio de incerteza, mas a própria ideia de que a teoria realmente nos fornece uma descrição completa da realidade, entendida grosso modo como uma descrição que não admite extensões adicionais, ou seja, que captaria todos os aspectos relevantes da realidade. Seu argumento – que ficou conhecido pela sigla dos nomes de seus autores, EPR – propunha que existiam “elementos da realidade” que não eram captados pela teoria quântica e, logo, esta seria incompleta. O argumento começa com uma caracterização do que conta como um elemento da realidade (p. 70): “Se, sem perturbar o sistema de qualquer modo, podemos predizer com certeza (i.e., com probabilidade igual à unidade), o valor de uma quantidade física, então existe um elemento da realidade física correspondendo a esta quantidade física”.
Em linhas gerais, o argumento começa propondo que tomemos um sistema composto de dois subsistemas a e b que interagiram previamente, e estão localizados em laboratórios bastante afastados. O argumento começa deixando claro que a mecânica quântica, apesar de limitar nosso conhecimento de grandezas que não comutam, como posição e momento, nos permite definir a partir delas duas grandezas que podem ser medidas simultaneamente: a distância entre a e b, denotada d(a,b) = qa – qb, e a soma dos momentos de a e b, denotada s(a,b) = pa + pb. Estas duas grandezas podem ser medidas com certeza, ou seja, com probabilidade igual a 1. Com uma medição da posição qa podemos atribuir com certeza um valor para a posição de b a partir da relação qb = qa – d(a,b), sem para isso perturbar a partícula b. Além disso, podemos arranjar as coisas de modo que a soma dos momentos seja 0, e assim, atribuir um valor preciso para o momento de b.
Deste modo, b terá tanto uma posição quanto um momento bem determinado, e ambos são elementos da realidade. Isto contraria o que diz a mecânica quântica, a saber, que esta partícula estaria sujeita às limitações impostas pelas relações de incerteza e, portanto, não seria possível conhecer a sua posição e o seu momento ao mesmo tempo. Se há algo na realidade que não possui nenhum correspondente na teoria e mesmo assim é um elemento da realidade então, conclui o argumento EPR, a teoria é incompleta.
Devemos notar que, mesmo fazendo uso das relações de incerteza, este não é um argumento contra elas, mas antes contra a completude da teoria.
Bohr resolve esta dificuldade apelando para a complementaridade: medir cada uma das distintas grandezas envolveria a utilização de diferentes aparatos que são complementares (ou seja, estão numa mesma descrição teórica) e que não podem ser utilizados simultaneamente. No momento em que medimos uma das grandezas, utilizamos um aparato, e isto impede que se possa medir a outra grandeza. Assim, não faz sentido atribuir valores a posição e momento ao mesmo tempo, pois a medição de um deles exclui a medição da outra. Esta explicação sucinta, escrita no confuso estilo de Bohr, segundo Wick, deveria ter levantado suspeitas pelo menos entre os físicos (p.
72-74). Além disso, o argumento foi formulado precisamente para evitar este tipo de objeção, de modo que, segundo Wick, Bohr não acertou no alvo (“and he begged the question”, p. 75). No entanto, a maioria dos físicos não pensou assim. A história que se conta geralmente é a de que Bohr ‘derrotou’ Einstein e que mostrou assim que a interpretação de Copenhague parecia estar no rumo certo. Mas, como esta pretensa vitória pode se basear em fundamentos tão frágeis? A princípio, tratava-se de uma disputa epistemológica (p. 74), que não parecia ter nenhuma possibilidade de ser travada no campo experimental. Porém, a situação começou a mudar depois que os dois principais protagonistas do grande debate já estavam mortos.
Durante o período em que viveram Einstein e Bohr, as tentativas de se completar a mecânica quântica com novas variáveis, e assim obter uma formulação mais adequada para os gostos realistas, foram praticamente banidas por alguns teoremas proibitivos, os no-go theorems. Estes teoremas são resultados matemáticos que limitam certas versões da teoria, como, por exemplo, aquelas que admitem variáveis ocultas (que é o caso das teorias realistas). Seguindo o tom geral do livro de Wick, qual seja, de desmistificar afirmações que se sustentam principalmente no peso da autoridade de quem as propôs, grande importância é atribuída ao fato de que o primeiro destes teoremas (demonstrado por John von Neumann, em 1932), que supostamente demonstrava a impossibilidade de se ‘completar’ a mecânica quântica com variáveis ocultas, continha hipóteses demasiado restritivas.
Durante muito tempo este assunto foi considerado como tendo sido encerrado por von Neumann, baseando-se principalmente em sua autoridade como matemático. No entanto, com a percepção de que este teorema proibia somente uma classe muito limitada de teorias de variáveis ocultas (classes essas que se percebeu não valerem em um contexto quântico que interpreta fenômenos da realidade física, mas apenas em um contexto matemático abstrato), uma nova onda de interesse no assunto teve impulso.
O próximo passo nessa controvérsia foi dado por John Bell, um físico irlandês, em 1964. Bell, além de ser um dos que contribuíram para apontar o equívoco de Von Neumann, ainda derivou um conjunto de desigualdades que deveriam ser respeitadas por qualquer teoria realista local, e sugeriu que estas desigualdades poderiam ser testadas experimentalmente. Falando por alto, uma teoria é realista local se assume que um sistema físico possui valores determinados para todos os observáveis antes de efetuarmos uma medição (realismo), e se a medição em um sistema A afastado espacialmente de um sistema B não afeta B instantaneamente. Com o advento das desigualdades de Bell surgia uma possibilidade de se por à prova o cerne da disputa entre Bohr e Einstein; algo impensado talvez até mesmo para estes dois grandes físicos que ficaram sempre restritos ao campo das experiências de pensamento. A possibilidade de se realizar esses testes era a chance que se tinha de mostrar se a possibilidade vislumbrada por Einstein era ou não exeqüível. Wick discute com vagar as preparações para esses testes, detalhando os bastidores dos experimentos e como os primeiros resultados colaborativos foram alcançados. Desde que os testes começaram a ser realizados, os resultados se mostraram favoráveis à mecânica quântica (e à interpretação de Copenhagen), violando as desigualdades. Isso mostra que uma teoria realista não é possível? Não, segundo Wick. Os próprios experimentos envolvem hipóteses às quais não se prestou a devida atenção, mas que podem ser questionadas se desejamos fornecer uma interpretação realista da teoria (cf. p.135-136) e é, segundo Wick, este o caminho que devemos trilhar se quisermos obter uma teoria realista. Além disso, as dificuldades técnicas inerentes a estes experimentos não podem deixar de ser mencionadas. Fica em aberto como esta interpretação deve ser formulada, mas, pelo menos existem razões para se pensar que não estão completamente descartadas.
O livro de Wick ainda contém discussões interessantes, mesmo que breves, de alguns dos principais ‘paradoxos’ da mecânica quântica, como o efeito Zenão quântico, o gato de Schrödinger, o problema da medição, entre outros. Encontramos também uma concisa discussão acerca de algumas interpretações alternativas da mecânica quântica, como a interpretação dos muitos mundos, a lógica quântica e a probabilidade quântica. Como estas propostas não atraem Wick, são discutidas de modo resumido. Em particular, a teoria dos muitos mundos é descartada por ser difícil de aceitar, filosoficamente, que uma pluralidade de mundos que não interagem entre si existe realmente (trata-se de “ficção científica”, segundo Wick, p. 196). As lógicas quânticas, por sua vez, são abandonadas por desistirem de se entender que a validade dos argumentos deve ser independente das circunstâncias e do assunto tratado, e ainda por não prestarem a devida atenção ao aparato de medição (cf. p. 196).
Apesar de tratar de modo bastante claro e acessível vários temas já clássicos na literatura sobre os fundamentos da mecânica quântica e filosofia da física, achamos que o livro de Wick possui alguns pontos fracos. O debate entre Einstein e Bohr, por exemplo, é um tema amplamente estudado, sendo muito discutido entre filósofos da ciência. Sentimos falta, na exposição de Wick, de uma aproximação dos estudos mais recentes que estão sendo feitos sobre o assunto, tanto por especialistas em Einstein quanto em Bohr, que resgatam o debate trazendo-o a uma nova luz. A velha imagem de um Einstein derrotado, levado a trabalhar no isolamento em uma teoria unificadora, e de um Bohr triunfante, dogmático, que impunha seu ponto de vista aos físicos mais jovens que o visitavam no seu Instituto em Copenhague, já foi revista, e não é mais levada tão a sério: há bons argumentos para se mostrar que se trata, na verdade, de uma caricatura.
Assim, por exemplo, o fato de o Princípio de Complementaridade apresentarse tão vago dá margem a diversas interpretações e formulações, várias delas já explorados pelos estudiosos da filosofia de Bohr, algumas mais plausíveis no corpo de sua obra, outras nem tanto. Claro, isto não significa que o princípio em questão tenha deixado de ser controverso ou que deva ser aceito ‘por definição’, mas Wick sequer discute ou menciona o fato de que existem diversas formulações diferentes deste princípio, limitando-se simplesmente a desqualificá-lo como vago e não compreensível. A alegação de Bohr de que somente podemos comunicar resultados de experimentos com a linguagem da física clássica (idéia conhecida como Princípio da Correspondência), e de que este é um requisito para a objetividade dos mesmos, é rapidamente discutida e rejeitada por Wick sem nem ao menos relacioná-la com a complementaridade.
Do mesmo modo, no que diz respeito a Einstein e seu papel no debate, também há uma enorme literatura que surge para fazer justiça à plausibilidade de sua posição e mostrar que há uma interessante filosofia por trás dela. Wick se esquece de mencionar, por exemplo, que o próprio Einstein não ficou satisfeito com o argumento apresentado no artigo EPR (que fora escrito por Podolski) e posteriormente reformulou sua objeção, deixando claro, sem utilizar critérios de realidade e nada deste tipo, qual era seu principal ponto. Todavia, as idéias de Einstein apresentadas nesses artigos não afetaram os desenvolvimentos subseqüentes da mecânica quântica e é duvidoso que alguma vez possam fazê-lo (PAIS, 1995, p. 542). Como enfatiza Howard (HOWARD, 2010), Einstein estava interessado em argumentar a favor da separabilidade de sistemas físicos, ou seja, sistemas físicos separados espaço-temporalmente deveriam contar como sistemas distintos, como distintos indivíduos que podem ser estudados separadamente. Ele continuava trabalhando no assunto ainda depois de 1935. No entanto, ambos, Einstein e Bohr, perceberam que no centro dessas discussões estava o emaranhamento (entanglement), fenômeno que perpassa a mecânica quântica e dá a ela grande parte de seu mistério. Este ponto é pouco explorado por Wick, e renderia mais justiça ao debate conforme ele é entendido atualmente.
Outro ponto que poderia ter sido explorado com mais afinco diz respeito à própria interpretação de Copenhague. Muito se argumenta de que se trata da ortodoxia corrente e de que Bohr é o principal responsável por sua formulação e defesa (e o livro de Wick, como dito, contribui para reforçar esta imagem). Todavia, como foi enfatizado anteriormente, dificilmente encontramos uma formulação precisa do que afinal de contas consiste a interpretação de Copenhagen, de seus princípios e teses fundamentais. Em geral, além do Princípio de Complementaridade de Bohr, ainda está envolvida em sua formulação alguma forma de interpretação do postulado do colapso, na qual os resultados de uma medição passam do reino das probabilidades para um resultado efetivo, ou porque a “natureza faz uma escolha” (como defendia Dirac), ou ainda por força de um observador (como queria Heisenberg). No entanto, o próprio Bohr não aceitava essas interpretações. É claro que Bohr e os físicos que são comumente associados com a interpretação de Copenhague partilhavam de muitos pressupostos e pontos de vista, mas de modo algum podemos dizer que havia uma única interpretação de Copenhagen e que esta fosse defendida por todos aqueles que são usualmente vistos como seus aderentes. Seria interessante que este tipo de discussão fosse apresentada e que Bohr e Heisenberg, apesar de todas suas semelhanças, tivessem seus pontos de vista mais nitidamente distinguidos no que diz respeito à interpretação da mecânica quântica (ver, por exemplo, HOWARD, 2010a e as referências ali contidas).
Em resumo, pode-se dizer que se trata de um livro interessante, útil para se tomar contato com algumas das principais ‘heresias’ no campo da mecânica quântica sem entrar em detalhes técnicos. Algumas vezes, o interesse do autor em defender essas heresias e denegrir a ortodoxia acabam por prejudicar a clareza da exposição (como, por exemplo, no caso da derivação das desigualdades de Bell), principalmente quando se trata de trazer ao leitor do modo mais claro o possível a doutrina de seus adversários, soando um pouco preconceituoso em alguns pontos. Em alguns momentos do livro, as próprias heresias recebem apenas um tratamento superficial, que poderia ser mais aprofundado em um livro como este. Um exemplo desta situação diz respeito à interpretação de Bohm que, apesar de receber bastante destaque no livro, ainda assim não é apresentada com o grau de detalhes suficiente para se propiciar ao leitor uma impressão nítida daquilo que está por trás de seus principais aspectos. Estes, no entanto, são defeitos que podemos relevar, já que existem outros lugares nos quais podemos procurar este tipo de informação e haja visto que, não obstante, o resultado da leitura do livro como um todo é positivo.
Referências
BELL, J. S. “Introduction to the Hidden-variable Question”. In: BELL, J. S., Speakable and Unspeakable in Quantum Mechanics. Cambridge: Cambridge University Press, 1987, p. 29-39.
HOWARD, D. “Revisiting the Einstein-Bohr Dialogue.” Disponível em http://www.nd.edu/~dhoward1/Revisiting%20the%20Einstein- Bohr%20Dialogue.pdf _________. Who Invented the “Copenhagen Interpretation? A Study in Mythology. Disponível em http://www.nd.edu/~dhoward1/Copenhagen%20 Myth%20A.pdf Jonas Rafael Becker Arenhart – Jaison Schinaider 210 PAIS, A. “Sútil é o senhor…”: a ciência e a vida de Albert Einstein. Rio de Janeiro: Nova Fronteira, 1995.
WICK, D. The infamous boundary: seven decades of heresy in quantum physics. New York: Copernicus, 1996.
Jonas Rafael Becker Arenhart – Universidade Federal da Fronteira Sul.
Jaison Schinaider – Universidade Federal de Santa Catarina.
Filosofias da Matemática – SILVA (M)
SILVA, Jairo José da Silva. Filosofias da Matemática. Editora da UNESP, 2007. 240p. Resenha de: ARENHART, Jonas Rafael Becker; MORAES, Fernando Tadeu Franceschi. Manuscrito, Campinas, v. 33, n. 2, p. 531-550, jul.-dez. 2010.
INTRODUÇÃO
É difícil saber se a carência de livros sobre filosofia da matemática publicados em português seja fruto ou indicador da incipiência da pesqui-sa brasileira nessa área. Ao mesmo tempo, é interessante observar como, em nosso país, a pesquisa em lógica e seus fundamentos, que desfruta de grande reputação e inserção internacional já possui, há trinta anos, um livro inspirador em sua área, o hoje clássico “Ensaio sobre os Fundamentos da Lógica” de Newton C. A. da Costa.
O livro Filosofias da Matemática, do professor da Universidade Estadual Paulista Jairo José da Silva encontrase, por esta razão, numa posição bastante especial dentre as publicações brasileiras: tem a responsabilidade de ser, de certo modo, um pioneiro na área, preenchendo uma lacuna editorial em um tema que, via de regra, é pouco acessível a estudantes de filosofia e matemática.
A proposta de da Silva com este trabalho é fornecer um livro “útil àquele estudante, não importa a sua origem intelectual, que queira se iniciar na filosofia da matemática, mas que talvez não tenha estudado nenhuma filosofia antes e de matemática só conheça o elementar”, e, além disso, deseja fazê-lo “sem, no entanto, alienar os já iniciados tanto num domínio quanto noutro” (da Silva 2007 p. 23). O objetivo, então, é fornecer um livro introdutório que aborde a filosofia da matemática, um campo onde problemas altamente especializados da filosofia, da lógica e da matemática estão emaranhados sem, no entanto, pressupor que o leitor tenha conhecimento prévio seja dos problemas filosóficos, seja dos tecnicismos lógicos e matemáticos envolvidos.
Analisaremos aqui em que medida tais difíceis intentos cumpriram-se destacando alguns pontos da obra em que a abordagem de da Silva aos tópicos tratados diverge de nossos próprios pontos de vista sobre o assunto, e onde consideramos que talvez, tendo em vista o público escolhido, o tema poderia ser tratado diferentemente com algum benefício para o leitor. Faremos também considerações sobre algumas sutilezas em pontos técnicos de teoria de conjuntos e lógica que, talvez pela falta de espaço e devido ao caráter elementar da obra, não foram mencionados por da Silva. Ao final, nos dedicaremos a discutir brevemente uma questão que aparece constantemente na obra e que, conforme argumentaremos, poderia ter sido explorada diferentemente em seu livro: a relação entre filosofia da matemática e a matemática.
Gostaríamos de deixar claro, antes de passarmos à análise do livro, que a despeito de algumas observações de caráter crítico aqui feitas, é inegável que a obra de da Silva é uma importante contribuição para a difusão da filosofia da matemática no Brasil, talvez o maior esforço individual feito nos últimos tempos para tornar esta área mais acessível a estudantes de filosofia, matemática e leitores curiosos em geral. A iniciativa do autor, de levar a um público muito mais amplo que o de costume os principais desenvolvimentos da filosofia da matemática é indiscutivelmente louvável, principalmente se considerarmos a dificuldade que tal proposta encerra. Esperamos que esta obra, além de informar os leitores aos quais está destinada, sirva de estímulo para novas publicações que venham a contribuir ainda mais para o crescimento desta disciplina em nosso país.
A obra divide-se em cinco capítulos, a saber: 1) Platão e Aristóteles; 2) Leibniz e Kant; 3) Frege e o Logicismo; 4) O Construtivismo; 5) O Formalismo. Conforme fica claro pela organização dada ao conteúdo do livro, e conforme estipulado pelo próprio autor, ao tratar dos problemas filosóficos suscitados pela matemática, o livro irá “privilegiar uma abordagem histórica desses problemas” (p. 29). Em sua apresentação dos tópicos, orientado por uma narrativa cronológica pautada em autores da antiguidade, do período moderno e dos séculos XIX e XX, da Silva busca primeiramente, em cada capítulo, situar a discussão filosófica no contexto da matemática praticada no período específico em questão, provendo uma pequena introdução onde são descritos os principais desenvolvimentos matemáticos nos períodos em que viveram os autores discutidos. Em quase todos os capítulos, além de desenvolver uma discussão centrada no autor ou autores que dão nome ao capítulo, esboça também alguns comentários sobre outros autores que adotaram formas semelhantes de tratar os problemas filosóficos oriundos da matemática. Assim, por exemplo, no capítulo sobre Platão e Aristóteles, obtemos algumas informações sobre outras formas de platonismo, onde Cantor, Gödel e outros são mencionados. Esta é a regra, como dissemos, para os outros capítulos também.
Ainda tratando da organização do livro, acreditamos que o mesmo poderia funcionar de modo ainda mais eficiente como um guia introdutório ao tema se um sistema de referências mais prático fosse oferecido aos leitores iniciantes. Talvez por se tratar na maioria dos casos de autores já consagrados, da Silva tenha evitado sobrecarregar o texto com tais informações, e em geral, ao mencionar argumentos e teorias de filósofos ilustres como Platão, Aristóteles, Leibniz, Kant e Frege, e de matemáticos que escreveram sobre filosofia da matemática, como Brouwer e Hilbert, nem sempre considera necessário citar a fonte ou fontes dos argumentos originais ou mesmo uma literatura secundária onde estes temas são discutidos. Ademais, em sua bibliografia não encontramos elencadas obras de Platão ou Kant, por exemplo, para citar alguns que já possuem diversas edições em português. O que ocorre é que muitas vezes, após explorar uma obra como essa, de caráter introdutório, o leitor não-especialista acaba ficando interessado em dar continuidade às leituras sobre o tema. Assim, o livro de da Silva poderia não só introduzir de modo acessível os problemas com clareza conceitual, como conduzir leitores interessados a buscar pela fonte original do argumento ou de determinada posição, bem como indicar literatura secundária. Para tanto, e na medida em que isto não prejudicasse a fluidez do texto, o livro poderia fornecer as referências de modo mais preciso e explícito. O leitor, assim, saberia onde obter mais informações e onde encontrar os argumentos originais que foram apresentados por da Silva. Este tipo de informação poderia aparecer ao final de cada capítulo, com uma seção final de leituras adicionais e bibliografia básica.
DO LIVRO
Passamos agora a examinar o desenvolvimento do texto.
Uma das razões para dedicar um capítulo a Platão e Aristóteles, segundo da Silva, reside no fato de que a matemática como ciência começou com os gregos, e Platão e Aristóteles, como filósofos paradigmáticos, ofereceram respostas a problemas de filosofia da matemática que são regularmente retomadas e rediscutidas (pp. 36, 37). Concordamos com da Silva em ambos os fatos mencionados, e uma apresentação elementar da filosofia de Platão e Aristóteles é particularmente bem vinda tendo-se em vista que talvez esta seja uma das poucas oportunidades para que estudantes de matemática, por exemplo, tomem contato com as doutrinas destes filósofos. Além disso, considerando-se que a matemática é objeto de ojeriza para a maioria dos estudantes de filosofia, é interessante mostrar a eles que na doutrina dos grandes mestres a reflexão sobre a matemática ocupa importante espaço.
Um dos pontos centrais da filosofia platônica é a noção de forma ou idéia. Estas, consideradas perfeitas e imutáveis, constituiriam os paradigmas dos quais as coisas materiais seriam cópias imperfeitas e transitórias. As formas, segundo Platão, estariam em um mundo inteligível, separado daquele dos objetos físicos, e contaria com os objetos matemáticos entre seus elementos. Esta doutrina nos permite compreender a universalidade do conhecimento matemático, pois, segundo ela, trata-se de conhecimento sobre objetos que não mudam, por encontrarem-se no mundo inteligível fora do espaço e do tempo. Assim, de um ponto de vista ontológico, a teoria platônica é, ao menos aparentemente, bem sucedida. No entanto, o grande problema para Platão era explicar como temos acesso a estas entidades, dado que estão fora do alcance dos sentidos, e em um mundo separado daquele em que vivemos. Esta dificuldade, de cunho epistemológico, é geralmente chamada de problema do acesso, e qualquer filósofo que adote alguma forma de platonismo deve buscar resolvê-la.
Apesar de da Silva expor a doutrina platônica mostrando as suas vantagens de um ponto de vista ontológico e as suas dificuldades de um ponto de vista epistemológico, algumas dificuldades podem surgir na leitura deste capítulo. Uma delas fica justamente por conta da distinção entre os termos idéia e forma que, como comentamos, é central na doutrina platônica. Por um lado, da Silva admite que esses termos são sinônimos no contexto da obra deste filósofo mas, por outro, anuncia que ele, deliberadamente, irá usá-los em sentidos distintos, explicados posteriormente no texto (p. 46). Alguns leitores poderiam ficar confusos com esta separação. Apesar de ser um dispositivo que busca permitir uma exposição mais simples da teoria em questão, o que evidentemente deve ser privilegiado em uma obra como essa, a distinção proposta por da Silva e a subseqüente exposição da doutrina platônica que nela é baseada acabam criando alguns obstáculos ao leitor não iniciado como, por exemplo, a dúvida de se a filosofia platônica autoriza ou não esta distinção e, consequentemente, se a exposição é realmente fiel ao espírito platônico.
É bastante provável que o modo como Platão resolve o problema do acesso, através de sua teoria da reminiscência, bem como outros aspectos de sua doutrina, gerem estranheza em leitores iniciantes. Como o próprio da Silva conclui, “poucos ainda aceitam seriamente o reino puro de Idéias de Platão, a sua teoria da reminiscência, e outras idiossincrasias de sua filosofia” (p. 43). No entanto, conforme enfatiza o autor (p. 43), o platonismo ainda é uma forma atraente de filosofia da matemática. É essa atração, em nossa opinião, ainda atual, que poderia ter sido colocada em primeiro plano, tirando o foco central das “idiossincrasias” do sistema de Platão. Neste sentido, a nosso ver, um modo eficiente de apresentar o platonismo em filosofia da matemática consiste em centrar a discussão nos platonismos atuais, que servem muito bem para explicar as virtudes e dificuldades de uma posição platônica em filosofia da matemática sem se comprometerem com aspectos anacrônicos da filosofia de Platão. Talvez por limitações de espaço ou por envolverem alguns tópicos de lógica e teoria de conjuntos que, na concepção de da Silva, demandariam explicações que estão fora do escopo de um livro como este, o autor tenha preferido apresentá-los apenas perifericamente, privilegiando a exposição mais histórica, que possui a virtude de prescindir dos desenvolvimentos técnicos que muitas vezes estão envolvidos nos platonismos atuais.
Aristóteles, discípulo de Platão, resolve a dificuldade de seu mestre ao retirar as formas do reino inteligível e colocá-las nas próprias coisas. Nessa abordagem, grosso modo, abstraímos as propriedades dos objetos que as possuem, já que elas não estão separadas dos objetos, mas neles mesmos, sendo estes instâncias daquelas (algumas vezes enfatiza-se esta diferença entre Platão e Aristóteles utilizado-se a terminologia latina: para o primeiro, as propriedades eram vistas como sendo ante rem, anteriores às coisas; para o segundo, eram concebidas como in rebus, nas coisas). O mesmo vale para os objetos abstratos da matemática, que devem ser abstraídos dos objetos físicos que os instanciam. Essa solução resolve também o problema de se saber como a matemática é aplicável ao mundo empírico, pois ela, de certo modo, está desde o início já presente nele. Algumas dificuldades surgem para este tipo de filosofia como, por exemplo, a presença do infinito em muitos ramos da matemática, dificuldade esta que deve ser considerada seriamente por qualquer filosofia da matemática de cunho empirista.
Como da Silva expõe, o problema central aqui é explicar adequadamente a noção de abstração. Alguns pontos obscuros no texto aristotélico acabam fazendo com que da Silva, visando a clareza e a coerência, exponha a teoria aristotélica sobre o modo como objetos reais instanciam objetos matemáticos (p. 46) de uma forma que destoa da própria letra do texto aristotélico. Por um lado temos Aristóteles afirmando textualmente, segundo da Silva, que os objetos físicos instanciam realmente formas matemáticas perfeitas, como por exemplo, um objeto físico triangular instancia a forma de um triângulo (ou seja, o objeto físico apresenta as características necessárias segundo a definição de triângulo para que algo seja um triângulo). Por outro lado, segundo a interpretação de da Silva, este modo de se entender a instanciação de conceitos matemáticos na realidade não é claramente compreensível, pois, dado que os objetos físicos apresentam imperfeições, (por exemplo, um objeto físico triangular nunca é perfeitamente triangular, nunca encontramos um objeto perfeitamente triangular na natureza) é mais razoável tomar esta instanciação como envolvendo a abstração de aspectos mais ou menos perfeitos dos objetos, para que depois apliquemos alguma idealização para tornar estas abstrações perfeitas. Aqui, apesar do alegado benefício da clareza na exposição, e de da Silva chamar a atenção do leitor para o fato de que está simplificando e adaptando a letra do texto original, entramos em problemas de exegese filosófica que acabam desviando um pouco o foco do problema, mesmo quando mantemos em mente que o objetivo da discussão não é histórico (p. 29), ou seja, mesmo quando compreendemos que este é um meio de, através de uma discussão histórica, apresentar uma exposição acerca da questão da instanciação de conceitos matemáticos na natureza.
O problema da instanciação, aliás, também é tratado no apêndice do capítulo 1, que é o esboço de elementos de uma teoria formal empirista da abstração. Aqui, da Silva apresenta algumas definições sobre como tratar objetos vistos sob algum aspecto particular, por exemplo, um objeto triangular como um triângulo. No entanto, depois de apresentar alguns desenvolvimentos, com definições e teoremas, visando ilustrar uma aplicação da teoria da Silva (pp. 60, 61) fornece um exemplo baseado apenas em noções conjuntistas e uma intuição formal, que não faz uso direto da teoria por ele proposta. Não entraremos nos detalhes da teoria de da Silva, mas para ilustrar o ponto em questão utilizaremos seu próprio exemplo de aplicação da teoria, que visa fornecer uma justificação empirista para a afirmação aritmética 2+2 = 4. Consideremos uma coleção com 4 objetos. Segundo da Silva, podemos decompor, em pensamento, esta coleção em duas coleções complementares com 2 elementos cada uma. Estas operações, segundo o autor, não dependem da natureza dos elementos destas coleções, apenas da quantidade de elementos. Assim, dada qualquer coleção de objetos, ela terá quatro elementos se, e somente se, existirem duas coleções disjuntas, cada uma com dois elementos, cuja união é igual à coleção original. Neste exemplo, apenas termos conjuntistas foram utilizados, mas para muitos leitores pode não ficar claro como relacionar os termos envolvendo teoria de conjuntos com o esboço da teoria da abstração de da Silva. Talvez querendo evitar entrar em detalhes técnicos o autor tenha se limitado ao esboço apresentado sem introduzir nele as noções conjuntistas que utiliza, ou ainda, para simplificar, preferiu enunciar seu exemplo utilizando linguagem da teoria de conjuntos que é mais familiar aos leitores em geral, deixando implícito que o mesmo raciocínio pode ser feito, com um pouco mais de trabalho, na teoria empirista da abstração. Além disso, não nos é dito qual das várias teorias de conjuntos está sendo utilizada, talvez porque esteja implícito, como usualmente é o caso, que a menos que menção em contrário seja feita, a teoria de conjuntos utilizada é ZFC, mas neste caso, alguns comentários poderiam ser feitos sobre a possibilidade de sua aceitação por parte de filósofos empiristas.
No segundo capítulo, o autor busca contrapor as filosofias da matemática de Leibniz e Kant, pois acredita que “o pensamento de Kant (…) pode ser mais bem apreciado em contraste com o de Leibniz” (p. 75). Aparentemente, o principal motivo para se introduzir a discussão da filosofia da matemática de Leibniz consiste em familiarizar o leitor com a distinção entre verdades de razão e verdades de fato, preparando-o para a discussão das distinções kantianas entre juízos analíticos e sintéticos, a priori e a posteriori. Como são conceitos centrais para Kant, tanto para aquela parte de sua filosofia voltada para a matemática quanto para aquela que não se preocupa primariamente com a matemática, os esforços para tornar estas distinções claras ocupam grande parte do capítulo reservado a Leibniz e Kant.
A matemática sempre foi considerada um modelo de conhecimento puro, de modo que a justificação de seus enunciados verdadeiros não dependeria dos sentidos. Este aspecto do conhecimento matemático, embaraçoso para os empiristas, mas bem-vindo a racionalistas como Leibniz, encontra sua expressão na tese leibniziana de que todo o conhecimento matemático consiste em verdades da razão, enunciados nos quais, grosso modo, o termo sujeito está “contido” no predicado. Devemos lembrar que a forma básica dos enunciados na época, tanto para Leibniz quanto para Kant era a de um sujeito ao qual um predicado é atribuído, ou seja, da forma S é P. Assim, segundo Leibniz, não apenas os enunciados da aritmética, mas até mesmo os postulados da geometria euclidiana, em sua época a única conhecida, poderiam, com algum esforço, ser reduzidos a enunciados desta forma, sendo necessário apenas o uso da razão para a sua justificação, sem o envolvimento dos sentidos.
Kant retoma a distinção leibniziana e a amplia. Juízos podem ser analíticos ou sintéticos, a priori ou a posteriori, e estas duas classificações permitem três combinações, ficando excluídos por definição juízos analíticos a posteriori. A tese kantiana, contra Leibniz, é a de que a matemática, apesar de ser conhecimento puro, obtido sem auxílio dos sentidos, não é analítica, ou seja, sua verdade não se justifica pelo fato de que o termo sujeito está contido no termo predicado, mas é antes sintética a priori. Com isto, segundo as definições usuais, o termo sujeito de um predicado em enunciados matemáticos não está contido no termo predicado, mas sua verdade pode ser verificada sem auxílio da experiência. Isto explicaria, por exemplo, a razão de os juízos matemáticos serem ampliativos de nosso conhecimento, e não meramente explicativos, como é o caso de juízos analíticos. JONAS R. B. ARENHART & FERNANDO T. F. MORAES Manuscrito – Rev. Int. Fil., Campinas, v. 33, n. 2, p. 531-550, jul.-dez. 2010. 540
Nesse capítulo cumpre observar, mais uma vez, uma escolha terminológica que, mesmo tendo sido feita com o objetivo de esclarecer, pode resultar confusa para o leitor iniciante. Em certo momento (p. 96), da Silva propõe a substituição da noção de “representação” (palavra consagrada do vocabulário kantiano) por “significado” (que o autor alega pertencer ao vocabulário ora em voga). O problema é que, apesar de o conceito de significado poder parecer mais simples para um leitor não familiarizado com a literatura filosófica, após alguma reflexão pode não ficar claro qual foi o ganho real obtido com a mudança, pois como o próprio da Silva reconhece, esse conceito (de significado) é “infelizmente não menos problemático [que o de representação]” (p. 96).
Como conseqüência de sua filosofia, Kant não admitia a existência de números imaginários, amplamente utilizados em sua época. Desse descompasso entre a filosofia da matemática kantiana e a prática matemática corrente em sua época, da Silva observa que “a filosofia da matemática de Kant (…) foi contaminada pelo seu projeto filosófico mais amplo” (p. 107, grifo nosso). Acreditamos que seria interessante neste ponto esclarecer para o leitor, principalmente àqueles que não possuem formação em filosofia, que a filosofia da matemática de Kant não era uma empresa independente do seu projeto filosófico geral, de modo que este possa ter interferido naquela; de fato, a filosofia da matemática kantiana, pelo menos como a entendemos, é apenas uma parte de seu mais amplo sistema filosófico, seguindo, naturalmente, as diretrizes básicas dele. Possivelmente, visando simplificar a exposição, este tipo de observação não foi feita, pois implicaria entrar em detalhes sobre a arquitetura do sistema kantiano e o modo como sua filosofia da matemática nela se encaixa, o que demandaria muito espaço e desvios para tratar de temas que não são o ponto central do livro.
No terceiro capítulo, da Silva aborda com detalhes a proposta daquele que ficou conhecido como movimento logicista, enfatizando um de seus mais eminentes proponentes: Frege. O projeto fregeano consistia em reduzir a aritmética à lógica, e com isto mostrar, a favor de Leibniz e contra Kant, que ela era analítica (ainda que Frege concordasse com a tese kantiana de a geometria ser um conhecimento sintético a priori). Para tanto, Frege, como é sabido, reformulou totalmente a lógica e a colocou nos moldes como a conhecemos hoje. Com isto, consequentemente, a noção de analiticidade sofreu algumas alterações, e saber em que sentido as teses de Frege e Kant realmente diferem é um tema de debate atual. Em 1902, Frege se deparou com um grande obstáculo no desenvolvimento de seu programa: a derivação de uma contradição a partir de um de seus axiomas, descoberta no ano anterior por Bertrand Russell. Este fato levou Frege, de certo modo, a praticamente abandonar o programa logicista, ao passo que Russell passou a dedicar seus esforços na busca de modificações na lógica que pudessem impedir esta derivação. Ele então amplia o programa logicista para toda a matemática, e não só para a aritmética, como era o caso de Frege. Suas principais propostas foram a teoria ramificada de tipos e o princípio do círculo vicioso. Talvez receoso de que o público escolhido para seu livro pudesse intimidar-se com o simbolismo, da Silva evita entrar em discussões sobre a formulação e objetivos da teoria de tipos desenvolvida por Russell, atendo-se apenas ao princípio do círculo vicioso. Caso a versão de Russell do logicismo fosse mais trabalhada no texto, uma explanação sobre esta teoria poderia ser interessante, pois tornaria mais claro para o leitor iniciante os vícios da proposta de Russell como, por exemplo, a necessidade de se introduzir um axioma do infinito, fato que é apenas mencionado por da Silva, e o axioma da reducibilidade, que é mencionado sem ser nomeado (p.136), e que causaram grande oposição quando de sua proposta. Além disso, esta abordagem tornaria mais claro para o leitor porque o sistema de Russell é mais artificial (p. 135) que o de Frege, e evidenciaria o papel central que a lógica ocupa no programa logicista, tanto na versão de Frege quanto na de Russell. No entanto, como dissemos, da Silva, talvez tendo em vista a simplicidade expositiva e a compreensão do leitor, e buscando não envolvê-lo em tópicos muito técnicos, restringe a discussão da versão russelliana do logicismo.
Outro ponto em que a falta de espaço e talvez a sofisticação técnica impediram que fosse devidamente tratado em um livro como este é a conexão entre a filosofia de Frege e seus descendentes contemporâneos, os neologicistas. Há atualmente um renovado interesse na tese logicista, que reside em uma tomada de consciência de que o famoso Princípio de Hume, quando adicionado à lógica de segunda ordem, é suficiente para se derivar a aritmética de segunda ordem. Com isto, foi possível ter noção do grande feito de Frege de fornecer uma análise lógica da aritmética, além de ter lançado a base para quase toda a discussão em filosofia da matemática no período que se seguiu a ele. O paradoxo de Russell foi obtido a partir da chamada Lei Básica V, que foi adotada por Frege unicamente com o objetivo de derivar o Princípio de Hume, e verificou-se que esta era de fato sua única função. Assim, se deixarmos de lado esta lei e assumirmos diretamente o Princípio de Hume, podemos manter o projeto fregeano aparentemente sem o risco de derivarmos outros paradoxos. Uma das controvérsias, atualmente, reside em se saber se o Princípio de Hume pode ser considerado uma lei lógica, ou, caso não possa, o que é mais provável, se ele pode ao menos ser considerado como um enunciado analítico. Este tipo de discussão constitui-se em tópico demasiado técnico, e talvez por esta razão da Silva não a tenha desenvolvido com mais vagar, apresentado-a de modo bastante breve.
Ainda tratando do neologicismo, da Silva fornece argumentos quineanos para minar as duas teses desta posição: que a lógica de segunda ordem é realmente lógica (o que é necessário para que a aritmética a ela reduzida seja analítica) e que a noção de analiticidade pode ser compreendida rigorosamente. Isto, evidentemente, pode ser visto como um modo de em um pequeno espaço fornecer informações tanto sobre o neologicismo quanto sobre Quine. O problema nesta exposição, em nossa opinião, é que a brevidade com que as teses de Quine são mencionadas podem acabar passando a impressão de que seus argumentos são aceitos de modo unânime, que eles podem ter encerrado a discussão, quando na verdade foram e ainda são bastante problematizados na literatura. Talvez por uma restrição do espaço do livro, os argumentos de Quine com relação à filosofia da matemática não puderam ser expostos em uma seção dedicada unicamente a ele, mas, do modo como estão expostas suas teses, em contraposição ao logicismo, podem levar alguns leitores a ter uma impressão equivocada do debate.
No capítulo sobre o construtivismo os autores abordados são basicamente três: L. Brouwer, H. Poincaré e H. Weyl. O autor alerta seus leitores para o fato de que ainda que todos eles possam ser agregados sob a alcunha construtivista, cada um deles desenvolveu sua própria versão, as quais da Silva procura explanar em suas linhas gerais. Entre elas está o intuicionismo brouweriano, sem dúvida uma das mais radicais filosofias da matemática do século passado, que imputa como única fonte para os objetos da matemática a intuição de um matemático ideal. Longe de ser clara, a natureza dessa intuição e os métodos intuicionistas são motivo de debates e desacordos até hoje. O autor, conhecendo as sutilezas e dificuldades da discussão, evita enredar-se em tais problemas, preferindo estabelecer tais conceitos apenas em termos intuitivos, como ao dizer que para Brouwer “a matemática deveria ser fundada nesta intuição básica: um instante temporal sucedendo outro” (p. 148) ou que uma demonstração intuicionista deve ser entendida como “uma não especificada vivência de verificação do sujeito criador” (p. 153). O caráter problemático destas noções poderia ter sido evidenciado, pois estão no centro das discussões sobre o intuicionismo, deixando claro ao leitor que o assunto é espinhoso.
Ao fim desse capítulo, da Silva faz uma interessante digressão em que aborda de maneira mais detida a questão da existência dos objetos matemáticos enfocando principalmente as soluções apresentadas pelos autores construtivistas. Para Brouwer, por exemplo, a existência de objetos matemáticos deve ser garantida por uma construção matemática, de modo efetivo. Esta concepção, em choque com a prática matemática atual, impõe interessantes restrições à lógica que, no contexto intuicionista, não pode mais ser a clássica. Ainda considerando a noção de existência na vertente construtivista, merece destaque a ênfase sobre a abordagem lingüística da existência matemática defendida, entre outros, por Poincaré.
O último capítulo, o quinto, trata do formalismo. Grande parte dos esforços de da Silva são voltados para a explicação dos objetivos do chamado “programa de Hilbert”, o qual buscou salvaguardar a matemática clássica dos ataques intuicionistas valendo-se, para tanto, da formalização e demonstração por métodos chamados “finitários” da consistência das teorias matemáticas, métodos estes que seriam, aos olhos de Hilbert, epistemologicamente aceitáveis aos críticos construtivistas. Deste modo, a atenção de da Silva está naturalmente voltada para explicar o problema da consistência de teorias matemáticas formalizadas. Nas pp. 187, 188, o autor nos diz que “[a formalização de teorias] tinha um preço. A eliminação da intuição dos procedimentos dedutivos abria a possibilidade para a constituição de sistemas que demonstravam muito mais do que se queria, a saber, os sistemas inconsistentes em que tudo pode ser demonstrado.” Segundo da Silva, uma teoria formal pode nos fornecer demonstrações mais acuradas, mas uma teoria não formal, ou, nos termos de da Silva, “contentual”, por sua vez, não levanta a questão sobre sua consistência, pois, segundo ele, uma teoria contentual, como, por exemplo, a aritmética dos inteiros não-negativos “é evidentemente uma teoria consistente, simplesmente por ser a teoria de um domínio dado de objetos, os números naturais” (p. 197). O que pode dificultar a compreensão dos leitores é que, primeiramente, a partir da exposição de da Silva não é claro como se pode determinar em que condições e em que sentido uma teoria contentual, mantida ao nível informal, pode ou não ser inconsistente. Uma teoria como a teoria de conjuntos proposta por Cantor não é facilmente reconhecida como consistente ou inconsistente, pois não está devidamente axiomatizada. Este ponto poderia ter sido mais enfatizado pelo autor quando na p. 202 reconhece que a teoria de Cantor pode conter inconsistências mesmo sendo uma teoria que trate de um domínio dado de objetos, os conjuntos. No entanto, alguns intérpretes argumentam que o conceito de conjunto de Cantor era demasiado sutil, e é apressado afirmar que sua teoria é contraditória (ver Ferreirós 1999). Talvez evitando entrar em complicações que não poderiam ser convenientemente tratadas no nível de profundidade ao qual se propõe o livro, o autor tenha se limitado às considerações mencionadas. Em segundo lugar, no contexto do programa de Hilbert este tipo de questão parece inverter a ordem dos problemas: Hilbert não partia de teorias formais cuja consistência era problemática, mas sim de teorias matemáticas que deveriam ser formalizadas para assim serem submetidas às técnicas propostas por ele para demonstração de sua consistência. Assim, aparentemente, Hilbert não parecia duvidar de que a consistência de teorias não formais pudesse ser demonstrada por suas versões formais, e tal consistência não deveria ser pressuposta pelo simples fato de serem teorias sobre algum domínio dado, ou pelo fato de não serem teorias formalizadas. Novamente, acreditamos que isto não tenha sido enfatizado visando à conveniência expositiva, já que se trata de tema árido para o leitor não familiarizado com lógica e fundamentos da matemática.
Além de apresentar os autores mais conhecidos na história da filosofia da matemática, outra presença importante no livro é a de Edmund Husserl. A despeito de ser um autor muito estudado por suas contribuições para a fenomenologia, sua filosofia da matemática é pouco conhecida e divulgada nos meios acadêmicos brasileiros. O livro de da Silva tem o mérito de tornar mais acessível ao público geral a parte da filosofia de Husserl que trata da matemática. As contribuições de Husserl são bastante amplas, e torna-se difícil enquadrá-lo em apenas um dos vários rótulos que usualmente se aplicam nesses contextos. Assim, segundo a exposição de da Silva, a filosofia da matemática de Husserl apresenta facetas logicistas, formalistas e estruturalistas; como não é o caso de um trabalho dedicado apenas a explorar a filosofia da matemática de Husserl, não há um capítulo exclusivo para este autor.
Conforme já mencionado várias vezes, buscando tornar o texto acessível ao seu público alvo sem entrar em tecnicismos, da Silva muitas vezes simplifica a discussão deixando de lado sutilezas que, para serem convenientemente exploradas, requereriam um aprofundamento em tópicos de teor mais matemático. Acreditamos que esta seja a razão para explicar muitas das omissões que discutimos anteriormente, e também das escolhas de da Silva. De um ponto de vista matemático é complicado expor a teoria de tipos de Russell, por exemplo, e entrar em detalhes sobre lógica e teoria de conjuntos envolvidos nas discussões atuais, quando se tem um espaço restrito como o deste livro e se tem em mira um público amplo e com formação variada. Além disso, o aparato de cunho matemático, no contexto dessas discussões, não constitui um fim em si mesmo, apesar de que sem ele torna-se um grande desafio transmitir de modo adequado os desenvolvimentos do intuicionismo, do programa de Hilbert e do neologicismo. No entanto, da Silva em alguns pontos não deixa de introduzir em suas discussões temas mais técnicos e, quando o faz, em nossa opinião, tendo em vista seu público, poderia ser mais explícito em alguns detalhes que auxiliariam seus leitores em pesquisas futuras, caso venham a se debruçar sobre estes assuntos.
TÓPICOS TÉCNICOS
Começamos considerando alguns pontos em que definições conjuntistas foram introduzidas. Na p. 84, o autor menciona a definição de Dedekind de conjuntos infinitos como a definição de conjuntos infinitos, mas existem outras que não são equivalentes a esta sem o axioma da escolha. Estes fatos poderiam ser mencionados para o leitor, talvez esclarecendo que a definição de Dedekind é a mais usual, mas que outras podem ser utilizadas. Na página 114, da Silva afirma que as noções de cardinal e ordinal não são independentes e que no caso finito essas noções coincidem. É possível, no entanto, definir números cardinais sem fazer uso de ordinais, e em tal definição o número cardinal de um conjunto finito não é, em geral, um número natural (ver a definição de kard de um conjunto em “Foundations of Set Theory” de Fraenkel, Bar-Hillel e Levy 1984, pp. 97, 98). Novamente, a definição utilizada por da Silva é a mais usual, e talvez a mais indicada para ser utilizada em um texto de nível elementar, mas é sempre importante informar ao leitor, principalmente o iniciante, de que não se trata da única opção.
Outra discussão interessante do ponto de vista técnico e filosófico aparece nas pp. 141-142. Buscando tornar mais clara a noção de definição por abstração utilizada por Frege, da Silva faz uma breve exposição geral do procedimento utilizado para obtermos o conjunto quociente de um conjunto por uma relação de equivalência definida sobre seus elementos. Ele observa que apesar de que atualmente identificamos novos objetos matemáticos definidos como classes de equivalência, isto nem sempre foi assim. Para citar um exemplo, nos diz que Dedekind, ao introduzir os números reais através de cortes de números racionais, não identificava os reais com os respectivos cortes, o que segundo da Silva é um erro, dada nossa atual compreensão da teoria das definições por abstração. Acreditamos que dois problemas foram misturados aqui, e que o leitor iniciante, principalmente aquele sem conhecimento de matemática, pode ter dificuldades de compreensão. Por um lado, os cortes de Dedekind não são definidos pelo procedimento de abstração, não são introduzidos como particulares classes de equivalência, pois neste caso não haveria classes de equivalência suficientes para representar todos os reais. Os cortes são subconjuntos de números racionais satisfazendo certas condições. Por outro lado, alguns leitores podem achar que da Silva não está justificado em censurar Dedekind por não identificar os cortes com os números reais. Se os números reais são cortes, o que representam os objetos que obtemos através dos outros procedimentos usualmente utilizados para representar os números reais, como seqüências de Cauchy ou o método dos intervalos encaixantes? Além disso, parece que um conhecimento intuitivo dos reais era pressuposto para guiar a construção da teoria dos cortes de Dedekind e até mesmo para avaliar seu sucesso.
Outro ponto no qual da Silva faz incursões mais profundas em assuntos eminentemente matemáticos diz respeito aos teoremas da incompletude de Gödel. Em pp. 204-206, da Silva busca esboçar a demonstração daquele que é mais conhecido como o segundo teorema da incompletude de Gödel. Acreditamos que a demonstração, como está feita, seja de difícil compreensão para leitores iniciantes. É interessante lembrar que mesmo em textos voltados exclusivamente à discussão de lógica raramente a demonstração deste teorema é realizada com todo o rigor, por ser demasiado complexa. Ademais, talvez para evitar entrar em tecnicismos, da Silva não menciona que existem outras fórmulas da linguagem da aritmética de Peano que expressam sua consistência e que são demonstráveis nesta aritmética. Ou seja, Gödel mostrou que a aritmética não demonstra uma particular fórmula que expressa sua consistência, mas isto não impede que outras fórmulas expressando a consistência do sistema sejam demonstráveis, como por exemplo, mostrou Feferman em (1960).
FILOSOFIA E MATEMÁTICA
Por mais que as indagações filosóficas acerca da matemática remontem aos gregos antigos, e outros tantos filósofos do passado tenham tentado enquadrar o conhecimento matemático em seus sistemas, da Silva aponta que a filosofia da matemática como disciplina surge apenas em fins do século XIX (p. 26). Portanto, é principalmente a partir desse momento que surgem inescapáveis e importantes questões – e da Silva não deixa de assinalá-las –, como: qual é o papel de uma filosofia da matemática? Segundo da Silva, “não compete ao filósofo impor restrições à prática matemática, mas, antes, tomá-la como teste de teorias filosóficas sobre a matemática” (p. 157). O que seria uma boa filosofia da matemática? A resposta do autor é que “teorias do conhecimento, do significado ou ontologias que não consigam de alguma forma dar conta de todo o conhecimento matemático, de suas asserções e seus objetos, não são boas teorias, simplesmente” (pp. 157, 158). O problema desse tipo de resposta definitiva é que ela pressupõe que estejam claramente respondidas uma série de questões importantes, como: O que é a matemática de que uma filosofia deve dar conta? – é simplesmente o que os matemáticos fazem? E isto envolve tudo o que eles fazem enquanto trabalham, ou apenas alguma parte menos controversa de sua produção? Muitas vezes, os próprios matemáticos não estão de acordo sobre o que conta como um produto legítimo de suas pesquisas; podemos citar vários exemplos disso, como a controvérsia entre Kronecker e Cantor, a dificuldade de Zermelo em obter reconhecimento para sua demonstração do teorema da boa ordem, o tortuoso caminho para a aceitação do axioma da escolha e o problema bastante atual de se saber se resultados cujas provas foram obtidas por computadores e são muito longas para serem verificadas por seres humanos devem contar como demonstrados. Neste aspecto, parece que a filosofia pode não só limitar-se a descrever o conhecimento matemático, mas a discussão no momento de determinar o próprio escopo deste conhecimento e a direção que o progresso desse conhecimento toma poderá muitas vezes ter caráter eminentemente filosófico.
Além disso, a própria resposta pode ser razoavelmente problematizada. O que é “dar conta de todo conhecimento matemático, de suas asserções, de seus objetos.”? (pp. 157, 158) Supondo que esteja claro o que significa “dar conta do conhecimento matemático”, podemos levar em conta que não existe apenas uma matemática atualmente, mas várias, como as matemáticas não-cantorianas (por exemplo, a de Solovay), a matemática construtiva de Bishop, as matemáticas paraconsistentes, e por que não, a matemática de Brouwer e de sua escola que, numa visão pluralista da matemática, não se configura como uma amputação da matemática clássica, mas, antes, como uma matemática diferente da clássica. Assim, a “boa” filosofia da matemática (ou deveríamos dizer das matemáticas?) deve tratar de todas elas, ou só de uma ou algumas? Sendo assim, de quais? A filosofia da matemática intuicionista proposta por Brouwer não dá conta da matemática intuicionista conforme ela é desenvolvida por sua escola? Certamente ela entra em conflito com a matemática dita clássica (este é um termo vago, mas vamos assumi-lo para efeitos de argumentação), mas a filosofia de cunho platônico, que pelo menos do ponto de vista ontológico é mais adequada para esta última, por sua vez, não se acerta com a matemática construtivista proposta por Brouwer.
Aparentemente, todos os grandes projetos filosóficos do passado entraram, em menor ou maior grau, em choque com a matemática vigente; isso, em alguma medida, os desqualifica? Segundo a proposta de da Silva, sim. Acreditamos, na verdade, que essa questão é das mais importantes, e que apesar de não haver espaço para a discussão dos detalhes em um livro como este, é o tipo de problema que pode formar o pano de fundo de todo um livro. Em nossa visão, a proposta pluralista é a mais razoável tanto para tratar adequadamente o problema em foco quanto para uma obra voltada para leitores iniciantes. A tolerância expressa em tal abordagem encoraja os leitores sem os indispor contra qualquer filosofia em particular. Neste ponto, apesar de acreditarmos que esta abordagem seja a mais proveitosa, não podemos ou sequer devemos exigir que um livro de filosofia seja isento de comprometimentos por parte de seus autores; aliás, é interessante para o leitor saber que o debate continua e que ele pode e deve tomar posição na disputa. É justamente isto que move a filosofia.
Referências
FERREIRÓS, J. Labyrinth of Thought: a history of set theory and its role in modern mathematics. Birkhauser, 1999.
FRAENKEL, A. A., BAR-HILLEL, Y., LEVI, A. Foundations of Set Theory. North-Holland, 1984.
FEFERMAN, S. “Arithmetization of metamathematics in a general set-ting”. Fundamenta Mathematicae, 49, pp. 35-92, 1960.
Jonas Rafael Becker Arenhart. E-mail: jonas.becker2@gmail.com
Fernando Tadeu Franceschi Moraes. E-mail: fermatadeu@uol.com.br
Universidade Federal de Santa Catarina. Campus Trindade. 88040-900 FLORIANÓPOLIS, SC
BRASIL.