Understanding Scientific Understanding – REGT (P)

REGT, H. W. Understanding Scientific Understanding. New York: Oxford University Press, 2017. Resenha de: POLISELI, Luana. Principia, Florianópolis, v. 24, n.1, p.239–245, 2020.

A discuss.o sobre compreens.o (i.e. entendimento) enquanto objetivo epistêmico da ciência é incipiente na filosofia da ciência1 e pode ser rastreada há algumas décadas principalmente com os trabalhos de Wesley Salmon (1984) e Philip Kitcher (1989). Nas abordagens desses autores a noç.o de compreens.o estava associada à natureza das explicaç.es científicas. Em decorrência desse pensamento, n.o há uma adoç.o generalizada ou tampouco um consenso na filosofia da ciência contemporânea sobre a natureza da compreens.o científica. O livro Understanding Scientific Understanding, escrito por Henk De Regt e publicado pela OUP oferece ao leitor frutíferas e atualizadas informaç.es, além de uma minuciosa discuss.o com quest.es de indiscutível importância a respeito desse tema t.o atual, como por exemplo, o que é compreens.o, quais os tipos de investimentos intelectuais associados e como ela difere da explicaç.o.

Hendrik (Henk) Willem De Regt é epistemólogo, historiador da física e filósofo da ciência. Bacharel em física pela Universidade Técnica de Delft (1983), Mestre em física pela Universidade de Utreque (1988), e Doutor em filosofia pela Universidade Livre de Amsterdam (1993), é hoje professor de Filosofia das Ciências Naturais, no Instituto para Ciência e Sociedade, na Universidade Radboud Nimega, Holanda. De Regt tem se dedicado à temática da relaç.o entre conhecimento e compreens.o há mais de 15 anos. Pode-se dizer que a teoria contextual da compreens.o científica desenvolvida pelo autor e apresentada nesta obra, deriva de seu programa de pesquisa “understanding scientific understanding” desenvolvido no período de 2001-2007, na Universidade Livre de Amsterdam, ademais, é fruto (em parte) de materiais publicados ao longo de sua carreira (i.e. De Regt 1996, 1997, 1999, 2001, 2004, 2006, 2009, 2014; De Regt & Dieks 2005 e tantos outros).

Understanding Scientific Understanding é um livro inteiramente dedicado à introduç.o e defesa da teoria contextual da compreens.o científica (CTSU). A compreens.o científica, nesta obra, é assumida como pluralista e independente de qualquer ⃝ modelo específico de explicaç.o por ser sensível ao contexto. Sendo pluralista, a compreens.o depende fortemente de teorias (hipóteses, argumentos, explicaç.es, etc.) inteligíveis ao cientista, essa inteligibilidade, por sua vez, pode ser aumentada de acordo com determinadas ferramentas conceituais como por exemplo visualizaç.o, causalidade, índex matemáticos, etc. que facilitariam o acesso à compreens.o. Com extensa e atualizada bibliografia, o livro possui oito capítulos dentre os quais tomo a liberdade de sintetizar como segue.

De Regt apresenta sua teoria (capítulo 2) trazendo uma contextualizaç.o filosófica e histórica da relaç.o entre CTSU e as demais teorias de explicaç.o científica (capítulo 3) mostrando as diversas estratégias que podem ser utilizadas para atingir compreens.o, dentre as quais o uso de ferramentas conceituais (capítulo 4) para o aumento da inteligibilidade de uma teoria (capítulo 5). Seguindo, o autor direciona seus leitores a uma vis.o aprofundada e minuciosa de estudos de caso na história da ciência, sobretudo a ciência física, para discorrer sobre como as ferramentas conceituais podem e auxiliam o aumento da inteligibilidade das teorias. Para tanto, utiliza os modelos mecânicos proeminentes no século XIX, sendo fortes representantesWilliam Thomson (Lord Kelvin), James Clerk Maxwell e Ludwig Boltzmann, para examinar como modelos mecânicos podem fornecer compreens.o, focando no caso da teoria kinética dos gases (capítulo 6). Traz também a transiç.o da física clássica para a física quântica no primeiro quarto do século XX, focando nas contribuiç.es e vis.es de Niels Bohr, Wolfgang Pauli, Werner Heisenberg e Erwin Schrödinger. De Regt, ent.o, analisa o debate sobre inteligibilidade da matriz mecânica e da mecânica de ondas para discutir a relaç.o entre visualizabilidade, inteligibilidade e compreens.o à luz do “eletron spin” e do diagrama de Feynman (capítulo 7). Conclui seu livro trazendo uma reflex.o a respeito da CTSU e sua relaç.o com quest.es sobre o relativismo e a normatividade nas práticas científicas (capítulo 8).

A compreens.o científica desenvolvida na teoria contextual da compreens.o científica e apresentada no livro “Understanding Scientific Understanding” é definida por Henk De Regt, como uma habilidade epistêmica e cognitiva alcançada quando o/a cientista é capaz de desenvolver explicaç.es inteligíveis (e por vezes derivar cenários preditivos) sobre o fenômeno que ele/ela está trabalhando2. A quest.o principal dessa obra é a ideia de que para se atingir compreens.o é primeiro necessário compreender as teorias usadas para se explicar os fenômenos, portanto, teorias precisam conter argumentos inteligíveis para que os cientistas as compreendam. Nas palavras do próprio autor “[o]nly intelligible theories allow scientists to construct models through which they can derive explanations of phenomena on the basis of the relevant theory” (p.92). É importante enfatizar duas coisas. Primeiro, De Regt n.o faz uma distinç.o entre teorias, leis, argumentos e hipóteses, pois segundo o autor, tal distinç.o n.o é necessária para esse contexto analítico. E segundo, a inteligibilidade defendida por ele depende do critério para compreens.o de fenômenos (CUP) e do critério de inteligibilidade de uma teoria (CIT), que seguem: CUP:3 um fenômeno P é compreendido cientificamente se, e somente se, existe uma explicaç.o de P baseada em uma teoria inteligível T e se adequa aos valores epistêmicos básicos de adequaç.o empírica e consistência interna.

CIT:4 uma teoria científica T (em uma ou mais de suas representaç.es) é inteligível para os cientistas (no contexto C) se eles conseguem reconhecer características qualitativas decorrentes de T sem desenvolver cálculos exatos.

O critério de inteligibilidade de acordo com a CTSU depende ent.o, n.o somente das qualidades de uma teoria per se, mas também do próprio cientista. A capacidade do cientista julgar a inteligibilidade de um argumento depende de suas habilidades e conhecimentos prévios. Neste cenário, o cientista precisa de ferramentas conceituais associadas à suas habilidades para usar uma teoria científica, seja para desenvolver uma explicaç.o, ou seja, para compreender um fenômeno. O autor ainda ressalta, através de exemplos na história da prática científica, que os cientistas escolhem as ferramentas mais adequadas para atingir seus objetivos, desenvolver explicaç.es e obter compreens.o. Sendo assim, o livro nos mostra coerentemente que existe uma variedade de ferramentas adotadas pelos cientistas as quais variam de acordo com a disciplina e o contexto histórico em quest.o. As ferramentas conceituais apresentadas ao longo do livro s.o visualizaç.o, visualizabilidade, raciocínio causal, unificacionismo, entre outros.

Ainda que essas ferramentas tenham sido citadas e exemplificadas sic passim, De Regt traz uma forte ênfase em duas, o raciocínio causal e a visualizabilidade. O raciocínio causal, segundo o autor, é uma ferramenta que permite o cientista tanto explorar a estrutura subjacente do mundo como aprimorar suas habilidades a respeito da prediç.o de sistemas específicos sobre condiç.es particulares. De Regt assume que essa noç.o está intimamente conectada à teoria manipulacionista da causalidade de Woodward (2003), pois defende que a compreens.o científica pode ser atingida através do sucesso em se responder quest.es sobre o comportamento de um sistema. Outras ferramentas associadas à causalidade seriam a produtividade e continuidade, que s.o claramente derivadas da nova filosofia mecanística5. Neste caso, a produtividade contínua é a capacidade de um sistema, um mecanismo causal, ser inteligível. A inteligibilidade por sua vez, depende da conex.o entre os estágios de um mecanismo, em outras palavras, a continuidade das aç.es entre os componentes. Sendo assim, um mecanismo é mais inteligível quando n.o há gaps ou caixas pretas interferindo na clara exposiç.o das relaç.es entre os componentes (Machamer, Darden & Craver 2000). Já a visualizabilidade e visualizaç.o s.o diferenciadas pelo autor como a primeira sendo a qualidade teórica capaz de aumentar a inteligibilidade, e a segunda como um guia para se atingir compreens.o científica. Para De Regt, teorias visualizáveis s.o comumente tratadas como mais inteligíveis quando comparada a teorias abstratas, isto porque cientistas, geralmente preferem um raciocínio visual na construç.o de explicaç.o de fenômenos, através do uso de representaç.es pictóricas e gráficas. Esse argumento é defendido mostrando casos diversos na história da física onde os cientistas contaram com o aporte visual para fortalecer suas teorias, exemplos incluem Erwin Schrodinger, o “eletron spin” e os diagramas de Richard Feynman.

No entanto, é interessante notar que visualizaç.o para a CTSU n.o é uma condiç.o necessária para compreens.o, mas sim possível. Por fim, o unificacionismo enquanto instrumento sustenta que as ferramentas conceituais n.o est.o isoladas umas das outras, ao contrário, elas podem auxiliar umas às outras para garantir a inteligibilidade necessária de uma hipótese, teoria ou proposiç.o.

Os critérios para compreens.o e inteligibilidade apresentados por Henk De Regt nesta obra formam a base para um framework sobre compreens.o científica na qual explicaç.o, compreens.o e prediç.o s.o objetivos epistêmicos inter-relacionados.

Uma vez que construir modelos e explicar fenômenos s.o as principais práticas em ciência, De Regt aponta claramente que os cientistas usam suas habilidades para compreender cientificamente um sistema em quest.o através da versátil habilidade em se utilizar as ferramentas conceituais apresentadas na obra e que, claramente, s.o sensíveis ao contexto.

Apesar do mérito, a obra deixa várias quest.es que requerem investigaç.es futuras.

Cito aqui alguns pontos. Primeiro, o autor negligencia exemplos de uma prática científica contemporânea para além das ciências físicas. Interessante saber se o critério de inteligibilidade bem como o uso de ferramentas conceituais também se adequam às diversas práticas científicas pertencentes a diferentes disciplinas para além dos estudos de casos históricos. Por exemplo, considerando a heterogeneidade na natureza dos dados aos quais os cientistas se debruçam qu.o adequada seria a teoria contextual da compreens.o científica quando aplicada a dados etnográficos, big data, inteligência artificial, entre outros? Segundo, como a compreens.o científica ocorre nas práticas inter- e transdisciplinares cujo desenvolvimento e construç.o de modelos também s.o práticas frequentes? E, terceiro, qual a relaç.o entre compreens.o científica e compreens.o pública da ciência? Seria possível ampliar o arcabouço metodológico proposto por De Regt de forma a contemplar ciência, tecnologia e sociedade? Todos estes pontos s.o questionamentos que requerem uma atenç.o especial e que de forma alguma coloca em xeque a qualidade da teoria contextual da compreens.o científica desenvolvida na obra.

Uma vez que a noç.o de compreens.o científica tem sido um tópico negligenciado por filósofos da ciência, De Regt nos brinda com Understanding Scientific Understanding.

Um livro ricamente produzido com exemplos da história da física e que conduz seus leitores a uma análise profunda sobre quest.es de indiscutível importância no que tange a natureza da compreens.o científica no contexto da prática científica.

Sendo assim, a teoria contextual da compreens.o científica nos serve n.o somente como arcabouço teórico como também de instrumento analítico. É, sem dúvidas alguma, um grande avanço para a filosofia da ciência, notavelmente reconhecido pela premiaç.o Lakatos Award 2019 (LSE 2019).

References

Baumberger, C. 2011. Understanding and its relation to knowledge. In: C. Jäger & W. Löffler. (Eds.) Epistemology: contexts, values, disagreement. Paper of the 34th International Wittgenstein Symmposium. Kirchberg am Wechsel: Austrian Ludwig Witgenstein Society, pp.16–18.

Baumberger, C.; Beisbart, C. & Brun, G. 2017. What is understanding? An overview of recent debates in epistemology and philosophy of science. In: S. Grimm, C. Baumberger & S. Ammon (Eds.) Explaining understanding: new perspectives from epistemology and philosophy of science. London: Routledge, pp.1–34.

Craver, C. F. 2007. Explaining the brain: Mechanisms and the mosaic unity of neuroscience. Oxford University Press.

De Regt, H. W. 1996. Philosophy and the kinetic theory of gases. British Journal for the Philosophy of Science 47: 31–62.

De Regt, H. W. 1997. Erwin Schrodinger, Anschaulichkeit, and quantum theory. Studies for the History and Philosophy of Modern Physics 28B: 461–481.

De Regt, H. W. 1999. Ludwig Boltzmann’s Bildtheorie and scientific understanding. Synthese 119: 113–134.

De Regt, H. W. 2001. Space-time visualization and the intelligibility of physical theories. Studies in History and Philosophy of Modern Physics 32B: 243–265.

De Regt, H.W. (2004). Discussion note: making sense of understanding. Philosophy of Science 71: 98–109.

De Regt, H. W. 2006. Wesley Salmon’s complementarity thesis: causalism and unificationism reconciled? International Studies in the Philosophy of Science 20: 129–147.

De Regt, H. W. 2009. The epistemic value of understanding. Philosophy of Science 76: 585– 597.

De Regt, H. W. 2014. Visualization as a tool for understanding. Perspectives on science 22: 377–396.

De Regt, H. W.; Dieks, D. 2005. A contextual approach to scientific understanding. Synthese 144: 137–170.

Elgin, C. 2007. Understanding and the facts. Philosophical Studies 132(1): 33–42.

Glennan, S. S. 1996. Mechanisms and the nature of causation. Erkenntnis 44(1): 49–71.

Grimm, S. R. 2006. Is understanding a species of knowledge? The British Journal for the Philosophy of Science 57(3): 515–35.

Hills, A. 2010. The beloved self. Oxford University Press.

Illari, P. M.; Williamson, J. 2012. What is a mechanism? Thinking about mechanisms across the sciences. European Journal for Philosophy of Science 2(1): 119–135.

Kitcher, P. 1989. Explanatory unification and the causal structure of the world. In: P. Kitcher & W. C. Salmon (Eds.) Scientific Explanations. University of Minnesota Press, pp.410-505.

Kvanvig, J .L. 2003. The value of knowledge and the pursuit of understanding. Cambridge University Press.

LSE, The London School of Economics and Political Sciences. 2019. HenkW. de RegtWins the 2019 Lakatos Award. Philosophy, logic and scientific method (blog). 14 June 2019. http:// www.lse.ac.uk/philosophy/blog/2019/06/14/henk-w-deregt-wins-the-2019-lakatos-award/.

Machamer, P.; Darden, L.; Craver, F. C. 2000. Thinking about mechanisms. Philosophy of Science 67(1): 1–25.

Pritchard, D. 2010. Knowledge and understanding. In: D. Pritchard, A. Millar & A. Haddock (Eds.), The Nature and Value of Knowledge: Three Investigations. New York: Oxford University Press, pp.1–88.

Riggs, W. D. 2003. Understanding ‘virtue’ and the virtue of understanding. In: M. DePaul & L. Zagzebski (Eds.), Intellectual Virtue. Clarendon Press, pp.203–26.

Salmon, W. C. 1984. Scientific explanations and the causal structure of the world. Princeton: Princeton University Press.

Silva Filho, W.; Rocha, F. ; Dazzani, M. V. 2013. The problem of epistemic value: from knowledge to understanding. Knowledge Cultures 1(6): 127–146.

Woodward, J. 2003. Making things happen: a theory of causal explanation. New York: Oxford University Press.

Notes 1Apesar dos debates sobre compreens.o serem incipientes em filosofia da ciência, as investigaç.es a respeito da relaç.o entre entendimento e conhecimento n.o s.o novas. Tradicionalmente as investigaç.es epistemológicas refletiam sobre a natureza e possibilidade de conhecimento como crença verdadeira e justificada de acordo com a definiç.o clássica elaborada por Sócrates nos diálogos de Plat.o Thaetetus e Meno (Baumberger, Beisbart & Brun 2017). Este fora o ponto de partida para as discuss.es epistemológicas contemporâneas sobre o problema do conhecimento, na qual o cerne, de uma forma geral, era a distinç.o entre crença e conhecimento verdadeiro. No entanto, o foco dessa discuss.o que permeia o conhecimento proposicional (Silva Filho, Rocha & Dazzani 2013) tem sido recentemente desafiado (Baumberger 2011), existe uma crescente defesa de que entendimento (aqui tratado como compreens.o) ao invés de conhecimento é o nosso principal objetivo cognitivo (Grimm 2006). Defensores dessa vis.o assumem que este posicionamento evita o problema do conhecimento (Kvanvig 2003, Pritchard 2010), identifica virtudes intelectuais (Riggs 2003), acomoda a ciência (Elgin 2007), e defende certa moral (Hills 2010).

2“Scientific understanding is an epistemic and cognitive skill reached when the scientist is capable to develop intelligible explanations (and sometimes derive predictive scenarios) about the phenomenon he/she is working” (p.xx).

3 “CUP: A phenomenon P is understood scientifically if and only if there is and explanation of P that is based on intelligible theory T and conforms to the basic epistemic values of empirical adequacy and internal consistency” (p.92).

4“CIT: A scientific theory T (in one or more of its representation) is intelligible for scientists (in context C) if they can recognize qualitative characteristics consequences of T without performing exact calculations” (p.102).

5Para mais informaç.es sobre a nova filosofia mecanística ver Glennan (1996), Machamer Darden & Craver (2000), Craver (2007), Illari & Williamson (2012), entre outros.

Agradecimentos A autora agradece a CAPES pelo apoio financeiro em forma de bolsa de doutorado (CAPES, código 001) e bolsa de doutorado sanduíche no exterior (PDSE – n. 88881.123457/2016- 01). Esta revis.o foi beneficiada por comentários de Felipe Rocha e em vers.es anteriores por Charbel Niño El-Hani e Federica Russo.

Luana Poliseli – Universidade Federal da Bahia, INCT / INTREE, BRASIL luapoliseliramos@gmail.com

 

 

 

 

Epistemic Logic: A Survey of the Logic of Knowledge – RESCHER (P)

RESCHER, Nicholas. Epistemic Logic: A Survey of the Logic of Knowledge. Pittsburgh: University of Pittsburgh Press, 2005. Resenha de: BORBA, Alexandre Ziani. Principia, Florianópolis, v.22, n.3, p. 533–000, 2018.

Uma justificativa é requerida para que se resenhe um livro publicado há mais de uma década atrás. Epistemic Logic: A Survey of the Logic of Knowledge, de Nicholas Rescher, é uma compilação de décadas de estudos por parte do autor no campo da lógica epistêmica, por ele apresentada como um ramo da lógica filosófica que busca formalizar a lógica do discurso acerca do conhecimento, no qual ele inclui os princípios gerais de raciocínio acerca das reivindicações e atribuições de conhecimento (Rescher 2005, p.1). Neste sentido, compete à lógica epistêmica articular e esclarecer estes princípios gerais.

Além de ser o resultado de décadas de estudos e compilar seus principais resultados na área, há pelo menos três aspectos interessantes e originais na obra de Rescher que merecem destaque. Em primeiro lugar, Rescher se propõe a desenvolver uma lógica epistêmica que leve em consideração agentes epistêmicos cognitivamente limitados. Como exemplo disso, o autor adota, como um de seus princípios fundamentais, aquilo que ele chama de “limitação do conhecedor”, princípio este que diz que para todo agente epistêmico, há uma proposição que é o caso e o agente não sabe que ela é o caso. Posteriormente, ele apresenta uma tese semelhante ao princípio do fechamento epistêmico — que ele chama de princípio da dedutividade,1 porém mais modesta, de acordo com a qual, se p é derivável de proposições que o agente conhece e p implica q, então q é derivável de proposições que o agente sabe — princípio da dedutividade fraca (Rescher 2005, p. 15). Em função de sua concepção realista acerca de agentes epistêmicos, Rescher acaba por abandonar um princípio amplamente difundido na lógica epistêmica tradicional, a saber, a tese da reflexividade do conhecimento2 (Rescher 2005, p.22).

Por destacar o conhecimento como uma relação entre um agente e uma proposição, Rescher acaba por desenvolver uma lógica epistêmica bastante centrada no agente—o qual pode ser um indivíduo ou, possivelmente, grupos de indivíduos (Rescher 2005, p.2).3 Este destaque ao agente epistêmico permite com que Rescher torne ⃝c 0000 The author(s). Open access under the terms of the Creative Commons Attribution-NonCommercial 4.0 International License.

534 Reviews as nossas limitações cognitivas um tema recorrente em sua análise dos princípios gerais que governam o discurso sobre o conhecimento. Tão interessante quanto isso, porém, é o fato de sua lógica epistêmica possibilitar uma análise do conhecimento de grupo, que é, precisamente, o segundo ponto interessante e original que quero destacar de sua obra. Com efeito, Rescher pode ser considerado um dos precursores da epistemologia social. Ponto importante de seus estudos acerca do conhecimento de grupo diz respeito à distinção, traçada por ele, entre conhecimento coletivo e conhecimento distribuído. O conhecimento coletivo é o conhecimento que alguém tem de que os membros de um conjunto S têm certa característica F quando este alguém sabe que, para todo objeto de consideração u, se u pertence ao conjunto de objetos S, então u tem a propriedade F. Já o conhecimento distribuído ocorre quando, para todo objeto de consideração u, x sabe que se u pertence ao conjunto de objetos S, então u tem a propriedade F. A diferença é sutil e diz respeito ao escopo do operador epistêmico.

Por fim, o terceiro ponto interessante e original da obra de Rescher é o tratamento epistêmico que Rescher oferece para a conceptibilidade, i.e., nossa capacidade de conceber. De acordo com ele, a conceptibilidade deve ser tratada não em termos psicológicos, i.e., como uma capacidade humana operacional, mas em termos epistêmicos, de onde se segue sua definição de que um objeto de consideração qualquer é concebível se, em princípio, é possível que exista ao menos alguém tal que esse alguém sabe que o objeto de consideração em questão pode existir. Com efeito, Rescher parece propor a conceptibilidade como uma fonte para a aquisição de conhecimento de possibilidades, o que pode ser encarado como evidência textual de que, seguindo a nomenclatura de Tuomas Tahko (2015), ele seria um racionalista modal com respeito ao conhecimento de possibilidades, i.e., alguém para o qual o procedimento de aquisição de conhecimento de possibilidades é um procedimento a priori.4 Entretanto, a possibilidade de que Rescher trata parece ser restrita à possibilidade lógica, ao invés de metafísica. Evidência disso é sua declaração de acordo com a qual a conceptibilidade é, fundamentalmente, uma questão epistêmica acerca daquilo que pode ser contemplado de uma maneira logicamente coerente (Rescher 2005, p.59).

Um ponto importante da obra de Rescher, já explicitado aqui, é que o seu universo de discurso é polissortido. Nele estão inclusas variáveis para conhecedores, proposições, proposições especificamente verdadeiras, objetos de consideração, propriedades de objetos ou proposições, conjuntos de objetos ou proposições e, finalmente, questões. Interessante notar também que, inicialmente, Rescher distingue dois tipos de conhecimento: conhecimento proposicional e conhecimento interrogativo (Rescher 2005, p.1). Adiante, porém, Rescher reconhece o conhecimento prático e distingue duas formas deste outro tipo de conhecimento: o conhecimento prático performativo e o conhecimento prático procedural. Apenas este último, de acordo com o autor, é redutível ao conhecimento proposicional (Rescher 2005, p.7). Isto nos permite dizer que Rescher é um anti-intelectualista no que concerne ao conhecimento por habilidade.

Há muito a se destacar na obra, porém quero focar em algo bastante específico e que está relacionado ao meu interesse em epistemologia das virtudes aplicada no campo da educação. Em particular, quero enfocar sobre como o tópico das insolubilia, tratado por Rescher entre os capítulos 16 e 17, relaciona-se com o tema onipresente em sua obra das limitações cognitivas de agentes epistêmicos humanos. Insolubilia, para o autor, são questões que possuem uma resposta correta que, no entanto, não podem ser respondidas por inteligências finitas.

No capítulo 16, Rescher alega que é instrutivo adotar uma abordagem erotética do conhecimento e da ignorância, uma vez que se pode supor, sem perda de generalidade, que respostas a questões são sempre proposições completas. Adiante, no capítulo 17, Rescher oferece um quadro no qual ele descreve as insolubilia como questões que possuem respostas corretas, mas cujas inteligências finitas são incapazes de as responderem (Rescher 2005, p.97). Exemplos de tais questões são questões envolvendo predicados indigentes [vagrant], aleatoriedade e sorte (contingência futura), ou inovação cognitiva. É importante distinguir, aqui, questões para as quais é muito difícil, porém humanamente possível, obter uma resposta correta e insolubilia propriamente ditas. Ademais, é preciso esclarecer que insolubilia não são questões insolúveis em virtude de as respostas corretas a elas poderem ser respondidas, mas não estarem acessíveis na prática — por exemplo, pela ausência de uma tecnologia mais sofisticada (Rescher 2005, p.91). Ao invés disso, insolubilia são questões insolúveis em virtude de as respostas corretas a elas não poderem ser respondidas por inteligências finitas. Deste modo, por definição, insolubilia são questões impossíveis de serem resolvidas por agentes epistêmicos cognitivamente limitados.

No campo da epistemologia das virtudes aplicada à educação, é um tema premente saber como aprimorar a condição intelectual de nossos estudantes, em particular promovendo a aquisição de virtudes intelectuais entre eles. Dentre as virtudes intelectuais mais debatidas atualmente, temos a virtude da inquisitividade, assunto que vem sendo aprofundado pela filósofa Lani Watson, e a virtude da humildade intelectual, assunto que vem sendo aprofundado por inúmeros filósofos e filósofas da área (cf. Baehr 2016). De acordo com Lani Watson, uma pessoa inquisitiva é uma pessoa que caracteristicamente se engaja, de maneira sincera, com a prática do questionamento (cf. Watson 2015). Como ela mesma nota, isto, por si só, não faz da pessoa uma pessoa virtuosamente inquisitiva, pois pode acontecer de uma pessoa caracteristicamente se engajar de maneira sincera com a prática do questionamento sem que suas questões sejam propriamente boas questões—elas podem ser questões tolas, por exemplo.

Minha suspeita é a de que a virtude da humildade intelectual que, dentre outras coisas, consiste em se estar ciente de nossas limitações cognitivas, digo, que a virtude da humildade intelectual pode, para usar uma metáfora musical, afinar a virtude da inquisitividade. Em particular, minha suspeita é a de que uma pessoa intelectualmente humilde e inquisitiva gastará menos tempo com questões que ela sabe que não se pode responder em função das limitações cognitivas dos seres humanos. Isto sugere que ambas as virtudes podem ser trabalhadas em conjunto, de modo que a humildade intelectual favorecerá a inquisitividade qua virtude intelectual.

Aqui, poderá ser útil narrar uma breve história fictícia para exemplificar como o ensino da inquisitividade poderia ser trabalhado dentro de salas de aula, tendo em vista a informação de que a humildade intelectual pode favorecê-la. Imagine uma criança que responde pelo nome de Sócrates. Sócrates, com seus cinco anos de idade, é uma criança normal e que, como muitas outras crianças, costuma fazer inúmeras perguntas a seus pais e professores. Suponha que os professores até mesmo estimulem Sócrates a elaborar questões. Ocorre, porém, que muitas de suas questões ainda são mal articuladas, bobas ou até mesmo sem sentido, e os professores são cientes disto.

Com o passar do tempo, os professores passam a intervir nas questões articuladas por Sócrates para ajudá-lo a torná-las mais claras. Sócrates chega ao ensino médio já com maior capacidade de articular com clareza suas questões, além de costumeiramente elaborar questões pertinentes ou profundas, às quais nem sempre as pessoas são capazes de lhe responderem de maneira satisfatória. Apesar do constrangimento que suas questões eventualmente causam, suas questões são elogiadas pelos professores, reforçando, assim, seu comportamento inquisitivo. Sócrates, porém, nem sempre é capaz de notar que algumas de suas questões são casos de insolubilia, i.e., questões para as quais existem respostas corretas, mas que, dadas nossas limitações cognitivas, somos incapazes de respondê-las. Ao longo de seu ensino médio, os professores ajudam Sócrates e seus colegas a cultivarem outras virtudes intelectuais; dentre elas, a virtude da humildade intelectual. Ao chegar no ensino superior, o jovem Sócrates, em função de ter trabalhado a virtude da humildade intelectual, já é capaz de reconhecer questões que os seres humanos são incapazes de responder, o que lhe permite gastar menos tempo com elas, sendo conduzido a pesquisar problemas cujas respostas corretas são acessíveis a inteligências finitas como as nossas.

Se minha suspeita estiver certa, então a obra de Rescher, embora seja uma contribuição voltada à lógica epistêmica, suscita questões de epistemologia da educação que podem ser exploradas a partir das definições e princípios articulados pelo autor.

Trata-se, em suma, de uma enorme e rica contribuição à epistemologia como um todo.

Referências

Baehr, J. (ed.). 2016. Intellectual Virtues and Education: Essays in Applied Virtue Epistemology. London: Routledge.

Tahko, T. E. 2015. An Introduction to Metametaphysics. Cambridge: Cambridge University Press.

Watson, L. 2015. What is Inquisitiveness? American Philosophical Quarterly 52(3): 273–88.

Notas

1 O princípio do fechamento epistêmico diz que se um agente sabe que p e sabe que p implica q, então este agente sabe que q. Agradeço o parecerista anônimo por sua acurada observação de que é possível subscrever a esta tese mesmo aceitando o princípio da limitação do conhecedor.

2 A tese da reflexividade do conhecimento declara que se um agente sabe que p, então este agente sabe que sabe que p.

3 Usualmente, na lógica epistêmica, os operadores epistêmicos não são indexados por agentes.

4 Agradeço ao parecerista anônimo por ter notado que o termo ‘racionalismo’ aqui pode ser confuso, uma vez que filósofos não-racionalistas estariam dispostos a subscrever esta tese. Quero frisar, porém, que estou seguindo a nomenclatura de Tahko.

Agradecimentos Agradeço imensamente ao Frank Thomas Sautter pelas leituras e sugestões às primeiras versões desta resenha. Agradeço também ao parecerista anônimo por suas precisas observações e sugestões.

Alexandre Ziani de Borba – Universidade Federal de Santa Maria, BRASIL azdeborba@gmail.com

 

Uma introdução à metafísica da natureza: Representação, realismo e leis científica – GHINS (P)

GHINS, Michel. Uma introdução à metafísica da natureza: Representação, realismo e leis científicas. Curitiba: Editora UFPR, 2013. Resenha de: CANI, Renato C. Principia, Florianópolis, v. 22, n2, p.359–370, 2018.

Há razões para acreditar que as teorias científicas mais bem-sucedidas representam a realidade? Aliás, em que consiste uma teoria científica? Os resultados e os relatos fornecidos pelas ciências acerca do mundo legitimam a crença na existência de leis da natureza? Caso admitamos o discurso sobre as leis, que tipo de ontologia devemos adotar a fim de explicar a necessidade envolvida nas leis científicas? Essas perguntas resumem algumas das principais questões discutidas em filosofia e metafísica da ciência ao longo das últimas décadas. Elas resumem, também, os temas tratados pelo Professor Michel Ghins (2013) no livro Uma introdução à metafísica da natureza. A obra possui um duplo objetivo — e, podemos acrescentar, um duplo mérito.

Em primeiro lugar, trata-se de uma excelente introdução a alguns dos problemas mais relevantes e instigantes da filosofia da ciência contemporânea. O livro é dividido em quatro capítulos, que abordam as seguintes questões, respectivamente: (i) a estrutura das teorias científicas e o problema da representação; (ii) o debate entre realismo científico e antirrealismo; (iii) o estatuto ontológico e epistemológico das leis científicas; e, finalmente, (iv) a metafísica das propriedades categóricas e disposicionais.

Cada tema é tratado com notável consistência e em diálogo estreito com a literatura filosófica mais recente na área. As posições dos demais autores são reconstruídas e criticadas por Ghins com grande precisão. De fato, o segundo objetivo (e mérito) da obra é apresentar ao leitor uma versão direta e clara das principais posições defendidas pelo autor ao longo de sua carreira. Desse modo, o livro representa a culminância (mas não o ponto final) das investigações que tem animado o Professor Ghins ao longo de diversos artigos e conferências. Com efeito, o formato e a organização do livro—em quatro capítulos—resulta do curso ministrado pelo autor durante a Escola Paranaense de História e Filosofia da Ciência, evento organizado pelo Departamento de Filosofia da Universidade Federal do Paraná, em 2011. Como dissemos, as teses avançadas pelo autor são construídas e expostas a partir do diálogo com interlocutores e colaboradores frequentes, dentre os quais destacamos: Bas ⃝c van Fraassen, David M. Armstrong, Alexander Bird, Brian Ellis, Anjan Chakravartty e Stathis Psillos.

No primeiro capítulo, Ghins caracteriza as teorias científicas como conjuntos de modelos (estruturas) e proposições (as leis científicas). Os modelos são capazes de representar estruturas de determinadas propriedades abstraídas dos fenômenos (como a pressão e o volume de um gás, por exemplo) e, assim, tornar verdadeiras as proposições (leis) que atribuem tais propriedades a certas entidades. A partir dessa interpretação das teorias, Ghins dedica o segundo capítulo à defesa de uma forma de realismo moderado e seletivo, sustentando que é possível formular bons argumentos não apenas em favor da adequação empírica das teorias científicas, mas também da sua verdade parcial e aproximada. No que tange às entidades inobserváveis postuladas pelas teorias, o autor considera que a convergência de diferentes métodos de mensuração permite legitimar o compromisso com a existência de, ao menos, algumas dessas entidades, tais como átomos e campos eletromagnéticos. O terceiro capítulo, por sua vez, centra-se na problemática das leis científicas. Após reconstruir e criticar as concepções de lei fornecidas por regularistas (Mill, Ramsey e Lewis) e necessitaristas categorialistas (Dretske, Tooley e Armstrong), Ghins propõe a identificação das leis a proposições universais pertencentes a teorias empiricamente adequadas e explicativas. Desse modo, a teoria desenvolvida nos dois primeiros capítulos serve para explicar a verdade das leis científicas. No entanto, sabemos que, a fim de atribuir o estatuto de lei a uma proposição universal verdadeira, é preciso argumentar em favor do seu caráter necessário e explicar de que modo ela acarreta a verdade de contrafactuais. Afinal, são esses os fatores que distinguem as leis das generalizações acidentais. Para completar essa tarefa, Ghins elabora, no quarto capítulo, uma metafísica das propriedades categóricas e disposicionais. Nesse sentido, o autor sustenta uma ontologia mista — i.e. tanto certas propriedades categóricas quanto disposicionais são admitidas como irredutíveis — em que o caráter nomológico das leis é fundamentado na existência de disposições intrínsecas às entidades físicas. Por fim, a conclusão do livro é dedicada à formulação de argumentos favoráveis à existência das disposições, especialmente endereçados a filósofos menos propensos às discussões puramente metafísicas e mais sensíveis à abordagem empirista.

A seguir, detalharemos alguns aspectos da argumentação de Ghins, destacando questões problemáticas que, na nossa visão, merecem uma discussão mais detalhada. Faremos isso em duas partes. Na primeira, trataremos da representação e do realismo; na segunda, das leis e das propriedades.

***

Logo no início da obra, Ghins declara que o objetivo da ciência é predizer e explicar os fenômenos. A fim de tornar isso possível, precisamos adotar uma atitude objetivante (cf. van Fraassen 2002) diante dos fenômenos. Trata-se de encará-los não como totalidades singulares, mas como sistemas, isto é, “como conjuntos de elementos organizados por meio de relações” (Ghins 2013, p.15). Nisso consiste a abstração primária, por meio da qual o cientista se coloca à distância das entidades e processos que busca representar. Em seguida, é preciso selecionar as propriedades — quantidades ou parâmetros — relevantes para um estudo científico particular. Se vamos estudar um gás de um determinado ponto de vista—para seguirmos o exemplo mais mencionado pelo autor—interessam-nos o seu volume e temperatura, mas não o seu cheiro. Esse passo é denominado abstração secundária (Ghins 2013, p.17).

Uma vez identificados os parâmetros de interesse, o cientista procede com o processo de modelização. Em geral, um modelo é definido pelo autor como “uma estrutura que torna verdadeira ou ‘satisfaz’ certas proposições” (Ghins 2013, p.19). A primeira dessas estruturas a ser construída é a estrutura perceptiva, que consiste na organização por meio de relações envolvendo as propriedades perceptivas em questão (o volume e o grau de calor de um gás ou os períodos orbitais de planetas).

Quando introduzimos instrumentos de mensuração a fim de tornar mais precisas e exatas essas propriedades, somos capazes de elaborar um modelo de dados. Contudo, se quisermos explicar o comportamento de um gás, por exemplo, não basta elaborar um catálogo com os valores mensurados de sua pressão, temperatura e volume. É preciso embutir esse modelo de dados numa estrutura teórica mais ampla. De acordo com Ghins, essa estrutura nos permite, mediante o cálculo, construir uma subestrutura empírica (e teórica, porque também faz parte de uma estrutura teórica) a fim de representar o modelo de dados. No caso dos gases, essa subestrutura é dada pelos valores de pressão, volume e temperatura obtidos mediante a relação pV = kT (em que k é a constante de Boltzmann). O processo de modelização se encerra quando incluímos essa estrutura teórica numa classe de modelos, isto é, numa teoria (no caso dos gases, trata-se da mecânica estatística de partículas).

Podemos resumir esse processo, portanto, da seguinte maneira (Ghins 2013, p.27s): a partir dos (i) fenômenos, nós abstraímos as (ii) estruturas perceptivas, que são representadas pelos resultados das mensurações, isto é, os (iii) modelos de dados.

Estes, por sua vez, são representados pelas (iv) subestruturas empíricas (e teóricas).

Assim, as relações de representação se dão entre (ii), (iii) e (iv), o que equivale a dizer que, quando a teoria é empiricamente adequada, tais estruturas são isomórficas (ou homomórficas).1 Por sua vez, a relação entre a subestrutura empírica, o (v) modelo teórico e a (vi) classe de modelos é meramente a inclusão conjuntista.

A ênfase de Ghins no papel dos modelos e na noção de adequação empírica entre estruturas não significa que o autor subscreva a abordagem semântica das teorias. De acordo com essa abordagem, as teorias são caracterizadas como famílias de modelos, em oposição à abordagem sintática, que define as teorias como conjuntos de proposições.

Ghins busca uma terceira via, defendendo o que chama de abordagem sintética, segundo a qual “uma teoria científica é um conjunto de modelos e de proposições satisfeitas (tornadas verdadeiras) por esses modelos” (Ghins 2013, p.26).

Ao formular a concepção sintética das teorias, o objetivo de Ghins é estabelecer sua posição no espectro do realismo científico. Para o autor, o problema do realismo compreende dois níveis. No primeiro, há a questão “sobre a relação entre as estruturas por nós construídas e os fenômenos observáveis” (Ghins 2013, p.33). Trata-se do problema que van Fraassen (2008, p.240) denominou objeção da perda de realidade.

Visto que os modelos e estruturas representacionais por nós desenvolvidos são entidades abstratas, que garantias possuímos de que tais estruturas guardam algum tipo de relação com os fenômenos observáveis? A resposta de Ghins a essa objeção se dá em duas etapas: primeiramente, o autor assume a concepção da verdade como correspondência. Essa concepção “implica a existência de realidades que tornam as proposições verdadeiras” (Ghins 2013, p.39), mas não exige que se formule uma teoria para explicar a natureza de tal correspondência. Assim, é possível encarar as proposições não como representações, mas como a atribuição de propriedades a determinadas entidades.

Logo, a próxima etapa da resposta à objeção é enfatizar que os modelos não representam diretamente os fenômenos, mas somente as estruturas perceptivas (Ghins 2013, p.21; p.39). Portanto, a atividade representacional repousa sobre proposições verdadeiras, o que garante que “nosso contato com a realidade jamais foi nem será suspenso” (Ghins 2013, p.40). Não temos certeza de que essa resposta é plenamente satisfatória, uma vez que ela parece muito mais assumir o realismo científico de teorias — isto é, a tese de que há razões para considerar as teorias científicas como verdadeiras — do que efetivamente demonstrá-lo. Como veremos adiante, consideramos mais satisfatórios os argumentos do autor em favor do realismo de entidades — a afirmação da existência das entidades postuladas pelas melhores teorias.

Passemos ao segundo nível da problemática do realismo científico, que corresponde ao problema de determinar se nossas superestruturas de propriedades inobserváveis guardam relação com a realidade externa. Em outros termos, a adequação empírica de uma teoria — o isomorfismo entre valores mensurados e calculados de certas grandezas — implica que os seus modelos teóricos sejam verdadeiros sobre os aspectos inobserváveis do mundo? Se levarmos em conta o argumento antirrealista da subdeterminação das teorias pelos dados empíricos, responderemos negativamente a essa pergunta. Trata-se da afirmação de que, em princípio, é sempre possível construir diferentes teorias empiricamente adequadas, mas que sejam incompatíveis entre si na parte inobservável. Assim, não haveria razões empíricas para preferir determinada teoria em detrimento das outras.

Ghins admite a força desse argumento, reconhecendo que a “adequação empírica não constitui, por si mesma, uma garantia de verdade de uma teoria” (Ghins 2013, p.42). Porém, a fim de sustentar a sua posição realista, o autor apresenta críticas à subdeterminação, quais sejam: (i) os céticos antirrealistas, muitas vezes, apenas acenam para a possibilidade de teorias alternativas incompatíveis, mas não mostram casos concretos em que isso efetivamente ocorre (Ghins 2013, p.41); (ii) se levarmos em conta condições suplementares, é possível quebrar a subdeterminação. Isto é, Ghins afirma que, diante de teorias incompatíveis, devemos preferir aquela que possua leis que descrevam mecanismos causais, sendo que “essas leis possuem termos que assumem a forma de derivadas temporais e que propomos identificar a efeitos” (Ghins 2013, p.43). As leis da teoria cinética de Maxwell-Boltzmann são exemplos dessa definição.

O recurso à teoria correspondentista da verdade e ao poder explicativo das leis causais fundamentam as respostas de Ghins às objeções antirrealistas. No entanto, que argumento positivo em favor do realismo científico é oferecido pelo autor? Para Ghins, o único argumento razoável em favor da existência dos inobserváveis é a convergência de mensurações em analogia com a experiência sensível ordinária. Assim como legitimamos nossa crença nas entidades observáveis quando podemos acessálas intersubjetivamente por diferentes ângulos e sentidos, “nossa crença na existência dos elétrons é justificada pela possibilidade de medir suas diversas propriedades [. . . ] por meio de métodos independentes que proporcionam resultados precisos e convergentes” (Ghins 2013, p.45).

Ademais, Ghins sustenta a superioridade de sua defesa do realismo em relação ao argumento do milagre (no-miracle argument), o mais usual em favor do realismo.

O argumento do milagre afirma que, em virtude do sucesso empírico das nossas melhores teorias, seria uma coincidência altamente improvável que elas fossem falsas e que as entidades centrais postuladas por elas não existissem. A vantagem de Ghins é que seu argumento evoca a concordância entre mensurações, noção mais exigente que a de sucesso empírico (Ghins 2013, p. 47). Além disso, comumente é dito que o argumento do milagre repousa sobre o esquema conceitual da inferência para a melhor explicação (IBE).2 Em algumas passagens, Ghins enfatiza que seus argumentos não devem ser lidos como inferências desse tipo; afinal, “não há razão a priori para que a natureza se submeta aos requisitos explicativos que impusemos às nossas teorias” (Ghins 2013, p.48). De nossa parte, não vemos razões para deixar de considerar a IBE como esquema válido de raciocínio. Poderíamos considerar que a existência dos inobserváveis postulados pelas melhores teorias é a melhor explicação para a convergência entre mensurações independentes, sem que, com isso, voltemos ao argumento do milagre.3 Afinal, mesmo que o tipo de inferência seja o mesmo (a IBE) em ambos os argumentos, as premissas das quais eles partem são claramente distintas.

Em suma, Ghins considera sua versão de realismo como falibilista, seletivo e parcimonioso, uma vez que o requisito de convergência é exigente o bastante para admitir a crença apenas em um número escasso de entidades inobserváveis (Ghins 2013, p.50). Passemos para o tema das leis e das propriedades, apresentados nos capítulos finais da obra.

***

A questão que norteia os últimos capítulos do livro de Ghins é a seguinte: leis científicas são também leis da natureza? Na concepção do autor, leis científicas dizem respeito às generalizações que desempenham função explicativa relevante no contexto de teorias científicas bem-sucedidas (cf. Ghins 2013, pp.51–2). Para que as leis científicas sejam identificadas a leis da natureza, é preciso articular uma metafísica da natureza que fundamente a sua verdade. O que Ghins busca demonstrar é que essa tarefa só pode ser cumprida por uma metafísica baseada em poderes causais ou disposições.

A fim de defender esse ponto de vista, o autor critica as principais concepções rivais acerca das leis, quais sejam, o regularismo e o necessitarismo categorialista.

Em linhas gerais, o regularismo é a teoria que encara as leis como regularidades, compreendidas como conjunções constantes, no sentido de Hume. Trata-se, portanto, de “proposições universais que são verdadeiras, sem dúvida, mas de modo meramente contingente” (Ghins 2013, p.53). Segundo Ghins, a principal dificuldade dessa concepção é o chamado problema da identificação, desafio que se impõe a qualquer concepção de lei que se pretenda defensável. Esse problema é originalmente formulado por van Fraassen (1989, p.39), mas Ghins o divide em dois aspectos. O primeiro deles é o problema epistêmico da identificação: devemos ser capazes de distinguir as generalizações nomológicas das acidentais. Nesse sentido, o regularista deve oferecer um critério para distinguir enunciados do tipo “Todas as esferas de urânio possuem diâmetro inferior a um quilômetro” (que parece remeter às propriedades radioativas do elemento urânio) e “Todas as esferas de ouro possuem diâmetro inferior a um quilômetro” (verdadeira de modo acidental). Ghins concede que, à primeira vista, a teoria do melhor sistema, de David Lewis (1973), fornece uma resposta a esse problema.

Nessa teoria, as leis são os teoremas ou axiomas presentes nos sistemas dedutivos que melhor equilibram os desiderata de simplicidade e força (cf. Ghins 2013, p.54).

Entretanto, a teoria de Lewis não tem a mesma sorte no que se refere ao segundo aspecto do problema da identificação, a saber: o problema ontológico da identificação.

Trata-se de identificar o “tipo de fato acerca do mundo” que torna as leis verdadeiras (Ghins 2013, p.55). Nesse sentido, Ghins argumenta que Lewis “permanece silencioso” acerca dessa questão, uma vez que ele não indica quais fatores ontológicos seriam os responsáveis por tornar certos sistemas axiomáticos mais satisfatórios que outros. Ora, essa crítica não é forte o bastante, pois alguém poderia objetar que o regularismo não precisa fornecer uma solução ao problema ontológico, uma vez que as uniformidades não carecem de explicação adicional, isto é, elas são encaradas como fatos brutos. O problema ontológico da identificação só faz sentido para as concepções realistas das leis, já que estas caracterizam as leis a partir de categorias metafísicas que se projetam para além das regularidades.

A fim de rejeitar o regularismo, portanto, é necessário mostrar que essa teoria não soluciona adequadamente o problema epistêmico da identificação, visto que é nesse âmbito que Lewis formula os seus principais argumentos. Para cumprir esse objetivo, Ghins (2013, pp.56–8) apresenta, de modo esquemático, algumas críticas a Lewis, dentre as quais destacamos: (i) a teoria do melhor sistema tem alcance restrito, pois só funciona para teoria axiomatizáveis; (ii) os critérios de equilíbrio, simplicidade e força, conforme tratados por Lewis, são meramente epistêmicos e subjetivos, sendo insuficientes para caracterizar as leis; (iii) se as leis são regularidades contingentes, a única maneira de explicar como elas sustentam os enunciados contrafactuais é apelando para a controversa noção de “similaridade entre mundos possíveis”.

De acordo com Ghins, esses problemas mostram que o regularismo é, na verdade, incapaz de distinguir as leis de generalizações acidentais. O autor passa a investigar, portanto, concepções de lei que se fundamentem em discussões de caráter metafísico.

É o caso do necessitarismo categorialista de Dretske, Tooley e Armstrong. Nessa visão, uma lei “é uma proposição singular que exprime um fato não empírico, a saber, uma relação de necessidade entre propriedades universais” (Ghins 2013, p.60). Segundo Armstrong (1983), que articulou a versão mais sofisticada de necessitarismo, as leis possuem a forma N(F,G), em que F e G são universais de primeira-ordem e N é, ao mesmo tempo, um universal de segunda-ordem e uma relação de necessitação entre universais. A solução necessitarista ao problema ontológico da identificação depende, portanto, da metafísica de universais elaborada por Armstrong.

Todavia, Ghins aponta que a maior dificuldade dessa teoria é o problema da inferência, que consiste na tarefa de que explicar de que modo é possível que “uma proposição que descreve uma relação da segunda ordem N entre universais [. . . ] implique logicamente uma proposição que descreve uma relação de necessitação entre as instâncias desses universais” (Ghins 2013, p.61). Em outros termos, Armstrong deve justificar a inferência N(F,G)→(x)N(F x Gx) A solução de Armstrong consiste em identificar a relação N, que se dá entre types, e a relação de causalidade entre tokens. Assim, da mesma forma que os universais F e G são obtidos por abstração a partir dos estados de coisas particulares {Fa, F b, . . .} e {Ga,Gb, . . .}, também a lei N(F,G) é obtida a partir da observação das sequências causais particulares {(Fa,Ga), (F b,Gb), . . .}. Para Armstrong, esse argumento mostra que a solução do problema da inferência é automática. A objeção de Ghins a esse raciocínio consiste em afirmar que, mesmo que se admita a hipótese de que a relação de causalidade entre tokens seja observável (tese negada por autores empiristas), a relação de causalidade entre types não o é (Ghins 2013, p.62). Logo, a resposta de Armstrong se encontra comprometida, uma vez que não há razões para supor que N seja idêntica à relação de causalidade entre particulares.4 Após discutir os problemas do regularismo e do necessitarismo categorialista, Ghins apresenta sua própria concepção das leis, derivada do essencialismo disposicional.

Vimos anteriormente que o autor caracteriza as leis como proposições universais pertencentes a teorias empiricamente adequadas e explicativas. Conforme a teoria desenvolvida nos primeiros capítulos, o que torna as leis verdadeiras são as regularidades da natureza, descritas pelas estruturas perceptivas e pelos modelos de dados.

Mas como explicar a existência de regularidades na natureza? Em que aspecto da realidade está fundamentado o caráter nômico das leis? É aí que entram as disposições: “o que funda a nomicidade de uma lei ou, em outras palavras, o que torna verdadeira a proposição ‘p é uma lei’ é a existência de poderes causais intrínsecos, reais e irredutíveis” (Ghins 2013, p.69).

Desse modo, a visão de Ghins também pode ser classificada como necessitarista.

A diferença é que Armstrong aceita apenas as propriedades categóricas (isto é, não modais) como irredutíveis. Ghins e os outros disposicionalistas — como Ellis e Bird — admitem a existência de propriedades disposicionais irredutíveis. Afinal, o que são disposições? Ghins oferece a seguinte definição: “Uma entidade x possui a disposição D de manifestar a propriedade M em resposta ao estímulo T nas circunstâncias A, se e somente se, na eventualidade da entidade x ser submetida a T no ambiente A, x necessariamente manifestar M” (Ghins 2013, p.69). O autor explicita essa definição por meio da menção à análise condicional proposta por Bird (2007, pp.36–7): □Dx↔((T x&Ax)□→ Mx)] Exemplos comuns de disposições são a disposição da água para dissolver o sal nas condições apropriadas ou a capacidade de certa anfetamina para, quando ingerida, melhorar o desempenho de um atleta (cf. Ghins 2013, p.70). No entanto, o estatuto ontológico preciso das propriedades disposicionais é assunto de um intenso debate em filosofia da ciência. Vejamos de que modo Ghins se situa nesse espectro.

Em primeiro lugar, o autor considera que as disposições são propriedades de primeira ordem, isto é, são instanciadas pelas próprias entidades físicas. Elas não são, portanto, “propriedades de propriedades”. Em segundo lugar, o autor adota uma ontologia mista, diferentemente do monismo disposicional defendido por Bird. Segundo Ghins, todas as propriedades capazes de figurar nos modelos científicos são propriedades categóricas. Essa visão abrange não apenas as propriedades espaçotemporais (distância, estrutura molecular, etc.), mas todas “as propriedades matemáticas e quantificáveis referidas pelos símbolos matemáticos que figuram nas leis científicas” (Ghins 2013, p.85).

Por fim, Ghins sustenta que essa ontologia de propriedades permite responder aos problemas da identificação e da inferência. No que tange ao segundo, o autor afirma: “Se p é uma lei, então p é uma proposição universal e as situações e os processos descritos por p ocorrem efetivamente no mundo” (Ghins 2013, p.65). A teoria da representação de Ghins, desenvolvida na parte inicial do livro, tem por objetivo explicitar essa solução. Além disso, limitar as leis ao contexto de teorias científicas aproximadamente verdadeiras e explicativas visa a responder ao problema epistêmico da identificação (Ghins 2013, pp.63–4). Quanto ao problema ontológico da identificação, Ghins afirma que “as regularidades descritas nas várias disciplinas encontram seus fundamentos nas naturezas relacionais, reais, de certas entidades e em suas disposições a submeter-se a processos específicos” (Ghins 2013, p.85). A metafísica das disposições implica, pois, que as leis científicas mereçam o título de leis da natureza, uma vez que sua verdade é fundamentada por uma metafísica da natureza.

Compartilhamos das motivações que levam o professor Ghins a defender uma metafísica disposicionalista e, em grande medida, simpatizamos com a solução do autor à problemática das leis. No entanto, temos algumas dúvidas com relação à sua metafísica da natureza, em especial à preferência pela ontologia mista. Essas incertezas se tornam explícitas quando analisamos a seguinte passagem: Uma entidade possui, por exemplo, uma carga de certo valor independentemente da força que pode exercer ou sofrer. Em outras palavras, a carga não é uma propriedade disposicional. [. . . ] Ao lado de suas propriedades categóricas, o elétron possui igualmente propriedades disposicionais, tal como a capacidade de interagir com partículas e campos em conformidade a certas equações matemáticas como, por exemplo, a lei de Maxwell (Ghins 2013, p.84).

Acreditamos que esse modo de ver as coisas obscurece as relações entre as leis e as disposições, dando margem a críticas categorialistas. De fato, estamos de acordo com o fato das disposições serem irredutíveis às suas manifestações. Entretanto, consideramos que é em virtude de possuir determinada carga que o elétron pode participar das interações de que participa. Aliás, o próprio autor admite que não há como determinar a carga do elétron a não ser com base nas suas interações, o que envolve elementos disposicionais. Logo, não vemos motivos para afirmar que haja duas propriedades distintas em jogo, como o faz Ghins. Dito de outro modo, Ghins afirma que o elétron possui carga (propriedade categórica) e, “ao lado” de tal propriedade, disposições essenciais. Ora, se quisermos argumentar que as leis da natureza são metafisicamente necessárias em razão de serem fundamentadas em disposições essenciais, então o vínculo entre as propriedades categóricas e disposicionais precisa ser esclarecido.

Sustentamos que a desvinculação entre as propriedades categóricas e disposicionais torna estas últimas misteriosas, comprometendo o caráter metafisicamente necessário das leis e a irredutibilidade das disposições. Essa consequência favorece o monismo categórico, segundo o qual as disposições dos objetos podem ser reduzidas às suas propriedades categóricas e às leis da natureza (impostas externamente aos objetos. Nesse sentido, Cid (2016, p.242s) aponta que a teoria de Ghins e o categorialismo fornecem explicações similares às leis e aos contrafactuais. Em última análise, o que Cid e outros críticos apontam é o fato de que, se nosso objetivo é explicar a necessidade das leis da natureza, é mais simples fazer isso admitindo apenas um tipo de propriedade irredutível (as categóricas) em vez de dois (como na ontologia mista).

De fato, a ontologia mista parece levar a problemas adicionais. Suponhamos que, conforme afirma Ghins, a carga do elétron (Q) seja uma propriedade categórica e seus poderes causais para participar de determinadas interações (D) consistam numa disposição.

Ghins afirma que D é essencial ao elétron. Naturalmente, é razoável supor que, se a carga Q do elétron fosse diferente, a disposição D também o seria. Então, qual a relação entre essas propriedades? Q também é essencial ao elétron? D é superveniente a Q? Gostaríamos de indicar um caminho para uma solução disposicionalista (e monista) a este problema, inspirada na visão de Heil (2003) acerca das propriedades.

Em primeiro lugar, devemos considerar que, de acordo com o disposicionalismo, as leis são metafisicamente necessárias precisamente porque os objetos, em virtude de possuírem as propriedades que possuem, não poderiam se comportar de forma diferente.

Portanto, D e Q correspondem, na verdade, a uma única propriedade, apenas descrita de duas maneiras diferentes ou, mais precisamente, em níveis de abstração distintos. Conforme o contexto de investigação no qual estivermos inseridos, será mais relevante enfatizar as possíveis interações do elétron ou simplesmente o valor de sua carga. Entretanto, não há razão para considerar que se trata de duas propriedades de naturezas distintas. Com efeito, essa sugestão de resposta — que certamente precisa ser detalhada — está alinhada com os argumentos de Ghins, não exigindo maiores alterações em sua ontologia. Além disso, essa caracterização evita os embaraços envolvidos na noção de superveniência, bem como explicita a origem da necessidade metafísica das leis.

*** Nesta resenha, procuramos abordar os principais temas tratados pelo Professor Ghins ao longo de sua obra, atestando que ela funciona como uma excelente introdução tanto ao realismo científico quanto ao realismo nomológico. Ao mesmo tempo, discutimos alguns dos argumentos formulados pelo autor, com vistas a fazer avançar, ainda que modestamente, o debate para o qual Ghins tanto contribuiu.

Referências

Armstrong, D. M. 1983. What Is a Law of Nature? Cambridge: Cambridge University Press.

Bird, A. 2007. Nature’s Metaphysics: Laws and properties. Oxford: Clarendon Press.

Cani, R. C. 2017a. O Dilema Central é suficiente para refutar a visão disposicionalista das leis da natureza? In: J. D. Carvalho et al. (eds.) Filosofia da natureza, da ciência, da tecnologia e da técnica, pp.356–69. São Paulo: ANPOF. (Coleção XVII Encontro ANPOF).

———. 2017b. Realismo nomológico e os problemas da identificação e da inferência. Curitiba, PR. Dissertação de Mestrado. Universidade Federal do Paraná.

Cid, R. R. L. 2016. Uma crítica à metafísica conectivista de Ghins. Filosofia Unisinos 17(2): 233–43.

Ghins, M. 2017. Defending Scientific Realism Without Relying on Inference to the Best Explanation.

Axiomathes 27(6): 635–651.

Heil, J. 2003. From an Ontological Point of View. Oxford: Oxford University Press.

Lewis, D. 1973. Counterfactuals. Cambridge: Harvard University Press.

van Fraassen, B. 2002. The Empirical Stance. New Haven: Yale University Press.

———. 2008. Scientific Representation: Paradoxes of perspective. Oxford: Oxford University Press.

Notes

1 A distinção entre isomorfismo e homomorfismo corresponde, respectivamente, à diferença entre uma função bijetiva — em que há correspondência um-para-um entre todos os elementos do conjunto de partida e do conjunto de chegada da função — e uma função injetiva— em que a única exigência é que, para um valor no conjunto de chegada, não haja dois valores distintos no conjunto de partida. O homomorfismo, portanto, é uma noção menos exigente do que o isomorfismo.

2 A sigla se refere à formulação em inglês — inference to the best explanation (IBE) — frequentemente utilizada pela literatura.

3Num artigo recente, Ghins (2017) adverte que sua posição, nesse caso, é encarar a convergência entre mensurações como um fato que não demanda explicações ulteriores. Em linhas gerais, isso significa afirmar que o simples fato de a convergência ser verificada é o suficiente para argumentar em favor da visão realista.

4 Conforme salienta Cid (2016), é importante ressaltar que a crítica de Ghins ao necessitarismo categorialista se aplica somente à versão aristotélica dos universais, tal como defendida por Armstrong. Em linhas gerais, Cid tenta mostrar que é possível argumentar, de modo independente, que uma versão de necessitarismo baseada na concepção platonista dos universais (à la Tooley) escapa às objeções apresentadas. No entanto, parece-nos que a objeção mais forte ao necessitarismo categorialista não é o problema da inferência, mas o quidditismo. Em outros textos (Cani 2017a, pp.361–7; 2017b, pp.83–7), argumentamos que esse problema perpassa tanto a teoria de Armstrong quanto a de Tooley. Trata-se da objeção de que, se somente as propriedades categóricas são irredutíveis, então pode haver mundos possíveis em que as mesmas propriedades categóricas possuam perfis causais absolutamente distintos.

Nesse cenário, seria impossível fixar a identidade das propriedades (e, por conseguinte, das leis). É uma pena que Ghins não tenha discutido diretamente o quidditismo — ainda que o autor aborde a questão lateralmente — pois isso daria mais força a seu argumento.

Agradecimentos Ao Professor Michel Ghins, agradeço pelo incentivo, por comentários a uma versão anterior deste texto, bem como pelos diálogos acolhedores e instigantes acerca das temáticas aqui tratadas. O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior – Brasil (CAPES) – Código de Financiamento 001.

Renato C. Cani – Universidade Federal de Santa Catarina, BRASIL renatocani@gmail.com

The Pragmatic Turn – BERNSTEIN (P)

BERNSTEIN, Richard J. The Pragmatic Turn. Cambridge: Polity Press, 2012. Resenha de: CURY, Paula Maria Nasser. Principia, Florianópolis, v. 19, n.1, p.171–176, 2015.

Em sua versão clássica, o pragmatismo caracteriza-se por um marcante antagonismo ao dualismo substancialista e ao representacionismo cartesianos, propondo, em seu lugar, um anti-fundacionalismo que coloca em cheque o que Dewey certa vez denominou a busca pela certeza e a teoria epistemológica do espectador. Para os pragmatistas, a chave para a compreensão dessas questões está na relação constitutiva do sujeito-agente com o ambiente normativo e intersubjetivo das práticas sociais. Após um período de relativo descrédito no cenário acadêmico, especialmente a partir da década de 1950, quando passou a, progessivamente, ceder lugar à denominada filosofia pós-analítica, o próprio desenvolvimento da filosofia da linguagem parece ter levado, afinal, a uma retomada de interesse pelo pensamento de autores como Peirce, James e Dewey (p.x). Na obra The Pragmatic Turn, Richard J. Bernstein, filósofo e Vera List Professor of Philosophy na New School for Social Research em Nova Iorque, defende, entretanto, a tese de que a partir da segunda metade do século XIX pode-se verificar uma regularidade e continuidade na abordagem, por filósofos de diferentes tradições e ainda que incidentalmente, de temas que constituíram o núcleo do movimento pragmatista. O livro estrutura-se em prefácio, prólogo e nove capítulos, ao longo dos quais são desenvolvidos os três eixos temáticos que Bernstein se propõe a criticamente analisar: as principais contribuições de Peirce, James e Dewey ao pragmatismo clássico, nos três primeiros capítulos; a influência de Hegel no pensamento pragmatista e os conceitos de verdade, objetividade, justificação e experiência sob a ótica pragmática, nos três capítulos seguintes; a retomada contemporânea do pragmatismo através de Putnam, Habermas e Rorty, nos três capítulos finais.

O capítulo sobre Peirce (p.32–52) gira em torno de suas quatro críticas às inadequações do cartesianismo (p.32–9). Resumidamente, tratam-se dos argumentos de que (1) não dispomos de uma faculdade de introspecção, e que, portanto, nosso conhecimento do mundo interior deriva do raciocínio hipotético sobre o conhecimento de fatos exteriores; (2) não dispomos de uma faculdade de intuição espontânea, e que, portanto, nossas cognições derivam logicamente de cognições prévias; (3) não dispomos de uma faculdade de pensar sem recorrer a signos; (4) não dispomos de qualquer concepção daquilo que é absolutamente incognoscível. À questão da refutação do intuicionismo (ou mito do dado), Bernstein dedica uma análise mais pormenorizada (p.39–52), demonstrando, ao final, que o pragmatismo de Peirce consiste em uma alternativa viável não somente ao intuicionismo, mas também ao coerentismo e ao idealismo. É que Peirce constrói uma estratégia explanatória em que a autoridade epistêmica de nossas interpretações dos signos é considerada falível, podendo ser sempre desafiada por novas investigações. Assim, concilia elementos de diferentes tradições na construção do que Bernstein denomina sua via media epistemológica.

No segundo capítulo da obra (p.53–69), Bernstein se debruça sobre as consequências éticas do pluralismo pragmático de William James. Em James, pluralismo significa a impossibilidade de, a partir de princípios pragmáticos, reivindicar-se previamente uma unidade absoluta em relação a qualquer objeto de investigação (p.60).

A tese central de Bernstein é que o pluralismo pragmático não leva a um relativismo nos moldes do mito do contexto popperiano,1 consistindo, pelo contrário, em uma das respostas mais contundentes a ele (p.55). Assim, o pluralismo de James seria uma alternativa tanto ao atomismo epistemológico dos empiricistas tradicionais como ao monismo dos idealistas (p.58).

O terceiro capítulo da obra (p.70–88) investiga como a ideia de democracia de John Dewey pode contribuir para as práticas democráticas atuais. Dewey parte do pressuposto de que a democracia não é apenas uma forma majoritária de governo, mas também um modo de vida ético (p.72). Sua concepção é de uma democracia radical, que demanda profundas mudanças estruturais para a consecução de seus fins últimos — liberdade e individualidade para todos (p.76–7). É interessante a defesa de Bernstein de que Dewey ultrapassa as fronteiras do debate comunitarismo × liberalismo na medida em que afirma, por um lado, a essencialidade da participação democrática dos cidadãos em espaços públicos e comunidades mas, por outro, não considera o exercício comunitário da democracia incompatível com os verdadeiros ideiais do liberalismo (p.81–2). Entretanto, ao não especificar exatamente quais medidas as comunidades deveriam adotar para implementar esse modo de vida, a proposta de Dewey acaba perdendo em concreção e operacionalidade (p.82). Ainda assim, Bernstein defende que, na atualidade, a democracia radical de Dewey pode, ao menos, servir de motivação para que se repensem e revitalizem as democracias reais (p.88).

Com isso, conclui-se o primeiro eixo temático da obra e Bernstein passa a investigar, no capítulo quarto (p.89–105), a influência de Hegel no pensamento pragmatista.

Dewey se viu especialmente interessado na defesa hegeliana de uma realidade orgânica interrelacionada entre sujeito e objeto, matéria e espírito, humano e divino e na consequente dissolução das dicotomias características da tradição cartesiana (p.91). Peirce, apesar de suas raízes kantianas, acaba por admitir um alinhamento entre as ideias defendidas pelo pragmatismo e pelo idealismo absoluto (desenvolvido sob forte inspiração hegeliana) no que tange à formulação das categorias da primeiridade, secundidade e terceiridade (p.93). James, por vez, reconhece e endossa a contribuição de Hegel quanto à explicitação da natureza dos conceitos: recusando o caráter representacional estático comumente atribuído a eles, Hegel defende a dinamicidade dos conteúdos conceituais, dotados de uma dialética imanente (p.94).

Contudo, a postura em geral desdenhosa de James quanto ao idealismo alemão contribuiu para que Hegel fosse pouco estudado nos EUA até meados da década de 1950. A partir de então, fatores como o surgimento de uma nova esquerda americana ideologicamente ligada ao marxismo, a busca de uma alternativa à filosofia analítica para a compreensão do giro linguístico e, finalmente, a atuação de Wilfrid Sellars levaram a uma gradativa retomada de interesse pela obra hegeliana. Nesse contexto, surgem os chamados hegelianos de Pittsburgh, notadamente McDowell e Brandom.

O primeiro defende, com base em Hegel, que não há uma amarração prévia entre conceitos, e que é exatamente isso que nos garante acesso a uma realidade que, por um lado, se encontra no âmbito do conceitual e, por outro, é independente de nós (p.100). McDowell contesta, assim, a interpretação segundo a qual a filosofia do espírito não contemplaria a realidade independente ou exterior à mente. Para ele, o idealismo hegeliano pressuporia justamente a refutação da dicotomia entre o que está dentro e o que está fora do domínio conceitual (p.101). Já para Brandom, a principal contribuição de Hegel no que tange à compreensão da normatividade subjacente ao uso de conceitos está na asserção de que estados normativos são estados sociais e que, portanto, a normatividade que regula a atividade conceitual é implicitamente instituída através de práticas sociais (p.103).

O quinto capítulo de The Pragmatic Turn (p.106–24) trabalha os conceitos de verdade, objetividade e justificação. O autor preocupa-se em demonstrar que o pragmatismo não comporta uma teoria da verdade como correspondência. Recorrendo a Peirce, Bernstein retoma a ideia de que todo conhecimento pressupõe uma atividade inferencial (p.110). Ao mesmo tempo em que, portanto, o conhecimento não deriva da correspondência entre conceitos e fatos externos, é importante salientar que, em Peirce, ele também não é produto de um acordo entre a comunidade de atores envolvidos (como sugerem as teorias consensuais da verdade), mas da atividade investigativa crítica. A verdade assim apurada seria marcadamente falível, na medida em que não dispomos de nenhuma garantia que nos permita asseverar algo com absoluta certeza (p.112).

Essa concepção de Peirce, embora atrativa, contém problemas aos quais a proposta de Brandom se apresenta como alternativa viável, na ótica de Bernstein. Brandom argumenta que verdade, objetividade e justificação podem ser conectadas à dinâmica intersubjetiva de práticas sociais discursivas se se admite, por um lado, o primado da pragmática sobre a semântica e, por outro, que comprometimentos e intitulações geram normas que regulam o uso de conceitos (p.121). Bernstein enfatiza, a esse respeito, a importância da distinção entre as perspectivas eu-nós e eu-vocês.

Brandom recusa a perspectiva eu-nós, que privilegia o ponto de vista da comunidade, em favor da perspectiva eu-vocês. Nela, a ênfase é na relação entre os comprometimentos assumidos por um agente e os comprometimentos que ele atribui a outros.

Na medida em que realizam a distinção entre formas de aplicação de conceitos objetiva e subjetivamente corretas, ambos os pólos da relação são, temporariamente, privilegiados. A objetividade passa a se relacionar, assim, à forma de aplicação de conceitos, não a seu conteúdo (p.121).

O sexto capítulo, Experience after the Linguistic Turn (p.125–52), é aberto com a argumentação pela necessidade de uma compreensão adequada do conceito de experiência no pragmatismo como consequência do giro linguístico (p.129). Bernstein sugere elementos das obras de Peirce, James, Dewey e Mead que comprovariam essa relação consequencial.

A partir do sétimo capítulo de The Pragmatic Turn, tem início a abordagem do último eixo temático da obra, o pragmatismo na contemporaneidade. Quanto a Putnam, Bernstein considera especialmente interessante problematizar sua defesa da insustentabilidade da dicotomia fato × valor (p.153–67). O argumento de Putnam é que só podemos compreender conceitos como coerência, razoabilidade e plausibilidade se não os reduzirmos à dimensão factual, admitindo que eles são valores e envolvem avaliações normativas. Valores assumem, assim, um papel indispensável para a análise da correção e adequação do conhecimento: sem eles, não há fatos (p.157–8).

Outro ponto de destaque no capítulo sobre Putnam é sua tese de que todo conhecimento é perspectivista, envolve interesses humanos e de que a objetividade é, portanto, compatível com diferentes escolhas conceituais. Ela é, em suas palavras, uma “realização [achievement] conflitual em andamento” (Putnam 1990, p.21, tradução livre). Vista sob esse prisma, Bernstein coerentemente destaca que a pretensão de Putnam é sustentar que devemos nos organizar, enquanto comunidade ética, para promover as práticas sociais que possibilitem e ampliem o grau de objetividade em situações complexas (p.164).

O objeto do oitavo capítulo (p.168–199) é o pragmatismo de Jürgen Habermas.

Habermas vê em Peirce a possibilidade de reconstruir, de modo simultaneamente destranscendentalizado e analítico, as condições universais de possibilidade do discurso e da ação, compatibilizando a normatividade que constrange os atores no mundo da vida com a faticidade de formas de vida que se desenvolveram natural e contingentemente (p.169–71).

Admitindo que a abordagem do conceito de verdade unicamente a partir da perspectiva epistêmica não é suficiente para garantir a sua validade, Habermas afirma que aspectos pragmáticos também devem ser levados em consideração. Ele sugere um recurso às práticas cotidianas, em que agimos com base em certezas comportamentais, salvo quando encontramos oposições que nos levam a, discursivamente, tentar justificar nossas pretensões de verdade. Surge, assim, a noção de uma verdade com a face de Janus, que só pode ser encontrada no medium entre a ação e o discurso, e levanta uma necessidade pragmática de justificação satisfeita por meio da conversão de crenças em novas verdades comportamentais (p.184). O ponto alto do capítulo é o diálogo que Bernstein passa a travar com Habermas quanto à incorporação desses elementos pragmatistas em sua teoria. Nesse sentido, Bernstein concorda com Rorty quando este acusa Habermas de ignorar que, para Peirce, crenças são somente hábitos de ação, e, portanto, um discurso racional seria apenas um entre demais contextos de ação nos quais emerge uma espécie de certeza comportamental (p.186–7).

Por fim, o nono capítulo (p.200–16) cuida do humanismo de Richard Rorty. O texto foge ao estilo dos demais e aproxima-se de uma narrativa biográfica. Destacase, contudo, a justificativa de Bernstein para qualificar Rorty como humanista. Rorty define o pragmatismo como “a doutrina de que não há limitações à investigação, salvo as conversacionais” (Rorty 1982, p.165, tradução livre), ou seja, todas as limitações ou constrangimentos impostos a ela são produzidos pelo próprio homem. Por isso, a preocupação filosófica deveria deslocar-se da objetividade em direção à solidariedade (p.207). Na convicção de Rorty de que somos os únicos responsáveis pelas próprias limitações e que, portanto, não haveria nenhuma autoridade em que nos poderíamos apoiar para superá-las senão nós mesmos, repousaria o humanismo de Rorty, sustenta Bernstein (p.211).

Seguramente, a riqueza das exposições e dos argumentos empregados por Bernstein na defesa de seus posicionamentos escapa aos limites da presente resenha, que procurou, antes, demonstrar como o leque de autores e de discussões abordadas em The Pragmatic Turn contribui para uma compreensão aprofundada do pragmatismo clássico e de seus desdobramentos contemporâneos. Ao final, nos parece que o autor conclui com sucesso não somente seu intento principal, qual seja, demonstrar que temas centrais do pensamento pragmatista foram recorrentes na filosofia dos últimos cento e cinquenta anos, mas também um outro importante objetivo: analisar teorias, criticar suas insuficiências e oferecer alternativas a elas. O leitor pode esperar da obra, assim, muito mais do que uma descrição do ideário pragmatista de ontem e de hoje. Ao longo das páginas de The Pragmatic Turn, experimentamos o desenvolvimento de argumentos próprios por parte de um autor que dialoga com as suas fontes e não se omite quando se trata de fixar seus pontos de vista.

Referências

Bernstein, R. J. 2012. The Pragmatic Turn. Cambridge: Polity Press.

Putnam, H. 1990. Realism with a Human Face. Cambridge, Mass.: Harvard University Press.

Rorty, R. 1982. Consequences of Pragmatism. Minneapolis: University of Minnesota Press.

Notas

1 O mito do contexto sugere que estejamos de tal forma presos em nosso contexto teórico, linguístico e pré-conceitual que não nos conseguimos mover para além dele e nos comunicar com outros contextos que apresentem diferenças substanciais em relação ao nosso. Tratarse- ia, nesse sentido, de uma incomensurabilidade contextual (Bernstein 2012, p.54).

Paula Maria Nascer Cury – Ruprecht-Karls-Universität Heidelberg. ALEMANHA paulanasserc@gmail.com

Filosofia da tecnologia: um convite – CUPANI (P)

CUPANI, Alberto. Filosofia da tecnologia: um convite. Florianópolis: Ed. da UFSC, 2011. Resenha de: SZCZEPANIK, Gilmar Evandro. Principia, Florianópolis, v.16, n. 3, p.505–510, 2012.

A obra Filosofia da tecnologia: um convite, publicada em 2011 pela editora da Universidade Federal de Santa Catariana, apresenta os autores fundamentais e as principais correntes filosóficas que perpassam a filosofia da tecnologia. Além de divulgar o debate filosófico existente em torno da tecnologia de forma convidativa, instiga e desafia a realização de novas pesquisas sobre esse tema ainda pouco estudado no contexto brasileiro. Trata-se de uma das melhores referências sobre a temática existentes em língua portuguesa. A clareza argumentativa com a qual a obra foi escrita permite que pessoas não iniciadas nessa área tenham um entendimento adequado do assunto e pessoas já inseridas na tradição filosófica conheçam a pluralidade e a complexidade dos problemas filosóficos vinculados à tecnologia. Muito mais do que um recorte ou uma simples reconstrução da história da filosofia da tecnologia e de seus problemas, a obra traz um olhar crítico e reflexivo sobre as questões filosóficas despertadas pela tecnologia.

O livro encontra-se dividido em 9 capítulos nos quais são apresentados os principais temas e problemas que permeiam a filosofia da tecnologia. No primeiro capítulo da obra, Cupani enfatiza a complexidade que envolve o estudo filosófico da tecnologia.

As dificuldades iniciam quando os investigadores se propõem a responder a seguinte questão: o que é a tecnologia? Diferentes filósofos profissionais buscaram respostas para essa indagação. Dentre as múltiplas definições e caracterizações existentes sobre a tecnologia, Cupani destaca aquela apresentada pelo filósofo norteamericano Carl Mitcham (1994) que compreende a tecnologia i) como objeto, ii) como conhecimento, iii) como atividade humana e iv) como volição. Além da problemática conceitual, o autor considera que a tecnologia tem implicações filosóficas distintas que repercutem de diferentes formas nas diversas áreas da filosofia. Assim, muitas teses filosóficas desenvolvidas ao longo da tradição poderiam ser repensadas e/ou reavaliadas a partir de ponto de vista tecnológico.

O segundo capítulo é dedicado aos pensadores clássicos da área, como o espanhol José Ortega y Gasset (1939), os alemães Martin Heidegger (1954) e Arnold Gehlen (1949) e o francês Gilbert Simondon (1958), que contribuíram para a consolidação da filosofia da tecnologia como uma disciplina. Cupani apresenta as peculiaridades argumentativas desenvolvidas por cada um deles para fundamentar uma concepção de tecnologia. Apresenta-nos assim, um Ortega y Gasset que concebe a tecnologia como um tipo específico de reforma que o homem impõe à natureza com o objetivo de satisfazer suas necessidades, sejam elas básicas ou supérfluas, pois o homem não quer apenas viver, mas deseja viver bem. Em seguida, expõe de forma precisa o enfoque ontológico e metafísico desenvolvido por Heidegger sobre a técnica, reconstruindo a crítica heideggeriana à concepção antropológica e instrumental da técnica. As ideias do filósofo e sociólogo Arnold Gehlen sobre a tecnologia são apresentadas logo após e Cupani retoma as principais teses relacionadas à ambigüidade da técnica, às relações e semelhanças da técnica com a magia, ao prolongamento técnico dos membros e das capacidades humanas. Por fim, Cupani apresenta a posição do filósofo francês Gilbert Simondon que chama a atenção para a falta de compreensão do mundo tecnológico e a necessidade de se filosofar sobre a técnica. Perspectivas otimistas são contrapostas com abordagens críticas e não-otimistas. Todos os autores apresentados consideram fundamental direcionar o pensamento filosófico à tecnologia.

O terceiro capítulo é dedicado principalmente às ideias do historiador norteamericano Lewis Mumford (1934, 1967 e 1970), um dos mais expressivos estudiosos da filosofia da tecnologia pelo seu viés historiográfico, que esboça uma história do progressivo desenvolvimento tecnológico da espécie humana e analisa o papel que a técnica exerceu na civilização ocidental, apontando diferentes estágios de seu desenvolvimento.

Neste capítulo, Cupani apresenta o interessante argumento de Mumford segundo o qual o relógio (e não a máquina de vapor) é a máquina-chave da era industrial.

Um dos principais pontos deste capítulo está relacionado à compreensão da relação entre o homem e a máquina, pois “vivemos numa civilização da máquina”, diz Cupani, mas seria um exagero considerá-las uma maldição ou a causa de todos os nossos problemas.

No quarto capítulo da obra, nos deparamos com uma abordagem analítica da filosofia da tecnologia fundamentada predominantemente nos escritos do filósofo Mario Bunge (1974, 1985a e 1985b). Um dos primeiros pontos explorados é a distinção entre “técnica” e “tecnologia”. Ambas são caracterizadas pela produção de algo artificial, isto é, de um artefato. No entanto, a primeira designa um controle ou transformação da natureza com elementos pré-científicos e a segunda envolve necessariamente um embasamento científico moderno. O enfoque analítico da filosofia da tecnologia busca compreender a tecnologia como uma atividade planificada, que possui métodos, que utiliza e ao mesmo tempo desenvolve conhecimentos e que é orientada por um conjunto de valores, normas e regras específicas. Neste capítulo, Cupani concede espaço à discussão sobre a distinção entre ciência pura, ciência aplicada e tecnologia. Este debate vem sendo realizado há um longo período, mas as fronteiras entre essas áreas ainda não foram definidas com precisão. Além das linhas demarcatórias serem tênues, há posições alternativas que questionam a viabilidade da manutenção das mesmas. A tecnociência, por exemplo, sustenta que a ciência e a tecnologia encontram-se fundidas de tal modo que é inviável tentar compreendê-las separadamente. Na parte final do capítulo, há duas seções dedicadas as i) questões ontológicas e epistemológicas; e ii) as questões axiológicas e éticas suscitadas pela tecnologia. Desta forma, Cupani demonstra como podemos abordar analiticamente a tecnologia.

Como vimos até aqui, a filosofia da tecnologia comporta diferentes abordagens. A abordagem fenomenológica da tecnologia é desenvolvida no quinto capítulo do livro no qual Cupani discute predominantemente com Don Ihde (1990), Hubert L.

Dreyfus (1992) e Albert Borgmann (1984). O autor ressalta a forma como o filósofo norte-americano Don Ihde i) rejeita a noção de neutralidade científica e o modo como o mesmo ii) explora a relação entre eu — tecnologia — mundo que faz com que a tecnologia deixe de ser compreendida como um instrumento neutro e passe a ser compreendida como “encarnada” ou “incorporada”, interferindo diretamente nas experiências que temos. Em relação ao pensamento de Dreyfus, Cupani reconstrói as críticas do filósofo norte-americano ao programa de Inteligência Artificial (IA) que tinha a ambição de produzir supermáquinas tão ou mais inteligentes que o próprio homem. No entanto, “o nosso risco não é o advento de computadores superinteligentes, mas o de seres humanos subinteligentes” (Dreyfus 1992, p.280). A postura que Albert Borgmann exerce perante a tecnologia é de uma riqueza impressionante, pois ele consegue captar e descrever detalhadamente muitos aspectos que não são percebidos ou valorizados em um enfoque “objetivista”, afirma Cupani. Nesse contexto, a tecnologia é concebida como um modo de vida específico da Modernidade e deve ser compreendida como um fenômeno básico e não como consequência de fatores sociais, econômicos ou políticos. São particularmente interessantes as duas formas de vida humana geradas pelo paradigma das coisas e o paradigma dos dispositivos apresentados originalmente por Borgmann e retomados aqui pelo autor do livro.

O vínculo entre tecnologia e poder é o tema central do sexto capítulo. Nele Cupani recorda que a relação entre tecnologia e poder já tem uma longa tradição dentro do cenário filosófico, mas concentra a sua análise sobre tecnologia e poder nos filósofos norte-americanos Langdon Winner (1986) e Andrew Feenberg (1999) com intuito de explorar as discussões filosóficas mais recentes. O primeiro ficou famoso pela abordagem sustentada em seu prestigiado artigo Do artifacts have politics? no qual concebeu a tecnologia como possível portadora de qualidades políticas, como aquelas que condicionam o modo de vida das pessoas ou aquelas outras que parecem impor condições sociais e estruturas de poder. Se Winner — e seus diversos exemplos — exploram a dominação e o poder que a tecnologia exerce sobre o homem, Feenberg trilha um caminho alternativo, buscando apresentar propostas para resistirmos ao poder exercido pela tecnologia, argumenta Cupani. A forma como essas duas teses são apresentadas, permitem ao leitor — seja ele iniciante ou esteja ele inserido há mais tempo na tradição filosófica — compreender e indagar sobre os possíveis pressupostos políticos que determinados artefatos tecnológicos ostentam ou representam.

A natureza do conhecimento tecnológico é o assunto apresentado no sétimo capítulo do livro. Cupani retoma o pressuposto de que a tecnologia não é apenas um prolongamento da ciência e reconstrói as diversas críticas apresentadas à concepção de tecnologia como ciência aplicada. Além disso, o autor busca apresentar algumas das peculiaridades do conhecimento tecnológico e faz isso utilizando autores como Javier Jarvie (1967), Henryk Skolimowski (1966), Walter Vincenti (1990) entre outros mais. O capítulo apresenta uma interessante comparação entre o conhecimento científico e o conhecimento tecnológico, demonstrando as sutilezas e as peculiaridades que há em cada uma dessas áreas. As questões clássicas relacionados ao conhecimento como “crença verdadeira justiçada” e a (in)viabilidade da manutenção desta concepção também são exploradas.

O capítulo oitavo é reservado à discussão dos impactos que a tecnologia produz nas diferentes culturas. Cupani (2011, p. 187) se propõe a “analisar o modo como os vários autores descrevem as diversas maneiras em que o saber tecnológico e suas produções influenciam a sociedade a que se incorporam, modificando sua cultura e, por conseguinte, a personalidade de seus membros”. Pontos como a supervalorização dos meios em relação aos fins, a universalização das normas técnicas, a mudança na percepção do tempo, a tendência de reduzir o conhecimento à informação, assim como a própria alteração da personalidade são explorados pelo autor. Assim, o autor apresenta um interessante cenário no qual a visão otimista tradicional em relação à tecnologia é questionada à medida que somos convidados a apreciar os impactos culturais provocados pelas diversas tecnologias nas mais distintas esferas culturais.

A questão do determinismo tecnológico é tratada no último capítulo do livro. São retomadas ideias de Winner (1986) e de Jacques Ellul (1954). Em relação a Ellul, Cupani desenvolve a hipótese de que a tecnologia esteja fora de controle por produzir consequências — muitas vezes não intencionais — imprevisíveis. Nesse sentido, Cupani considera que “a possibilidade de dirigir os sistemas tecnológicos para fins claramente percebidos, conscientemente escolhidos e amplamente compartilhados torna-se cada vez mais duvidosa”. Além disso, o autor explora as características da técnica moderna que a diferenciam da técnica antiga. O caráter autônomo da tecnologia acaba minimizando a possibilidade de escolha dos seres humanos, pois a ela se dá a partir daquelas opções fornecidas pela própria técnica. Em outras palavras, somos condicionados a escolher aquela opção que aparenta ser a mais eficiente. A autonomia da tecnologia é compreendia como uma espécie de autoimposição por ela ter suas próprias regras. Todas aquelas ações que são contrárias ou que não obedecem ao ideal de eficiência não parecem muito sensatas, considera o autor.

Por fim, cabe apenas ressaltar que o livro Filosofia da tecnologia: um convite contempla os principais temas e problemas relacionados à tecnologia, possibilitando que o leitor tenha contato com os principais referenciais teóricos da área e se sinta convidado a prosseguir com investigações filosóficas. O convite está feito.

Referências

Borgnann, A. 1984. Technology and contemporary life: a philosophical inquiry. Chicago: The University of Chicago Press.

Bunge, M. 1974. Technology as applied science. In: F. Rapp (ed.) Contributions to a philosophy of technology. Dordrecht: D. Reidel, p.19–39.

———. 1985a. Philosophy of science and technology: part I: formal and physical sciences. Dordrecht: Reidel.

———. 1985b. Philosophy of science and technology: parte II: life science, social science and technology. Dordrecht: Reidel.

Cupani, A. O. 2008. A relevância da filosofia da tecnologia para a filosofia da ciência. Episteme (Porto Alegre) 28: 26–38.

———. 2004. A tecnologia como problema filosófico: três enfoques. Scientiae Studia 2(4): 493–518.

———. 2006. La peculiaridad del conocimiento tecnológico. Scientiae Studia 4: 353–72.

Dreyfus, H. L. 1992. What computers still can’do: a critique of artificial reason. Cambridge: The MIT Press.

Ellul, J. 1964. The technological society. New York: Vintage Books (Trad. de La technique ou l’jeu du siècle, 1954).

Feeberg, A. 1999. Questioning technology. London: Routledge.

Gehlen, A. 1980 [1949]. Man in the age of technology. New York: Columbia University Press (Trad. de Die Seele im Technischen Zeitalter, 1957).

Heidegger, M. 1997. A questão da técnica. São Paulo: USP, (Cadernos de Tradução da USP, n.2) (Trad. de Die Frage nach der Technik, 1954).

Ihde, D. 1990. Technology and the lifeworld: from garden to earth. Bloomington: Indiana University Press.

Jarvie, J. 1983 [1967]. Technology and the structure of knowledge. In: C. Mitcham; R. Mackey (eds.) Philosophy and technology. New York: The Free Press, p.54–61.

Mitcham, C. 1994. Thinking through technology: the path between engineering and philosophy.

Chicago: The University of Chicago Press, Mumford. L. 1963 [1934]. Technics and civilization. New York: Harcourt Brace.

———. 1967. Technics and human development. New York: Harcourt Brace, (The Myth of the Machine, v.1).

———. 1970. The pentagon of power. New York: Harcourt Brace, (The Myth of the Machine, v.2).

Ortega y Gasset, J. 1965. Meditación de la técnica. (orig. 1939). Madrid: Espasa-Calpe.

Simondon, G. 1989. Du mode d’istence des objets techniques. (orig. 1958). Paris: Aubier.

Skolimowski, H. 1983. The structure of thinking in technology. (orig. 1966). In: C. Mitcham; R. Mackey, Philosophy and technology: readings in the philosophical problems of technology. New York: The Free Press, p. 42–9.

Vincenti, W. G. 1990. What engineers know and how they know it. London: The John Hopkins University Press,.

Winner, L. 1986. The whale and the reactor: a search for limites in an age of high technology. Chicago-London: The University of Chicago Press.

Gilmar Evandro Szczepanik – Doutorando em filosofia Programa de Pós-Graduação em Filosofia Universidade Federal de Santa Catarina BRASIL. E-mail: cienciamaluca@yahoo.com.br

O caminho desde a Estrutura: ensaios filosóficos 1970-1993 – KUHN (P)

KUHN, Thomas S. O caminho desde a Estrutura: ensaios filosóficos 1970-1993 (Com uma entrevista autobiográfica).  Editado por James Conant e John Haugeland. Traduzido por Cezar Mortari. São Paulo: Editora UNESP, 2006. Resenha de: DAL MAGRO, Tamires. Principia, Florianópolis, v. 16, n. 2, p.345–352, 2012.

Originalmente publicado em 2000, nos Estados Unidos, temos desde 2006 disponível em português O caminho desde a Estrutura, de Thomas Kuhn, em tradução de Cezar Mortari (UFSC), que registra o pensamento desse autor entre 1970 e 1993.

Os editores, James Conant e John Haugeland (ambos da Universidade de Chicago), dividiram o livro em três partes, com 11 capítulos ao total, além de uma entrevista e uma listagem das publicações de Kuhn ao final. A primeira parte, “Reconcebendo as revoluções científicas”, trata de revoluções, incomensurabilidade e a filosofia histórica da ciência. A segunda, “Comentários e réplicas”, contém algumas respostas de Kuhn a seus críticos, em particular no que diz respeito à mudança de teorias, racionalidade e objetividade na ciência e à distinção entre ciências naturais e humanas.

Por fim, a terceira parte, “Um debate com Thomas Kuhn”, contém uma entrevista autobiográfica. Essa coletânea é sem dúvida o registro mais importante disponível atualmente dos textos tardios de Kuhn, sendo especialmente esclarecedor acerca de questões que foram polêmicas no período imediatamente posterior à publicação de A estrutura das revoluções científicas (doravante: Estrutura). Houve mudanças importantes no pensamento e nas formulações de Kuhn durante esse período, mas que são pouco conhecidas do hoje vasto público leitor da Estrutura.

Publicado inicialmente em 1962, a Estrutura pode ser considerado o livro mais influente da filosofia da ciência do século vinte. Além de romper com alguns padrões que predominaram na filosofia da ciência da primeira metade do século passado, que tendiam a privilegiar discussões e abordagens abstratas e metodológicas, o livro mostrou, talvez definitivamente, que qualquer análise adequada da ciência tem de levar em conta também a sua história. A recepção inicial da obra na década de 1960 foi controvertida, e um registro disso pode ser encontrado em A crítica e o desenvolvimento do conhecimento, organizada por Lakatos e Musgrave (1a¯ ed. 1970). Autores como Popper, Lakatos e Laudan acusaram a abordagem kuhniana de ser relativista, psicologista, dogmática e irracionalista, criticando especialmente alguns dos conceitos introduzidos por Kuhn, como os de ‘revolução científica’ e ‘incomensurabilidade’, e também o papel dado pelo autor a elementos não-observacionais — ideologia, comportamento social dos cientistas, capacidade de persuasão, inclinações metafísicas etc. — na escolha entre teorias nos períodos de revolução. Kuhn recusou essas críticas e dedicou boa parte do seu trabalho posterior a responder e reformular seu pensamento à luz dessa recepção inicial.

Nesta resenha destacaremos apenas os textos de O caminho desde A estrutura (doravante: O caminho) que tratam diretamente desses três tópicos (revoluções científicas, incomensurabilidade e os critérios de escolha entre teorias rivais), comparandoos com o pensamento de Kuhn na Estrutura e no artigo “Objetividade, juízo de valor e escolha de teoria”, que faz parte da coletânea A tensão essencial (1a¯ ed. 1977), do mesmo autor.

Revoluções científicas

Na Estrutura, Kuhn notoriamente empregou o conceito de revolução científica de modo a salientar os aspectos não cumulativos do desenvolvimento da ciência. A história da ciência, ele diz, contém rupturas. Essas rupturas marcam a emergência de novos paradigmas: “os cientistas adotam novos instrumentos e orientam seu olhar em novas direções” e passam a ver “coisas novas e diferentes quando, empregando instrumentos familiares, olham para os mesmos pontos já examinados anteriormente” (Estrutura, p.147). Contudo, “na medida em que seu único acesso a esse mundo dá-se através do que veem e fazem, poderemos ser tentados a dizer que, após uma revolução, os cientistas reagem a um mundo diferente” (Estrutura, p.148).

Essas passagens da Estrutura levaram alguns autores a perceber Kuhn como um relativista em ciência1. Em “O que são revoluções científicas?” (O caminho, pp.23–45), Kuhn rejeita esse tipo de leitura, e explica suas próprias concepções dizendo que as hipóteses elaboradas após uma revolução nem sempre podem ser adequadamente descritas na linguagem do paradigma anterior. As alterações que ocorrem em uma revolução não se limitam ao que é previsto pelas teorias em questão, mas afetam também a ontologia da ciência e o modo como se pensa e se descreve os objetos, bem como a prática científica (métodos, instrumentos, comportamentos dos cientistas etc.). Nesse mesmo artigo, Kuhn destaca três características do que ele entende por mudança revolucionária na ciência: i) Mudanças revolucionárias são mudanças holísticas, no sentido de que afetam a rede conceitual inteira da ciência, bem como o modo como os cientistas percebem seus objetos e os instrumentos que usam. Nessas mudanças o que ocorre não é somente uma revisão ou acréscimo em alguma hipótese ou lei anterior enquanto o resto da teoria permanece inalterado. Esse tipo de mudança mais localizada pode e de fato ocorre em períodos não-revolucionários, ou de ‘ciência normal’, como Kuhn diz. Na mudança revolucionária, são vários enunciados gerais (hipóteses, leis etc.) inter-relacionados que precisam ser revisados, e isso acaba gerando alterações globais na teoria e prática da ciência.

O modo como os termos científicos ligam-se com seus referentes muda — na Estrutura, Kuhn falava de mudança de ‘significado’. Essa mudança altera não somente os critérios pelos quais os termos ligam-se à natureza, mas os objetos mesmos: “o conjunto de objetos ou situações a que esses termos se ligam” (O caminho, p.42).

Alteram-se as categorias taxonômicas usadas para as descrições e generalizações científicas.

Isso implica em uma redistribuição dos objetos em novas categorias, que são interdefinidas. Essa mudança, portanto, está arraigada “na natureza da linguagem, pois os critérios relevantes para a categorização são, ipso facto, os critérios que ligam os nomes dessas categorias ao mundo” (O caminho, p.43).

iii) Muda o “modelo, metáfora ou analogia” usado pelos cientistas. Em outras palavras, alteram-se os padrões de similaridade e diferença entre tipos de fenômenos.

Na física de Aristóteles, “a pedra que cai era como o carvalho que cresce ou como a pessoa convalescente de uma doença” (O caminho, p.43). Padrões de similaridade como este colocam fenômenos diferentes na mesma categoria taxonômica. Esses padrões são ensinados aos estudantes das respectivas disciplinas científicas por meio de exemplos concretos exibidos por pessoas que já os reconhecem. Em períodos de revolução, esses padrões de similaridade e as metáforas que os acompanham são substituídos. Sem esses padrões e metáforas, a linguagem científica não tem como ser adquirida adequadamente, pois é por meio deles que se aprende a conectar os termos científicos aos fenômenos naturais percebidos. Em boa parte do aprendizado da linguagem, o conhecimento das palavras e o conhecimento da natureza são adquiridos conjuntamente. Na verdade, esta é uma das principais características reveladas pelas revoluções científicas: o conhecimento da natureza mostra-se inseparável da própria linguagem que expressa esse conhecimento. Assim, “a violação ou distorção de uma linguagem científica anteriormente não problemática é a pedra de toque para a mudança revolucionária” (O caminho, p.45).

Essas três características compõem a concepção tardia de Kuhn sobre revoluções científicas. Na Estrutura, Kuhn falava ainda de revoluções como mudança de paradigmas. A palavra ‘paradigma’, no entanto, mostrou-se bastante ambígua,2 e foi substituída por Kuhn já no Posfácio da Estrutura (publicado em 1970) pelas noções de ‘matriz disciplinar’ e ‘exemplar’. Em textos posteriores, como no artigo de O caminho mencionado acima, Kuhn fala de alterações taxonômicas, ou ainda em alterações nas estruturas lexicais (ver abaixo). Além disso, na Estrutura Kuhn sugere que revoluções científicas acarretam em uma mudança de mundo (ver as passagens da Estrutura, pp.147 e 148, citadas acima), algo que foi interpretado como um enunciado excessivamente relativista. Em textos posteriores, ele evita esse tipo de formulação, tratando as mudanças revolucionárias como mudanças nos léxicos que descrevem o mundo e não como mudanças no mundo mesmo.

Incomensurabilidade

Os textos reunidos em O caminho registram também mudanças nas formulações de Kuhn a respeito da noção de incomensurabilidade. Na Estrutura, ele afirmava que um paradigma que orienta a pesquisa científica depois de uma revolução é incomensurável com os paradigmas anteriores. Haveria, então, com a revolução, uma redefinição dos métodos, problemas relevantes e padrões de solução e de evidência aceitos numa disciplina. Mas, além disso, algumas passagens da Estrutura parecem sugerir que teorias de paradigmas diferentes seriam incomparáveis, pois expressariam visões de mundo diferentes ou apresentariam mundos diferentes. Por isso, não haveria como escolher racionalmente entre elas — novamente, algo que foi lido como um elemento relativista do pensamento de Kuhn. As formulações tardias da noção de incomensurabilidade são notoriamente mais fracas. Dois artigos de O caminho, em particular, tratam desse ponto: “Comensurabilidade, comparabilidade, comunicabilidade” (pp.47–76) e “O caminho desde a Estrutura” (pp.115–32). No primeiro, Kuhn apresenta o que chama de incomensurabilidade local, que é caracterizada em termos da intraduzibilidade de algumas noções centrais e interdefinidas de um léxico para o vocabulário de outro léxico. Não haveria, nesses casos, uma linguagem comum para a qual duas teorias de léxicos diferentes possam ser traduzidas sem deixar resíduos ou perdas. Isso, no entanto, não implicaria incomparabilidade, pois seriam apenas alguns termos centrais de uma teoria que não poderiam ser traduzidos para o vocabulário de outra.3 A maioria dos termos, em particular boa parte dos termos diretamente ligados a fenômenos observáveis, seriam intertraduzíveis e funcionariam de maneira semelhante nas teorias em questão. Dessa maneira, poder-se-ia comparar duas teorias por meio das previsões de observações que cada uma faz. Essa é uma versão mais modesta da noção de incomensurabilidade do que supuseram boa parte dos críticos iniciais de Kuhn. Sobre esse ponto, há uma divergência na literatura secundária. Howard Sankey (1993) sustenta que Kuhn alterou seu pensamento a esse respeito e identifica três formulações distintas da tese da incomensurabilidade; Hoyningen-Huene (1993), por outro lado, afirma que não houve mudança substancial no pensamento de Kuhn, mas apenas no modo de expressá-lo.4 O próprio Kuhn reconhece, no entanto, ao menos isto: que o uso da noção de incomensurabilidade na Estrutura era mais abrangente que seu uso tardio.

Em particular, envolvia não apenas intraduzibilidade de certos termos centrais interdefinidos de um léxico, mas também diferenças nos métodos, campo de problemas e padrões de solução (O caminho, p.48, nota 2).

Contudo, mesmo essa nova formulação da incomensurabilidade sofreu críticas: se não há como traduzir completamente teorias antigas para a linguagem moderna, então como é possível que um historiador da ciência, como o próprio Kuhn, reconstrua teorias antigas e as reapresente na linguagem contemporânea? Isso não seria, justamente, um caso de tradução?5 Kuhn responde a essa crítica dizendo que para compreender um vocabulário novo ou desconhecido podemos ou traduzi-lo para nossa língua materna ou aprender a falar a língua estrangeira. O que historiadores como ele próprio e outros fazem ao descrever teorias do passado é ensinar como aquela língua do passado era falada. Disso não se segue, no entanto, que os termos descritos sejam traduzíveis para o vocabulário da ciência contemporânea, nem que a teoria descrita pelo historiador seja por ele aceita ou adotada. Por exemplo, termos como ‘flogístico’, ‘elemento’ e ‘princípio’ não têm como ser traduzidos para o vocabulário da química contemporânea. Mas isso não nos impede de aprender a usar essas palavras da maneira como elas eram usadas pelos adeptos da teoria do flogisto.

Além disso, a intraduzibilidade parcial não impede a comunicação entre comunidades com taxonomias diferentes. É possível aprender a linguagem de uma taxonomia diferente, e isso torna o indivíduo que aprende bilíngue, mas não necessariamente tradutor.6 No artigo que dá o título ao livro, “O caminho desde A estrutura”, a incomensurabilidade é apresentada como uma relação entre taxonomias lexicais, ou simplesmente léxicos. Cada léxico pode produzir um leque de enunciados e teorias diferentes, mas há também enunciados que ele não pode expressar, embora possam sê-los em outro. Um exemplo é o enunciado copernicano “os planetas giram em torno do sol” em contraste com o enunciado ptolemaico “os planetas giram em torno da Terra”. Esse exemplo ilustra a diferença entre duas taxonomias, pois esses enunciados não são distintos simplesmente em relação aos fatos, mas em relação ao termo “planeta”: a Terra não é um planeta no sistema ptolemaico.

Critérios de escolha entre teorias rivais

A primeira descrição dos períodos de ‘crise-revolução’ na Estrutura, em que Kuhn trata do modo como ocorre a escolha científica entre teorias rivais, gerou reações críticas fervorosas por parte de alguns filósofos da ciência, tais como Lakatos 1979, Popper 1979, e Laudan 2001. A abordagem de Kuhn na Estrutura retrata a escolha científica como guiada não somente por critérios lógicos e observacionais, mas influenciada por fatores sociológicos, psicológicos, metafísicos e técnicas de persuasão.

Reagindo a isso, Lakatos chegou a dizer que as escolhas científicas, tal como descritas por Kuhn, não passam de “psicologia das multidões” (p.221). Rejeitando críticas desse tipo, em “Objetividade, juízo de valor e escolha de teoria” (2011c), Kuhn destaca cinco características de uma boa teoria científica: precisão preditiva, coerência interna e externa, abrangência, simplicidade e fecundidade. Esses critérios são bastante usuais e difundidos. No entanto, sua aplicação é difícil. Na escolha entre teorias rivais, cientistas comprometidos com os mesmos critérios podem chegar a resultados diferentes. Isto porque esses critérios, quando aplicados em conjunto, podem entrar em conflito. Por exemplo, uma teoria pode ser mais simples enquanto outra é mais abrangente. Nesse caso, a escolha dependerá do peso dado a cada critério, ou da interpretação que se dá a cada um. Não há um algoritmo que uniformize os procedimentos de decisão nesses casos, como pretenderam, por exemplo, Lakatos e Laudan.

Kuhn propõe que aqueles cinco critérios sejam tratados não como regras que determinariam univocamente a escolha, mas como valores que influenciam as decisões.

Isso permite que cientistas comprometidos com os mesmos valores façam escolhas diferentes em algumas situações, como de fato ocorre. Os valores não funcionam, portanto, como um algoritmo, mas mesmo assim não deixam de guiar objetivamente as escolhas. Essa, em resumo, é a resposta de Kuhn para as críticas de irracionalismo que sofreu nesse ponto. Há critérios objetivos para a escolha de teorias rivais em períodos de revolução, embora esses critérios não determinem univocamente as escolhas.

Isso, no entanto, é uma vantagem na opinião de Kuhn, pois explica aspectos do comportamento científico que haviam sido tomados pela tradição como anômalos (escolhas teóricas divergentes mesmo na presença de indícios observacionais e teóricos compartilhados). Outra vantagem é que a discordância no interior da comunidade científica é fundamental para que novas teorias possam surgir, o que não ocorreria se não houvesse divergências. Do mesmo modo, justamente por discordarem, alguns cientistas permanecem trabalhando na teoria mais antiga permitindo que ela possa responder com “atrativos equivalentes” à sua rival. Assim, parece indispensável que os critérios funcionem como valores, pois isso distribui “o risco que sempre está envolvido na introdução de uma novidade, ou em sua manutenção” (2011c, p.352). Isso, em outras palavras, é parte da “tensão essencial” que é constitutiva da ciência. O tema é retomado em “Racionalidade e escolha de teorias”, outro artigo que faz parte de O caminho.

De um modo geral, os textos tardios de Kuhn reunidos em O caminho contêm ao menos duas características salientes em relação às obras anteriores: em primeiro lugar, tendem a enfatizar o aspecto realista de seu pensamento, que caracteriza a atividade científica como guiada por critérios de escolha e valores objetivos compartilhados pela comunidade científica, opondo-se dessa maneira à reação inicial que a Estrutura provocou em seus leitores, especialmente nas décadas de 1960 e 1970.

Em segundo lugar, as teses defendidas tendem a ser formuladas de maneira mais linguística. A noção de paradigma cede lugar à de léxico, a tese da incomensurabilidade é apresentada em termos de intraduzibilidade parcial e as revoluções científicas são descritas como mudanças nas categorias taxonômicas ou lexicais. Com relação ao primeiro ponto, de fato parece ter havido uma leitura apressada ou pouco caridosa da Estrutura por parte de sua primeira geração de leitores. Contudo, ao menos em parte, o próprio Kuhn pode ter sido responsável por isso, uma vez que algumas passagens prestam-se a leituras relativistas ou psicologistas. Com relação ao segundo ponto, a formulação das teses de Kuhn em termos mais linguísticos parece ter produzido mais precisão conceitual, mas é possível que tenha havido nesse caso também algumas perdas. A noção de ‘paradigma’ da Estrutura, por exemplo, engloba não apenas compromissos teóricos explicitamente formuláveis em termos linguísticos, mas também práticas, comportamentos e modos de perceber a realidade que não se deixam claramente descrever em termos linguísticos. Esses aspectos da antiga noção de paradigma são mais difíceis de apresentar com a nova terminologia. Seja como for, a obra tardia de Kuhn é uma referência indispensável e altamente frutífera para todos aqueles interessados nos temas centrais da filosofia da ciência contemporânea. Sua leitura é altamente recomendável.

Referências

Chalmers, A. F. 1983. O que é ciência afinal? Trad. Raul Fiker. São Paulo: Brasiliense.

Davidson, D. 1974. The very idea of a conceptual scheme. Proceedings and Addresses of the American Philosophical Association 47: 5–20.

Feyerabend, P. 1987. Putnam on incommensurability. The British Journal for the Philosophy of Science 38(1): 75–81.

Hacking, I. 2002. Historical ontology. Cambridge: Harvard University Press.

Hoyningen-Huene, P. 1993. Reconstructing scientific revolutions. London: The University of Chicago Press.

Hoyningen-Huene, P. & Oberheim, E. 2012. A incomensurabilidade das teorias científicas. Trad. por Laura Machado Nascimento. Investigação Filosófica, E2. Disponível em: http://investigacao-filosofica.blogspot.com.br/p/verbetes-da-enciclopedia-investigacao_ 8.html. Acesso em: 10/10/2012.

Kitcher, T. 1993. The advancement of science. Oxford: Oxford university Press.

Kuhn, T. S. 2006. O caminho desde A estrutura. Trad. Cezar Mortari. São Paulo: UNESP.

———. 2011a. A estrutura das revoluções científicas. Trad. Beatriz Vianna Boeira e Nelson Boeira. São Paulo: Perspectiva [1a¯ ed. americana 1962].

———. 2011b. A tensão essencial. Trad. Marcelo Amaral Penna-Forte, São Paulo: UNESP. [1a¯ ed. americana 1977] ———. 2011c. Objetividade, juízo de valor e escolha de teoria. In Kuhn 2011b, pp.339–59.

Lakatos, I. Falseamento e a metodologia dos programas de pesquisa científica. In: Lakatos and Musgrave 1979, pp.109–243.

Lakatos, I. & Musgrave, A. (eds.) 1979. A crítica e o desenvolvimento do conhecimento. Trad. O. M. Cajado, São Paulo: Cultrix.

Laudan, L. 2001. O progresso e seus problemas: rumo a uma teoria do crescimento científico. Trad. Roberto Leal Ferreira, São Paulo: UNESP.

Masterman, M. A natureza do paradigma. In: Lakatos and Musgrave 1979, pp.72–108.

Popper, K. R. A ciência normal e seus perigos. In: Lakatos and Musgrave 1979, pp.63–71.

Putnam, H. 1981. Reason, truth, and history. Cambridge: Cambridge University Press.

Sankey, H. 1990. In defence of untranslatability. Australasian Journal of Philosophy 68: 1–21.

———. 1993. Kuhn’s changing concept of incommensurability. The British Journal for the Philosophy of Science 44: 759–74.

Notes

1 Ver, por exemplo, Lakatos 1970, pp.111, 112, 220–24; Chalmers 1983, pp.145–49; e Laudan 1977, pp.6–8.

2 Sobre esse ponto, ver Masterman 1979.

3 Esse ponto é controvertido na literatura. Sankey (1993) defende a tese da intraduzibilidade de alguns termos centrais de paradigmas diferentes. Kitcher (1993), por outro lado, procura mostrar como até mesmo para esses termos centrais podem-se formular regras de tradução. Hacking (2002), por sua vez, prefere evitar tratar desses problemas como questões de tradução e prefere usar as noções de ‘estilo de raciocínio’ e ‘interpretação’.

4 Ver também Hoynengen-Huene & Oberheim 2012.

5 Ver, por exemplo, Davidson 1974 e Putnam 1981.

6 Sobre esse ponto, ver também Feyerabend 1987.

Tamires Dal Magro – Universidade Federal de Santa Maria Santa Maria, RS BRASIL tamiresdma@gmail.com

Mécanique Quantique: Une Introduction Philosophique – BITBOL (P)

BITBOL, M. Mécanique Quantique: Une Introduction Philosophique. Paris: Flammarion, 1996, 471p. Resenha de: SCHINAIDER, Jailson. Principia, Florianópolis, v.16, n.1, p.185–208, 2012.

Tentar responder o que Bitbol chama de “paradoxo quântico”, a saber, dizer sobre o que a mecânica quântica (MQ) trata e o que ela significa “car cela même ne va pas de soi”, é o objetivo do autor em sua obra. Para isso, tenta compreender essa teoria a partir de certas atitudes tácitas que condicionam a vida do cientista, a comunicação entre seus pares e o trabalho no laboratório procurando, até mesmo, reconduzir a ciência aos gestos mais elementares de pesquisa. Todo esse arcabouço teórico e prático refletiria, segundo o autor, as condições de possibilidade para a objetivação dos resultados experimentais, já que até a própria forma de manipulação experimental selecionada pelo cientista depende de critérios de escolha que vão trazer à tona uma ou outra característica do objeto quântico.

Para Bitbol devemos, neste sentido, primeiramente colocar à parte a eficácia da MQ em dizer como a realidade funciona do que se crê ser a natureza dessa realidade.

Com efeito, diz ele, ao dotarmos as partículas quânticas como entidades que possuem propriedades (sejam essas propriedades o que forem), acabamos por tornar esses ‘objetos’ presos ou diluídos nos próprios pressupostos que subsistem na linguagem empregada e às circunstâncias familiares de seu emprego (algo como se os moldássemos, ab initio, a uma pré-concepção). Segundo o autor isto causa, entre outras coisas, paradoxos que aparecem quando se confronta os enunciados experimentais quânticos com a linguagem ordinária que está maculada, às ocultas, pelo uso de substantivos e predicados. É necessário assim trazer à tona este tipo de choque da teoria com esse corpo de pressupostos já tidos de antemão, os quais tem a mecânica clássica (MC) como matriz de sua elaboração: deve-se buscar compreender o desenvolvimento conceitual dos princípios da MQ lá nos últimos fragmentos do “mobilier ontológique” (p. 9) originados em interpretações respaldadas pela física clássica.

O objetivo principal que norteia todo o livro é, assim, responder o que é o objeto quântico. Para isso a obra está organizada da seguinte forma. No cap. 1 é dada uma preparação filosófica para esta tarefa de conceituação (que por sua vez aparecerá, principalmente, no cap. 2). Se procura, entre outros objetivos, responder questões como onde repousam as interpretações do esqueleto teórico encontrado hoje e qual sistema de entidades dirige a pesquisa em física, tendo em conta as restrições operatórias formalizadas pela teoria. No cap. 3, é discutida uma das possíveis resposta a essas questões, comumente encontrada na comunidade científica e filosófica, que afirma que a teoria não refletiria nada mais que manipulações experimentais. Para o autor, esta opção aparentemente muito sóbria ocasiona graves inconvenientes (p. 10), e os próprios autores que partilhavam dessa ideia em parte ou totalmente (p. ex. Heisenberg e Bohr) não tomaram consciência de todas as consequências de tal visão. Em suma, nesse capítulo é feita então uma reflexão sobre os limites do instrumentalismo. No cap. 4 é feita uma análise interpretativa do vocabulário e das representações corpusculares que ainda permanecem respaldadas a despeito das críticas a elas endereçadas. É necessário, diz o autor, ver a que preço elas podem ser mantidas. O conceito de propriedade de um objeto é colocado, já no início, em discussão a partir de duas frentes: as propriedades imediatamente acessíveis e as ocultas, que só se manifestariam indiretamente (através de ‘ações’ experimentais) e que devem levar em conta, de um modo indissociável, a configuração de um aparelho que as modifica. Examinam-se também os conceitos que alicerçam a individualização e reidentificação dos corpúsculos quânticos e, por sua vez, algumas soluções para o caractere não individual desses objetos. A quinta e última parte concerne à análise das novas ontologias que se oferecem como uma (nova) possível interpretação exata dos símbolos da teoria, ao invés que como “survivances de phases atérieures de l’entreprise de connaître” (p. 11). O autor questiona se o enigma que persiste na MQ não estaria relacionado ao fato de exigirmos uma teoria que diz alguma coisa do mundo de um modo representativo e simbólico enquanto que, por outro lado, ‘forçamo-la’ a se concentrar apenas sobre regras operatórias neutras. Para o autor, devemos então tomar consciência não mais do que é o mundo, mas sim do ser no mundo (“d’etre-dans le monde”) que somos, tentando levar em conta todas as possibilidades de nos comunicarmos e de agirmos “au sein du monde” (p. 13, grifos do autor). Em derradeiro, se apresentam três anexos que muito auxiliam as discussões contidas no texto (são eles, (1) o desenvolvimento de uma estrutura lógica de linguagens experimentais que permitam falar de dispositivos ou contextos quânticos, (2) uma demonstração do teorema (ou desigualdades) de Bell e (3) uma demonstração do teorema de Kochen e Specker).

O autor inicia suas discussões no cap. 1 afirmando que, em geral, a MQ apareceria como uma teoria que renuncia a função de explicar os fenômenos, tendo então apenas uma função preditiva. É necessário, desta forma, entender o que é uma explicação e qual a sua relação com os conceitos de descrição e de predição. Uma explicação é tradicionalmente definida como uma assignação causal ligando os acontecimentos através de uma (ou mais) leis da natureza, podendo fornecer assim um esquema dedutivo: antecedentes ! leis ! fenômenos. Para o autor, porém, esta visão não descreve uma ‘verdadeira’ explicação: uma explicação legítima também deve conseguir conectar um fenômeno conhecido às suas causas desconhecidas, tornando-se um instrumento preditivo de novos fenômenos e fazendo-a, assim, se ‘libertar’ da fragilidade indutiva que a edificou. Entre explicar, descrever e predizer existem diferenças que não seriam intransponíveis.

A explicação pressupõe, porém, a possibilidade de uma reversibilidade temporal das leis que somente é conseguida se estas são deterministas e estáveis. Quando as leis são, por sua vez, indeterministas ou os acontecimentos manifestam um comportamento caótico, temos três possibilidades. A primeira consiste em manter intacto o paradigma de irreversibilidade temporal e nos ater a uma lei de evolução de probabilidades.

A segunda se faz em invocar uma autonomia da explicação, no sentido de que se ressalta a atitude de uma teoria em conferir uma certa ‘intengibilidade’ às situações observadas (este modo de ver, afirma Bitbol, é típico das ciências históricas (p. 24)). Por último, temos uma solução que parte de prioridades epistemológicas e conduz à autonomia da predição. Neste caso é suficiente constatar que os cenários parciais ou completos que puderam conduzir a um acontecimento ‘e’ são sempre reconstitutíveis a posteriori e fazem funcionar o formalismo preditivo que esgota a possibilidade de ‘e’. Esta última alternativa pode ter críticas: em primeiro lugar, uma reconstituição não é necessariamente única e, em segundo lugar, podemos ter o caso em que devemos levar em conta as condições de atestação experimental dos processos ocorridos, pois isto altera o modo de funcionamento do formalismo preditivo. Esse é o caso da MQ.

Assim, para o autor, o que faz a especificidade da MQ não é tanto seu aspecto indeterminista, mas exatamente a distância que ela estabelece entre seu formalismo e a ocorrência de um evento: ela é um esquema preditivo condicional dependente de uma interposição instrumental. A determinação dos objetos quânticos é sempre relativa a um tipo de aparelhagem utilizada, de modo que nenhuma determinação absoluta do objeto aparece sem ser resultado de sua interação com a aparelhagem (di-ser-ia que, na microfísica, todas as propriedades dos átomos são derivadas e não existe nenhuma propriedade física imediata e direta). As teorias clássicas, por sua vez, repousam sobre a hipótese de que as coisas têm características próprias e que um dispositivo experimental apenas revela propriedades que já existem. Um resultado, em MC, é invariante pela modificação das sequências e dos tipos de aparelhos experimentais utilizados, podendo ser abstraído das condições de sua aparição e podendo ser associado a um núcleo assumido como a coisa mesma. Na MQ isto não é mais permitido: a não comutatividade dos ‘observáveis’ em MQ traduz a dependência dos resultados experimentais à sequência de utilização dos aparelhos. A perspectiva de uma perfeita invariância dos resultados de medida frente às modificações da sequência de intervenções experimentais não pode mais ser sustentada, pois cada resultado é uma ocorrência singular, determinada pela irreversibilidade dos processos que o trazem à tona e está, indissoluvelmente, ligado a uma história experimental. Nestas condições, afirmarmos que o objeto possui alguma propriedade em si mesmo, independente do contexto experimental (mesmo a teoria não exprimindo, em seu seio, a afirmação da existência ou não existência dessas propriedades) seria muito arriscado. Desta forma, o que será proposto pelo autor nos próximos capítulos consistirá em assumir esse agnosticismo estrutural (p. 30) da MQ, tentando saber quais condições e em quais circunstâncias particulares é possível ultrapassar tal agnosticismo e religar os símbolos da teoria física ao universo de coisas e de determinações próprias.

Porém, sem a representação de um nível subjacente de objetos, como então explicar o que aparece em uma experiência ou até mesmo descrever a sequência de acontecimentos que existe entre a preparação experimental e a detecção? É necessário, diz o autor, um instrumento matemático; um cálculo de probabilidades preditivo, que não se apoie sobre um quadro explicativo e que se crê não ser derivado de nenhum quadro descritivo. O que se quer é um tipo de isolamento da obra preditiva e, a partir disso, reintroduzir a figura familiar da descrição e da explicação. Para o autor, se a MQ descreve algo, é a evolução do instrumento preditivo em si mesma: a evolução do vetor de estado.

O cálculo clássico de probabilidade (CCP), porém, não é aplicável à situação em que se encontra na MQ. Com efeito os postulados aparentemente inocentes dessa teoria probabilística têm em conta vários pressupostos ontológicos como, por exemplo, que os objetos possuem propriedades pré-determinadas. Mas na MQ o conjunto de ocorrências sobre as quais se manuseiam suas valorações probabilísticas permanece indefinido enquanto um observável não é fixado. Soma-se a isso o fato de que a CCP repousa sobre alguns postulados restritivos segundo os quais a gama de possibilidades de cada um dos termos que devem ser assumidos em uma ponderação probabilística é um conjunto de sub-conjuntos de acontecimentos elementares, estruturado pelas operações de intersecção, reunião e complementação. Em MQ, porém, a conjunção é limitada ao conjunto de observáveis dito “compatíveis”. Além disso, como atestam as experiências da fendas de Young, não podemos (neste caso) conjugar os contextos experimentais dessa experiência da mesma forma que conjugamos conjuntos na teoria de probabilidades clássica, por exemplo. Com efeito, um contexto experimental em que temos as duas fendas abertas, nesta experiência, não é equivalente à ‘soma’ do contexto experimental [‘fenda 1 aberta’ + ‘fenda 2 aberta’]: é um outro contexto que possui características próprias e individuais. Neste caso, diz Bitbol, são excluídas as conjunções e disjunções de proposições onde uma experiência determinada (sujeito) seria a mesma mas onde os predicados apareceriam respectivamente a duas gamas (possibilidades) experimentais distintas de resultados possíveis. Nesses casos (da MQ) a pluralidade de contextos experimentais não tem nada de circunstância acessória e deve ser levada em conta.

O autor questiona, em sequência, em quais circunstâncias se é então autorizado a portar uma unidade de predicados para todas as gamas possíveis e/ou em quais condições se pode voltar a ter uma só gama possível, uma só linguagem experimental, e uma só lógica afirmando a unificação do contexto experimental de modo então que seja permitida a conjunção e a disjunção das proposições dessa gama. No caso de uma linguagem descontextualizada (ou seja, onde não importa o contexto), os sujeitos das proposições não precisam incluir os contextos experimentais em sua definição e os predicados operam como dando determinações absolutas dos sujeitos.

Este caso também pode antecipar outras determinações que podem ser atribuídas por outros meios e contextos experimentais a acontecer e podemos ter, assim, uma situação de objetivação que o autor chama de um “conceito transcendental de propriedade” (p. 48).

Todavia, diz ele, a necessidade de recontextualização (que tem como paradigma a MQ) se mostra, de toda a forma, contrária à não contextualidade da própria linguagem que é empregada na própria descrição de ‘contexto’ (que se dá através do uso de termos e predicados descontextualizados) e também — de um modo mais sutil— através de um programa de pesquisa pré condicionado pelo uso de substantivos e predicados já estruturados em uma linguagem que é, como dito, ab ovo descontextualizada.

O nascimento da MQ assinalaria, então, a inadequação de tais linguagens não contextuais? A discussão precedente conduz a pensar que mesmo estando tal inadequação agora já admitida, ela não apareceria claramente no discurso interpretativo formulado na linguagem utilizada para falar das coisas que estão em nosso entorno e dos aparelhos de medida que conduzem nossa forma de ação experimental.

A persistência desta forma, entre os físicos, para se poder falar de objeto de investigação experimental, manteria em estado de sobrevivência artificial as propriedades absolutas, frente à superfície das aparências relativas da utilização dos diversos contextos experimentais. A falha das (ou em se manter as) linguagens não contextuais, diz o autor, só poderia ter então duas consequências ambíguas: um discurso rasgado [“écartelé”] entre a estrutura da linguagem empregada e os sinais manifestos da sua inadequação, e uma controversa confusa e persistente de uma teoria incorporando em seu formalismo a contextualidade das determinações que ela rege. Reconhece-se aqui, diz Bitbol, a situação que tem prevalecido em todos esses anos de debate sobre a interpretação da MQ.

Em sequência, o autor então desenvolve uma linguagem experimental permitindo falar dos contextos correspondentes às diversas variantes da experiência das fendas de Young e das proposições elementares pertencentes às linguagens contextuais correspondentes. Esta linguagem é chamada pelo autor de linguagem metacontextual não distributiva, porque descreve diversos contextos e linguagens contextuais onde as proposições enunciam a implementação de contextos experimentais enumerando os estados de coisas em que estes contextos rendem possibilidades.

Ela se opõe a uma linguagem contextual onde as proposições singularizam certos estados de coisas entre os que são possíveis para um contexto experimental particular.

Esta construção é feita em três etapas (Anexo 1): (a) trabalha-se com apenas um contexto, que pode ser estruturado utilizando-se os axiomas de uma álgebra de Boole e as notações da lógica clássica, (b) extrapola-se o uso dos conectores (ou operadores) lógicos para a formação da combinação de várias linguagens contextuais (obtendo-se assim uma linguagem meta-contextual) e (c) após ter reconhecido a insuficiência destes operadores lógicos face a variedade de linguagens e de contextos experimentais derivados da experiência das fendas de Young, são introduzidos novos operadores, mais gerais, e se prova um teorema de não-distributividade que é uma variante do encontrado na “lógica quântica” de Birkhoff e von Neumann. Mostrase assim que esta linguagem meta-contextual não é, em geral, sustentada por uma lógica booleana e, segundo o autor, este resultado negativo se estende à outras linguagens meta contextuais e famílias de linguagens contextuais em todos os domínios da física, das outras ciências naturais e mesmo nas linguagens cotidianas (p. 65). É mostrado (parág. 2.2.3, p. 160) que a contextualidade das linguagens experimentais, que se manifestam no plano meta-linguístico pela não distributividade da soma e do produto lógico se traduz, nestas linguagens, em um cálculo de probabilidades para a predição de efeitos de interferência, criando um fenômeno ondulatório.

Desta forma, diz Bitbol, o que se faz é colocar entre parênteses a menção de ‘objeto de experimentação’ e introduzir somente termos fazendo referência aos instrumentos utilizados na constituição e na organização da experiência. Com efeito, as linguagens experimentais correspondentes às diversas versões da experiência de Young só fazem uso de nomes como “fonte”, “cartão”, “detectores”, “tela”, e de predicados como “impacto em tal posição” e “ativação de um detector” ou, ainda, de termos mais genéricos como “preparação”, “operação experimental (operação de medida)” e “resultado”. A “fonte” e o “cartão” são reagrupados na categoria “preparação”. Os “detectores” e “tela” na de “operação experimental”, enquanto que “ativação” ou “impacto” são os estados de coisas possíveis para a operação experimental. Um resultado (um fato) enunciado por uma proposição é a ocorrência de um dos estados de coisas ou de uma sequência de estados de coisas se a experiência é repetida a partir de uma preparação dada. Não se questiona se houve uma partícula passando através de uma fonte em preferência a outra, nem de ondas passando nas duas fendas e resultando em uma figura de interferência, e nem mesmo de acontecimentos provocados pela interação de partículas ou de ondas com a tela.

O autor comenta então sobre esta característica da ‘evasão’ do objeto físico. Segundo ele, (p. 72) deve-se diferenciar “ocorrências” que, como os corpos materiais, são ‘alguma coisa no mundo’, de “fatos”: estes últimos são o que as proposições tidas por verdadeiras enunciam. Em oposição à ocorrência, o fato não pretende constituir algo imutável. A atitude de enunciar um fato, ao meio de uma proposição, tem dois elementos: (a) um elemento paradigmático, refletindo o comportamento e as atitudes ao consenso de uma comunidade científica em uma certa época e (b) um corpo de teorias científicas delimitando mais estritamente o que as linguagens naturais podem descrever a partir de uma preparação dada, sendo que o elemento circunstancial que se identifica com um objeto é, a tal momento e sobre um certo ângulo, o resultado de uma interação com um aparelho experimental. Pode-se dizer que o que Bitbol quer é manter a noção de objeto físico, mas imaculá-lo de certos predicados pré-concebidos (como por exemplo o de reidentificação de um objeto físico através do tempo) que vêm, como ele alerta em várias passagens do texto, de uma herança herdada da física clássica. Assim, deve-se tomar cuidado para não assumirmos como qualquer verdade insuperável a pré-condição da ação e da comunicação humanas. Deve-se evitar a atitude de manter um conteúdo metafísico que a congelaria. O ponto fixo da filosofia contemporânea não é mais a “coisa” cartesiana, certa e indubitável, mas somente um conjunto de proposições formatadas de um modo estatutário. Com efeito, diz o autor, os termos designados pelas proposições experimentais (preparação, operação de medida e resultado) só tm a função modesta, mas primeira, de designar por antecipação os lugares nos quais vão se formatar as ações que tenham sucesso e de fornecer o vocabulário de futuros acordos intersubjetivos.

(Apesar disso, ressalta Bitbol, essa discussão não prova a impossibilidade de se criar uma ontologia natural dos objetos corpusculares suportando propriedades regidas pelos fenômenos da MQ.) O autor, em sequência, começa a explorar a questão da manipulação matemática das probabilidades, tanto no conceito clássico (de Kolmogorov), como nas “probabilidades quânticas”. Interessante é a apresentação que faz de cinco formas diferentes de se entender o que é probabilidade encontrada na literatura (algo que, em geral, não é apresentado ou discutido em outros livros sobre a filosofia da MQ). O autor enfatiza que, segundo o determinismo, um conhecimento exaustivo deve se converter em certezas ao invés de apenas valorações otimais de probabilidade. Sendo assim um discurso probabilístico acaba por refletir, forçosamente, um corpo de conhecimento incompleto, que não compensa a ignorância do ser humano e, desta forma, acaba também por refletir algo subjetivo. Mas o autor pergunta se a objetividade, que separa o mundo em unidades (os elementos individuais) e os singularizam em certos subconjuntos (classes de referência), também não seria algo subjetivo? Como justificar esse fracionamento, a não ser introduzido em elemento pré-crítico, subjetivo? Nestas classes, diz o autor, os mesmos elementos objetivos e subjetivos se reencontram e se misturam e, inclusive, a própria atomicidade intrínseca dos acontecimentos microscópicos não é nada de evidente: não advêm da MQ, mas de uma leitura interpretativa de seu formalismo. Resta saber se esse gênero de interpretação é imperativo e, como o autor mostra, esse não é o caso.

Em um caso extremo se tende a substituir a qualificação das probabilidades: elas são ‘subjetivas’ em oposição a ‘objetivas’, são ‘epistemológicas’ por oposição a ‘ontológicas’.

Um enunciado probabilístico poderia traduzir, assim, uma possibilidade de se aperfeiçoar gradativamente este conhecimento. Mas, diz o autor (p. 100), por um lado não existe razão para se aceitar tal posição porque não existe o ‘termo de comparação’ que poderia justificar essa restrição e, por outro, tomar como ontológicas as probabilidades quânticas seria assumir o carácter indeterminista das próprias leis da natureza em si. Todavia, a questão de saber se as leis da natureza são deterministas ou indeterministas é indecidível e inclusive os fenômenos totalmente preditíveis poderiam também ser tomados por regularidades estatísticas. A própria definição de probabilidade como frequência, por exemplo, favorece uma versão da tese da indução. Mas como estimar a probabilidade de algo que nunca aconteceu? Uma das possibilidades é admitir que o resultado de outras experiências possam ajudar a fazer tal estimação mas, neste caso, abandonamos o pensamento indutivo, já que se torna uma análise racional das ligações entre diversos protocolos experimentais.

Disso se conclui, diz o autor, que o que funda uma previsão não é tanto o resultado sequencial das experiências passadas mas o sistema articulado de projeções em direção ao futuro. O problema de Hume passaria ser o de escolher quais, entre as regularidades, ‘engatilham’ tais processos projetivos. Como o feixe de projeções espontâneas, sem regras aparentes, se coloca na perspectiva de uma regularidade de um conjunto de normas racionais por sua vez suficientes para garantir sua antecipação ainda é um problema em aberto. Princípios de simetria, probabilidades determinadas a priori conformando-se as normas racionais em virtude de alguma harmonia pré-estável entre a razão e a experiência, sempre acabam por depender de um alicerce metafísico. Privado de transcendentalidade, porém, o princípio que guia as projeções probabilísticas são falíveis, indutivas. Não obstante, diz Bitbol, uma estimação probabilística oferece uma grande resistência à refutações experimentais e um grande número de experiências ainda vão ter que ser feitas para que exista a possibilidade de mudar o sistema de projeções de onde derivam as probabilidades.

E, além disso, esse novo tipo de sistema ainda deverá dar conta das discrepâncias de resultados que só são explicados via probabilidade.

Uma das últimas questões pontuadas pelo autor com relação à probabilidade se refere ao fato de que uma probabilidade é dita ser a probabilidade de um acontecimento; mas isso quer dizer que é de um acontecimento particular? Para a concepção frequentista de probabilidade, essa questão não se coloca. Essa dissociação completa entre a probabilidade de um acontecimento e a probabilidade de um acontecimento particular é muitas vezes vista, inclusive, como um defeito desta concepção. As teorias que, por esse motivo, não aceitam essa tese frequentista dizem que existe ao menos um sentido de calcular a probabilidade que um acontecimento particular seja produzido. A probabilidade sequencial não pode atribuir probabilidade a um evento pois enunciar um resultado na teoria da probabilidade sequencial é falar algo sobre a probabilidade dos eventos e, neste sentido, a qualidade (ou capacidade) de algo existir é a mesma de não existir. Não existem ‘valorações’ (algo como ‘pesos de existência’) para as probabilidades nessa teoria. A teoria das probabilidades clássica que está apoiada, inclusive, sobre o chamado princípio de bivalência (PB) (anuncia de forma positiva ou negativa a ocorrência de um evento), repousa também sobre uma lógica equivalente à teoria dos conjuntos (que também aceita o princípio da bivalência), onde a disjunção de uma proposição e sua negação cobre exaustivamente o campo da verdade. Bitbol mostra, então, que esse princípio não é respeitado em MQ (p. 121).

Não obstante, para o PB ser determinado, devemos fazê-lo de uma maneira operatoriamente testável. Isto leva a taxar como sem sentido aquelas proposições que, estando presentes como factuais, são privadas da possibilidade de atestação? Para Bitbol, isso não é verdade: o autor afirma que mundo real não é fatiado, em si mesmo, de maneira pré determinada em acontecimentos mutualmente exclusivos (p. 127), mas sim que isso emerge de estruturas aptas a dar aos processos que se desenrolam a forma aproximada de ‘frameworks’ de uma alternativa (ou acontecimento) dentre uma gama de possibilidades. Estas estruturas, que nascem da vontade de sistematizar gamas de acontecimentos, são chamadas de ‘aparelhos experimentais’.

Por isso, uma afirmação enunciando um acontecimento só tem sentido fazendo referência implícita ou explícita ao aparelho experimental utilizado. Aqui as ações e percepções do homem se inscrevem necessariamente nos níveis de organização do mundo de modo a fazer ‘emergir’ (sob certas condições instrumentais ou sensoriais) ocorrências exclusivas que podem ser chamadas (intersubjetivamente) de ‘fatos’ e para os quais vale o PB.

A partir disso, o autor discute uma forma de ‘indeterminismo’: seria impossível se repetir uma dada situação porque para isso deveria ser possível também repetir uma organização particular do universo em dada época específica, a um instante já tido. Particularmente, os acontecimentos de preparar uma experiência determinam aquilo que a experiência irá manifestar. Essa é uma visão que Bitbol chama de externa.

Em uma visão interna, a partir da ação do experimentador, o acontecimento apareceria como um ato de pura intelecção abstrata. Com efeito, o único meio do experimentador testar sua tese é construir, preparar e instalar certa aparelhagem (ou usar seus órgãos de sentido) em certo lugar apropriado. Para Bitbol, estas operações organizam o meio de detecção e participam disso que elas determinam, sendo que o que acessamos através de um instrumento não é a mesma coisa independente do instrumento: a instrumentação x ‘determina’ o que acontecerá. Essa visão de que a estrutura da MQ leva a considerar o valor de verdade das proposições como indissociáveis das condições experimentais de sua atestação vai ao encontro da chamada “interpretação de Copenhagen”, onde um fenômeno não é ainda um fenômeno até que seja observado e onde a definição mesma de fenômeno envelopa as condições instrumentais de sua observação. Este tipo de abordagem (à la Copenhagen) recusa a aplicação do PB em certas ocasiões, negando sua validade universal: se duas medidas sucessivas são efetuadas sobre o ‘mesmo sistema’, as proposições enunciando o resultado dessa medida são verdadeiras ou falsas (valendo o PB); por sua vez, proposições enunciando propriedades que teria o sistema se uma medida fosse feita não são nem verdadeiras nem falsas (e neste caso o PB não vale). O máximo que se pode fazer é definir um critério de ‘confiança’ para essas proposições (embora a MQ autorize mais de uma possibilidade de conjuntos de proposições possíveis/confiáveis). Além disso, esta ideia de proposição confiável usa a concepção de que uma variável já possui um valor de verdade (V ou F) antes da medida, o que também é ‘desautorizado’ pela MQ (na interpretação de Copenhagen), como dito.

Assim, nos restam três opções, diz o autor, para o uso da probabilidade clássica e do princípio de bivalência em MQ: 1) aceitar a lógica quântica de Birkhoff e von Neumann e desta forma recusar a lei da distributividade da conjunção e da disjunção; 2) aceitar a tese de Friedmann e Putnam, a saber, afirmar que o cálculo clássico das probabilidades não tem aplicabilidade aos fenômenos da física quântica e construir uma probabilidade quântica; 3) recusar o PB para proposições que descrevem acontecimentos em que não se faz referência ao instrumento de atestação experimental utilizado. Porém, pergunta Bitbol no final da primeira parte de sua obra, admitir a equivalência entre “verdadeiro” e “verdadeiro de maneira experimentalmente atestável” não é afirmar que os acontecimentos são pura e simplesmente criados pelo experimentador? Segundo o autor, não, já que nada impediria de forjar representações do mundo em que o valor de verdade das proposições são ‘dependentes’ dos meios de atestação, sem por isso afirmar que o resultado seja obra daquilo que o testifica. No domínio da MQ, a invalidação do princípio da bivalência fornece, à probabilidade, o estatuto de uma valoração inteiramente condicional: ela não é mais probabilidade de um acontecimento ocorrer ou não por si, mas a probabilidade de um fato em que a ocorrência ou não ocorrência é dependente da interposição de uma certa estrutura experimental. Desta forma, o cálculo de probabilidades que devemos ter deve ser um cálculo que, nos momentos intermediários das condições instrumentais de ocorrência de um evento, não os aceite de antemão como supostas ‘realidades’.

A visão da MQ como sendo apenas uma ferramenta preditiva, diz Bitbol, pode evitar que se adentre aos impasses interpretativos dessa teoria. Desenvolvê-la sobre uma perspectiva minimal, instrumentalista, permite trazer à lume o material de uma eventual reconstrução ontológica. Mas, para o autor, fazer tal escolha não é equivalente a afirmar, dogmaticamente, que a MQ é apenas “uma teoria da previsão” (como em Destouches 1981 e Destouches-Février 1951), mas somente ressaltar que os tratos essenciais desta teoria se deixam apreender imediatamente quando se começa por considerá-la como um simbolismo preditivo. Assim, na segunda parte de sua obra, o autor desenvolve a MQ como uma teoria de previsão baseada em contextos experimentais.

Três modificações são feitas sobre o esquema das “teorias da previsão” de Destouches (1981) e Destouches-Février (1951). A primeira consiste em utilizar, já de início, o formalismo dos espaços de Hilbert, que é o meio de comunicação corrente dos físicos quânticos. O segundo é deixar de lado completamente o conceito de sistema físico sobre o qual se efetuaria a medida e utilizar a forma construída no capítulo precedente: censurar questões sobre as propriedades intrínsecas de tais sistemas e utilizar uma abordagem operatória, em que se insere o papel dos aparelhos de experimentação utilizados. A última modificação será substituir o conceito de ‘medida inicial’ por ‘preparação’. O conceito de preparação tem uma generalidade bem maior que o de medida inicial: uma preparação pode, por vezes, ser identificada como uma medida inicial, mas nem sempre é o caso que em cada preparação seja acompanhada de uma medida inicial de modo a considerar esta medida como um ‘potencial de informação’, a partir do qual se possa valorar as predições concernindo os resultados de medidas ulteriores.

As experiências mais correntes em física microscópica se efetuam, diz Bitbol, geralmente em dois tempos: 1) uma primeira série de preparações P1, P2, . . . , Pn é efetuada. Cada uma delas é seguida da medida teste de variáveis pertinentes em que se verifica uma estrita reprodutibilidade. 2) uma secunda série de preparações Pn+1, Pn+2, . . . , Pn do mesmo tipo que em 1) é efetuada, mas agora cada uma delas é seguida de uma medida da(s) variável(is) a(s) qual(is) se deve dar as predições probabilísticas e não de uma medida teste. Estas predições dependem de três elementos constituintes de cada experiência: 1) o tipo de preparação, eventualmente caracterizadas por uma série de medidas testes preliminares; 2) o lapso de tempo e as condições físicas que separam o lugar e o instante da preparação do lugar e do instante da medida da variável à predizer; 3) o tipo da variável que se deve predizer e o resultado da medida. No formalismo da teoria preditiva, a correspondência destes termos se dá da forma seguinte: ao tipo de preparação corresponde um vetor em um espaço de Hilbert, chamado de “vetor estado”; a separação entre a preparação e a medida corresponde a uma equação de evolução que é a equação de Schrödinger e ao tipo de variável mensurada corresponde um operador no espaço de Hilbert, chamado “observável”. Segundo o autor, deve-se ter consciência de que estas são como três partes de uma única ferramenta preditiva e não como representações distintas de cada um dos três tempos do processo experimental.

Seja então um espaço abstrato H tento tantas dimensões quantos forem os fatos elementares de uma certa gama de possibilidades experimentais (p. 147ss). Admitiremos que este número de dimensões (e então o número de fatos da gamma de possibilidades) é finito (diremos igual a n). Mudaremos a palavra “fato” pela expressão “acontecimento contextual” ou mais simplesmente ‘acontecimento’. Os acontecimentos contextuais que iremos considerar são do tipo seguinte: eai _ (A = ai) que significa: “o acontecimento contextual elementar eai ocorreu” ou que o valor ai foi obtido de uma medida da variável A. Um acontecimento elementar particular eia será representado, no espaço H, por um eixo de coordenadas que têm por origem o ponto 0 e que é ortogonal aos eixos representando os outros acontecimentos elementares de mesma gama. Ao eixo representando o acontecimento elementar eai será associado um vetor de base notado por jaii de mesma direção e de norma (ou tamanho) unitário. A gama inteira dos acontecimentos elementares possíveis no contexto de uma medida da variável A é então representada por um sistema de n eixos ortonormais e de n vetores de base associados no espaço H.

O instrumento matemático procurado, que permite calcular, a partir de uma preparação dada, não somente a probabilidade dos acontecimentos da gama A mas também dos acontecimentos de não importa qual outra gama B, C, D. . . representada por um sistema de eixos diferentes no mesmo espaço H é um vetor do espaço H, de norma unitária, denotado por j i, chamado tradicionalmente de vetor de estado.

O algoritmo do cálculo das probabilidades dos acontecimentos elementares eia à partir de j i é fundado sobre operações muito simples de projeção geométrica.

A probabilidade que o acontecimento eia se dê (ou seja, que a medida da variável A dê o resultado ai) é o quadrado do modulo da projeção ci do vetor j i sobre o eixo paralelo à jaii de modo que P(ai , ) = jc1j2. Esta formula se lê “a probabilidade que o resultado ai seja obtido à sequência de uma medida da variável A, se a preparação experimental é caracterizada pelo vetor de estado j i, é igual ao quadrado do módulo da projeção de j i sobre o eixo paralelo ao vetor jaii”, que é a regra de Born. Diz-se, de outra parte, que a projeção de um vetor j i sobre o eixo paralelo à jaii tem um módulo igual ao do produto escalar do vetor unitário jaii pelo vetor j i. Se denotarmos este produto escalar por hai j i, a probabilidade precedente se reescreve: P(ai , ) = jhai j ij2. Para se calcular a probabilidade de um “evento aleatório”, isto é, a disjunção de um certo número de acontecimentos elementares fazendo toda parte da gama de resultados possíveis de uma variável dada, generalizamos o algoritmo precedente (p. 150): seja um acontecimento aleatório e = eia _ ea j _ eak _ . . .. A probabilidade de que um acontecimento aleatório e aconteça (ou seja, que a medida da variável A dê algum dos resultados ai , aj ou ak) é o quadrado do módulo da projeção do vetor j i sobre o sub-espaço hi jk de H, onde os eixos de coordenadas são paralelos aos vetores de base jaii, jaji, jaki etc. Se denota P(ai _ aj _ ak _ . . . , ) = jPi jk…j ij2.

Mas, este é o único instrumento matemático que tem as características procuradas? Uma série de teoremas de Detouches-Février (1951) estabelece que é praticamente o único. Ele constitui, diz Bitbol, um elemento particularmente simples da classes das formas matemáticas que respondem à condição seguinte: constituir uma ferramenta preditiva de previsão probabilística de acontecimentos definidos não absolutamente, mas relativamente a um contexto experimental, que não faça parte de uma gama unificada de possibilidades, mas de gamas de contextos experimentais.

A teoria das probabilidades de Kolmogorov se aplica ao caso particular onde a gama de possibilidades é única. Ao contrário, as probabilidades quânticas, com seu algoritmo permitindo derivar as probabilidades para cada gama de possibilidades a partir de um único vetor de espaço H, são adaptadas a uma situação onde a conjunção das determinações obtidas nas circunstâncias experimentais distintas não é sempre lícita: as condições experimentais ou acontecimentos da emergência de um conjunto de ocorrências intersubjetivamente reconhecíveis como fatos não estão prontas. Em uma posição análoga a de Heisenberg, diz o autor, a operação de preparação, caracterizada por j i, vem definir de um modo puramente físico um conjunto infinito de puras potencialidades. Mas existe também uma leitura não metafísica, digamos hermenêutica, do conceito de potencialidade do vetor j i a partir de uma preparação experimental: j i não se referiria, nesta perspectiva, a objetos mas a situações. Ele constitui uma entidade matemática universal e invariante, apta a fornecer informações probabilísticas sobre os resultados de não importa qual experiência que poderia ser efetuada no futuro de uma preparação, e não sobre uma gama pré-dada de acontecimentos. O autor mostra (p. 163) que uma teoria probabilística sobre acontecimentos onde a definição é contextual conduz a predições de forma ondulatória: os fenômenos de interferência. A recíproca, por sua vez, não vale: uma teoria compreendendo predições de forma ondulatória não se refere necessariamente a acontecimentos definidos contextualmente. Bitbol, em seguida, reconstrói o formalismo da MQ a partir da ideia de contextos experimentais.

O autor, em seguida, analisa o problema das variáveis compatíveis e incompatíveis.

Consideramos de início o caso de duas experiências completamente distintas: este implica duas preparações singulares distintas e a medida de duas variáveis distintas. Podemos então separar suas representações preditivas: os resultados possíveis da primeira variável por um sistema de eixos (ou vetores de base) ortogonais em um espaço de Hilbert H_ e o instrumento de previsão probabilística resultante da primeira preparação por um vetor j _ i de H_. Da mesma forma para a segunda variável: o instrumento de previsão probabilística resultante da segunda preparação é um vetor j _ i de H_ . Mas suponhamos que as duas experiências tenham sua preparação em comum (p. ex., quando duas variáveis distintas, mas compatíveis e não redundantes, são medidas à sequência de uma preparação singular). Espera-se nestas situações dois resultados distintos revelando duas gamas de possibilidades distintas, embora a preparação ser comum às duas experiências efetuadas e o vetor de estado que traduz o teor preditivo destas preparações também ser comum. Para conciliar o dualismo das gamas de possibilidades, onde cada um exige ser representado por um sistema de vetores num espaço de Hilbert, e a unicidade do vetor de estado usamos o seguinte procedimento: construímos um novo espaço de Hilbert, o“produto tensorial” dos dois espaços de Hilbert originais (H_  H_ ), e representamos um só vetor de estado no interior deste espaço. As duas gamas iniciais de possibilidades são assim preservadas, mas o espaço alargado no qual os representa é único, permitindo traduzir a unicidade da preparação pela unicidade do vetor de estado. O autor mostra que pode-se construir uma probabilidade condicional de obtenção conjunta de dois resultados experimentais definidos contextualmente, decompondo a probabilidade conjunta em dois fatores não independentes. O equivalente da probabilidade condicional em um formalismo adaptado aos acontecimentos definidos contextualmente existe e é chamado de vetor de estado relativo (p. 184).

O autor mostra as afinidades deste vetor de estado relativo com uma probabilidade condicional e afirma que o vetor de estado relativo é em definitivo o melhor equivalente que se pode obter das probabilidades condicionais no formalismo da MQ.

Nesse caso, é fornecido um enunciado duplamente condicional, dependente de interposição de um dispositivo experimental suplementar e da obtenção de um certo resultado com a ajuda deste dispositivo.

Duas variáveis são ditas incompatíveis, por sua vez, se não podemos conjugar os contextos experimentais que as correspondem nem dar uma compensação completa a esta impossibilidade. O autor afirma que, para se designar um equivalente a esta limitação em um formalismo quântico essencialmente preditivo, basta substituir uma predição certa em cada descrição por uma condicional: mudando, por exemplo, a sentença “a variável A tem tal valor” por “a probabilidade de obter tal valor se se medir a variável A é igual a 1”. Duas variáveis são incompatíveis enquanto a probabilidade de um valor de A ser igual a 1 à sequência de uma preparação singular não se deve ter, em geral, o valor da probabilidade também igual a 1 para B na mesma preparação singular. No formalismo da MQ, é suficiente que os valores destas variáveis sejam representadas no mesmo espaço de Hilbert H por dois eixos (ou dois vetores de base) inclinados um relação ao outro. Assim, a incompatibilidade dos contextos experimentais se traduz algebricamente pela não comutatividade dos observáveis correspondentes.

O autor faz na sequência uma retrospectiva sobre o debate que acompanha o emprego da noção de “redução do pacote de ondas” na história da MQ. Segundo ele, se Heisenberg, por exemplo, tivesse percebido que a ideia de “redução do pacote de ondas” é uma maneira econômica de exprimir a restrição, à sequência de uma experiência, dos corpos de premissas servindo de valoração racional das probabilidades de acontecimentos definidos contextualmente, ele não teria suscitado tantas controvérsias (em alguns parágrafos de suas obras, diz Bitbol, Heisenberg até afirma que a função de onda na verdade exprime o teor preditivo de uma preparação experimental, mas não consegue com isso evitar uma referência ao subjetivismo). Segundo o autor, isto leva a colocar em questão a pré-constituição da objetividade: mostra que a seleção e a estabilização de uma gama de possibilidades é um momento preliminar indispensável a toda descrição de ocorrências efetivas pertencendo a esta gama, que esta seleção não pode ser considerada como sendo independente dos meios experimentais que permitem designar o resultado e que deve-se distinguir formalmente duas etapas no processo de medida: aquele da objetivação de uma gama de possibilidades e o da seleção de um elemento dessa gama.

Para o autor, desta forma, todos os aspectos paradoxais da MQ, assim como a variedade das formas históricas, podem ser consideradas como expressão das condições universais da atividade operatória e discursiva de uma comunidade genérica de experimentadores.

Se a MQ não oferece, por ela mesma, a representação disto que aparece, cada um dos seus elementos é por sua vez perfeitamente apto a representar um momento abstrato na cadeia das operações de preparação e medição e de antecipação dos resultados de medida. Assim, pode-se partir da ideia de que toda gama de determinações possíveis se define relativamente a um contexto perceptivo ou a um instrumento. Enquanto os contextos podem ser conjugados, nada nos impede de unificar a gama das possibilidades e de render sua definição relativamente a um só contexto global, alicerçada por uma lógica clássica e uma teoria clássica das probabilidades.

À impossibilidade de conjugar contextos (levado pela intermediação de uma álgebra não comutativa de observáveis incompatíveis), é necessário associar a cada preparação uma estrutura preditiva (o vetor de estado) apto a ser traduzido em probabilidades de possibilidades relativas a um contexto. Não teríamos assim nem uma mecânica ondulatória, nem um mecânica quântica e nem quântica ‘tout court’: a nova teoria se apresenta antes de tudo, diz o autor, como um formalismo preditivo contextual (p. 225).

Na parte 3 de sua obra, (que por sinal se intitula “Ce qui reste des images du monde” (grifo do autor)) Bitbol apresenta o ‘objeto resultante’ de sua construção contextual da MQ, partindo de uma recapitulação histórica da noção de objeto em MQ.

Para o autor, a fase extrema da ‘revolta iconoclasta’ existiu principalmente devido à influência de Bohr durante os anos de 1925-1927. Ele optou por um posição mais complexa, fazendo intervir simultaneamente quatro tipos de atitudes ou modos de ver as ‘imagens’ da MQ: 1) em favor do formalismo matemático ou ainda do “simbolismo” em seu sentido mais abstrato; 2) uma denúncia das limitações das nossas formas de intuição e uma crítica contra a unidade da imagem clássica do mundo, deixando entender que a defesa de uma pluralidade de imagens — cada uma com significação limitada — não está excluída; 3) a implementação efetiva desta multiplicidade de imagens dos processos físicos, tentando porém transformá-las em uma função simbólica e tentando reduzir seus escopos, qualificando-as somente como analogias ou metáforas, e onde toda tentativa de conferir uma significação ontológica a esta pluralidade de imagens é neutralizada. Esta atitude levou, em 1925, à própria crítica de ‘objeto de investigação’ e se colocou frente a um dilema: reduzir a ciência a este “empirismo sem sentido”, como denunciou Einstein, ou enfrentar o trabalho filosoficamente delicado de pensar um saber que não se alicerça sobre um mundo de objetos; 4) a criação de uma meta-imagem: uma representação da ação recíproca dos constituintes microscópicos e da instrumentação que os dá acesso; uma inseparabilidade da interação e do fenômeno ou, ainda, a indivisibilidade do objeto e do aparelho.

Na atitude 3 acima descrita, Bohr e Heisenberg tiveram o cuidado de afastar a ideia das imagens corpusculares ou ondulatórias como se parecendo de alguma maneira com o seu objeto. Eles visavam somente oferecer uma contraparte visual, a partir de nosso uso de conceitos clássicos, para descrever as experiências. Ainda assim, o poder objetivante das imagens não teria sido perdida já que uma direcionalidade intencional é parte integrante da noção genérica de imagem. “Somos forçados a utilizar imagens e parábolas que não exprimem realmente o que queremos dizer.

Algumas vezes é igualmente impossível de se evitar as contradições [. . . ] mas podemos, com a ajuda dessas imagens, assimilar, em um certo sentido, o estado das coisas reais”, diz Heisenberg (1972, p. 285 citado em Bitbol1996, p. 240). Na virada de 1920 para 1930, Bohr e Heisenberg, se conformando com o esquema tácito da teoria do conhecimento, conceberam a direcionalidade intencional das imagens simbólicas ondulatórias e corpusculares por referência à meta-imagem da confrontação entre um objeto microscópico e diversas classes de aparelhos. O objeto é compreendido, dentro dessa nova teoria física, como apto a interagir com uma pluralidade de estruturas instrumentais por vezes incompatíveis e que afetam duravelmente seu estado. Mas os mesmo autores se colocaram em guarda contra todos os desdobramentos que poderiam nascer dessa meta-imagem que eles desenharam: apoiando-se sobre um argumento verificacionista, Heisenberg, por exemplo, retira toda a significação à reconstrução da trajetória passada de um corpúsculo após sua interação com um instrumento.

Entre todos os criadores da MQ, diz Bitbol, Bohr é o que melhor percebeu que nesta teoria temos a aplicação das regras preditivas a fatos experimentais definidas relativamente a um contexto. Até sua morte, Bohr nunca cessou de insistir sobre os dois tratos tipicamente contextuais dos fenômenos tratados pela física quântica: sua indivisibilidade (a impossibilidade de dissocá-los das condições experimentais de sua aparição) e sua irreversibilidade (sua associação aos processos de amplificação instrumental onde a inversão é altamente improvável). A indivisibilidade, leva a dependência das gamas de fenômenos possíveis à referencia com uma classe de dispositivos experimentais, enquanto que a irreversibilidade, associada à indivisibilidade, implica a dependência de cada fenômeno às circunstâncias particulares da experiência que levou a eles. Segundo Bitbol, todos os resultados característicos da antiga teoria dos quanta e da “dualidade onda-corpúsculo” podem ser revistas como consequências imediatas ou indiretas da indissolúvel dependência dos fatos a contextos por vezes incompatíveis. Mas a reciprocidade não vale: não é possível deduzir diretamente a dependência contextual dos fatos partindo da hipótese de que as propriedades mecânicas dos corpúsculos materiais são quantificadas.

Nos anos de 1927/29, porém, é marcável a reticência que manifesta Bohr em explicar como a aparelhagem interfere no objeto durante a experiência. Existe “uma perturbação feita pela medida”, mas sobre o que se exerce essa perturbação? O postulado quântico liga a observação a uma “interação fina com o instrumento de observação”, mas o que é que interage com o instrumento? Para tentar responder a essa questão vamos começar, diz Bitbol, com a afirmação que a interação se dê com um objeto e que ela conduz a perturbar as propriedades desse objeto. Falar desta maneira é admitir a representação de alguma coisa possuindo determinações intrínsecas, onde os fenômenos experimentais só seriam uma manifestação deformada e indireta. Agindo assim, seria particularmente difícil evitar o retorno da ‘frustração metafísica’, e os textos tardios de Bohr mostram que só é possível atenuar as consequências de tal retorno através de preocupações constantes de expressão. O enunciando mais prudente, que a observação interagiria com o curso dos fenômenos e que somente perturbaria os fenômenos, também não nos traria nenhuma vantagem já que, neste caso, teríamos que começar por falar de perturbação do fenômeno pela observação para deduzir disto a indivisibilidade do fenômeno com os meios de observação (p. 248).

Bohr só reconheceu plenamente o vazio das tentativas de ‘demonstrar’ a indivisibilidade de um fenômeno invocando uma perturbação do aparelho a partir dos anos 1935, quando tentou responder ao conhecido artigo EPR, em que Einstein, Podolski e Rosen ‘demonstram’ que a MQ é incompleta. Para defender a completude da MQ e negar a ideia de uma perturbação instantânea à distância produzida em um subsistema quando uma medição é efetuada no outro, Bohr optou em abandonar a ideia de fazer apelo a uma perturbação incontrolável pela aparelhagem preferindo ‘demonstrar’ a relatividade dos fenômenos frente a um contexto experimental e, deste modo, também demonstrar a indeterminação dos valores de uma dupla de variáveis onde a medição requer dois dispositivos experimentais incompatíveis. Este gênero de solução adotado por Bohr, diz Bitbol, se aproximou de uma concepção onde a contextualidade prevalece sobre todo tipo de explicação. A palavra “influência” que conota vagamente uma perturbação (e que é julgada como obscura por muitos autores) pode ser entendida, no pensamento de Bohr, tanto como sendo que 1) a definição de quantidade físicas deve incluir o procedimento de medida; 2) as condições experimentais são um elemento inerente ao fenômeno e 3) estes elementos de definição ou de inerência não dependem de uma interação direta do sistema e do aparelho. Segundo Bitbol, não permitindo jamais predizer com certeza o valor exato de duas variáveis conjugadas para um sistema, o formalismo da MQ só mostra a necessidade geral de que cada predição seja relacionada com condições experimentais de atestação bem determinadas. “Uma teoria física, como a mecânica quântica, que permite que todas as predições possam ser feitas com relação às condições experimentais dadas, não tem nenhuma razão de não ser qualificada como completa.” (p. 253, grifos do autor).

A quarta parte da obra (nomeada “Objetos antigos e nova teoria: o preço do conservantismo ontológico”), faz eco ao capítulo anterior, servindo como continuação. O espírito de Copenhague, diz o autor, tem deixado o pensamento físico em uma situação eminentemente ambígua: a crítica das representações da física clássica (como por exemplo a dos objetos como portadores de propriedades ‘em si’) e a manutenção de fragmentos de estatuto simbólico (como o das entidades ainda localizáveis mas com trajetórias aproximadas). O embate entre essas duas demarcas opostas teria por consequência sua incompletude. A primeira alternativa levaria a uma nova ontologia, substituindo por entidades totalmente inéditas os pontos materiais localizados e em movimento da física clássica. A segunda ofereceria, por sua parte, um certo grau de legitimidade ao desenho das representações tidas tanto da física clássica como da teoria do conhecimento, incitando assim a um retorno em direção ao conceito de objeto localizado no espaço tempo, portador de determinações e ‘causa’ dos acontecimentos experimentais. Este retorno não estaria contrário a isto que afirma e crê o espírito de Copenhague? A que preço ou que condições pode-se ter essa concepção? São as questões debatidas neste capítulo. O trato em toda sua amplitude exige um estudo do conceito de “coisa” ou de corpo material que, após ser submetido a um processo de abstração, poderá ser visto como servindo de modelo ao objeto da física clássica.

Após analisar abordagens de Heidegger (o sentido da palavra “coisa” na vida cotidiana), de Wittgenstein (o qual tem por primazia a linguagem), e Carnap (o dado primeiro e elementar, que deveria representar uma sensação ou um lado percebido, emerge na verdade ao fim de um longo trabalho de abstração), Bitbol acaba por abraçar, em certo sentido, a visão de Wittgenstein, afirmando que a própria estrutura da linguagem (considerada como uma condição a priori de possibilidade do pensamento simbólico), assigna um tipo de primazia à concepção substancialista da coisa que é derivada. A estrutura elementar dessa linguagem que informa, de antemão, ‘sobre o que ela diz’, pode ser buscada ou refletida a partir da lógica, de certos ramos fundamentais das matemáticas e de suas ontologias formais correspondentes à teoria dos conjuntos, dos números cardinais etc, que através da manipulação dos conceitos de elemento ou de unidade tratam do objeto em geral. Aí existem dois grandes grupos: das categorias da significação (conceitos de proposição e de verdade; relacionados então à logica) e o das categorias formais dos objetos (conceito de objeto, unidade, número, relação etc; relacionado com a teoria dos conjuntos).

Todavia, distinguir um objeto de todos os outros, o individualizar, demanda um critério que permita circunscrevê-lo em uma classe onde ele seja um elemento único.

Isto requer possuir uma ou mais determinações que pertencem apenas ao(s) objeto( s). No projeto Husserliano inclusive, diz Bitbol, a origem da “predicação” reside em uma seleção das formas perceptivas que permanecem estáveis no interior de uma grande variação de predicados. Deve-se, com efeito, também afirmar que os cientistas só são hábeis em exprimir seu acordo ou desacordo sobre o objeto que eles visam a partir de um acordo mínimo, pré-combinado e tácito, a propósito dos meios de estudo deste objeto e onde se utiliza a linguagem corrente (ancorada na estabilidade acima descrita) para descrever a instrumentação. Em física clássica, o funcionamento dos aparelhos durante o processo de medida estaria apoiado em uma forma de linguagem corrente padronizada por um léxico teórico e os resultados experimentais não entrariam em conflito com as normas de reprodutibilidade, de individualidade e de reidentificação espaço-temporal. Em física quântica se utilizam instrumentos que também conduzem à determinações de objetos mais ou menos bem localizados no espaço ordinário. A diferença maior com a física clássica se dá na etapa seguinte: na situação quântica, a sequência dos resultados experimentais e a estrutura teórica que fixa o quadro preditivo não permite satisfazer certos critérios de reprodutibilidade, individualidade e reidentificação espaço-temporal, que renderia imediatamente a legitimidade da predicação e denominação de objetos no espaço ordinário.

Assim, pergunta Bitbol, pode-se efetuar uma operação de numeração em um conjunto de elementos estritamente indiscerníveis como o são os objetos quânticos? Se nem a reprodutibilidade dos fenômenos e nem a reidentificabilidade espaço temporal são asseguradas, nenhum dos critérios experimentais sobre os quais se apóiam a predicação e a denominação de objetos do tipo “corpo material” é satisfeita. Qual é a solução? Uma multiplicidade de opções ontológicas disponíveis: 1) recusar-se de falar de objetos de experimentação dando acesso ao objeto em si e se atrelar a um instrumentalismo; 2) continuar a falar como se a experimentação daria acesso às propriedades de objetos de tipo vagamente corpuscular, mas incorporar a esse modo de expressão uma série de restrições e de corretivos. (Este é o modo de comportamento que a comunidade dos físicos continua a preconizar); 3) modificar a estrutura categorial do ‘alicerce’: continuar a admitir formalmente as atribuições conjuntas de predicados experimentalmente incompatíveis, mas recorrer para isso à uma lógica não clássica ou uma teoria de conjuntos não clássica, modificando suas axiomáticas; 4) expandir a distância entre fenômenos de uma parte e objetos e predicados de outra parte; 5) mudar radicalmente o tipo de objeto: mudar o arquétipo de corpo material e conceber objetos que são reidentificáveis por outra coisa que uma trajetória no espaço ordinário. A partir dessas cinco ‘alternativas’ o autor faz uma resenha da problemática relacionada à identidade das partículas quânticas, tanto a nível lógico/matemático bem como ontológico. Bitbol também comenta sobre a lógica poder ser tomada como empírica ou não (sendo assim possível de ser refutada empiricamente) e a construção das lógicas que dão suporte ao formalismo quântico (ex. a lógica trivalente de Paulette Destouches-Février (1951) ou a lógica quântica de Birkhoff e von Neumann, entre outras). Em todas essas abordagens lógicas, porém, a característica indispensável do conceito de objeto físico estaria sendo admitido sem discussão. De qualquer forma, diz Bitbol, “[tanto como] uma reintrodução formal do conceito de propriedade com o objetivo de salvar a unicidade da lógica ou como uma alteração das regras da lógica com o objetivo de salvar o conceito de propriedade [de um objeto físico], a estratégia da lógica quântica não pode deixar de parecer bastante artificial” (p. 335).

Em seguida o autor comenta sobre a tese das variáveis ocultas, que teve como principal partidário Einstein, o qual imaginava que a MQ, do modo que estava construída, seria uma teoria incompleta que se limitaria apenas a uma descrição estatística de um grande número de fenômenos. Apesar de que a teoria das variáveis ocultadas não foi, até hoje, provada nem verdadeira nem falsa, os chamados “teoremas limitadores” (como o de von Neumann) eram apresentados como estabelecendo a impossibilidade de tais teorias. A publicação de um artigo em 1966 por Bell (Anexo II do livro de Bitbol), porém, levou à compreensão de que as variáveis ocultas não são impossíveis, mas sim que elas devem preencher certas condições limitativas: devem violar o chamado realismo-local de Einstein (em uma certa acepção, a ideia de que os sistemas físicos possuem propriedades próprias independente do contexto experimental e de sua atestação (realismo) e que um dado acontecimento não influencia outro instantaneamente (localidade)). Bell demonstrou, enfim, a incompatibilidade entre suas desigualdades e estas hipóteses (se as assumirmos como fazendo parte da MQ), que pode ser interpretada de três maneiras distintas: a) é impossível atribuir propriedades intrínsecas não conhecidas aos sistemas físicos, de modo que as teorias das variáveis ocultas são então refutadas de antemão; b) as propriedades intrínsecas podem ser atribuídas aos sistemas físicos, mas estas propriedades se influenciam instantaneamente e c) as predições da MQ, e em particular as que violam as desigualdades de Bell, são incorretas. A interpretação c) é, até o presente momento, a que menos atrai os físicos dado as previsões corretas da MQ, bem como os experimentos de Aspect que comprovam as desigualdades de Bell. A interpretação a) é chamada de “não-separabilidade” e a b) de “não localidade”. É verdade, diz Bitbol, que não existe um ‘experimento crucial’, e alguns pesquisadores ainda esperam o resultado de uma futura experiência, tecnicamente mais refinada e não fazendo apelo as mesmas hipóteses auxiliares, “mas o mínimo que se pode dizer é que essa esperança é pouco compartilhada” (p. 349).

O último dos chamados teoremas limitadores é o de Kochen e Specker (Anexo III do livro), o qual é menos conhecido que o teorema de Bell, mas que tem a mesma importância deste último. Tal teorema mostra, por sua vez, que toda teoria de variáveis ocultas compatível com as predições da MQ é contextual, ou seja, que “as características que ela atribui às partículas deve ser co-determinadas pelo contexto de sua construção experimental” (p. 350) demonstrando que “nenhuma teoria de variáveis ocultas não-contextual pode ser compatível com as predições da MQ” (p. 452). A questão que se coloca, já de início, é em que o “contextualismo” das variáveis ocultas se distingue da “contextualidade” dos acontecimentos experimentais.

A diferença entre contextualidade e contextualismo, diz Bitbol, relaciona-se com a diferença filosófica entre anti-realismo e realismo. Falar de contextualidade dos acontecimentos é dizer que os acontecimentos não são definidos em absência da especificação de um tipo de dispositivo experimental, e que o princípio da bivalência não vale para proposições afirmando a ocorrência destes acontecimentos enquanto o dispositivo experimental correspondente não está implementado e a experiência feita. Falar de contextualismo das determinações ou das propriedades, ao contrário, é começar por colocar que as propriedades existem independentemente do procedimento experimental que as coloca em evidência e então assinalar que este procedimento, enquanto implementado, os modifica sistematicamente. A tradução dos dois conceitos pode ser exatamente o mesmo em termos de manifestações experimentais, mas as visões de mundo que elas favorecem são profundamente diferentes. No final do teorema de Kochen e Specker se demonstra que para que uma teoria de variáveis ocultas seja compatível com as predições da mecânica quântica esta deve ser contextual e não-local.

Em sua quinta e derradeira parte (as novas ontologias), Bitbol inicia falando sobre a visão de Kuhn de que mudar de paradigma cientifico é mudar de mundo.

Para Bitbol, entretanto, mudar de mundo não é apenas reformular os objetos em si mesmos mas também com isso mudar a ontologia. Assim, a revolução quântica traria uma nova noção de objeto e, destaca ele, vários autores estão propondo uma mudança das formas categoriais associadas à MQ (apesar do arquétipo de corpo material ainda permanecer e somente nestes últimos anos uma mudança de ontologia começou a ser levada a sério entre os físicos). Para Bitbol uma mudança completa de ontologia das ciências físicas é possível e, sem dúvida, oportuna, e as motivações para tal mudança de ontologia são de ordem prática, motivadas também pela possibilidade de mudança do sistema linguístico. Se isto não foi ainda geralmente admitido, se deve a algumas objeções filosóficas e uma imprudente despreocupação com tais objeções. Estas provêm de uma concepção rigidamente realista do progresso da ciência, a qual prega que a evolução das ciências conduzem a um conhecimento mais refinado da coisa em si, fazendo o pensador realista tender para um conservantismo ontológico. Mas, qual deve ser então a (nova) ontologia designada pela física contemporânea? As indicações dadas pelos físicos são em muito contraditórias para se permitir uma decisão inequívoca sobre este assunto e, assim, a via de renovação ontológica está aberta. Se mudarmos teríamos, no entanto, três opções: 1) os vetores de estado não representariam nada no/do mundo e seriam somente uma ferramenta de predição probabilística dos resultados experimentais (uma visão instrumentalista incompatível com a associação de qualquer significação ontológica a estes vetores de estado); 2) que estes vetores representam alguma coisa do mundo e 3) que estes vetores representam ‘tudo do mundo’. De toda forma, afirma o autor, a teoria quântica em si não impõe uma substituição de ontologia por qualquer das três interpretações das suas entidades teóricas dada acima e nem afirma ser isso impossível: ela é neutra neste sentido. É por isso que a exigência de “mudança do mundo” vem de outro lugar: é uma mutação/renovação do imaginário coletivo (p. 379). Por isso, para Bitbol, a ocorrência ou não de uma mudança de ontologia dependerá, enfim, do quanto os “autores da vida intelectual” (p. 374) estarão dispostos a pagar os custos de manter uma ontologia antiga frente à ocorrência de um mundo feito de novas entidades trazidas pela MQ. O autor até propõe que deveríamos chamar essa nova ontologia de uma quase-ontologia (p. 382) a fim de evitar as confusões com uma tradição ontológica já ancorada, da forma descrita anteriormente, na noção usual de objeto. Sendo assim, “livre da crença de que cada entidade representa um elemento de uma realidade autônoma, dotada de uma eficiência causal própria, se dará mais credibilidade à estrutura global das teorias científicas [. . . ], mais [crédito] a uma arquitetura unificada das regras descritivas e preditivas que a uma ontologia particular herdada da atitude natural” (p. 370, grifo do autor).

“Mas pode-se dizer o que é a mecânica quântica?” pergunta o autor em sua conclusão.

Para o realista, essa questão só poderá ser respondida se soubermos se a MQ apresenta uma visão completa da realidade ou apenas incompleta, puramente estatística. Tradicionalmente, teríamos também uma segunda abordagem, que se identifica com o positivismo lógico do círculo de Viena, em que a MQ se reduziria a um conjunto de regras para a predição de fatos experimentais a partir de fatos experimentais anteriores e o formalismo teórico resultante só teria o efeito de ser capaz de alcançar a tarefa instrumental para o qual foi concebido. Porém, diz Bitbol, a alternativa que essas duas concepções apresentam para a justificação da estrutura das teorias físicas nada tem de exaustiva. Existe aberta uma terceira opção, que consiste em encontrar uma justificação reflexiva sobre a estrutura da teoria com relação a sua capacidade de sintetizar as normas da atividade de antecipação dos resultados, não importando qual manipulação experimental seja feita. Mostrando que para uma teoria física com vocação universal como a MQ, diz o autor, que existem boas razões em pensar que sua eficiência é derivada de sua conformidade com as condições muito gerais que regem a atividade experimental e a predição dos resultados que disso se segue, que a quantificação e os efeitos de interferência podem ser obtidos como consequências da contextualidade das determinações antecipadas, e que muito de outros efeitos observados são ligados a um ou a outro por princípios de simetria associados, se oferta assim um projeto de uma nova e completa alternativa.

Enfim, o autor comenta que compreender em sentido pleno as consequências da MQ só será conseguida se não ignorarmos mais o meio de acesso experimental, que é, como visto, a tese que permeia toda a sua obra. Assim, para ele, o fenômeno não pode mais ser separado das circunstâncias instrumentais de sua manifestação, o que apoia o que o autor chama de “realismo diposicional/pragmática transcendental” (p. 428), tema que foi desenvolvido por Bitbol, após a publicação de seu livro, em vários outros trabalhos (veja, por exemplo, Bitbol 2000a, 2000b). No reconhecimento das condições impostas pelas teorias físicas do século XX é impossível não reconhecer também o papel que joga o processo de pesquisa na co-determinação do sistema de objetos que o serve de via regulatória: como diz o autor, “os indivíduos e os grupos sociais não têm mais escapatória frente à expansão constante de suas responsabilidades” (p. 430).

Conclusão Se fosse necessário definir a obra de Bitbol aqui resenhada em algumas palavras, poderíamos começar por dizer que é uma obra densa. Diferentemente da maioria dos livros que analisam a estrutura e a filosofia da MQ que são, muitas vezes, escritas por físicos e para físicos que tenham algum interesse ou índole mais filosófica, a obra de Bitbol pode ser dita ser escrita por um filósofo da ciência para filósofos da ciência. Com efeito, se encontram nesse texto algumas discussões que dificilmente aparecem em outras obras do gênero como, por exemplo, qual ontologia podemos construir a partir dos conceitos da MQ, como a linguagem pode ‘interferir’ na forma que construímos os objetos da realidade ou a problemática da identidade e reidentificabilidade das partículas subatômicas. Desta forma, a linguagem do livro se mostra familiar aos filósofos da área. O objetivo central da obra é, como explanado, empreender uma tentativa de construção de uma nova forma de se entender o que é “objeto” na MQ, não mais respaldada no modo existente em física clássica. Para tanto, Bitbol acaba tocando em vários temas como ontologia, história da física, filosofia da linguagem, teorias das probabilidades etc., os quais, aliados ao estilo limpo e elegante da ‘forma francesa’ de escrever, acabam sendo escrutinados à exaustão. Uma das características mais marcantes da obra é a apresentação de ‘alternativas’ ou possibilidades para a solução dos problemas apresentados. Além disso, vale a pena dizer que muitos outros temas tratados por Bitbol em seu livro (como por exemplo a teoria de Bohn ou das histórias consistentes de Griffiths) não foram aqui revistos dado à indisponibilidade de espaço. Reservamo-nos, portanto, principalmente à questão da possível construção contextualista da MQ. Isto mostra, por sua vez, que a obra deste filósofo francês vale a pena ser lida e não é possível de ser compreendida plenamente em apenas uma leitura. Por fim, vale ressaltar que durante o texto muitas vezes parece que Bitbol vai e volta na aceitação ou negação da interpretação de Copenhague. Mas pode-se concluir que o que este autor deseja é manter a filosofia desta interpretação (algo como aceitar que o aparelho de medida deve ser levado em conta na divulgação de um resultado em MQ) mas não a ‘radicalidade’ dessa visão (algo como este aparelho ‘construindo’ o objeto quântico), como aparece em algumas formas de entender a interpretação de Bohr e seus partidários.

Referências

Destouches, J. L. 1981. La Mécanique Ondulatorie. Paris: PUF (Que sais-je?, No. 311).

Destouches-Février, P. 1951. La Structure des Théories Physiques. Paris: PUF.

Heisenberg, W. 1972 [1969] La Partie et le Tout. Paris: Albin Michel.

Bitbol, M. 1998. Some Steps Towards a Transcedental Deduction of Quantum Mechanics. Philosophia Naturalis 35: 253–80.

———. 2000a. Relations, Synthèses, Arrière-Plans: sur la philosophie transcendantale et la physique moderne. Archives de Philosophie 63: 595–620.

———. 2000b. Arguments transcendantaux en physique moderne. In: S. Chauvier, S. & F. Capeillères (eds.) La querelle des arguments transcendantaux. Revue philosophique de l’Université de Caen 35: 81–101.

Jailson Schinaider – Bolsista CAPES (Reuni) Programa de pós-graduação em filosofia Universidade Federal de Santa Catarina Florianópolis, SC BRAZIL jaisonsc@gmail.com

Out of our heads: Why you are not your brain, and other lessons from the biology of consciousness – NOË (P)

NOË, Alva. Out of our heads: Why you are not your brain, and other lessons from the biology of consciousness. New York: Hill and Wang, 2009. 214 p. Resenha de: NASCIMENTO, Laura Machado do. Principia, Florianópolis, v.16, n.3, p.495–504, 2012.

Out of our heads é uma apresentação voltada a um público não acadêmico de uma reação a concepções da filosofia da mente tradicional, encontradas principalmente, nos dias de hoje, na ciência cognitiva. Um dos principais pressupostos da ciência cognitiva é a ideia de que as respostas para algumas questões básicas da filosofia da mente serão encontradas no estudo do cérebro, sendo este o principal responsável pela atividade mental, enquanto o resto do corpo e o ambiente em que se vive teriam apenas papéis secundários. Apesar de notáveis desenvolvimentos na compreensão do funcionamento do cérebro, especialmente a partir da década de 1990, a “década do cérebro”, alguns problemas impostos pelos pressupostos da ciência cognitiva permanecem tão misteriosos hoje quanto na tradição cartesiana. Problemas difíceis, como a relação entre o cérebro e a consciência, por exemplo, ainda não têm uma solução satisfatória. Para Noë, dificuldades como essas no estudo da mente decorrem da incompreensão do que são os fenômenos mentais e como ocorrem. Cientistas e filósofos, ao procurar a mente no cérebro, estariam procurando no lugar errado.

Na concepção de Noë, a mente é produto de uma interação entre corpo (inclusive o cérebro) e meio externo. A mente não é algo que ocorre em nós, realizado pelo cérebro (na tradição contemporânea) ou por uma substância imaterial (na tradição cartesiana). Para compreender a mente, precisamos, segundo ele, direcionar a atenção a uma imagem mais ampla. Nesta resenha, serão abordados os seguintes temas: o uso de técnicas de escaneamento para estudar a consciência, a concepção de percepção e cognição assumidas pela ciência cognitiva e, por fim, apresentaremos brevemente a concepção alternativa de mente proposta por Noë.

O cérebro

Em meados do século XX, Francis Crick, prêmio Nobel de Medicina de 1962, junto com James Watson, pela descoberta da estrutura da molécula de DNA, afirmava que “você, suas alegrias e suas tristezas, suas memórias e suas ambições, seu senso de identidade pessoal e livre arbítrio, não são, de fato, mais do que o comportamento de um vasto conjunto de células nervosas e suas moléculas associadas” (Crick apud Noë, p.5). Na concepção tradicional, supunha-se que a demonstração empírica de que a consciência é redutível a processos cerebrais seria só uma questão de tempo.

Disso se seguiria que “não é preciso mais gastar tempo tentando [. . . ] aguentar o tédio dos filósofos perpetuamente discordando uns com os outros. A consciência é, agora, em grande medida, um problema científico” (Crick apud Noë, p.6).

O otimismo na ciência cognitiva nas últimas décadas foi em grande parte possibilitado por avanços tecnológicos, como o surgimento das tecnologias de escaneamento cerebral. De acordo com essa abordagem, tecnologias como as de ressonância magnética funcional (fMRI ou RMf, na sigla em português), tomografia por emissão de pósitrons (PET) e eletroencefalografia (EEG), permitiriam observar diretamente o funcionamento do cérebro em ação e correlacionar a atividade cerebral com o que os pacientes experimentam subjetivamente, mostrando que o cérebro é o centro da atividade mental. Contra isso, Noë argumenta (cap.1) que existem limitações sérias para as conclusões que se procura extrair dessas correlações. Uma delas, de caráter metodológico, diz respeito às medições realizadas nas técnicas de “imageamento” cerebral. A utilização dessas técnicas não mede diretamente a atividade consciente, mas apenas exibe indícios indiretos. No PET, uma substância, como a glicose, é ligada a isótopos radioativos de iodo ou flúor, por exemplo, e injetada no sangue do paciente. O isótopo emite pósitrons que, ao colidirem com elétrons, liberam raiosgama.

O que é medido, então, é a emissão de raios-gama causada pelas colisões entre os elétrons e os pósitrons. Como o fluxo sanguíneo e o consumo de oxigênio são necessários para a atividade cerebral, infere-se que a região ou conjunto de células com maior emissão de raios-gama é responsável por determinado estado ou processo mental. Não se trata de um registro direto da consciência, mas sim, de uma inferência que supõe que o cérebro é a sede da consciência.

Noë chama atenção também para o fato de que esses exames possuem uma resolução espacial e temporal muito baixa. Eles podem identificar regiões entre dois e cinco milímetros, mas nessa porção espacial há centenas de milhares de células. Assim, não é possível distinguir na imagem eventuais especializações celulares naquele local. De maneira similar, os processos celulares ocorrem em intervalos de milésimos de segundos, e isso também não pode ser medido pelos exames de escaneamento.

Além disso, com base em pesquisas sobre plasticidade neural (apresentadas no cap.3), Noë mostra que não há uma relação necessária entre as experiências sensoriais e as áreas cerebrais normalmente identificadas como responsáveis pelo processamento das informações sensoriais. Em um experimento conduzido por Mriganka Sur (ver Sur et al. 1999) no MIT, modificou-se a disposição perceptiva normal de furões (animais que, ao nascer, são neurologicamente bastante imaturos). Em vez de permanecerem ligados ao córtex e ao tálamo visuais, como em circunstâncias normais, os pesquisadores conectaram os olhos dos animais ao córtex auditivo. O resultado esperado seria que os animais pudessem “escutar com os olhos”, mas o que ocorreu foi que passaram a ver com a parte do cérebro que é normalmente dedicada à audição. Ao ser estimulado visualmente, o córtex auditivo dos furões adaptou sua função. Estudos como esse mostram que o cérebro é plástico, e que o que chamamos experiências sensoriais é constituído não somente pelo cérebro, mas também pela interação do cérebro com o ambiente circundante.

Ao contrário do que sugerem os estudos em ciência cognitiva, os fenômenos mentais não são produtos exclusivos do cérebro e, desse modo, as técnicas de imageamento cerebral procuram pela consciência no lugar errado. Noë salienta que o resultado de um exame de escaneamento é mais parecido com um “retrato-falado” do que com uma fotografia do cérebro. A imagem resultante não é, de maneira nenhuma, um registro direto da atividade cerebral, mas um conjunto de informações combinadas que servem mais como uma hipótese sobre o que está acontecendo do que propriamente uma “fotografia” da atividade mental. Na ciência cognitiva, no entanto, essas hipóteses são em geral tomadas como fatos, por exemplo, a identificação de áreas dedicadas ao processamento de certas funções. Assim, embora haja indícios de correlações entre a atividade mental e a atividade cerebral, elas podem ser questionadas e, desse modo, pouco se pode concluir sobre a natureza da consciência ou da mente com base apenas no estudo do cérebro. Similarmente, Noë argumenta que a tese reducionista (identificar os fenômenos mentais aos fenômenos físicos que ocorrem no cérebro) não é propriamente um resultado da pesquisa, mas uma pressuposição filosófica não questionada da ciência cognitiva. Assim, para Noë, o estudo sobre a mente com certeza tem um aspecto científico, mas isso de maneira nenhuma exclui a filosofia.

A percepção

A percepção, nas concepções tradicionais da mente, é um processo pelo qual são extraídas informações do mundo exterior que são então processadas internamente e produzem uma representação mental do ambiente circundante. Segundo essas concepções, estamos errados ao pensar que por meio da percepção estamos em contato com as coisas como são. Em vez disso, temos acesso direto não ao mundo exterior, mas a representações mentais.1 Assim, as informações provenientes dos órgãos dos sentidos seriam diferentes daquilo que realmente vemos, e a percepção correria sempre o risco de ser uma grande ilusão.

A concepção de que a percepção é um processo interno realizado pelo cérebro (ou mediado pelo cérebro) é amplamente difundida, e diversas são as abordagens em que isso é evidente. Na tese de Fodor (1983) sobre a modularidade da mente, por exemplo, a consciência perceptiva é realizada por módulos, que são componentes da arquitetura mental localizados no cérebro. A função dos módulos é “representar o mundo de maneira a torná-lo acessível para o pensamento” (Fodor 1983, p.40).

Os módulos forneceriam uma representação da realidade baseada em informações provenientes de estímulos relativos à cor, tamanho e relações espaciais tridimensionais etc. (Fodor 1983, p.47). Nessa concepção, os módulos realizam o papel da integração perceptual, ou seja, processam as informações provenientes dos órgãos dos sentidos criando uma representação interna.

De fato, a ideia de que o cérebro processa a informação estimulacional que recebemos parece ser confirmada por diversos estudos (apresentados por Noë no cap.6), por exemplo, estudos sobre o ponto-cego e sobre a ótica ocular, conhecida pelo menos desde Kepler (1571-1630). No olho humano, há uma região (“ponto-cego”) em que não há fotorreceptores, porque esse é o ponto em que o nervo ótico atravessa a retina. No entanto, não há um ponto cego correspondente em nosso campo visual. O que os estudos sobre o tema sugerem é que o cérebro “preenche” o ponto-cego para evitar a descontinuidade na imagem. É possível, no entanto, observar o ponto-cego, com auxílio da Figura 1 (adaptada de Maturana e Varela 2001, p.23): tape o olho esquerdo e olhe fixamente para a cruz, mantendo cerca de 40 cm de distância da figura. O ponto preto à direita da figura deverá sumir, esse é o ponto-cego, cuja falha seria “preenchida” pela imagem ao redor.

Figura 1 Outro exemplo provém do estudo da ótica ocular: além de serem projetadas duas imagens retinais, a cena visível projeta uma imagem invertida no interior do olho.

Isso mostra que há uma diferença entre o que é visto conscientemente e os dados que geram a visão. Como não vemos de maneira dupla nem invertida, deve haver um processo, em algum momento, que normaliza as imagens. Segundo a descrição tradicional, esse processo é realizado pelo cérebro, que gera uma representação rica e complexa do mundo e que compensa o caráter limitado dos estímulos sensoriais.

Para Noë, estudos desse tipo ilustram de modo claro o que há de equivocado na concepção tradicional: a visão é concebida como um processo interno realizado primariamente pelo cérebro. Um dos problemas dessa concepção é que ela leva a certo tipo de ceticismo (“tradicional”): acreditamos ver o mundo de maneira detalhada, mas na verdade, só temos acesso consciente a representações mentais, que são produto do processamento cerebral dos estímulos recebidos. Noë discute também estudos que mostrariam que nossas representações mentais do mundo exterior são falhas (embora em geral não as percebamos como tais). Ou seja, acreditamos ver o mundo de maneira detalhada, mas na verdade não é isso o que ocorre. Mágicos, por exemplo, tomam proveito disso, podendo fazer com que acreditemos que uma moeda está em uma mão, quando na verdade está em outro lugar. Isso mostraria que nossa consciência visual não é tão rica ou detalhada como pode nos parecer.

Isso fica explícito na cegueira por desatenção [inattentional blindness], exemplificada pelo famoso experimento em que se pede a alguém que conte a quantidade de vezes que uma bola é passada de uma pessoa para outra em um vídeo.2 Enquanto prestamos atenção nas jogadas e na bola, um gorila passa dançando na tela, sem que a maioria das pessoas note. Outro exemplo interessante é a cegueira à mudança [change blindness]: a não ser que tenhamos nossa atenção diretamente voltada para o objeto ou aspecto da imagem que está em transformação, não notamos mudanças no ambiente. Por exemplo, quando piscamos, mudanças relativamente discretas, podem passar despercebidas. Essas considerações, mais recentes, do ponto de vista da ciência da visão, levam também a um “novo” tipo de ceticismo, encontrado em autores como Daniel Dennett (1991) e Susan Blackmore (2002), que dizem explicitamente que a verdadeira ilusão associada à visão é a de que pensamos ver o mundo em detalhes, quando na verdade, não o vemos tão detalhadamente assim. Segundo Noë, ambos tipos de estudos fornecem razões para se crer que o mundo percebido seja uma ilusão, já que o que é experimentado não é o próprio mundo, mas uma representação.

Para Noë, conclusões céticas como essas são problemas que só surgem em concepções representacionais da percepção. Assim, uma alternativa — a que é perseguida por Noë — é evitar concepções representacionalistas.

No entanto, há diversas críticas à ideia de que se pode prescindir da noção de representação e mais especificamente, à ideia de que a cegueira por atenção e a cegueira à mudança implicam que não há representações envolvidas na percepção.

Prinz, por exemplo, analisa o que considera ser o melhor argumento de Noë para negar uma concepção representacionalista da percepção, mas o critica, apresentando indícios provenientes de estudos empíricos.3 Para Prinz, “Noë interpreta esse dado [a falha em notar a mudança na cena visual] como demonstrando que o sistema visual extrai apenas uma representação rasa que deixa de fora muitos detalhes” (2006, p.13). Prinz afirma que há uma concepção compatível com esse dado, a de que “o sistema visual gera representações complexas, mas sem conferir cada detalhe” (ibid.).

Segundo ele, o sistema visual registra as mudanças, mas não o fato de que tenha ocorrido uma mudança. Como indício, Prinz apresenta estudos que mostram que inconscientemente essas informações são registradas pelo cérebro. Por exemplo, em Mitroff et al. (2004), os participantes de um experimento observam pares consecutivos de imagens representando diversos objetos que mudavam. Os participantes, em geral, foram incapazes de relatar as mudanças. No entanto, em um exame subsequente, acertavam mais do que a média quais os objetos haviam desaparecido sem que notassem (Prinz 2008, p.6). Para Prinz, se as representações não fossem detalhadas, as mudanças não poderiam ter sido registradas de modo algum.

Disso, Prinz conclui que não só deve haver um tipo de representação interna desses objetos, como ela também seria detalhada e que poderíamos ter algum tipo de acesso a ela, ao menos quando estimulados adequadamente. Há considerável controvérsia sobre a questão da representação, mas Noë afirma que, mesmo que exista algo como uma representação, não teríamos acesso a ela. Para Noë, “não parece a nós, percebedores, como se o cérebro construísse um modelo interno do mundo, mas sim que o mundo está aqui e nós estamos nele” (2009, p.140). Para Noë, a percepção é enativa, ou seja, é uma atividade que envolve a habilidade de utilizar o corpo na exploração do mundo: não é “o caráter intrínseco da estimulação sensorial que fixa o caráter da experiência; mas sim a maneira em que a estimulação sensorial varia como uma função do movimento em relação ao ambiente” (2009, p.63) que caracteriza a percepção.

Além disso, Noë argumenta que as concepções representacionalistas não estão de acordo com o que sabemos a respeito da biologia da percepção. Na evolução dos seres vivos, os órgãos perceptivos não foram primariamente selecionados pela sua capacidade de representar internamente o mundo exterior, mas por permitirem um certo tipo de interação ou acesso a ele. Noë enfatiza que o que vemos é mal descrito como um conteúdo mental; antes, ver é tornar disponível para mim um aspecto do mundo. Assim, não é o caso que eu tenha uma representação interna detalhada do mundo, mas sim que os detalhes do mundo tornam-se disponíveis para mim de tal modo que eu posso então interagir conscientemente com eles: “o mundo não aparece para mim como presente de uma vez só na minha mente. Ele se mostra como estando ao alcance, mais ao menos próximo, mais ou menos presente” (Noë 2009, p.141). A disponibilidade, claro, ocorre também porque o ambiente é causal e fisicamente regular, ou seja, a nossa percepção dele como sendo assim depende de que ele realmente seja assim.

Em resumo, para Noë, é um erro pensar na percepção como sendo realizada primariamente pelo cérebro, o qual agiria como um “sistema de input-output que codifica uma representação interna do mundo externo” (Noë & Thompson 2002, p.5). Certamente, o cérebro desempenha uma função importante, mas não a de gerar uma representação do mundo a partir dos estímulos sensoriais. Para Noë, sua função é “facilitar o padrão dinâmico de interação entre cérebro, corpo e mundo” (Noë 2009, p.47), permitindo que o ser vivo domine suas capacidades sensório-motoras.

Éa partir do domínio dessas capacidades que a percepção é entendida, como uma atividade que envolve habilidade na exploração do mundo. Assim, a percepção é uma atividade que “realizamos”, e não que é “realizada em nós”.4 Cognição Segundo a concepção tradicional, um traço característico do ser humano é o de ser racional e deliberativo. Isso levou pesquisadores a acreditar que as decisões humanas são tomadas com base em critérios universais formuláveis de modo descontextualizado, sem levar em conta, por exemplo, as emoções e a história dos sujeitos. Uma analogia recorrente para se explicar a mente humana tem sido a dos programas de computador: pensar é computar, ou seja, realizar certo tipo de cálculo com base em regras. Um especialista em determinado assunto seria assim um ótimo aplicador de regras.

Noë argumenta (cap.5) que essa descrição das capacidades cognitivas é errônea. Mesmo habilidades cognitivas como jogar xadrez ou aprender uma língua são “envolventes”, ou seja, necessariamente dependentes do sujeito, do seu corpo e do contexto. Aquilo que caracteriza nosso pensamento é o envolvimento com o mundo, seja em atividades como jogar baseball, xadrez ou aprender uma língua. Para Noë, o que realmente caracteriza o especialista é justamente a ausência ou diminuição de deliberação e julgamento. Na verdade, a descrição intelectualista do especialista como alguém que conhece tão bem as regras que consegue aplicá-las rápida e adequadamente é, na verdade, mais parecida com a de um iniciante. Um jogador iniciante de baseball deve pensar e prestar muita atenção naquilo que está fazendo ao bater com o bastão na bola. O jogador experiente, ao contrário, age quase sem pensar.

Sequer em atividades intelectuais o pensamento e a deliberação são os padrões característicos da atividade humana, segundo Noë. Na descrição intelectualista, um jogador de xadrez analisaria, a cada jogada, um número enorme de jogadas possíveis, escolhendo a mais adequada, como um computador faria. Jogadores humanos (ao menos os profissionais) precisam considerar apenas as jogadas relevantes possibilitadas pela configuração do jogo em andamento. O humano, na verdade, não calcula como um computador. O xadrez, para o humano, é uma atividade que envolve a compreensão de regras, mas também de objetivos, costumes, entre outros aspectos que constituem um contexto.

É possível aplicar essas considerações também ao aprendizado da linguagem.

Novamente, segundo a descrição tradicional, um falante competente da linguagem natural seria aquele que combina as regras sintáticas e semânticas formando uma frase bem formada. Assim, nossa competência linguística (ou a de nosso cérebro, salienta Noë) consistiria basicamente na análise e na decodificação de frases de maneira rápida e confiável. Mais do que informar ou comunicar pensamentos, a linguagem é um aspecto do comportamento humano em relação ao mundo. Para Noë, no entanto, a linguagem não é apenas um conjunto de símbolos e regras, mas sim um dos componentes do contexto no qual os seres humanos vivem. Assim, Noë remete (ver Deacon 1998) a uma concepção diversa sobre o aprendizado da linguagem, segundo a qual a facilidade com que qualquer pessoa aprende a utilizar a linguagem é explicada pelo fato de que ela é um instrumento com o qual lidamos com o mundo, e não é coincidência ou acaso que sejamos tão bons na sua utilização. Ela foi criada por nós e para nós.

Qual é, então, a natureza de nosso envolvimento com o mundo? Não parece ser primariamente cognitivo; não é o caso que ajamos como iniciantes, pensando e prestando atenção em tudo o que fazemos. O envolvimento prático com o mundo é a base da atividade consciente e é a partir desse envolvimento que desenvolvemos nosso conhecimento do mundo.

“Mente é vida” Para Noë, se quisermos ter uma compreensão adequada sobre o que é a mente de um animal, “deveríamos não somente olhar para dentro, para a sua constituição física e neurológica” mas “prestar atenção à maneira que o animal vive, à maneira que está envolto no local em que vive” (2009, p.42). A mente é compreendida, assim, não como algo que acontece dentro de nós, mas como resultante da interação dinâmica entre seres vivos e o meio externo. Nessa concepção, todos os seres vivos possuem algum tipo de mente, até mesmo uma bactéria. Essa afirmação pode soar estranha ou extravagante, mas do ponto de vista que Noë defende, a bactéria não pode ser compreendida como um conjunto de átomos que reagem causalmente a estímulos externos. Uma abordagem estritamente física como essa impediria que reconhecêssemos aspectos importantes da vida de um ser. Para poder reconhecer a vida de uma bactéria (ou de qualquer outro ser), devemos compreendê-la como um ser adaptado a seu meio, e que possui agência, mesmo que de um tipo primitivo. A vida e a mente da bactéria estão relacionadas de uma maneira que só pode ser entendida quando levamos em conta que “a mente da bactéria não consiste na maneira em que ela está internamente organizada. Ela diz respeito, em vez disso, à maneira em que ela ativamente mistura-se ao seu meio e se entrosa com ele” (Noë 2009, p.42). Como se vê, o conceito de mente proposto por Noë difere dos encontrados na tradição.

Obviamente, é mais fácil para nós reconhecermos mentes em animais como um cãoguia, que possui uma relação de envolvimento colaborativo bastante complexo com os seres humanos. Para os seres humanos envolvidos nesse tipo de relação, torna-se impossível negar que um cão-guia possua uma mente. Considerações semelhantes aplicam-se às capacidades mentais de crianças pequenas: sabidamente não são de maneira nenhuma indiferentes a seus cuidadores, e são altamente sensíveis aos sentimentos e atitudes dos outros desde bebês. As crianças desenvolvem, por exemplo, relações comunicativas delicadas com seus pais ou cuidadores, respondendo ao toque, à voz, ao sorriso etc. Em resumo, “uma vez que nos engajamos com um certo tipo de coabitação com outros — uma vez que nos engajamos em relações de amizade, casamento, trabalho colaborativo etc. — então, torna-se impossível levar a sério o pensamento de que lhes falta a consciência” (Noë 2009, p.38).

Considerações como essas dissolvem um dos problemas clássicos da filosofia da mente: o chamado “problema das outras mentes” (como podemos saber que os outros seres possuem mentes?). De acordo com a concepção de Noë, a base do nosso comprometimento com outras mentes é o envolvimento mútuo, prático e colaborativo.

O problema das outras mentes entendido de maneira tradicional só surge quando temos uma concepção de mente como um processo que ocorre dentro da cabeça, além da observação possível. Nessa concepção, alguns critérios auxiliam na resposta, como os marcadores comportamentais ou a atividade cerebral, que podem ser insuficientes em alguns casos. No entanto, quando consideramos a mente como interação entre o corpo, meio e outros seres, a consciência torna-se um processo observável. Assim, não se faz necessário, em circunstâncias normais, a utilização de critérios ou inferências que nos permitam saber que outros possuem mentes. Isso já é sempre pressuposto nas relações práticas que temos com eles, e somente questionamos esse pressuposto quando a vida é ou se torna estranha, como no caso da bactéria ou nos casos de pacientes em estados vegetativos, por exemplo. O problema das outras mentes não é nesse sentido um problema estritamente teórico.

Enquanto estamos nos relacionando praticamente com outros, o problema não tem como surgir.

Conclusão

Nesta resenha, apresentamos argumentos de Noë contra alguns dos pressupostos da ciência cognitiva contemporânea, que seriam infundados e implicariam em uma concepção errônea da mente. Para Noë, os fenômenos mentais não são dependentes unicamente do cérebro (ou de uma substância mental). A compreensão dos fenômenos mentais exige uma concepção mais ampla, que leve em conta a interação entre o cérebro, o corpo e o ambiente em que se vive. Todos esses componentes são constitutivos da consciência, e não têm com ela uma mera relação de interação causal.

Nessa concepção, a consciência é em parte constituída pelo que fazemos e por onde estamos, ou seja, a mente é entendida como uma relação com o meio circundante.

Nisso tudo é perceptível a proximidade com autores como Wittgenstein, Heidegger e Merleau-Ponty, bem como a influência de pesquisas em inteligência artificial e robótica. Sua concepção de percepção é diretamente inspirada nos trabalhos dos biólogos Humberto Maturana e Ernesto Varela e do psicólogo James Gibson. A tese da “mente corpórea” [embodied mind] é, hoje em dia, uma alternativa interessante às concepções tradicionais, uma vez que permite dissolver alguns problemas de difícil solução como o problema das outras mentes e o problema do ceticismo sobre o mundo exterior mencionados acima.

Para um leitor acadêmico mais exigente, a argumentação de Noë pode, em alguns momentos, parecer deficiente. Por exemplo, suas críticas às concepções representacionalistas precisam ser adicionalmente desenvolvidas para efetivamente imporem-se aos argumentos contrários. Mas isso dificilmente pode ser considerado um problema grave do livro. A intenção de Noë não é apresentar uma tradição de pesquisa já estabelecida e seus resultados, mas uma alternativa à tradição que vem se desenvolvendo nos últimos anos, e difundi-la a um público mais amplo, de tal modo a alterar a concepção que predomina hoje sobre nossas capacidades mentais, tanto nos ambientes acadêmicos quanto fora deles. Nesse sentido, o livro tem propósitos políticos, explicitamente declarados pelo autor (p.xiv): influenciar os rumos da nossa cultura, desafiando a ortodoxia na busca de uma compreensão não-fragmentada da vida.

Referências

Bennett, M.; Hacker, P. 2003. Fundamentos filosóficos da neurociência. Lisboa: Instituto Piaget.

Blackmore, S. 2002. There is no stream of consciousness. Journal of Consciousness Studies 9(5): 17–28.

Deacon, T. 1998. The symbolic species. New York: Norton.

Dennett, D. 1991.Consciousness explained. Boston: Little, Brown and Co.

Fodor, J. 1983. The modularity of mind. Cambridge, MA: MIT Press.

Maturana, H.; Varela, E. 2001. A árvore do conhecimento. São Paulo: Palas Athena.

Mitroff, S.; Simons, D.; Levin, D. 2004. Nothing compares two views: Change blindness can occur despite preserved access to the changed information. Perception & Psychophysics 66: 1268–81.

Noë, A. 2004. Action in perception. Cambridge, MA: MIT Press.

Noë, A.; Pessoa, L.; Thompson, E. 2000. Beyond the grand illusion: what change blindness really teaches us about vision. Visual cognition 7 (1/2/3): 93–106.

Noë, A.; Thompson, E. (eds). 2002. Vision and mind. Cambridge, MA: MIT Press.

Prinz, J. 2006. Putting the brakes on enactive perception. Psyche 12(1): 1–19.

Prinz, J. 2008. Is consciousness embodied? In: P. Robbins e M. Aydede (eds.): Cambridge Handbook of Situated Cognition. Cambridge: Cambridge University Press, 2008. [disponível em http://subcortex.com/IsConsciousnessEmbodiedPrinz.pdf] Russell, B. 2005. Os problemas da filosofia. Trad. Jaimir Conte. [disponível em http://www.cfh.ufsc.br/~conte/russell.html] Simons, D. 2000. Current approaches to change blindness. Visual Cognition 7(1/2/3): 1–15.

Sur, M.; Angelucci, A.; Sharma, J. 1999. Rewiring cortex: the role of patterned activity in development and plasticity of neocortical circuits. Journal of Neurobiology 41(1): 33–43.

Notes

1 Ver, por exemplo, Bertrand Russell, Os problemas da filosofia, cap.1: “Aparência e realidade”.

2 O vídeo pode ser assistido no site do professor Daniel Simons: http://www.dansimons.

com/videos.html.

3 Ver Prinz 2006, p.4; 2008, p.13. As críticas de Prinz dirigem-se a considerações semelhantes às de Out of our heads sobre as cegueiras por mudança e à atenção que Noë faz no livro Action in perception (2004).

4 Nesse ponto, Noë parece inspirar-se em argumentos de tipo wittgensteiniano como os que encontramos em Bennett & Hacker (2003). Ver sobretudo o capítulo 3.

Laura Machado do Nascimento – Universidade Federal de Santa Maria BRASIL lauranasciment@gmail.com

 

La Mente y sus Problemas – Temas actuales de filosofia de la psicología – RABOSSI (P)

RABOSSI, E. (Org). La Mente y sus Problemas – Temas actuales de filosofia de la psicología. Buenos Aires: Catálogos S. R. L., 2004. Resenha de: TEIXEIRA, João de Fernandes. Principia, Florianópolis, v. 9, n.1–2, p. 213–220, 2005.

Estamos diante de uma obra de grande porte. Uma iniciativa louvável tanto pela sua unidade como pela sua diversidade. À unidade temática que junta num só volume os principais problemas da filosofia da mente contemporânea contrapõe-se a diversidade de tratamentos dados a cada um deles. Isto faz com que a obra espelhe, com grande riqueza, a produção filosófica latino-americana nesta área — uma lacuna que precisava urgentemente ser preenchida.

Digo latino-americana não porque abarque o continente, mas pelo fato de nela encontrarmos artigos nas duas grandes línguas da América do Sul: o espanhol e o português brasileiro.

Há quatro grandes temas (cada um correspondendo a um capítulo) que compõem o livro: a natureza da psicologia popular, isto é a chamada folk psychology; a discussão acerca das arquiteturas mentais e a questão da modularidade; o problema da causação mental e a questão da ontologia dos qualia. Cada um desses temas é analisado em profundidade por um grupo seleto de autores. Não podendo falar de todos — por óbvias questões de tempo e espaço — optei pela estratégia de comentar um de cada seção, sem que isto signifique, em hipótese alguma, uma escolha por relevância.

O professor Eduardo Rabossi inicia a coletânea, com um artigo panorâmico discorrendo sobre o estado da arte nas discussões contemporâneas sobre a folk psychology. É uma apresentação completa e impecável de como esse termo (criado em 1981 por Daniel Dennett) acabou por assumir uma grande importância no cenário da filosofia da mente, chegando, posteriormente, a desdobramentos como os da “folk physics” e da “folk biology.” Nesta primeira parte chama a atenção o último artigo, de Pim Haselager e Maria Eunice Q. Gonzales “Conhecimento comum e auto-organização.” No seu percurso, os autores tocam em temas candentes, que incitam à reflexão. Eles se referem, por exemplo, à teoria da auto-organização (TAO). Mas existirá algo como uma teoria da auto-organização ou não será este apenas um conceito intuitivo, oriundo de algum tipo de “folk science”? E, neste caso, uma abordagem da psicologia popular baseada na TAO, não correria o risco de circularidade? Ficamos sem saber se a brevidade com a qual os autores se referem a TAO é parcimônia deliberada ou se reflete dificuldades teóricas ainda não contornadas. A segunda hipótese parece ser a mais provável.1 Senão vejamos. O conceito de auto-organização é inegavelmente controverso, apesar de sua utilização cada vez mais freqüente no discurso da ciência cognitiva contemporânea. Michel Debrun, um dos maiores entusiastas da TAO chega a afirmar que “uma organização ou forma é auto-organizada quando se produz a si mesma.” Mas será isto suficiente para iluminar o conceito de autoorganização? Não continuaria esse conceito apenas desempenhando o papel de medida da nossa ignorância, ou seja, preenchendo nossa necessidade de explicar o que ainda não podemos compreender? Ou não estaríamos, por acaso, beirando uma tautologia ao utilizarmo-nos de um conceito que apenas confunde descrição com explicação? Dificuldades teóricas semelhantes percorrem a TSD, mencionada pelos autores. Dificuldades estas que, aliás, já foram cuidadosamente apontadas por autores como Elliasmith (1996) e que, pelo que me consta, ainda permanecem ser resposta. O encanto intuitivo da idéia parece ir se desmoronando a medida em que uma análise conceitual mais precisa vai desvelando sua vagueza inerente.

Parece-nos, no final, que a idéia de auto-organização acaba por denotar apenas algo como o reconhecimento ou observação de uma implícita espontaneidade (animista?) que queremos atribuir ao modo como os fenômenos naturais se sucedem.

Passemos para a segunda parte da coletânea. Esta nos traz um excelente artigo de Verônica Ramenzoni, “De la máquina sintáctica a la máquina biológica; desafiando la metáfora computacional.” Seu ponto de partida é uma recapitulação dos pressupostos teóricos da GOFAI (Good and Old Fashioned Artificial Intelligence) para em seguida explorar uma comparação entre os diferentes modos de conceber arquiteturas cognitivas. Verônica distingue entre “sistemas com arquitetura fechada” e “sistemas com arquitetura aberta.”

Sistemas fechados utilizam-se de símbolos físicos e partem do pressuposto da cognição entendida como representação. Sistemas abertos, além de corporificados e situados estão em contato com o mundo que os cerca. Aos primeiros corresponde o paradigma simbólico da Inteligência Artificial, aos segundos, as abordagens alternativas vindas do conexionismo, da vida artificial e da robótica de Brooks.

Mas poderão estes últimos de fato estabelecer uma conexão com o mundo, uma conexão que os contextualize e não apenas os situe fisicamente no ambiente? Creio que esta pergunta só poderá ser respondida se pudermos um dia desenvolver uma arquitetura que estabeleça uma relação a-conceitual (de re) destes sistemas com seu ambiente, uma possibilidade que ainda permanece distante.

A terceira parte da antologia traz um debate sobre um dos temas mais polêmicos da filosofia da mente contemporânea: a noção de causação mental. Apesar da inegável qualidade filosófica das análises empreendidas por Wilson Mendonça e Charbel Niño El Hani é preciso notar que a polêmica em torno deste tema parece repousar sobre um equivoco monumental: o paradoxo de Kim.

O paradoxo de Kim consiste em tomar como ponto de partida o pressuposto dualista cartesiano para depois mostrar que, para admitir a existência da causalidade mental tal pressuposto deve ser jogado fora, pois ele necessariamente leva-nos a uma reductio ad absurdum, ou seja, força-nos a desembocar necessariamente no fisicalismo.

Embarcamos numa canoa furada desde o início. E para tirar a água de dentro dela, faz-se um furo maior, ao lado do primeiro.

Afirmar a existência da causação mental implica negar cidadania ontológica para o mental. Ou seja, a única maneira de admitir a existência da causação mental é negando seu componente mental.

Por outro lado, negá-la significa simplesmente dar meia volta e sucumbir ao dualismo, de onde se extrai a óbvia conclusão pela impossibilidade de que algo imaterial seja causalmente eficaz. Em outras palavras, a Kim podemos atribuir a proeza de usar o conceito de causação mental para tornar tanto o materialismo como o dualismo posições insustentáveis. O filósofo da mente assume a tristeza de Groucho Marx, de “nunca admitir entrar num clube que o aceitasse como sócio.”

 O problema de Kim parece repousar em duas premissas altamente questionáveis. A primeira é tomar como ponto de partida — como dado bruto — a existência do mental para depois tentar recuperar sua possível eficácia causal. A segunda diz respeito à noção de “fechamento causal do mundo físico” — a própria noção de mundo físico que ele utiliza é altamente questionável como muito bem aponta Paula Mousinho Martins no capítulo “Reducionismo psicofísico, realismo e ideologia” que encerra esta seção. Kim afirma que não há problemas em afirmar que o mental causa o mental (será que não? Quem nos disse que a relação entre estados mentais é causal?) e sim em afirmar que o mental pode afetar o físico.

Ao tomar o mental como causa, o partidário da causação mental parece ter esquecido que este poderia ser concebido como efeito.

Aliás, sobre este tópico, parece que todas as confusões parecem se basear numa permuta equivocada entre o que deve ser considerado causa e o que deve ser considerado efeito. A psicossomática foi a disciplina que mais colaborou nos últimos anos, para que concedêssemos uma cidadania ontológica à idéia de “causa mental.” A medicina tradicional estaria confundindo causa e mecanismo. Para o médico tradicional, um aumento da freqüência cardíaca seria causado pela produção de adrenalina. Para o psicossomatista, este na realidade não passa de um mecanismo que leva à taquicardia. A verdadeira causa estaria na esfera psíquica: numa desilusão, numa dificuldade, num drama existencial. O psicossomatista também não aceita que a causa de um infarto é a obstrução de um ramo das artérias coronárias, pois novamente estaríamos excluindo o psiquismo como origem do evento orgânico. Tampouco a descoberta de certas substâncias no tecido cerebral do esquizofrênico não aclara em nada as causas da psicose. Ela simplesmente aprofunda o conhecimento dos mecanismos (que não são as causas) presentes nesse tipo de situação.

Ora, a distinção entre causa e mecanismo nos parece correta.

Mas dela não se pode inferir ipso facto que a causa desses transtornos tenha de ser necessariamente mental nem tampouco que tenhamos de admitir a existência da causação mental como um dado, como um ponto de partida para a filosofia da mente. Há uma alternativa que parece ter sido descartada: batimentos cardíacos irregulares ou infarto não precisam ser vistos necessariamente como manifestações físicas de um problema emocional. A tristeza, o medo, etc é que podem ser manifestações mentais de um problema físico.

Neste caso, estaria errado tomar o mental como causa, pois ele é, na verdade, efeito. O mesmo valeria para as emoções: experimentamos emoções em nosso corpo e não em nossa mente. William James já dizia “estou triste porque choro” e não “choro porque estou triste.” Neste sentido, é talvez preciso reconsiderar o que vem sendo escrito sobre causação mental tomando como ponto de partida o mental — o mental como um dado bruto.

Ora, haveria ainda que explicar como as terapias (as talking cures) podem modificar o físico. Mas aqui não há motivos para postular a existência de mistérios a não ser que queiramos saltar, deliberadamente, a dimensão comportamental destas terapias, sejam elas de qualquer tipo de orientação. A relação entre terapeuta e paciente é uma relação mediada por comportamentos verbais. São estes que afetam mutuamente os cérebros daqueles envolvidos na relação terapêutica. Sabemos, hoje em dia, que comportamentos verbais freqüentemente funcionam como estímulos que especificam contingências produzidas pelo comportamento verbal da própria pessoa.

E que, ao fazê-lo, o sujeito, através de sua própria narração, modifica seu comportamento e seu psiquismo. Para superar o impasse da causação mental neste caso, é preciso que admitamos, na nossa ontologia, entidades tais como comportamento e linguagem. Entidades cuja cidadania ontológica extrapola o conjunto de partículas elementares da física, como é o mundo causal de Kim. Entidades que podem — e provavelmente são — compostas por estas partículas, mas que certamente não se reduzem a elas. Ou seja, como diz lucidamente Paula Mousinho Martins, para que nos livremos dos problemas colocados por Kim é preciso nos livrar dessa idéia ingênua de natureza — aquilo que ela chama de “materialismo ideológico” e que, no inicio do século passado Husserl batizara, na sua Filosofia como Ciência Rigorosa, de materialismo popular. O materialismo popular é regido por uma ontologia do tipo Dr. Johnson (o saudoso gramático do século XVIII citado por Quine), onde se prova a existência do mundo exterior e de sua natureza dando chutes em pedras.

Mas antes de entrar na quarta parte da antologia, é preciso comentar o artigo de André Leclerc, também sobre causação mental.

A causação mental é utilizada por ele como uma máquina de guerra contra o eliminativismo. Ela reformula o problema mente-cérebro na sua direção inversa, perguntando como o mental pode afetar o físico. Novamente encontramos a pergunta que todo psicoterapeuta de bairro deve fazer, partindo como sempre, do vestígio indelével de nossa herança cartesiana que coloca a existência do mental (Penso logo existo) como o início de toda ciência. Atirando-se contra moinhos de vento, Leclerc alinha dois argumentos em favor da existência da causação mental, que oscilam entre o truísmo e o equívoco que impregna a batalha contra o materialismo eliminativo — esse tigre de papel que repugna os filósofos.

Não há dúvida de que Leclerc está correto ao assinalar que o materialismo eliminativo, ao tentar se livrar de toda folk psychology e com ela a idéia comum de crença, impede-nos de acreditar numa teoria neurofisiológica do mental. O materialista eliminativo estaria jogando fora o bebê junto com a água do banho. Leclerc também está certo, quando, relembrando Frege, assinala que se reduzirmos toda ciência ao cérebro — e com esta todas as suas proposições — chegaríamos, no limite, à situação de ter de atribuir valores de verdade a diferentes regiões cerebrais (!). Este seria um paradoxo semântico inaceitável.

Mas — justiça seja feita — não é isso que o materialismo eliminativo almeja: ele não pretende eliminar o mental reduzindo-o ao cerebral — ao cérebro como uma coisa ou um algo — e sim apostar na tradução (futura) do vocabulário psicológico para o vocabulário de uma teoria neurofisiológica, operando uma redução ontológica de termos que não resistiriam à sua navalha de Ockham. Se isto era o que Leclerc queria dizer, não é essa, contudo, a interpretação imediata que emerge da leitura de seu texto.

Mais do que isto, Leclerc parece disparar suas críticas contra o alvo errado. O que o eliminativista contemporâneo pós-década do cérebro precisa perguntar é pelo estatuto da neurociência como conhecimento. Poderá esta dissolver as questões filosóficas da mesma maneira que Ryle achava que a terapia da linguagem (herdada de Wittgenstein) poderia fazê-lo? Quais questões filosóficas sobrariam após desvendarmos os mecanismos cerebrais da percepção, das emoções e da angústia? Qual a distância entre a Angst do Dasein e o alívio proporcionado por um comprimido de Lexotan? Estas parecem ser as questões que realmente interessam na discussão de versões contemporâneas da redução psiconeural como as propostas, por exemplo, por J. Bickle. Que a neurociência sucumbe a argumentos do tipo terceiro homem não parece ser novidade. Haldane, em 1932 já tinha notado isto ao afirmar que se sustentamos a proposição de que todos os nossos estados mentais são produtos do metabolismo do cérebro, isto inclui a própria sentença que acabamos de afirmar, o que tornaria este argumento auto-contraditório: ele seria apenas o resultado passageiro de um estado pelo qual o cérebro acaba de passar. Eis aí o mito de Oroborus. Aliás, qual o discurso — aí incluído o discurso filosófico — que não sucumbe ao Oroborus, ou o mito da cobra que devora sua própria cauda? Finalmente, a quarta parte da coletânea de Rabossi é dedicada ao tema dos qualia e conta com dois artigos, um de Maria Clara Dias e outro de Carolina Scotto. Maria Clara Dias aponta, lucidamente, para alternativas à qualiofilia que já se arrasta há décadas, valendo-se para isto de um argumento desenvolvido por Michael Tye. A partir do argumento de Tye, Maria Clara Dias mostra que não há sentido em conceber qualia como entidades inefáveis. Não há sensação sem cognição, ou seja, não há sensação isolada da cognição, uma vez que sempre podemos falar de nossas sensações. Assim sendo, os qualia só fazem sentido quando entram em proposições, ou seja quando de conteúdo não-conceitual passam a ser conceitualizados na medida em que compõem proposições.

Ora, não estaremos aqui desmontando o mito do acesso privilegiado — o mito cartesiano cuja extensão seria a ontologia dos inescrutáveis qualia? E serão eles, afinal, tão importantes assim? A leitura do artigo de Maria Clara Dias não deixa de me trazer à lembrança as críticas que Dennett tem disparado contra os qualiófilos nos últimos anos, especialmente a última, “What RoboMary Knows.” Creio, contudo, que o mais importante em todas essas críticas e debates — que não terminaram e não parece que vão terminar tão cedo — é notar que talvez não devamos atribuir tanta importância a esse problema como se tem feito nas últimas décadas.

Quero finalizar esta resenha com uma palavra de entusiasmo para o leitor. Embora a filosofia da mente contemporânea esteja marcada por muitas indústrias filosóficas para as quais não se possa vislumbrar muitas saídas ou progressos a curto prazo, vale a pena inteirar-se delas. E este livro nos dá uma boa oportunidade para isto. Aliás, o que na filosofia não se transforma em indústria ou máquina especulativa?

Referências

Bickle, J. 2003. Philosophy and neuroscience. The Netherlands: Kluwer Academic.

Debrun, M. 1996. “A idéia de auto-organização.” In M. Debrun, M. E. Q. Gonzales, O. Pessoa (orgs.), Auto-organização: estudos interdisciplinares. Campinas: CLE-UNICAMP, vol. 18.

Dennett, D. 2005. “What RoboMary Knows.” Sweet Dreams. Cambridge, Mass.: The MIT Press.

Elliasmith, C. 1996. “The third contender: a critical examination of the dynamicist theory of cognition.” Philosophical Psychology 9 (4): 441–63.

Haldane, J. B. S. 1932. The inequality of man. Londres: Chato & Windus.

Husserl, E. 1961. La filosofia como ciencia estricta. Buenos Aires: Nova (Texto original publicado em 1913).

Teixeira, J. de F. 2005. Filosofia da Mente: neurociência, Cognição e comportamento. São Carlos: Editora Claraluz.

Nota

1 Para uma crítica mais pormenorizada da utilização da TSD na explicação psicológica veja-se Teixeira, J. de F. (2005), pp. 89–100.

João de Fernandes Teixeira – Departamento de Filosofia, UFSCar jteixe@terra.com.br

Skepticism: The Central Issues – LADESMAN (P)

LADESMAN, Charles. Skepticism: The Central Issues. Oxford: Blackwell Publishers, 2002. Pp. x + 210. Resenha de: KAJAMIES, Timo; TALVINEN, Krister Principia, Florianópolis, v.8, n.1, p.155–158, June 2004.

Skepticism: The Central Issues is an endeavor to “introduce the topic of skepticism, to explain what philosophical skepticism is, to identify and interpret some of the most historically influential skeptical arguments, to convince the reader that skepticism cannot be easily dismissed, and finally to show that its extreme claims denying we are in possession of knowledge cannot be sustained” (pp. viii-ix). Landesman executes his task by going through a number of skeptical questions and finally defending an externalistic approach to knowledge. Landesman’s goals are venerable, even more so considering that the book is directed both to those introducing themselves to skepticism and those already well familiar with the topic.

In chapter 1 which Landesman refers to as an introduction (p. ix), he does not frame the central questions clearly enough, and much of the introductory material is postponed to later chapters. For instance, in chapters 3, and 15, he discusses everyday epistemological concepts such as ‘proposition’, ‘belief’, and ‘truth’. One becomes particularly puzzled while reading the final chapter and finding there an account, for instance, of epistemic justification. Due to the lack of appropriate introduction, the reader starts to wonder what Landesman is up to.

Chapters 4, 5, and 6 deal with the problem of the criterion. We take this to be the core issue of the book and of skepticism in general.

The problem of the criterion can be formulated as a question as to how can we know that our most deliberate beliefs are true. If we propose a criterion—if we, for example, are convinced that the beliefs which we hold as true correspond with facts—it can be further asked how we know that the proposed criterion is trustworthy. Accordingly, we should give another criterion in order to justify the first one, but, of course, the process of providing criteria will go on ad infinitum. One might try to circumvent the infinite regress by taking the initial criterion at face value. Unfortunately, this procedure generates a circle, and therefore we have not provided an answer to the problem, but instead just begged the question. The upshot of the problem of the criterion is, epistemologically speaking, most unpleasant, for we are left with the dilemma of choosing between an infinite regress and a vicious circle. Whichever we choose, the skeptic has the upper hand, and it is hard to avoid biting the skeptic’s bullet.

Landesman devotes no less than five chapters (8, 9, 10, 11, and 12) to an examination of G. E. Moore’s solution to the effect that one can refute skepticism through acknowledging the existence of one’s hands.

Landesman should have somehow motivated the extensive study of Moore’s argument. These five chapters would have justified their space in the book if they had provided the reader with fresh insights into Moore’s views. Obviously, the discussion of Moore is attempted to set the stage for Landesman’s favorite epistemological view— externalism—according to which the reliability of our cognitive processes grounds our knowledge-claims. The reliable processes (or, to use Landesman’s term, super-reliable processes (p. 114)) bridge the gap between appearances and reality; the reason why our perceptions have the content they have is that they are caused by the things in the external world. “We are so designed by nature that how things appear generally depends upon how they are” (p. 138) For instance, my perception that there is a hand before me is caused by the fact that there is a hand before my eyes. The skeptic’s wheel cannot start its roll, for it is useless to ask how I know various things; the world just happens to be the way it seems to be.

Landesman does not pose the obvious question which arises at this point: Which processes are reliable and which are not? We are all familiar with the fallibility of our cognitive faculties; sometimes they produce false beliefs in addition to the arguably true ones. As Landesman points out in the interesting and well-written chapter 2, colors, for example, are merely projections of our mind, instead of items in the external world. Moreover, skepticism about colors can be easily extended further to cover, for example, our causal inferences too, as Landesman notes in his discussion on Hume’s views on induction in chapter 13. Therefore, confronting the skeptic’s challenge by appeal to super-reliable processes appears to beg the question. The skeptic will point out that it is certainly possible that we are dreaming or having vivid hallucinations, and the question remains as to how can we exclude those possibilities. Descartes was preoccupied with this question, as Landesman sets forth (cf. ch. 7). According to Descartes, our belief system should have a firm basis, and therefore we must exclude seemingly extravagant possibilities of deceiving demons, misleading dreams and suchlike. What could be such a firm basis? Moore’s example of hands does not seem to be a foolproof instance of knowledge, because what seems to be hands in our eyes, can be, beyond the veil of perceptions, after all, just pair of oranges or what not. According to Descartes, a firm basis can be attained through perceiving one’s own existence; the famous cogito was to become the fundamental foundation of Descartes’s epistemology. There are drawbacks in Descartes’s procedure, and some of them are correctly raised by Landesman in chapter 14. However, it seems strange that Landesman highlights the problems of Descartes’s epistemology and yet is very sympathetic to Moore’s solution. After all, one should notice that both Descartes and Moore have just gathered different exemplars to their pools of knowledge. And one is invited to think that Descartes is able to offer exemplary beliefs of a more solid sort than Moore.

Landesman finally closes the book by a short presentation of his solution to the problem of the criterion. He draws his views together in the last three pages (pp. 200–202), in which he proclaims an externalistic approach to knowledge. According to Landesman, in order to know it is not necessary to know that one knows, and therefore the question of providing grounds to one’s beliefs does not even arise. As he writes: “[O]ne may have good and sufficient reason for thinking that something is true without knowing what that reason is. One may have knowledge without knowing or understanding what having knowledge amounts to. In fact, one may have knowledge even when one thinks one does not have knowledge.” (p. 59.) This answer certainly does not eliminate the problem of the criterion; actually, if one admits, as Landesman does, that reliable processes may or may not produce knowledge, then one is in the same position as the skeptic and should withhold belief. Even if we take it for granted that the problem of the criterion does not present a threat to the sort of epistemology Landesman defends, he does not give a satisfactory answer to the fundamental epistemological question “How is knowledge possible?” On our view, at least, it should be the central task of epistemologists to explain the possibility and structure of knowledge. Noting that “[w]e may have knowledge that we cannot prove we have” (p. 202) is not enough.

The book as a whole invites some critical comments. Firstly, Landesman’s treatment of the central issues of skepticism involves introducing a multitude of novel technical terms. To give a few examples, the book contains terms such as ‘epistemic nihilism’ (p. 4), ‘qualified fideism’ (p. 64), ‘philosophical bracketing’ (p. 65), ‘strong/weak cognitive internalism’ (pp. 84–85), ‘framework empiricism’ (p. 87) and ‘common sense conceptual scheme’ (p. 91).

Quite many of the terms are not re-employed, but appear extravagant.

Secondly, the book seems fragmented; we were left with the impression that the author has written individual essays on matters pertaining to skepticism and compiled them together without bridging them into a unified whole. Finally, we find that Landesman’s book does not succeed in the difficult task which any book meant for both beginners and specialists must face; it fails to find a satisfactory balance between being both an introductory text and a profound study on the central issues of skepticism.didático para o não-iniciado. E, mesmo que não se concorde com suas posições, há que reconhecer o mérito de apresentar sua própria contribuição à discussão, mesmo em se tratando de um texto que pretende ser introdutório.

Timo Kajamies and Krister Talvinen – Departmento of Philosophy University of Turku FIN-200414 Turku Finland e-mail: tkajam@utu.fi

Princípios: seu papel na filosofia e nas ciências – DUTRA; MORTARI (P)

DUTRA, L. H. de A.; MORTARI, C. A. (Eds.). Princípios: seu papel na filosofia e nas ciências. Florianópolis: Núcleo de Espistemologia e Lógica da Universidade Federal de Santa Catarina, 2000, 369p. (Coleção Rumos da Epistemologia, v. 3). Resenha de: KRAUSE, Décio. Principia, Florianópolis, v.4, n.2, 2000.

O primeiro passo para se apreciar um livro como este é. entender o seu contexto. Criado em 1996, o NEL (Núcleo de Espistemologia e Lógica, da Universidade Federal de Santa Catarina, UFSC, www.cfh.ufsc.bri—nel), tem por finalidade integrar grupos de pesquisa em lógica, teoria do conhecimento, filosofia e história da ciência e áreas correlatas. Desde então, o NEL tem se destacado pela organização de eventos que paulatinamente vão se integrando ao cenário filosófico brasileiro, bem como pela publicação de textos de caráter filosófico e histórico que refletem atividades atuais de pesquisa nestas áreas. Em especial, destaca-se o Primeiro Simpósio Internacional da revista Principia, Revista Internacional de Epistemologia publicada pelo NEL e pela Editora da UFSC. O livro em apreço reune textos apresentados em tal Simpósio, realizado na cidade de Florianópolis, de 9 a 12 de Agosto de 1999, com apoio do CNPq, da CAPES e da própria UFSC. O livro é dividido em cinco seções, a saber: Lógica e Matemática, Lingüística e Filosofia da Linguagem, Episternologia e Filosofia da Ciência, Filosofia da Mente e Filosofia Moral e da Ação.

Na seção 1, há três artigos. No primeiro, intitulado “Cambio de problemas en el cuestión de los princípios de la ma temática” (pp. li- 29), Jorge Alberto Molina, da Universidade de Santa Cruz do Sul, defende a tese de que o desenvolvimento da filosofia da matemática seguiu o mesmo esquema que a evolução da epistemologia das ciências naturais. No contexto de seu argumento, uma breve revisão dos 328 Reviews principais resultados em lógica (clássica) moderna são retomados a fim de que se possa traçar um paralelo com temas próprios da epistemologia das ciências naturais. No segundo artigo, “Against modal realism” (pp. 31-46), Cezar A. Mortari, da UFSC, examina algumas das objeções que têm sido postas contra o realismo modal de David Lewis, concluindo que tais objeções trazem tantos (ou mais) problemas quanto a visão que pretendem criticar. No terceiro artigo, Jean- Yvez Béziau, então da Universidade Federal Fluminense (atualmente na Universidade de Stanford) comenta o status dos princípios lógicos em geral em “Y a-t-il des principies logiques?” (pp. 47-54). A existência de sistemas lógicos não clássicos (alguns deles que ele próprio ajudou a desenvolver) que derrogam princípios tidos antigamente como ‘leis fundamentais do pensamento’, principalmente os famosos princípios da não-contradição, do terceiro excluído, da identidade e da bivalência, é mencionada como argumento em favor da não existência de “leis lógicas” que não possam ser derrogadas, e destaca a predominância de uma visão “estrutural” da lógica na atualidade.

Na segunda seção, Maria Vitoria Rébori, da Universidade de São Paulo, em “The principies of identity and conrinuity in the history of linguistics” (pp. 57-67), discute algumas conexões entre lingüística e filosofia, notadamente aquelas vinculadas a alguma forma de princípio da identidade e/ou continuidade de conceitos na ciência e na filosofia; o trabalho de J. R. Firth é destacado neste contexto.

No segundo artigo, “Identidade, a priori e necessário: o que pode a semântica sem epistemologia” (pp. 69-82), Adriano N. de Brito, da Universidade Federal de Goiás, retoma a discussão envolvendo o conceito de identidade no âmbito da semântica usual e da distinção entre sentido e referência em um contexto epistemológico. No artigo seguinte, intitulado “Conseqüências lógicas, alternativas relevantes e o principio do fechamento epistêmico” (pp. 83-93), Flávio Williges, da UNISC, discute a questão do referido princípio no contexto do pensamento de E Dretske e do ceticismo. A seguir, em “Wittgenstein e o projeto de uma linguagem primária’ (pp. 95-108), João Carlos S. II da Silva, da Universidade Federal da Bahia, traz à tona a discussão entre a linguagem e a descrição do fenômeno no âmbito da filosofia de Wittgensteirt.

A seção 3 inicia com M. A. Frangiotti, da UFSC, que em “Kant Resenhas 329 e o caráter a priori do espaço” (pp. 111-41) argumenta contra a tentativa de equiparação das doutrinas de Kant e de Berkeley, indo de encontro aos que sustentam que o idealismo transcendental kantiano teria reeditado o pensamento de Berkeley, de forma que os elementos do mundo exterior nada mais seriam do que meras representações ou idéias, ainda que (como comenta o autor) possa-se de fato detectar alguma forma de similaridade entre esses dois pensadores. O artigo seguinte é “Os princípios da interioridade e da exterioridade no estudo da percepção” (pp. 143-56), de Sônia R. Morais, da LTNESP de Manha; nele, a autora desenvolve uma análise crítica dos princípios do título, restritos ao problema do conhecimento perceptual. Em “Realismo e relativismo como faces de uma mesma moeda” (pp. 157— 76), Eros M. de Carvalho, da UFMG, defende a possibilidade de se aceitar o relativismo conceituai e o realismo como não excludentes, uma vez que sejam interpretados adequadamente, o que é feito à luz da filosofia de 1-1. Putnam. Em “Versões do mundo ou mundo das versões 1” (pp. 177-90), Noeli Rarnme, da UFSC, traça algumas respostas a questões relacionadas ao que seriam ‘versões do mundo’, conceito importante na argumentação de Goodman acerca do seu pluralismo. Por sua vez, Sofia I. A. Stein, da Universidade Federal de Goiás, em seu “A epistemologia naturalizada e a negação de princípios a priori do conhecimento” (pp. 191-202), procura mostrar, a partir de textos de Quine, Strawson e Haack, o modo pelo qual uma filosofia naturalizada nega a existência de princípios a priori do conhecimento e defende que a filosofia só se desenvolve com o auxílio do conhecimento das ciências empíricas. Em “A seleção natural Darwiniana: discutindo a justificativa de um princípio” (pp. 203-21), Anna Carolina K. E Regner, da UFRGS, discute aspectos do tratamento hipotético-dedutivo à teoria da seleção natural Darwiniana.

Em “O perspectivismo na concepção Pascaliana de conhecimento” (pp. 223-30), João L. da S. Santos e Mariana C. Broens, da UNESP (Manha), tratam, como sugere o título do artigo, de aspectos epistemológicos na obra de Pascal.

A Seção 4 inicia com Renato Schaeffer, da FEUFRJ, que em “Princípios neuropsicolégicos evolucionistas do etos humano” (pp. 233— 78), parte de um modelo científico da antropologia evolucionista, que destaca servir para descrever a estrutura psicológica do crus, para en330 Reviews tão propor o que chama de um ‘programa naturalista esclarecido’ para uma antropologia filosófica especulativa. Em “Quine on the nature of mind: from behaviorism to anomalous monism” (pp. 279-312), Luiz Henrique Dutra, da UFSC, distingue entre formas forte e fraca de behaviorismo, argumentando que Quine mantém a forma fraca, dando-lhe um status heurístico, que é então alicerce para sua investigação do fenômeno mental, resultando em uma forma de ‘nanismo anômalo’ relativamente a questões metafísicas. Encenando esta seção, Roberto S. Benítez, da Universidade Michoacanam de San Nicolás de Hidalgo, no México, traz, em “Intencionalidad y persona en la fenomenología de Husserl” (pp. 313-23), alguns complementos a críticas desferidas por 2 Ricoeur a certos aspectos da fenomenologia de Husserl.

A seção final apresenta inicialmente o trabalho de Maria Cecília M. de Carvalho, da PUC-Campinas, intitulado “Anti-moralismo e anti-paternalismo no ensaio ‘On liberty’ de J. S. Mill” (pp. 327-43), no qual provê subsídios para a discussão de algumas questões relacionadas à concepção de liberdade em John Stuart Mil. Em “Intuições, princípios e teorias nas filosofias de Rawls e Hare” (pp. 345-59), Alcino E. Bonella, da Universidade Federal de Uberlândia, discute as propostas em filosofia moral de Rawls e Hare. Finalmente, Delamar J. V. Dutra, da UFSC, em “A categoria do direito na ótica do agir comunicativo: uma armadura para o sentido dos limites da linguagem” (pp. 361-69), discute a racionalidade comunicativa e seus limites, mostrando de que forma a moral comunicativa está inerentemente vinculada ao direito e à sua filosofia.

Como parece patente, o livro apresenta discussões pertinentes em uma boa variedade de assuntos, oferecendo ao leitor oportunidade de acesso a vários temas da filosofia contemporânea, sendo de grande valia para estudantes e professores de cursos de filosofia, tanto de graduação como de pós-graduação, bem Como de áreas correlatas.

Décio Krause – Departamento de Filosofia Universidade Federal de Santa Catarina