Princípios e Incertezas (parte II)
Agora sim, caro Santiago, o tal debate. Este post vai em resposta à seguinte frase:
"A estrutura do gene ou o mecanismo de geração de diversidade dos anticorpos, por exemplo, nunca mais serão explicados de outra forma porque hoje em dia os conhecemos molecularmente, em todo o detalhe. São dois exemplos de "fenómenos" cujo "paradigma" (à la Kuhn) nunca mais se alterará (em aparte esclareço que sou um opositor acérrimo da noção que toda a verdade científica é provisória e é sempre superseded por uma melhor explicação da realidade...)"
Começo por falar de Lord Kelvin, e da famosa alocução de 27 de Abril de 1900 “Nineteenth century clouds over the dynamical theory of heat and light”. Sendo Kelvin uma figura respeitabilíssima - excelente cientista, inventor prolífico, e empresário de sucesso - essa conferência é uma boa candidatura ao prémio do maior flop da História da Ciência (juízo de valor perfeitamente subjectivo, não-científico, pelo qual assumo inteira responsabilidade). Lord Kelvin descreveu na altura o Estado da Arte da Física como uma Ciência essencialmente terminada, definitiva. A mecânica de Newton explicava todos os fenómenos físicos conhecidos, e o trabalho dos físicos dos séculos seguinte seria apenas o de "acrescentar casas decimais à constantes já conhecidas". Apenas duas pequenas nuvens destoavam no lindíssimo azul do céu no quadro pintado por Kelvin, a Experiência de Michelson-Moreley e a Radiação
dos Corpos Negros, mas Kelvin considerava que em breve esses problemas seriam resolvidos e em concordância com as leis de Newton. Numa coisa tinha razão, não demorou muito tempo até essas questões serem explicadas. Cinco anos mais tarde, no seu Annus Mirabilis Einstein publicou dois artigos em que apresenta explicações para as "nuvens" de Kelvin, e a partir daí se iniciam as duas áreas de estudo que revolucionaram completamente a Física e mandaram Newton às ortigas, a "Relatividade" e a "Mecânica Quântica".
Isto reporta-nos ao princípio da "Falsificabilidade" de Karl Popper (e não estou a falar de Karl Popper o duvidoso filósofo político liberal, mas de Karl Popper o excelente epistemologista, um caso de esquizofrenia filosófica, diria eu...). Segundo o princípio da "Falsificabilidade" uma tese nunca pode ser demonstrada definitivemente como verdadeira, pode apenas ser ou não refutada. Todas as teorias que são ainda vigentes são-no porque resistiram até à data a todos os testes empíricos sem serem refutadas, isso não prova que são verdadeiras porque existe sempre a possibilidade um teste futuro vir a conseguir essa refutação. A teoria de Popper surge por oposição ao raciocínio indutivo dos positivistas, segundo o qual um número de observações suficientes de um fenómeno permite concluir a certeza absoluta desse fenómeno. O exemplo sempre citado é o dos cisnes brancos, se observarmos um número suficiente de cisnes e forem todos brancos concluímos que TODOS os cisnes são brancos. Popper diz-nos que enquanto não virmos todos os cisnes não podemos ter a certeza absoluta de que todos são brancos. A estatística diz-nos que Popper tem razão, se observarmos um número elevado de cisnes o que podemos dizer é que, com uma probabilidade de erro que é calculável, todos os cisnes são brancos. No entanto a probabilidade de erro existe sempre, a certeza nunca é absoluta.
Para além de puder ser refutada uma teoria científica também pode ser sempre melhorada, acrescentada, o que na essência continua coerente com a teoria de Popper (e contrário à citação do Santiago). O melhor exemplo disso de que me lembro é a teria da evolução de Darwin, com a Genética, e a Biologia Molecular o Darwinismo ganhou uma explicação mecanística que com próprio Darwin não foi possível. O que Darwin disse permanece válido mas a teoria da evolução entra numa nova dimensão, passou a chamar-se até neo-Darwinismo. Um exemplo de que qualquer teoria é apenas uma conjuntura temporária e que pode ser refutada ou melhorada.
Finalmente para o exemplo da estrutura do gene ou do anti-corpo, que são os exemplos que o Santiago dá. São de facto exemplos de fenómenos que conhecemos com o enorme detalhe molecular, isso não é contestável, e não foram ainda refutados (nem parece que venham a ser em breve). Os modelos explicam todas as observações conhecidas portanto estamos perante teorias muito sólidas, mas continuo a pensar que convém não ceder à visão positivista. Por exemplo, é bom lembrar que estas descobertas foram feitas em organismos-modelo, que são as espécies que se estudam em laboratório. Ora, estas são uma meia-dúzia, em contraste com os milhões de espécies que constituem a biosfera. Estamos a extrapolar para todos os organismos vivos (no caso dos genes) ou para uma grande parte dos animais (no caso dos anti-corpos) conhecimentos que nos vêem de um pequeno número de espécies de laboratório. Se não estamos a extrapolar, então estamos apenas a dar uma descrição parcial do fenómeno que nos interessa. É possível que uma qualquer forma de vida que não conhecemos ou não estudámos venha a refutar os nossos modelos actuais. Já aconteceu com o código genético, algumas espécies de bactérias têm ligeiras diferenças em relação ao código genético dito "universal". São vistas como excepções bizarras que não alteram a visão global, mas do ponto de vista forma são uma refutação da tese de que o código genético e universal.
Numa coisa concordo com o Santiago, é aquele "sempre" a bold na frase que cito. Uma teoria científica não é sempre uma verdade provisória, algumas há que são definitivas, e outras que não. Mas para nosso azar não podemos distinguir umas e outras, não sabemos prever o futuro, e não sabemos quais vão ser refutadas e quais vão permanecer válidas.
"A estrutura do gene ou o mecanismo de geração de diversidade dos anticorpos, por exemplo, nunca mais serão explicados de outra forma porque hoje em dia os conhecemos molecularmente, em todo o detalhe. São dois exemplos de "fenómenos" cujo "paradigma" (à la Kuhn) nunca mais se alterará (em aparte esclareço que sou um opositor acérrimo da noção que toda a verdade científica é provisória e é sempre superseded por uma melhor explicação da realidade...)"
Começo por falar de Lord Kelvin, e da famosa alocução de 27 de Abril de 1900 “Nineteenth century clouds over the dynamical theory of heat and light”. Sendo Kelvin uma figura respeitabilíssima - excelente cientista, inventor prolífico, e empresário de sucesso - essa conferência é uma boa candidatura ao prémio do maior flop da História da Ciência (juízo de valor perfeitamente subjectivo, não-científico, pelo qual assumo inteira responsabilidade). Lord Kelvin descreveu na altura o Estado da Arte da Física como uma Ciência essencialmente terminada, definitiva. A mecânica de Newton explicava todos os fenómenos físicos conhecidos, e o trabalho dos físicos dos séculos seguinte seria apenas o de "acrescentar casas decimais à constantes já conhecidas". Apenas duas pequenas nuvens destoavam no lindíssimo azul do céu no quadro pintado por Kelvin, a Experiência de Michelson-Moreley e a Radiação
dos Corpos Negros, mas Kelvin considerava que em breve esses problemas seriam resolvidos e em concordância com as leis de Newton. Numa coisa tinha razão, não demorou muito tempo até essas questões serem explicadas. Cinco anos mais tarde, no seu Annus Mirabilis Einstein publicou dois artigos em que apresenta explicações para as "nuvens" de Kelvin, e a partir daí se iniciam as duas áreas de estudo que revolucionaram completamente a Física e mandaram Newton às ortigas, a "Relatividade" e a "Mecânica Quântica".
Isto reporta-nos ao princípio da "Falsificabilidade" de Karl Popper (e não estou a falar de Karl Popper o duvidoso filósofo político liberal, mas de Karl Popper o excelente epistemologista, um caso de esquizofrenia filosófica, diria eu...). Segundo o princípio da "Falsificabilidade" uma tese nunca pode ser demonstrada definitivemente como verdadeira, pode apenas ser ou não refutada. Todas as teorias que são ainda vigentes são-no porque resistiram até à data a todos os testes empíricos sem serem refutadas, isso não prova que são verdadeiras porque existe sempre a possibilidade um teste futuro vir a conseguir essa refutação. A teoria de Popper surge por oposição ao raciocínio indutivo dos positivistas, segundo o qual um número de observações suficientes de um fenómeno permite concluir a certeza absoluta desse fenómeno. O exemplo sempre citado é o dos cisnes brancos, se observarmos um número suficiente de cisnes e forem todos brancos concluímos que TODOS os cisnes são brancos. Popper diz-nos que enquanto não virmos todos os cisnes não podemos ter a certeza absoluta de que todos são brancos. A estatística diz-nos que Popper tem razão, se observarmos um número elevado de cisnes o que podemos dizer é que, com uma probabilidade de erro que é calculável, todos os cisnes são brancos. No entanto a probabilidade de erro existe sempre, a certeza nunca é absoluta.
Para além de puder ser refutada uma teoria científica também pode ser sempre melhorada, acrescentada, o que na essência continua coerente com a teoria de Popper (e contrário à citação do Santiago). O melhor exemplo disso de que me lembro é a teria da evolução de Darwin, com a Genética, e a Biologia Molecular o Darwinismo ganhou uma explicação mecanística que com próprio Darwin não foi possível. O que Darwin disse permanece válido mas a teoria da evolução entra numa nova dimensão, passou a chamar-se até neo-Darwinismo. Um exemplo de que qualquer teoria é apenas uma conjuntura temporária e que pode ser refutada ou melhorada.
Finalmente para o exemplo da estrutura do gene ou do anti-corpo, que são os exemplos que o Santiago dá. São de facto exemplos de fenómenos que conhecemos com o enorme detalhe molecular, isso não é contestável, e não foram ainda refutados (nem parece que venham a ser em breve). Os modelos explicam todas as observações conhecidas portanto estamos perante teorias muito sólidas, mas continuo a pensar que convém não ceder à visão positivista. Por exemplo, é bom lembrar que estas descobertas foram feitas em organismos-modelo, que são as espécies que se estudam em laboratório. Ora, estas são uma meia-dúzia, em contraste com os milhões de espécies que constituem a biosfera. Estamos a extrapolar para todos os organismos vivos (no caso dos genes) ou para uma grande parte dos animais (no caso dos anti-corpos) conhecimentos que nos vêem de um pequeno número de espécies de laboratório. Se não estamos a extrapolar, então estamos apenas a dar uma descrição parcial do fenómeno que nos interessa. É possível que uma qualquer forma de vida que não conhecemos ou não estudámos venha a refutar os nossos modelos actuais. Já aconteceu com o código genético, algumas espécies de bactérias têm ligeiras diferenças em relação ao código genético dito "universal". São vistas como excepções bizarras que não alteram a visão global, mas do ponto de vista forma são uma refutação da tese de que o código genético e universal.
Numa coisa concordo com o Santiago, é aquele "sempre" a bold na frase que cito. Uma teoria científica não é sempre uma verdade provisória, algumas há que são definitivas, e outras que não. Mas para nosso azar não podemos distinguir umas e outras, não sabemos prever o futuro, e não sabemos quais vão ser refutadas e quais vão permanecer válidas.
Arquivado em:Ciência
3 Comments:
OK, ao trabalho...
Tenho 4 comentários para fazer, mas o segundo é longo (ando sem tempo para comentários curtos...) por isso só logo à noite ou amanhã.
1 comentário: Um bocadinho de Popper e de Kuhn, que sei pouco sobre eles
Aceito o princípio da falsificabilidade como importante para a ciência. Não acho é que seja satisfatório usá-lo para separar ciência de não-ciência. Há muita coisa "falsificável" que não é ciência e já muitas vezes muita gente achou que determinada Teoria foi falsificada sem que ela na realidade o tenha sido... acaba tudo um bocadinho à volta de matéria de opinião: Os criacionistas garantem que falsificaram a Teoria da Evolução e continuam a reivindicar o título de cientistas sem que o problema (da correcção da atribuição do título) possa ser resolvido nesta discussão...
Acho também que Popper errou na ideia que a Ciência avança por tentar sempre falsificar (provar errada) a Teoria Vigente (ou mais consensual). Não é de todo assim que o pessoal trabalha... ninguém faz experiências para provar que a Teoria está errada... pelo contrário... Meselson e Stahl tentaram provar que Watson e Crick tinham razão, Rutherford tentou provar que o modelo "da bola de Berlim" do átomo estava certo, etc etc etc
A "falsificabilidade" é um critério importante, mas acho que é pouco útil para o "problema da demarcação" e ajuda-nos pouco a perceber o mecanismo de avanço científico... obviamente que também discordo dele por implicar que não existe uma verdade científica "final"...
Kuhn teve alguma razão (no meio de grandes disparates): O pessoal na realidade trabalha à luz de um determinado paradigma e progresso ocorre quando o paradigma tem de mudar por ser inconsistente com os dados (empíricos) existentes nesse momento... sem resolver o problema, acho que ajuda mais na "demarcação" que o princípio da falsificabilidade (só em ciência é que os paradigmas mudam "de um momento para o outro"). Onde ele erra é quando diz que a "verdade científica" não existe na realidade e é tudo uma questão de gosto (de convenção) na escolha do paradigma preferido... isto de "ciência sociologica" parace-me um perfeito disparate...
Sem ser um "reducionista máximo" (passe a ligeira contradição desta frase) acredito que existe um mundo material, que essa existência é independente do observador e que a "verdade científica" (final, completa, definitiva) existe também e pode ser encontrada... por isso rejeito tanto Popper como Kuhn embora ache que há pontos correctos em ambos...
No segundo comentário vou contar a história das ideias sobre a geração de diversidade dos anticorpos (que foi chamado The Problem of G.O.D. - Generation Of Diversity), que acho bem curiosa. Depois tentarei ver essa história às luzes de Popper e de Kuhn porque acho que ambos se reconheceriam lá. Finalmente (muito para o fim-de-semana) vou tentar regressar ao problema da existência ou não de uma coisa a que podemos chamar "verdade científica" e em que circunstâncias é que faz sentido falar nisso...
Oops... esqueci-me de assinar o comentário anterior...
Santiago
Por alturas dos anos 30 ou 40 Landsteiner (que ganhou um Nobel pelo estudo dos grupos sanguíneos) reparou que os coelhos que ele usava nas suas experiências conseguiam fazer anticorpos específicos para qualquer antigénio. Ele percebeu isso quando imunizou coelhos com antigénios que não existem na natureza: Contendo ligações triplas de Carbono e Oxigénio. Estas são ligações de alta energia, muito instáveis, e só existem como produto de síntese laboratorial.
A especificidade desses anticorpos era altíssima. Tinham elevada afinidade para essas triplas ligações C - O e nenhuma ou quase nenhuma para quaisquer outras estruturas moleculares.
O problema era explicar este fenómeno à luz do paradigma Darwinista vigente: O antigénio em causa (C - tripla ligação - O) não existe na natureza e era inconcebível que o Oryctolagus cuniculus tivesse conservado um gene codificando um anticorpo com uma especificidade que nunca jogou um papel na evolução dessa espécie: Não existe, nem nunca existiu, um único micro-organismo, potencialmente patogénico para o coelho, que tenha esse antigénio para servir de alvo a uma resposta imunitária...
Criou-se então um paradigma instructivo: Os anticorpos não têm uma estrutura fixa, mas "adaptam-se" ao antigénio depois de ele aparecer, tornando-se por isso específicos a posteriori, por assim dizer. A noção era que o antigénio "instrui", "ensina", o anticorpo a ser específico para si próprio. Várias teorias foram propostas para explicar em detalhe a produção de anticorpos a partir da "forma" providenciada pelo antigénio.
Estes modelos no entanto explicavam mal a contínua produção de grandes quantidades de anticorpo mesmo depois de o antigénio ter sido todo eliminado para além de outras observações que se iam acumulando. Por outro lado, quando nos anos 50 a Biologia se tornou verdadeiramentte molecular, estas Teorias Instructivas revelaram-se incompatíveis com outros princípios entretanto consensualmente aceites. Em particular a ideia que "um gene = uma proteína" e o postulado (de Crick) que uma dada sequência de amino-ácidos (numa proteína) determina necessariamente a sua estrutura tridimensional eram incompatíveis com a existência de uma proteína (um anticorpo) poder variar enormemente a sua conformação dependendo do antigénio que encontrava.
Portanto, o princípio que "it's all in the genes" obrigou a aceitar que anticorpos diferentes tinham sequências de amino-ácidos diferentes (isto foi provado experimentalmente com a maior das facilidades assim que tecnologias de sequenciação se tornaram correntes) e a observação do Landsteiner passou a ser interpretada como resultado de reactividade cruzada. Um anticorpo específico para "C - tripla ligação - O" também havia de reagir com outro qualquer antigénio e talvez esse antigénio desconhecido que tenha servido de força selectiva para conservar tão exdrúxula especificidade na espécie.
Sobrou o problema da diversidade propriamente dito... já não a questão de como explicar tantas especificidades tão diferentes (que era do tempo em que se pensava que bastava uma proteína, ou um número reduzido delas, para ter várias especificidades), mas sim a existência de tantos genes tão diferentes, cada um expresso pela sua célula B. Burnett acabou por propôr (e demonstrar) que cada célula B faz um anticorpo particular. Cada uma dessas células expressa um gene diferente dos das outras - o fantasma de Darwin ainda o assombrava certamente porque ele chamou a isto Selecção clonal. Ver a propósito deste assunto também a NOTA 1 no fim deste texto. O paradigma mudou totalmente e Clonal Selection passou a ser o que estava a dar...
Durante os anos 60 e grande parte dos anos 70 duas Teorias antagónicas acumularam dados. Os da Germ-line Theory insistiam que toda a diversidade era genética e hereditária enquanto que os adeptos da Somatic mutation Theory propunham que um número reduzido de genes (codificando os anticorpos) se diversificavam por mutação somática enquanto as células B (ou os precursores) proliferavam, gerando-se assim uma larga colecção de clones de células cada um dos quais composto por células com uma especificidade particular (ie: uma sequência particular de bases codificando uma sequência particular de amino-ácidos na molécula de anticorpo).
Tonegawa veio a mostrar que estavam todos mais ou menos errados: A enorme diversidade (pré-existente à introdução do antigénio) dos anticorpos resulta da combinação aleatória de múltiplos gene fragments que se "juntam" para formar um gene de anticorpo. Nas cadeias pesadas há 3 tipos: V (em número de cerca de 300), D (10) e J (4) ; nas cadeias leves há 2: V (300) e J (4). Tudo isto dá uma diversidade mínima de 10.000.000 de moléculas diferentes ((300 X 10 X 4) x (300 x 4)), que é ainda aumentada num factor superior a 10 por o mecanismo de junção dos gene fragments (V - D - J ou V - J) não ser muito exacto (a junção pode ocorrer em pontos diferentes) e permitir ainda a introdução de sequências aleatórias de nucleotidos (chamadas N sequences) nos pontos de junção).
Em suma: A diversidade não resulta de variação somática nem é completamente codificada no germ-line (as N-sequences são introduzidas aleatóriamente em cada célula B, de cada vez que uma se forma).
A Somatic Mutation Theory obteve o seu dia ao Sol, com a demonstração que, no decurso de uma resposta imunitária (ie: após a introdução de antigénio no sistema) um mecanismo especial (chamado de Hipermutação) altera aleatoriamente a sequência de nucleotidos no gene de um anticorpo específico para esse antigénio e permite a "selecção" de anticorpos mutantes com afinidade mais elevada para esse antigénio. É por tudo isto que uma resposta imunitária, se lhe derem tempo, se torna mais e mais específica para o antigénio que a desencadeia levando à produção de anticorpos com uma afinidade cada vez mais elevada (um fenómeno chamado: Maturação da Resposta Imunitária, que era também difícil de explicar nas Teorias Instrutivas).
Creio que este sumário toca em todos os pontos que quero revisitar no "próximo capítulo", quando tentar analisar a história da evolução destas (Theories of G.O.D.) à luz da minha leitura dos mecanismos propostos por Popper e por Kuhn para explicar o progresso das ideias científicas. Antes que alguém me critique pelos alguns erros e simplificações que estão aí em cima, quero explicar que sei que tive de saltar por cima de alguns detalhes... felizmente neste domínio do conhecimento já todos sabemos tudo e por isso também eu sei as simplificações de que tive de me socorrer...
Outra coisa: O mecanismo descrito é o que ocorre em ratinhos, e também em humanos, com algumas variantes. Tanto quanto sei este mecanismo vale também para outros roedores (ratos e coelhos). Quanto ao que se passa noutras espécies, vou-me guardar para depois, quando falar do problema da côr das penas dos cisnes...
Santiago
_______________________________________
NOTA 1 Vale a pena falar também de Niels Jerne que propôs uma Natural-Selection Theory of Antibody Formation (com hífen e tudo). A obsessão com Darwin era tanta que Jerne acaba a postular um mecanismo que já nessa altura se sabia ser biologicamente absurdo: Ele sugere que os anticorpos se possam replicar ("autocatalytic replica-
tion of the specific globulin molecules") depois da sua síntese como proteínas, e após serem "seleccionados" pelo antigénio. Max Delbrück comunicou esse paper para o PNAS e Burnett mais tarde reconheceu que lhe serviu de inspiração para propôr a Teoria da Selecção Clonal surgida 2 anos depois...
Enviar um comentário
<< Home