Seja muito bem vindo(a)

Este blog é dedicado a todos aqueles que queiram aprender ou dividir conhecimento.

Sinta-se a vontade para pesquisar, baixar arquivos, divertir-se e aprender... Divida seus conhecimentos também deixando suas mensagens.

Grato pela visita!
Volte sempre...
Roberto Santos



Visite também o
POCKET ENGLISH e estude Inglês!

Pesquise Aqui

domingo, 25 de abril de 2010

Atualidades...

LHC: A Máquina de brincar de Deus


 Por: Revista Veja

O maior acelerador de partículas do mundo vai reproduzir os fenômenos que sucederam ao Big Bang, a "súbita expansão" inicial do universo.

A atmosfera pastoril na vizinhança do maior laboratório de física da Europa, o Cern, na periferia de Genebra, na Suíça, esconde a descomunal liberação de energia que se ensaia nos subterrâneos da região.

Ali está sendo preparado o mais ousado experimento da história da física. Cem metros abaixo da superfície, físicos, engenheiros e técnicos fazem os acertos finais para pôr em operação a maior máquina já construída em todos os tempos – o acelerador de partículas LHC (sigla para Large Hadron Collider). O hádron, palavra grega que significa grosso, é uma partícula subatômica com massa – um próton, no caso. Ele é uma alegria para os cientistas por ser fortemente interativo.

Os físicos, tanto quanto os paparazzi de celebridades, estão sempre interessados em flagrar interações. Sob essa ótica, o LHC é um reality show que vai produzir e acompanhar as interações mais íntimas do interior da matéria jamais observadas pelo homem. O LHC demorou catorze anos para ser construído e custou 8 bilhões de dólares.

Previsto para outubro, o começo do funcionamento do LHC vem dominando as atenções da comunidade científica mundial. Seus responsáveis vão recriar as condições que existiam no universo quando ele tinha apenas um trilionésimo de segundo de existência. Isso é um feito de extraordinárias conseqüências práticas e teóricas. Equivale a lançar uma sonda capaz de viajar 13,7 bilhões de anos no tempo e registrar o espaço a sua volta, transmitindo dados para o mundo atual instantaneamente.

Os químicos e biólogos nunca tiveram uma ferramenta tão poderosa a sua disposição. Para os primeiros, equivaleria a ter um microscópio que pudesse captar e mandar imagens das primeiras moléculas orgânicas, surgidas há 4 bilhões de anos, transformando-se em células capazes de fazer cópias perfeitas de si próprias.

Para os biólogos, seria como estar numa arquibancada de cerca de 540 milhões de anos atrás, assistindo ao evento singular e misterioso batizado de Explosão Cambriana, quando a evolução se acelerou de forma espetacular no planeta. Ao final da Explosão Cambriana, a vida na Terra passou a ser dominada por animais e plantas que qualquer humano de hoje reconheceria como tais.

Os físicos vão brincar de Deus com o LHC. Eles acelerarão seus hádrons em sentidos opostos dentro de anéis gigantescos, levando-os a 99,9% da velocidade da luz. Então, com a ajuda de um poderoso ímã, vão obrigá-los a mudar de sentido e se chocar. O choque espatifará os hádrons diante de placas sensíveis, que vão registrar e analisar o resultado da trombada – restos de matéria e energia miraculosamente encapsuladas, cada um produzindo uma assinatura de sua natureza e de sua hierarquia no momento da criação do universo.

De todas as partículas a ser produzidas na colisão monunental, a que mais interessa aos físicos detectar é um certo "bóson de Higgs", que por enquanto existe apenas nas equações geniais de um físico inglês de 79 anos chamado Peter Higgs. O termo bóson designa um tipo de partícula que foi batizada em homenagem ao físico indiano Styendra Nath Bose, morto em 1974.

Os bósons podem ir do genérico fóton de luz ao especialíssimo bóson de Higgs, que, na teoria, deu ao universo aquilo que mais nos interessa, a matéria, sem a qual os espertos bípedes surgidos na savana africana há 100 000 anos não estariam aqui hoje especulando sobre seu passado e a origem do mundo e da vida. Ele foi a partícula mensageira que carregou a energia de um campo que também tem o nome de Higgs. É por meio da interação com esse campo que as outras partículas ganharam massa no começo de tudo.

Quanto maior a interação, maior a massa da partícula. O bóson de Higgs é vital não apenas para sustentar o universo. Se ele não se materializar nas trombadas do LHC em Genebra, o que desmorona é a reputação de gerações e gerações de físicos festejados como gênios na academia.

O bóson de Higgs é também chamado de "Partícula de Deus". Mas, sem ela, quem está em apuros não são as religiões e suas versões para o gênese, e sim a ciência. Encontrar a assinatura do bóson de Higgs nas placas detectoras do LHC em Genebra provaria a teoria amplamente aceita no mundo científico. Também forneceria uma peça-chave no complicado quebra-cabeça que tenta explicar a origem de tudo.

"Se o bóson de Higgs existir, da maneira como a teoria prevê, ele vai aparecer no LHC", disse a VEJA o físico Wolfgang Hollik, diretor do Instituto Max-Planck para a Física, na Alemanha. A certeza de Hollik vem de cálculos realizados por ele e seus colegas para determinar a massa do bóson de Higgs. Segundo os físicos, as colisões produzirão energia mais do que suficiente para recriá-lo em grandes quantidades.

Como os cientistas têm tanta certeza de que as trombadas de prótons do novo acelerador darão origem a partículas que nunca foram vistas? Simples. Com seus 27 quilômetros de circunferência, o LHC é a pista perfeita para acelerar prótons a uma velocidade próxima à da luz, aumentando sua energia. Depois de completamente acelerado, um único feixe de prótons, com cerca de 100 bilhões de partículas, terá energia equivalente à de um trem de 400 toneladas viajando a 150 quilômetros por hora.

Quando se imagina que cada feixe será um pouco maior que uma agulha de costura, a concentração de energia é gigantesca. Segundo a famosa equação de Einstein E=mc2 (energia é igual à massa vezes a velocidade da luz ao quadrado), massa e energia podem ser transformadas uma na outra. Ao baterem de frente, os prótons terão energia de sobra para criar mini-Big Bangs e reproduzir as partículas presentes na infância do universo, incluindo o bóson de Higgs.

A intensidade energética atingida no LHC será sete vezes mais forte que no Tevatron, o acelerador mais poderoso em operação, do laboratório americano Fermilab. Se uma pessoa entrasse na frente de um dos feixes de prótons do LHC, ela seria instantaneamente vaporizada. Tamanho poder vem por um preço alto. Enquanto estiver funcionando, o LHC consumirá eletricidade suficiente para abastecer quarenta shopping centers.

O consumo só não será maior porque se resfriará o acelerador a 271 graus negativos, usando-se hélio na forma líquida. A temperatura, mais baixa que a do espaço, fará com que os materiais do LHC se tornem supercondutores, ou seja, eles oferecerão menor resistência à eletricidade e não dissiparão energia na forma de calor. Se fosse operar com a mesma potência sem o resfriamento, o novo acelerador gastaria quarenta vezes mais eletricidade.

Acelerar e colidir partículas é apenas a primeira parte do trabalho. Cada colisão produz milhares de novas partículas, que são analisadas por enormes aparelhos, os detectores. No total, são quatro detectores – Atlas, CMS, Alice e LHCb – instalados em cavernas cavadas ao longo do túnel subterrâneo onde está instalado o LHC. Um único detector, como o Atlas, pesa 7 000 toneladas em equipamentos.

Quase todas as peças dele tiveram de ser baixadas por um guindaste através de um poço. As muito grandes precisaram ser colocadas de lado para passar pelo túnel. Uma vez no subsolo, as peças são conectadas por engenheiros e técnicos. "É como montar um daqueles navios que vão dentro de garrafas. Algumas partes, depois que você colocou, não tem mais como tirar", explica Denis Oliveira Damazio, físico brasileiro que trabalha no Cern e na construção do Atlas.

A parte mais complicada é ligar e testar os milhões de fios que enviam os dados das colisões a uma central de computadores. Cada trombada de prótons gera uma cascata de novas partículas que "batem" nas placas dos sensores, onde dados como sua energia e velocidade são transformados em sinais digitais que seguem para os computadores. Cerca de 600 milhões de colisões ocorrerão por segundo nos núcleos dos detectores do LHC, mas os computadores vão selecionar somente uma centena delas para ser armazenadas, usando critérios preestabelecidos pelos físicos.

Os dados seguirão para uma rede mundial de computadores, chamada de Grid, montada exclusivamente para guardar os dados produzidos pelo acelerador. Uma vez no Grid, as informações sobre as colisões estarão disponíveis para cientistas do mundo todo. Em apenas um ano de funcionamento, o LHC gerará 15 milhões de gigabytes de informação, que precisariam de 3,2 milhões de DVDs para ser armazenados.

Com tamanha quantidade de dados obtidos em apenas um ano, era de esperar que o bóson de Higgs aparecesse logo nos primeiros meses de funcionamento do LHC. Infelizmente, não é bem assim que funciona. Além de nunca ter sido detectado, ou seja, os cientistas não sabem exatamente o que vão encontrar porque há várias teorias, o bóson de Higgs é o que os físicos chamam de partícula instável. Se for criado depois das colisões, o bóson durará somente algumas frações de segundo e logo depois decairá em outros tipos de partícula mais estáveis.

Em outras palavras, ele não é diretamente registrado pelos sensores, o que dificulta o trabalho dos cientistas. Para encontrá-lo, os físicos precisarão analisar a montanha de dados das colisões e procurar por perturbações energéticas que indiquem sua presença. A estimativa mais otimista é que a existência do bóson de Higgs seja confirmada um ano após o LHC entrar em funcionamento.


E se o bóson de Higgs não aparecer? Os físicos terão de rever sua explicação para o universo como o conhecemos. Isso porque o bóson de Higgs é uma peça-chave do Modelo-Padrão, sistema usado pelos cientistas para explicar a organização dos tijolos fundamentais que formam a matéria. Sem o bóson de Higgs, ou algo parecido com ele, o Modelo-Padrão, que tem sido testado e aprovado nos últimos quarenta anos, terá de ser revisto ou descartado. Disse a VEJA Benjamim Allanach, físico da Universidade de Cambridge, na Inglaterra. "Para mim, a ‘brincadeira’ fica mais excitante se não acharmos o Higgs, porque teremos de encontrar outras explicações para o início de tudo."

Andy Parker é um físico experimental. Isso significa que se dedica a comprovar por meio de experiências aquilo que os teóricos explicam apenas por meio de equações e raciocínios. Quando ele começou a trabalhar na construção do detector Atlas, do LHC, o enorme equipamento era apenas uma idéia num pedaço de papel. Parker falou a VEJA em seu escritório no Laboratório Cavendish, na Universidade de Cambridge, Inglaterra.

Como o senhor define seu trabalho?
Eu vou da teoria à prática. Meu trabalho é realizar as melhores experiências para testar as novas teorias que tentem explicar como o mundo funciona. Algumas vezes isso significa fazer descobertas, o que é muito empolgante. Na maior parte do tempo, os físicos experimentais provam que as teorias estão erradas.

Vai ser fácil encontrar o bóson de Higgs no LHC?
Higgs é a única partícula do Modelo-Padrão que não encontramos até agora, e não foi por falta de tentativa. Não sabemos exatamente quanto pesa, então precisamos procurá-la em toda parte. É como tentar achar algo no escuro. Num cenário favorável, nós encontraremos Higgs em um ano. Se a partícula for leve, a busca será mais difícil e poderá levar três anos ou mais.

O que acontecerá se a partícula de Higgs não aparecer?
Todo o nosso modelo de física de partículas se baseia no Higgs. Sem ele, seria difícil justificar nossas teorias. Então precisaremos encontrar algo novo para pôr em seu lugar. Para mim, seria muito mais interessante tentar encontrar esse algo novo do que uma coisa já esperada.

Qual seria a maior descoberta do LHC?
Encontrar outras dimensões do espaço. Seria tão excitante quanto descobrir uma "quinta dimensão", como aquela dos filmes de ficção científica. Há muitas teorias prevendo a existência de outras dimensões. Elas são a chave para a criação de uma teoria unificada da física que junte as quatro forças fundamentais da natureza.

O senhor passou quase trinta anos trabalhando no projeto do Atlas. O que o manteve motivado?
O desafio diário de projetar e construir o melhor detector de partículas possível, e também a possibilidade de revelar o que a natureza manteve escondido de nós.

O que há de tão excitante em provocar a colisão de partículas?
É uma maneira de ver o desconhecido ao recriar as condições que existiram logo depois do Big Bang. Com um acelerador, nós podemos explorar os menores tijolos da matéria. E, claro, os aceleradores de partículas são uns "brinquedinhos" bem interessantes.

Estamos nos aproximando do ponto em que não haverá mais nada para ser descoberto?
Não creio nisso. Toda vez que subimos na escala de energia dos aceleradores, encontramos novas coisas. A natureza sempre dá um jeito de nos surpreender e a ciência vai continuar fazendo novas perguntas, porque o homem é uma espécie curiosa. 
 

Consumo e aquecimento global


Por: Akatu - Mariana Chammas e Helio Mattar 
 
O Instituto Akatu esteve presente na 15ª Conferência das Partes sobre Mudanças Climáticas (COP-15), em Copenhague. O objetivo era analisar como o consumo estaria sendo pautado nas discussões de mudanças climáticas, além de buscar introduzir as questões relacionadas ao consumo nos eventos paralelos.

Naturalmente, dentro da linha trabalhada pelo Akatu, trata-se de introduzir a questão do poder contido nos atos individuais de consumo, que podemos ser e fazer a mudança de comportamentos para contribuir com a sustentabilidade da vida no planeta. Nesse sentido, é uma reflexão sobre o estilo de vida, sobre o espaço ocupado pelo consumo na vida contemporânea.

Estamos convencidos, no Akatu, de que não haverá sustentabilidade sem uma mudança no estilo de vida das sociedades expresso por mudanças nos comportamentos de consumo. Apenas as mudanças tecnológicas não serão suficientes para fazer frente ao tamanho da crise climática atual. No entanto, a questão do consumo praticamente não foi abordada nas reuniões da COP-15.

Naturalmente, não se esperava que o consumo fosse tratado nas salas de negociações, visto que ali as questões eram mais técnicas e específicas, envolvendo NAMAs, REDD, quanto os países do Anexo 1 deveriam ou não pagar aos países em desenvolvimento, metas de emissão para 2020, entre outros temas. Mas, mesmo nos eventos paralelos do Bella Center, local onde aconteceram as negociações, praticamente não se falou de consumo, que foi mencionado apenas em eventos específicos — por exemplo, onde se fazia a ligação entre desmatamento e consumo de carne. No entanto, tanto quanto pudemos perceber na lista dos eventos paralelos à COP-15, e mesmo nos Fóruns externos ao Bella Center, o consumo não foi abordado sob a perspectiva do indivíduo com capacidade de transformação de seu entorno.

Por outro lado, um tema exaustivamente abordado foi o das novas tecnologias mais sustentáveis, envolvendo desde novas formas de produção de energia e novas tecnologias de produção até sistemas para equipar uma casa sustentável.

Sem dúvida, as tecnologias podem contribuir no combate ao aquecimento global. O risco, no entanto, é de uma acomodação no sentido de se pensar que as novas tecnologias mais sustentáveis vão permitir manter o modelo de consumo atual. Ao pensar assim, esquecemos que as mudanças climáticas são um entre vários problemas ambientais que
tornam insustentável a sociedade atual, sem falar nos problemas sociais, econômicos e individuais.

Inovações tecnológicas são necessárias, mas não suficientes
Se, por um lado, é muito bom que se desenvolvam tecnologias mais sustentáveis, as mesmas devem ser tomadas como medidas de transição durante o processo de transição para um novo consumo, um consumo diferente, um novo estilo de vida, em que a sociedade como um todo deverá caminhar na direção dos produtos duráveis mais que os descartáveis, para o local mais do que o global, para o uso compartilhado de produtos mais do que o individual, para o virtual mais do que o material, para o intangível mais do que o tangível, para a qualidade mais do que a quantidade, para o necessário substituindo o desperdício, para a moderação substituindo o excesso.

São mudanças profundas que exigem tempo e implicam em uma mudança de cultura, que, por definição, exigirá tempo da sociedade. Para isso, será preciso educar as crianças e os jovens para o consumo consciente e a sustentabilidade, como o Akatu já vem fazendo com o apoio da HP, e será preciso continuar a sensibilização e a mobilização dos adultos para esse novo modelo de consumo. Esse novo modelo deverá ser apreciado e valorizado pela sociedade, sob pena de não se manter a mudança necessária nos comportamentos de consumo.

O mero uso das tecnologias reforça a inércia dos hábitos atuais, à medida que elas permitem agir exatamente da mesma maneira em nosso consumo com menor uso de recursos naturais, energia e água. No entanto, dado que já consumimos hoje 35% a mais do que a Terra consegue renovar, e que 25% da humanidade consome mais do que o necessário, enquanto 75% consome o mínimo necessário ou abaixo desse mínimo, apenas a mudança no modelo de consumo permitirá a inclusão no mercado de consumo das enormes populações que a ele hoje não tem acesso.

Reproduzir os atuais padrões de consumo, usando tecnologias sustentáveis, não permitirá que o grande problema social de inclusão de toda a humanidade em um modo digno de vida possa ser resolvido. Talvez até mesmo se resolva a questão do aquecimento global, o que não parece provável, mas certamente o mundo se deparará com outros limites naturais e sociais. Melhor começar a mudança mais cedo e não mais tarde, conscientizando as pessoas para o poder e o impacto social e ambiental de seus atos de consumo, e buscando fazer com que um novo modelo de consumo seja gradualmente introduzido e valorizado pela sociedade. Um modelo onde se consome para viver e não se vive para consumir. 
 
 
Moradores urbanos causam desmatamento no século 21


Por: Scientific American Brasil

No mundo todo, aproximadamente 13 milhões de hectares de florestas perecem sob lâminas ou fogo todos os anos. Esse desmatamento há muito tempo vem sendo causado por fazendeiros que sobrevivem pormeio do corte e queima ou por madeireiros usando novas estradas para invadir florestas virgens. Mas novos dados parecem mostrar que, pelo menos nos primeiros cinco anos do século 21, os grandes blocos de clareiras, que refletem o desmatamento industrial, agora dominam, ao contrário dos esforços de pequena escala que deixam atrás de si faixas longas e estreitas de terra nua.

A geógrafa Ruth DeFries da Columbia University e seus colegas usam imagens de satélite do Landsat, junto com o instrumento Modis (Espectroradiômetro de Resolução Moderada de Imagens, em inglês) em Aqua para analisar o desmatamento nos países que circundam os trópicos, o que representa 98% de toda a floresta tropical remanescente. Em vez da clássica assinatura “espinha de peixe” do desmatamento causado por operações em pequena escala, grandes e densos blocos de terra nua revelam uma mudança nos agentes causadores da derrubada de árvores: grandes empresas atendendo à demanda urbana.

Na verdade, uma análise estatística de 41 países revelou que a taxa de perda de florestas tem uma ligação mais estreita com o crescimento da população urbana e com exportações agrícolas de 2000 a 2005 – nem mesmo o crescimento total da população foi um agente tão forte nesse quesito. “Nas décadas passadas, o desmatamento esteve associado com colonização planejada, projetos de reassentamento e fazendeiros locais limpando a terra para conseguir alimentos para subsistência”, afirma DeFries. “O que estamos observando é uma mudança: antes eram os fazendeiros de pequena escala que causavam o desmatamento e, agora, os maiores agentes causadores são as distantes demandas do crescimento urbano, comércio agrícola e exportações.”

Em outras palavras, a crescente urbanização dos países em desenvolvimento – bem como um aumento constante no consumo, nos países desenvolvidos, de produtos que têm impacto em florestas, sejam móveis, couro para sapatos ou frangos alimentados com farelo de soja – está causando o desmatamento, mais do que contendo o mesmo, conforme a população deixa as áreas rurais para se concentrar nas cidades em crescimento. “Uma das características mais marcantes deste século é a urbanização e o rápido crescimento urbano dos países em desenvolvimento. As pessoas nas cidades precisam comer.”

“Não é surpresa nenhuma”, observa Scott Poynton, diretor executivo do Tropical Forest Trust, organização com base na Suíça que ajuda homens de negócios a implementar e gerenciar silviculturas sustentáveis em países como Brasil, Congo e Indonésia. “O problema não são pessoas pobres cortando árvores. O problema são as pessoas em Nova York, na Europa e em outros lugares querendo produtos baratos, principalmente comida”.


Para ajudar a sustentar essa crescente demanda urbana e global, a produtividade agrícola terá que ser aumentada em terras que já foram limpas, como muitas terras degradadas e abandonadas dos trópicos, argumenta DeFries, seja por meio de melhores variedades de cultura ou melhores técnicas de administração. E o Tropical Forest Trust está criando melhores sistemas de gerenciamento para evitar que a madeira retirada ilegalmente acabe em, por exemplo, espreguiçadeiras, bem como expandindo seus esforços para ver como reduzir as “pegadas na floresta” dos produtos agrícolas, como o óleo de palma. “É nas coisas agrícolas que o desmatamento ocorre”, afirma Poynton. “A idéia é dar valor às florestas enquanto florestas: mantê-las como florestas e dar-lhes uso dessa forma. Não vão transformá-las em Parques Nacionais, isso simplesmente não vai acontecer”.

É claro que o desmatamento florestal permitiu que florestas crescessem novamente em outras áreas, incluindo terras tropicais anteriormente limpas. E o desmatamento florestal na Amazônia, a maior floresta tropical do mundo, caiu de cerca de 1,9 milhão de hectares por ano na década de 1990 para 1,6 milhão de hectares por ano na última década, de acordo com o governo brasileiro. “Nós sabemos que a velocidade de desmatamento diminuiu pelo menos na Amazônia brasileira desde a época dos dados do nosso estudo”, observa DeFries. “Observamos 41 países. Cada lugar é diferente. Cada país tem sua própria situação, circunstâncias e agentes causadores”.

Apesar disso, o desmatamento é uma das maiores causas das emissões de gases causadores do efeito estufa gerados pela atividade humana – um golpe duplo, que tanto elimina um sistema biológico que absorve CO2 quanto cria uma nova fonte de gases estufa na forma de plantas em decomposição. O Programa das Nações Unidas para o Meio Ambiente estima que retardar esse desmatamento poderia recuperar cerca de 50 bilhões de toneladas métricas de CO2, ou mais de um ano de emissões globais. Além disso, as negociações internacionais continuam a tentar conseguir um sistema para atingir esse objetivo, conhecido como fundo do Programa das Nações Unidas para o Desenvolvimento para reduzir emissões causadas pelo desmatamento e por degradação florestal em países em desenvolvimento (REDD, na sigla em inglês).

“Se é para políticas [como o REDD] serem eficientes, precisamos entender o que está comandando as forças por trás do desmatamento”, comenta DeFries, e há novas pressões iminentes. “A competição para usar terras para outros produtos, como biocombustíveis, aumentará ainda mais a pressão sobre as florestas tropicais”, escreveram os pesquisadores. Mas, de acordo com uma nova análise, milhões de hectares de floresta virgem permanecem potencialmente a salvo– 60% das florestas tropicais restantes estão em países ou áreas com pouco comércio agrícola ou crescimento urbano.

“A quantidade de áreas florestais em locais como a África central, Guiana e Suriname”, nota DeFries, é enorme. “Há muitas florestas que ainda não encontraram esse tipo de pressão.”
 
 
LHC promove as primeiras colisões de partículas "de laboratório" da história


Por: G1 - Ciência e Saúde

Cientistas anunciaram ter conseguido nesta terça-feira, dia 30 de março, às 8h06 (hora de Brasília), pela primeira vez, a colisão de feixes de prótons no acelerador gigante de partículas LHC. “Muitas pessoas esperaram muito tempo por este momento, mas sua paciência e dedicação está começando a render dividendos", comemorou Rolf Heuer, diretor-geral da Organização Europeia para Pesquisa Nuclear (Cern, na sigla em francês, a instituição responsável pelo LHC).

O maior experimento científico do mundo consiste em colidir partículas no nível mais alto de energia já tentado, recriando as condições presentes no momento do Big Bang, que teria marcado o nascimento do universo, 13,7 bilhões de anos atrás.

O Grande Colisor de Hádrons (LHC), situado em um túnel subterrâneo circular de 27 quilômetros de extensão sob a fronteiro franco-suíça, começou a circular partículas em novembro passado, depois de ser fechado em setembro de 2008 por causa de superaquecimento.

A experiência teve sucesso depois de duas tentativas frustradas durante a madrugada. De acordo com os pesquisadores, ela abre portas para uma nova fase da física moderna, ajudando a responder muitas perguntas sobre a origem do universo e da matéria.

As colisões múltiplas a uma energia recorde (7 TeV, ou 7 trilhões de eletronvolts) criam "Big Bangs em miniatura", produzindo dados que milhares de cientistas passarão anos futuros analisando.

Acelerar prótons a 7 trilhões de eletronvolts significa que eles correm a 99,99% a velocidade da luz (cerca de 300 mil km por segundo), ou 11 mil voltas por segundo no megatúnel de 27 km.
 
Visite meu blog de aulas de Inglês: Pocket English





Muito grato pela visita, bons estudos e boa sorte!
Deixe seus comentários.

Fique com Deus,
Seja bem-vindo(a) e volte sempre...

Roberto Santos

segunda-feira, 5 de abril de 2010

Notícias...

O Relativismo e a Filosofia


Por: Mauricio Santos Professor de Geografia do Curso Dom Bosco 
Um dos problemas mais sérios que encontramos ao estudar certas disciplinas filosóficas, como a Ética e a Política, consiste no relativismo.

O relativismo é uma postura de interpretação da realidade que sugere que tudo deve ser encarado segundo o conceito da relatividade, ou seja, a percepção de determinado fenômeno está condicionada à realidade do interlocutor, e não poderia, portanto, ser tomada como uma conclusão válida no plano geral, e sim apenas no plano particular. Em outras palavras, a verdade no relativismo é aquilo que eu percebo como verdade, independentemente da opinião alheia ou das conclusões obtidas pelos outros. O que é verdade para mim pode não ser verdade para o outro, mas isso não importa. E, assim como eu não pretendo impor meu conceito de verdade a ninguém, também não aceito que ninguém me apresente ou imponha outra interpretação da verdade. Uma espécie de “cada um na sua” filosófico.

É claro que a Filosofia não trabalha com imposições. Uma máxima muito válida na Filosofia é a de que o filósofo só aceita “a força do argumento, e não o argumento da força”. Mas é necessário perceber que o relativismo é perigoso em certas áreas do relacionamento humano, e que as relações humanas precisam ser construídas sobre certos valores universais, como confiança e comprometimento mútuo. Isso não só é saudável como também não deve ser relativizado! Afinal, seria muito decepcionante confiar um segredo a uma pessoa que considere “relativa” sua obrigação de guardá-lo, ou conviver com um colega de trabalho que considere “relativa” sua obrigação de respeitar o trabalho alheio. O resultado disso seria correr o risco de ver seus segredos expostos ou de conviver com traições e “puxadas de tapete”.

Neste caso, o relativismo deteriora as relações humanas e conduz a um ambiente de desconfiança mútua. O mundo em que vivemos hoje e as relações que construímos ao
nosso redor trazem muito deste “pessimismo” em relação ao próximo, o que leva muitos de nós a declarar com certa dose de orgulho triste: “eu não confio em ninguém”.

Além disso, o relativismo aplicado à Política tende a levar as pessoas à omissão, por desistirem de insistir em ter seu destino em suas próprias mãos. As decepções constantes, os maus exemplos e os sedutores discursos dos políticos nos levam a crer que a verdade não está disponível, e que nunca saberemos o que realmente acontece nos bastidores do mundo político. Desenganados, perdemos mais uma vez a já combalida confiança que tínhamos nos outros e em nossa própria capacidade de compreender a realidade. Costumamos dizer que o discurso dos políticos é “perigoso”, pois “eles conseguem convencer qualquer um de qualquer coisa”. Será? Eles nos convencem ou nós nos deixamos convencer porque não temos convicção da verdade?

Este é o preço do relativismo. Quando abrimos mão de nossos ideais, de nossos valores e crenças, estamos abrindo a porta para que o inimigo entre. O próximo passo é desconfiar de nossas próprias verdades até, por fim, desistir delas. Neste momento, tornamo-nos amargos e desiludidos.

É claro que o radicalismo de opiniões também é anti-filosófico. Devemos ouvir cuidadosamente os argumentos que nos apresentam os outros, mas precisamos de convicção a respeito do que é certo e do que é errado para poder formular uma opinião que seja, ao mesmo tempo, equilibrada e coesa. A reflexão é, portanto, essencial para superar o relativismo. O relativista não reflete, porque o argumento alheio não lhe interessa.

Concluindo, o relativismo é um mal a ser superado, e somente a consciência do homem pode fazê-lo. A convicção é um processo íntimo, que diz respeito a cada um em particular; mas nossas atitudes, no momento em que tomam forma, devem ser resultado de uma longa e cuidadosa reflexão a respeito dos objetivos que pretendemos atingir e dos meios que estamos dispostos a utilizar para estes fins. Os fins só justificam os meios num mundo sem ética. Só aí o relativismo pode se desenvolver. Não permita isso! Defenda a ética!

Acelerador de partículas faz primeiras colisões


Por: Zero Hora e do jornal O Estado de S. Paulo
O superacelerador de partículas (LHC, em inglês) construído em Genebra, na Suíça, promove amanhã os primeiros choques de prótons. Dois feixes vão circular em direções opostas num túnel de 27 quilômetros na fronteira entre a Suíça e França.

Os especialistas esperam que a experiência revele como o universo foi criado e confirme teorias que até hoje estão sendo questionadas. A ideia é
tentar reproduzir os momentos que se seguiram ao Big Bang, há 13 bilhões de anos, e detectar pela primeira vez a matéria escura.

O projeto de R$ 18 bilhões e que já levou 20 anos de trabalho foi alvo de uma polêmica ao ficar fechado por mais de um ano para reparos. O teste de amanhã está levando à Genebra jornalistas e cientistas de todo o mundo. O Centro Europeu para a Pesquisa Nuclear (Cern) teve de organizar um esquema especial para atender ao fluxo de jornalistas. 

Mecanismos pelos quais o cérebro percebe a passagem do tempo evocam princípios da física


Ao longo da história, questões acerca da origem e do significado da vida, da criação do Universo e livre-arbítrio têm roubado o sono de filósofos e cientistas. A indagação sobre a natureza do tempo, entretanto, parece ser o questionamento mais cotidiano e familiar.

Considerado em suas diferentes acepções, o tempo está em toda parte: no calendário da parede, nos diversos relógios que pautam nossa vida, no nascer e no pôr-do-sol, nas fases da lua, nas estações do ano, bem como em nós mesmos - quando sentimos fome ou sono durante o dia ou testemunhamos no espelho as marcas da passagem dos anos.

Antiga preocupação filosófica, mais recentemente o tempo passou a ocupar também a mente dos cientistas, interessados em medi-lo e compreendê-lo. Para enxergarmos com clareza suas múltiplas faces, é necessário encarar o tempo igualmente sob múltiplos ângulos. O desafio depende de um esforço conjunto do qual devem participar filósofos, físicos e neurocientistas.


Segundo resultados teóricos e experimentais da física moderna, a velocidade da luz (e de qualquer onda eletromagnética) no vácuo é uma constante, sendo também a velocidade limite que não pode ser superada pela propagação de qualquer outro sinal.

Quando admiramos o céu em noite estrelada, vemos algo que jamais existiu exatamente daquela forma, porque cada estrela encontra-se mais perto ou mais longe da Terra, portanto a luz de cada uma delas percorre uma determinada distância em um tempo distinto. A luz das mais próximas viaja alguns poucos anos, enquanto a das mais distantes leva bilhões de anos para atingir nossas retinas. Muitas estrelas que vemos hoje já não existem - explodiram e desapareceram há milhares ou milhões de anos.

Fábrica de Ilusões

Em uma escala de tempo muito menor, impulsos nervosos produzidos pelos estímulos que nos rodeiam - e que vão se transformar em sons, imagens, cheiros - também apresentam velocidade finita de propagação, bem como diferentes tempos de processamento neural. Olhar, ouvir, cheirar e sentir o mundo a nossa volta assemelha-se, portanto, a olhar um céu estrelado: as sensações chegam ao cérebro em momentos distintos, mesmo que tenham partido de um mesmo objeto no mesmo instante. Com alguma prática, o cérebro torna-se hábil em juntar estímulos assíncronos para fazê-los parecer simultâneos. Assim percebemos - ilusoriamente - como síncronos a imagem de lábios que se movem e o som da voz de quem fala.

A ilusão de uma consciência instantânea e simultânea aos estímulos sensoriais que a evocam foi denominada "presente especioso" pelo psicólogo e filósofo americano William James (1842-1910). James considerava o presente ilusório não apenas pelo conteúdo temporal da consciência surgir com atraso em relação ao mundo, ou por dar coerência temporal a uma atividade neural inevitavelmente assíncrona. Ele percebia o presente como uma sensação estendida no tempo, possivelmente exigindo, de um lado, a reevocação de um passado recente guardado na memória de curtíssimo prazo e, de outro, a expectativa de um futuro iminente.

A finitude, tanto da velocidade da luz quanto da propagação da informação no sistema nervoso, conduz a um segundo paralelo entre a física e a neurociência do tempo: a relatividade da simultaneidade.

Segundo a teoria da relatividade proposta por Albert Einstein, se dois eventos A e B (por exemplo, o piscar de duas lâmpadas) são vistos por alguém como simultâneos, um segundo observador, em movimento retilíneo uniforme em relação ao primeiro, poderá vê-los como não simultâneos: a lâmpada A piscando antes da B se o observador estiver se deslocando em um sentido, ou o contrário quando ele se mover na direção oposta. Como ambos os observadores são totalmente equivalentes, já que não existe um "éter" preenchendo o espaço ou algo especial que torne absoluto algum local dele, as duas observações, embora contraditórias, são legítimas e também equivalentes.

Da mesma forma, resultados obtidos em nosso laboratório na Universidade de São Paulo (USP) e por outros pesquisadores demonstram consistentemente que dois estímulos simultâneos - visuais, auditivos ou tácteis - poderão ser ou não percebidos simultaneamente dependendo de vários fatores psicofísicos, entre eles o foco de atenção. Em um típico experimento de julgamento de ordem temporal (JOT), um voluntário senta-se à frente do monitor do computador e fixa o olhar em um ponto demarcado da tela, onde será apresentada uma rápida sucessão entre dois estímulos visuais separados por certa distância. Sua tarefa é relatar qual estímulo foi percebido primeiro. Se prestar atenção ao local onde um dos estímulos será apresentado (mesmo que não dirija o olhar àquele local), as chances de que ele o perceba antes do outro estímulo são muito maiores, mesmo que ambos sejam simultâneos. Nesse caso, a alocação da atenção a um ou outro estímulo teria papel equivalente à mudança do referencial inercial do qual se faz a observação da ordem dos eventos - tal como enunciado pela teoria da relatividade.

Não apenas a ordem e a simultaneidade de dois eventos podem ser relativas para a física e as neurociências, distâncias espaciais e intervalos temporais também são. Segundo a teoria da relatividade, o comprimento de um objeto ou a duração de um evento serão relativos ao referencial inercial em que se encontra o observador. Se ele estiver em movimento em relação ao objeto, seu comprimento será menor se comparado ao mesmo objeto medido por um observador estacionário. O fator de contração é dado pelas equações de transformação de Lorentz . Contração semelhante ocorre quando um observador, cujo referencial inercial está em movimento em relação a um evento, mede a duração deste e compara o resultado com o do observador estacionário.

Experimentos psicofísicos semelhantes ao JOT mostram que a percepção de duração é relativa também ao estado do observador. Fisiologicamente, a incerteza de um julgamento temporal aumenta com a duração do intervalo julgado. Esse resultado, denominado propriedade escalar da percepção de tempo, parece decorrer de um fenômeno psicofísico mais geral, conhecido como lei de Weber (proposto por Ernst Weber, em 1831), segundo o qual para percebermos que um dado estímulo sensorial sofreu variação, o acréscimo (ou decréscimo) mínimo necessário deve ser proporcional à magnitude inicial do estímulo original. Isso talvez ajude a entender por que o tempo parece passar cada vez mais depressa à medida que envelhecemos.

Todos nós também já experimentamos a sensação de o tempo "voar", quando estamos em lugares ou situações agradáveis, ou de se "arrastar", nos momentos em que esperamos com ansiedade algo acontecer. Novamente, parece ser a atenção que prestamos à sucessão de eventos em curso o fator determinante de nossa experiência temporal. Vários estudos demonstram que a duração de um estímulo sensorial, tal como percebida por um observador, é fortemente influenciada pela atenção que ele dispensa ao estímulo.

A percepção temporal pode ser alterada também pela ação de drogas ou doenças que provavelmente modificam circuitos neurais cuja atividade determina nossa capacidade de julgar a duração de um intervalo temporal ou a ordem de dois eventos. A doença de Parkinson, por exemplo, caracteriza-se pela disfunção em certas via neurais que utilizam dopamina como neurotransmissor. Os pacientes manifestam comprometimento da organização temporal de ações motoras e nítido prejuízo no desempenho de tarefas que requerem exclusivamente a percepção de intervalos de tempo. Resultados de nosso laboratório mostram que pacientes com Parkinson exibem significativa redução da precisão no julgamento da ordem temporal de dois eventos visuais, quando comparados a voluntários saudáveis da mesma idade.

Podemos novamente estabelecer um paralelo entre a mudança de referencial em que medidas de intervalos temporais são realizadas e a modificação na atividade de circuitos neurais responsáveis pela codificação do tempo, seja pela modulação fisiológica exercida pela atenção, seja pela interferência de fármacos ou por doenças. Em ambos os casos, o intervalo temporal medido fisicamente ou percebido fisiologicamente é relativo ao referencial em que se situa o observador.

Setas do Tempo

Podemos dizer que, em essência, somos as nossas memórias. Aquilo que declaramos e contamos compõe a chamada memória declarativa, da qual fazem parte fatos sobre o mundo e sobre nossas próprias experiências.

Estima-se que mais da metade das conversações adultas se refiram a eventos passados ou futuros, e essa habilidade de "viajar no tempo", acreditam muitos neurocientistas, é exclusiva do ser humano. É possível que seu aparecimento tenha sido um passo decisivo no processo evolutivo da espécie. Viajando no tempo, entre memórias e projetos, podemos reavaliar experiências passadas, com suas possíveis causas, e ponderar cenários futuros, com suas eventuais conseqüências, o que aumenta a probabilidade de optarmos por decisões e ações mais adaptativas.

Entretanto, existe nítida assimetria entre a memória de um evento passado, cristalizado e único em sua realidade, e a expectativa de um evento futuro, aberto e múltiplo em suas potencialidades.

Em meados do século XX, o matemático austríaco Kurt Gödel obteve uma solução para as equações do campo gravitacional propostas por Einstein na teoria da relatividade geral. Segundo ele, seria possível, sob certas condições, a existência de órbitas fechadas ao longo do espaço-tempo quadridimensional, o que significa que um objeto, em uma viagem ao longo dessa trajetória, voltaria no tempo. Tais resultados trazem à tona o relevante papel desempenhado pelo conceito de causalidade na ciência.

Esse aspecto se torna mais claro com o exemplo do astronauta que, viajando ao longo de uma alça fechada do espaço-tempo, retorna ao passado e, por descuido, provoca um acidente que mata a própria mãe, ainda jovem, antes mesmo de ter sido gerado por ela. Embora muito próximos da ficção científica, tais argumentos baseiam-se em resultados físicos rigorosamente formulados.

Para David Hume, filósofo escocês do século XVIII, a crença na relação causal entre dois eventos decorre apenas do fato de nos habituarmos a vê-los numa dada ordem temporal. Daí viria a sólida, porém ilusória, idéia de que toda conseqüência é precedida de uma causa. No século XX, Hans Reichenbach teceu o conceito de "cadeias causais" para ordenar eventos no tempo. Seguidos em determinado sentido, os eventos ordenam-se de acordo com um princípio de "causalidade"; no sentido oposto, ordenam-se segundo uma "finalidade". A definição de um sentido do tempo (a chamada seta do tempo) ou a escolha da causalidade em detrimento da finalidade é, na visão do filósofo da ciência alemão, uma conseqüência da segunda lei da termodinâmica, segundo a qual a entropia (ou, intuitivamente, o grau de desordem) de um sistema isolado tende a aumentar. O aumento da entropia definiria, portanto, o sentido da seta do tempo.

Quando assistimos a um filme em que cacos de vidro espalhados no chão se aproximam uns dos outros e finalmente se juntam, sabemos imediatamente que ele está sendo projetado de trás para frente. Do ponto de vista termodinâmico, a desordem (entropia) do copo aumenta quando ele se quebra, espalhando cacos pelo chão. O aumento da entropia seria uma indicação segura da direção do tempo, que jamais retrocederia pelas mesmas razões pelas quais a entropia não poderia diminuir. Há, no entanto, problemas sutis nesse raciocínio, detectados pela primeira vez no final do século XIX pelo físico austríaco Ludwig Boltzmann.

Em minuciosa análise termodinâmica, Boltzmann notou que, partindo de um instante no tempo, a entropia de um sistema deve aumentar tanto em direção ao futuro quanto em direção ao passado. Ou seja, a seta do tempo teria duas pontas. Para observarmos hoje o aumento da entropia, como prescrito pela segunda lei da termodinâmica, ela precisaria necessariamente ser menor no passado remoto. Logo, o problema da seta do tempo, na física, parece implicar considerações cosmológicas, remontando a condições termodinâmicas que caracterizaram a origem do Universo. Sob o prisma das neurociências, a assimetria entre eventos já registrados e aqueles ainda por serem gravados em nossa memória parece oferecer, ainda que sem rigor matemático, uma distinção satisfatória entre passado e futuro (e qual deles deve acontecer primeiro).

O ato de observar e medir um evento passou a fazer parte da física com o advento da mecânica quântica, segundo a qual observador e observado acoplam-se, indissociavelmente, na mensuração de um dado estado físico (descrito por uma função de onda). Muitos filósofos e físicos acreditam que o tempo perceptivo registrado por um observador possa, portanto, ter papel relevante na determinação da seta do tempo.

O físico britânico Paul Davies acredita que o fluxo do tempo é resultado de um processo subjetivo, a ser explicado pelas neurociências e não pela física. Pelo menos duas interessantes conexões existem entre os objetos de estudo das duas disciplinas. A primeira é aquela, já mencionada, que vincula um observador consciente ao fenômeno por ele observado. É o ato da observação que transforma as probabilidades descritas pela função de onda em um valor ou estado físico definido e único. Nas palavras de John Wheeler, importante físico americano do século XX: "nenhum fenômeno elementar é um fenômeno até que ele seja um fenômeno observado ou registrado." A segunda conexão entre física e neurociências é a semelhança matemática e conceitual existente entre a definição de entropia, proposta por Boltzmann, e a definição de informação, que o matemático americano Claude Shannon apresentou em meados do século XX. A entropia seria uma medida de nossa ignorância sobre um sistema, sendo a aquisição de informação sobre ele o equivalente a uma redução de sua entropia (negentropia). O atrativo dessa analogia é que, enquanto entropia é um clássico ingrediente de formulações termodinâmicas, informação é a matéria prima, por excelência, da atividade neural.

Percepção do Tempo

Pouco depois do surgimento da teoria da relatividade, o professor de matemática de Einstein, Hermann Minkowski, propôs uma formalização em que tempo e espaço passam a fazer parte de uma única estrutura geométrica. Formada pela fusão de três dimensões espaciais e uma temporal, essa estrutura é conhecida desde então como espaço-tempo quadridimensional. Embora mantenha suas peculiaridades, espaço e tempo devem, de acordo com a relatividade, ser considerados em conjunto, oferecendo um arcabouço único para a descrição dos eventos físicos.

Nossas percepções de espaço e tempo também não existem de forma independente, e tarefas perceptivas que exigem julgamento espaço-temporal possuem longa história nas neurociências. Em 1796, o astrônomo real do observatório de Greenwich, Reino Unido, despediu seu assistente em razão das constantes discrepâncias, da ordem de vários décimos de segundo, na observação do trânsito estelar. As observações exigiam o julgamento, em relação a um ponto de referência no observatório, da localização de uma estrela em um exato instante de tempo marcado pelo tique-taque audível de um relógio. A precisão dessas observações era crítica para as medidas astronômicas, o que levou o problema para os laboratórios sob a forma de procedimentos que ficaram conhecidos como experimentos de complicação, idealizados pelo pai da psicologia fisiológica, Wilhelm Wundt. Tais experimentos implicavam a comparação simultânea de estímulos em movimento contínuo e estímulos de apresentação súbita.

Reportar a localização de um dado objeto em movimento no exato instante em que um outro evento ocorre é, genuinamente, uma tarefa espaço-temporal. Não só um julgamento espacial deve ser realizado simultaneamente a um julgamento temporal, as percepções de espaço e tempo podem - e talvez devam - compartilhar circuitos neurais que são superpostos quanto a esse processamento.

Mais recentemente, o interesse em experimentos de complicação foi reavivado pela descoberta de uma ilusão visual simples, porém ainda muito controversa: o efeito flash-lag. Um objeto em movimento é percebido como se estivesse à frente de sua real posição no instante em que um evento, que ocorre subitamente, é utilizado como referencial no tempo.

Muito se tem debatido sobre as origens neurofisiológicas desse fenômeno, mas um aspecto que demonstramos com alguma segurança é sua modulação por fatores atencionais: a magnitude do efeito flash-lag aumenta ou diminui à medida que prestamos menos ou mais atenção aos estímulos em questão (o que pode parcialmente explicar a tendência dos árbitros auxiliares, em partidas de futebol, de indicar impedimentos inexistentes). A modulação atencional de uma ilusão que implica a percepção de tempo e espaço sugere, mais uma vez, que a atenção entra em cena como uma espécie de "mudança de referencial", no qual eventos espaço-temporais tomam parte.

Uma das razões pelas quais as percepções de tempo e espaço talvez se fundem em uma mesma estrutura espaço-temporal é que a determinação subjetiva de tempo possa depender mais de "como" é representada pelo sistema nervoso, e menos de "quando". Steven Hillyard, da Universidade da Califórnia, mostrou recentemente que a modulação atencional da percepção de ordem temporal, produzida por dois estímulos sonoros, era codificada por variações nas amplitudes de potenciais elétricos observados nos respectivos circuitos neurais envolvidos, e não por suas latências ou qualquer outra variável temporal. Portanto, espaço e tempo não são traduzidos necessária e respectivamente por códigos espaciais e temporais, mas ambos poderiam ser representados pelo sistema nervoso como códigos neurais que nada têm a ver diretamente com as características espaciais e temporais daquilo que representam. Esses mecanismos sugerem um análogo neural, ainda que metafórico, ao espaço-tempo físico.

Blocos de Tempo

Heráclito de Éfeso, que viveu na Grécia entre os séculos VI e V a.C., via o Universo como um processo contínuo de mudança: "todas as coisas estão em perpétuo estado de fluxo". Um de seus mais famosos aforismos diz que "no mesmo rio entramos e não entramos, somos e não somos". Ou seja, não podemos nos banhar duas vezes no mesmo rio, pois na segunda vez as águas do rio - em perpétuo fluxo - já não serão as mesmas, assim como nós mesmos já teremos mudado.

No entanto, o escrutínio filosófico e as formalizações físicas não conseguem determinar a existência de um fluxo temporal único, contínuo e objetivo. Não há resposta para certas perguntas, por exemplo, "qual a velocidade do tempo?" (exceto, talvez, para uma personagem do escritor português José Saramago, que afirma que o tempo passa a uma velocidade de 60 minutos por hora). Esse incômodo beco sem saída tem levado à concepção do tempo como um bloco. O espaço-tempo de Minkowski conteria toda a eternidade: passado, presente e futuro mapeados nesse bloco único. Embora a sensação de um "agora" desempenhe papel central em nossa vida, a intuição é subvertida por concepções relativísticas, segundo as quais todos os instantes desse "tempo blocado" são igualmente reais. O fluir do tempo, do passado ao futuro, passando pelo "agora" que nitidamente sentimos, surgiria em nosso cérebro como o resultado de fazermos, ativa e conscientemente, uma observação desse bloco espaço-temporal. Essa observação então corresponderia, para cada observador, a uma fatia do bloco, que contém a cota de espaço que chamamos "aqui" e o instante de tempo que chamamos "agora".

Essa visão física se aproxima da concebida por Platão no século IV a.C. Em um de seus famosos diálogos, Timeu, o tempo seria uma "imagem móvel da eternidade". Já a concepção neurocientífica nos leva ao pensamento de Santo Agostinho, que viveu oito séculos mais tarde, para quem passado e futuro não existem. Quando olhamos para o passado, ele já se foi: é uma memória. Quando procuramos o futuro, ele ainda não chegou: é uma expectativa. Portanto, somente o presente existe, conclui o filósofo. O tempo seria uma criação da mente humana - quando medimos uma extensão temporal, estamos na verdade medindo memórias do passado e expectativas do futuro. Santo Agostinho é o primeiro pensador ocidental a destacar claramente o caráter subjetivo do tempo.

É possível que as múltiplas faces do tempo tenham individualidade própria. E que os múltiplos "tempos" tenham, portanto, de ser tratados de forma particularizada ou independente, pelo respectivo nível descritivo que o aborda. Seria preciso considerar por exemplo as diferentes naturezas da "fibra" do tempo, com a qual seriam tecidos, em diferentes planos, os múltiplos e distintos tempos físico, biológico, neural e social. Enquanto isso, continuaremos a enfrentar o desafio de compreender como o tempo flui através da mente, já que, fora dela, o rio de Heráclito existe, mas está congelado

Tempo nas neurociências

O surgimento de mecanismos neurais que processam o tempo foi essencial para nossa evolução. O controle neural do tempo é crucial para atividades cuja escala varia entre milésimos de segundo a décadas. São elas: regulação de funções vegetativas e de comportamentos que oscilam periodicamente (ritmos biológicos); funções motoras nas quais a seqüência e coordenação de movimentos exigem grande precisão temporal, da ordem de milissegundos; percepção de sucessão, ordem, intervalos e durações temporais, que se estendem de frações de segundo às memórias que construímos ao longo da vida.

Em seres humanos e outros animais, o processamento neural do tempo tem sido abordado por meio de técnicas como ensaios comportamentais, análises moleculares, métodos eletrofisiológicos, farmacológicos, clínicos e de neuroimagem. Os resultados mais recentes indicam que diferentes módulos neurais participam dos diversos tipos de processamento temporal, dependendo da escala de tempo e da natureza da tarefa.

Ritmos circadianos, por exemplo, operam em períodos de 24 horas, determinando comportamentos tais como o ciclo vigília-sono e a alimentação. Seu controle depende de circuitos neurais localizados no núcleo supraquiasmático do hipotálamo, que oscilam sob a influência de ritmos externos, como o ciclo claro-escuro produzido pela rotação diária da Terra. Ritmos biológicos, produzidos endogenamente por osciladores neurais, são extremamente úteis no ajuste homeostático e na sincronização de comportamentos aos ritmos exógenos gerados pela natureza periódica de rotação e translação do planeta.

Estudos recentes mostram a existência de dois outros sistemas neurais, relativamente independentes, do processamento temporal. O primeiro é um sistema automático do qual participa o cerebelo, opera na escala de milissegundos e se relaciona à marcação temporal de eventos discretos (descontínuos). O segundo sistema relaciona-se a eventos contínuos, é controlado por mecanismos cognitivos e atencionais e envolve os núcleos da base e várias áreas corticais no processamento de eventos temporais cuja escala de tempo iguala ou supera um segundo. Observações clínicas sugerem que lesões cerebelares comprometem aspectos temporais determinantes da transição de estados motores, enquanto lesões dos núcleos da base comprometeriam, temporalmente, a transição de estados atencionais. Esses núcleos subcorticais parecem estar envolvidos, junto com circuitos dos córtices pré-frontal e parietal posterior, na representação cognitiva de números, seqüências e magnitudes. Dessa forma, áreas neurais comuns participariam de tarefas cuja essência são contagem e o ordenamento, seja temporal, seja numérico. Um possível papel dos núcleos da base seria o de monitorar a atividade que circula entre eles, o tálamo e o córtex cerebral, agindo como detectores de coincidência que controlam o fluxo de informação.

O Tempo na Física

Um dos pilares da física moderna é a obra monumental de Isaac Newton (1642-1727). Em um mesmo modelo teórico, Newton concebeu um sistema mecânico que unificou a física dos corpos em movimento - de maçãs caindo de árvores a órbitas de luas e planetas. A metafísica de Newton adotava a visão de tempo e espaço absolutos. Em relação ao espaço, ele defendia uma forma de "substantivalismo", de um espaço como "substância" - visão oposta ao "relacionismo" adotado por Leibniz, seu contemporâneo. Newton percebeu que, em relação ao espaço absoluto, um movimento uniforme, com velocidade constante, exigiria o fluir de um tempo absoluto. Como afirmou em sua obra Principia mathematica, "O tempo absoluto, verdadeiro e matemático, por si mesmo, e por sua própria natureza, flui uniformemente sem relação com nenhuma coisa externa. [...] Todos os movimentos podem ser acelerados ou retardados, mas o fluxo do tempo absoluto não é sujeito a nenhuma mudança".

Assim, um único "agora" preencheria todo o espaço, desde o local em que você, leitor, se encontra lendo essas páginas, até uma estrela distante, na borda da galáxia ou nos confins do Universo. Embora tenha despertado o questionamento crítico de alguns físicos e filósofos, essa cosmovisão persistiu por mais de 200 anos, e ainda hoje se encontra entranhada nas concepções de muitos de nós. Em meados do século XIX, James Clerk Maxwell colocou, ao lado da mecânica de Newton, uma síntese do eletromagnetismo igualmente unificadora, que expressava, por meio de quatro elegantes equações, todo um conjunto de resultados empíricos relativos a fenômenos elétricos e magnéticos. Com base nas equações de Maxwell, e em experimentos muito precisos realizados no final do século XIX, mostrou-se que a velocidade de uma onda eletromagnética (e, portanto, da luz) no vácuo, era a mesma em qualquer direção: pouco mais de 1 bilhão de km/h. Os resultados conduziram a uma inconveniente contradição entre essas duas teorias físicas - as mais bem-sucedidas até então.

O início do século XX foi marcado por abalos que dilaceraram os alicerces da física clássica. Personagem principal desse fecundo capítulo da história da ciência, Albert Einstein (1879-1955) protagonizou a demolição da física newtoniana. Com suas teorias da relatividade (a especial, de 1905, e a geral, de 1916), propôs um modelo de Universo no qual espaço e tempo não são independentes nem absolutos, mas se fundem em um único espaço-tempo quadridimensional, em que uma onda eletromagnética propaga-se com velocidade constante em relação a qualquer referencial inercial em que seja medida. Como conseqüência da constância da velocidade da luz, conceitos temporais como simultaneidade e duração ou espaciais, como distância e comprimento, tornam-se relativos a um dado referencial inercial. Com as teorias de Einstein, a unidade e a coerência da física foram preservadas e, de quebra, uma visão radicalmente nova do universo tomou o lugar das concepções usuais de espaço e tempo.

Para conhecer mais, leia:

O Tecido do Cosmo. Brian Greene, Companhia das Letras, 2005.
Time. Philip Turetzky, Routledge, 1998.

What makes us tick? Functional and neural mechanisms of interval timing. C. V. Buhusi e W. H. Meck, em Nature Reviews Neuroscience, vol. 6, págs. 755-765, 2005.
 


Visite meu blog de aulas de Inglês: Pocket English





Muito grato pela visita, bons estudos e boa sorte!
Deixe seus comentários.

Fique com Deus,
Seja bem-vindo(a) e volte sempre...

Roberto Santos