Editorial:

A parábola do cão digital
Carlos Vogt

Reportagens:
Governo se compromete com o SocInfo
Escolas públicas sem computadores
Realidade digital nas relações de trabalho
Internet de alta velocidade
Novas tecnologias de hardware
Certificação digital, segurança possível
Web semântica
Direitos autorais e copyleft
Hackers e crackers
Arquivos abertos e modelos de publicação
Telemedicina, aplicações para o Brasil
Artigos:
Computação ubíqua e cooperativa
Ricardo Anido

A Internet é autosustentável?
Peter Schultz

A maturidade da informação
Karma Rubio
Castells e a "era da informação"
Osvaldo Lopes
Controle social e gestão da Internet
Carlos Afonso
Jovens e computadores
Tom Dwyer
Nova Internet
Nelson Simões
Poema:
Media Watching
Carlos Vogt
 
Bibliografia
Créditos

 

 

Biotecnologia e física quântica apontam
para novas tecnologias de hardware

A velocidade da Internet depende não só da capacidade das linhas de transmissão de dados, mas também do desempenho dos próprios computadores.

Esse desempenho vem sofrendo revoluções desde que o primeiro computador eletrônico com algoritmo genérico foi criado, em 1946 (o Eniac). Uma das maiores foi desencadeada pela substituição da válvula pelo transístor como componente principal dos circuitos de um computador, em 1956. Por ser muito menor e mais rápido do que a válvula e por não "queimar" como sua antecessora, o transístor constituiu um enorme avanço na miniaturização e na velocidade computacional.

Os passos seguintes foram desdobramentos da invenção do transístor, inovações tecnológicas baseadas no mesmo princípio. Em 1969, apareceu o primeiro circuito integrado e, em 1971, foi criado o primeiro microprocessador, com todos os circuitos principais de um computador (a unidade central de processamento, ou CPU, na sigla em inglês) concentrados em um único circuito integrado de uns poucos centímetros cúbicos. Esses microprocessadores são usados nos computadores pessoais modernos (o que ocupa o espaço restante no interior das máquinas são acessórios como memória, circuitos para driver, impressora, etc.).

O desempenho dos computadores foi elevado ainda mais com o uso da computação paralela, na qual uma tarefa (um cálculo, por exemplo) é dividida em várias sub-tarefas, realizadas por vários microprocessadores simultaneamente.

Desde a criação do microprocessador, a velocidade dos computadores vem duplicando a cada 18 meses, fenômeno conhecido como Lei de Moore. Segundo Gordon Moore, que propôs a lei já em 1965 (a hipótese original era dobrar a cada 12 meses), uma das razões possíveis para essa regularidade é a especulação: "as pessoas sabem que têm que permanecer naquela curva para continuar competitivas, então, esforçam-se para que ela aconteça", afirmou numa entrevista para a revista norte-americana Scientific American.

Moore prevê que essa regularidade se mantenha ainda por vários anos, talvez dez. Porém, ela não pode durar para sempre, pois a miniaturização só pode prosseguir até que os componentes tenham dimensões atômicas.

Algumas pesquisas recentes apontam para novas tecnologias de processamento, dessa vez inteiramente diferentes do padrão inaugurado pelos transístores, que prometem driblar essas limitações. O que elas têm em comum é a possibilidade de se fazer cálculos paralelos de modo muito mais massivo do que na computação paralela tradicional.

Chips de DNA

Em 1994, o pesquisador Leonard Adleman, da Universidade da Califórnia do Sul (EUA), mostrou, em um trabalho publicado na revista Science, como se poderia usar as técnicas comuns da biologia molecular para simular problemas matemáticos e resolvê-los. A idéia faz uso da propriedade da molécula de DNA de codificar e guardar informações (propriedade que permite a ele ser o repositório do código genético). Essas informações podem ser manipuladas através da engenharia genética, de forma a resolver problemas matemáticos.

A grande vantagem do "chip de DNA", como veio a ser chamado, é a possibilidade de se fazer grande quantidade de cálculos paralelos realizando o algoritmo (a manipulação do DNA necessária) apenas uma ou algumas poucas vezes. Na computação paralela tradicional, são necessários tantos microprocessadores quanto sub-tarefas a serem realizadas. Na computação com DNA, um único tubo de ensaio pode, teoricamente, realizar trilhões de operações matemáticas simultaneamente. Além disso, o DNA é capaz de concentrar informação em um espaço cerca de um trilhão de vezes menor do que um chip tradicional.

A possibilidade teórica se tornou realidade no fim do ano passado com o trabalho do cientista Ehud Shapiro e seus colaboradores, do Instituto Weizman de Ciência, em Israel, relatado na revista Nature de 22/11/01. O grupo de Shapiro conseguiu construir um sistema que resolvia alguns problemas específicos sem precisar da assistência humana durante o processo.

Porém, as dificuldades técnicas de implementação dessa tecnologia até agora, fizeram com que boa parte da comunidade científica se tornasse pessimista quanto ao chip de DNA se tornar tão rápido quanto os de silício. "Não temos a pretensão de fazer um computador de DNA mais rápido que os atuais de silício", afirmou o próprio Shapiro para a Folha de S. Paulo (16/03/02). Na sua opinião, uma das aplicações possíveis, que o chip tradicional não poderia realizar, é dentro da célula, onde poderia induzir certas reações químicas para combater doenças.

Dualidade onda-partícula

A outra grande vertente da computação massivamente paralela é a computação quântica, idealizada em 1985 por David Deutsch, da Universidade de Oxford (Reino Unido). Esta técnica utiliza-se de um fenômeno conhecido por "emaranhamento quântico". Para se compreender esse fenômeno, deve-se ter em mente que, de acordo com a mecânica quântica, as partículas elementares - como elétrons, prótons e nêutrons - não são exatamente corpúsculos no sentido estrito do termo: podem exibir comportamentos característicos de ondas em certas circunstâncias, enquanto em outras apresentam características corpusculares. Isso é radicalmente diferente do que acontece com os objetos macroscópicos do cotidiano. As interpretações mais aceitas dessa "dualidade onda-partícula" do mundo subatômico, como é conhecida, é que essas "partículas" não são ondas nem corpúsculos, mas entidades que se comportam ora como um, ora como outro. Sistemas compostos dessas partículas, como átomos ou moléculas, também apresentam essas características - porém, quanto maior a massa, menos pronunciadas são as características ondulatórias e mais evidentes as corpusculares, de forma que para um mero átomo já é extremamente difícil (mas possível) detectar comportamentos ondulatórios. Por isso, não se observa tais comportamentos nos corpos macroscópicos presentes no cotidiano.

Um fenômeno comum com ondas, mas impossível para corpúsculos, é a superposição. Ondas podem penetrar uma na outra e misturar-se, somando-se, cancelando-se, atravessando uma a outra. Por causa de suas características ondulatórias, um átomo pode estar, em certas circunstâncias bem específicas, numa superposição entre dois estados. Se tivermos um conjunto de partículas nessa situação, diz-se que elas estão em um estado "emaranhado".

A idéia da computação quântica é usar os estados em que um átomo pode estar como bits (unidades de informação). Pode-se escolher átomos que estejam preferencialmente em dois dentre os vários estados possíveis, de forma que, na prática, haverá só dois estados possíveis. Enquanto na computação tradicional, o transístor poderia estar apenas num ou noutro estado, nunca nos dois ao mesmo tempo, na computação quântica o átomo pode ser encontrado em um, em outro ou numa superposição dos dois estados.

A vantagem disso é a possibilidade de se fazer cálculos massivamente paralelos, como no chip de DNA. Se um átomo pode estar em 2 estados possíveis, dois átomos podem estar em 4, três em 8, e assim por diante. Teoricamente, com um conjunto de três átomos, pode se fazer 8 cálculos paralelos ao mesmo tempo. A quantidade de tarefas paralelas possíveis cresce exponencialmente com o número de sistemas, ao contrário da computação paralela tradicional, onde o número de tarefas é igual ao número de microprocessadores disponíveis. A capacidade de um sistema assim seria, teoricamente, muito maior do que o permitido pelos chips de silício, mesmo que estes atingissem o limiar da escala atômica.

Mas as dificuldades técnicas para a implementação dessa idéia são colossais. O principal problema é que o estado emaranhado é extremamente instável. Superposições quânticas envolvendo elétrons são corriqueiras, mas uma envolvendo um átomo inteiro de forma controlada só foi obtida pela primeira vez em 1998 (o artigo foi publicado por Quentin Turchette e colaboradores na revista Physical Review Letters de 17-26 de outubro). A razão é que qualquer perturbação, mesmo mínima, destrói a superposição, fazendo o sistema evoluir rapidamente para um dos estados que o compõem.

Mesmo que os chips de DNA e a computação quântica se revelem inviáveis por causa das dificuldades práticas, elas já introduziram um novo conceito na teoria computacional: os cálculos massivamente paralelos, que poderão driblar a limitação física (o limite das dimensões atômicas) do desempenho dos chips de silício comuns.

Segurança na rede

O emaranhamento também pode, teoricamente, ser usado no aperfeiçoamento da segurança na rede. Normalmente para garantir que arquivos transmitidos pela Internet não sejam alterados, eles são codificados antes da transmissão. O receptor recebe uma "chave" (informação que permite a decodificação) para poder ler o arquivo. Em geral, tudo isso - a codificação, a transmissão, a transmissão da chave e a decodificação - é feito automaticamente. Para se garantir que o código não seja quebrado, a chave deve ser suficientemente extensa, de forma que um eventual hacker teria que dispor de um tempo proibitivamente longo para quebrá-la. Porém, sempre existe a possibilidade de o hacker interceptar a própria transmissão da chave.

A chamada criptografia quântica ainda não impossibilita que o hacker intercepte a chave, mas torna impossível fazê-lo sem que um dos interlocutores - o receptor ou o transmissor da mensagem - saiba. O princípio baseia-se no fenômeno conhecido como "colapso" do estado emaranhado. Mesmo que um átomo esteja em tal estado, quando o observamos, sempre o vemos ou em um estado ou em outro, não detectamos o estado emaranhado diretamente. Isso acontece porque o processo de medida já é suficientemente perturbativo para destruir o emaranhamento. Se temos um par de átomos em um estado emaranhado, ao observarmos um deles, o emaranhamento do par inteiro colapsará, mesmo que os dois estejam separados por grandes distâncias. Os diversos tipos de criptografia quântica repousam nesse princípio: o hacker que tentar quebrar uma chave que esteja num estado emaranhado com algum sistema em poder de um dos interlocutores interferirá necessariamente com esse sistema, e o interlocutor saberá que a chave foi violada. Esse princípio teórico já foi testado experimentalmente com sucesso. A experiência é mais fácil do que no caso da computação quântica descrito acima, porque pode ser feita com fótons, partículas levíssimas e com comportamentos ondulatórios evidentíssimos (manifestam-se como ondas eletromagnéticas - luz, por exemplo), com os quais é muito mais fácil de se obter emaranhamento do que com átomos inteiros.

(RB)

 

 

Atualizado em 10/04/2002

http://www.comciencia.br
contato@comciencia.br

© 2002
SBPC/Labjor
Brasil

Contador de acessos: