REVISTA ELETRÔNICA DE JORNALISMO CIENTÍFICO
Dossiê Anteriores Notícias Reportagens Especiais HumorComCiência Quem Somos
Dossiê
Editorial
Vida sintética e linguagem da vida - Carlos Vogt
Reportagens
À espera do ser sintético
Hércules Menezes
Bio-legos e biofábricas
Luciano Valente
A ciência se auto-regula ou deve haver controle do Estado?
Rodrigo Cunha
Vende-se: vida sintética
Flavia Natércia
Vida artificial e sintética: aposta na substância
Susana Dias
Artigos
Vida sintética: uma nova revolução?
Charbel Niño El-Hani
Vitor Passos Rios
Difusão da biologia sintética: um desafio para a biossegurança
Markus Schmidt
Tradução: Rodrigo Cunha
Biotecnologia e inteligência sintética
Luís Junqueira
A biofabricação de tecidos e órgãos
Jorge Vicente Lopes da Silva
Silvio Eduardo Duailibi
Sobre criadores e criaturas, e os medos e perigos das tecnociências
Daniela Manica
Resenha
O que é vida?
Por Cristina Caldas
Entrevista
Richard Jefferson
Entrevistado por Marta Kanashiro e Rafael Evangelista
Poema
Cantiga de acordar
Carlos Vogt
Humor
HumorComCiencia
João Garcia
    Versão para impressão       Enviar por email       Compartilhar no Twitter       Compartilhar no Facebook
Artigo
Biotecnologia e inteligência sintética
Por Luís Junqueira
10/10/2008

A humanidade sempre se preocupou em desenvolver meios para facilitar a execução das atividades essenciais para a sua sobrevivência e desenvolvimento. Primeiro, procurou facilitar a execução das tarefas que exigiam força bruta, empregando animais de carga em substituição à força humana, e, depois, das tarefas que exigiam ações repetitivas, por meio da utilização de mecanismos e engrenagens. No período Neolítico (5000 a 2500 a.C.) o homem já praticava a agricultura e se utilizava de bois para puxarem o arado e preparar a terra. Há cerca de 950 a.C. aparecem os moinhos com engrenagens, utilizados para a moagem de grãos. Depois, para poder exercer controle sobre suas atividades produtivas e mercantilistas, tornou-se crescente a necessidade de contar e realizar operações numéricas. E foi a partir desse contexto que surgiriam os computadores.

No Egito, por volta de 500 a.C., surge o ábaco, instrumento que funcionava como uma espécie de calculadora manual rudimentar. Em 1692, o matemático francês Blaise Pascal inventou a primeira máquina de somar, conhecida como pascalina. Em 1822, o matemático inglês Charles Babbage desenvolveu sua máquina diferencial: um dispositivo capaz de executar operações matemáticas mais sofisticadas. Também é de Babbage a idéia da máquina analítica, capaz de guardar dados num sistema de armazenamento interno, semelhante ao que ocorre nos computadores modernos, mas que não chegou a se concretizar por falta de recursos tecnológicos na época. Foi somente com o advento de máquinas operadas eletricamente que as idéias de Babbage puderam ser colocadas em prática. O primeiro computador constituído de relês eletromecânicos foi idealizado pelo alemão Konrad Zuze, em 1936. Com o advento da Segunda Grande Guerra, intensificaram-se as pesquisas para se produzir máquinas capazes de realizar uma grande quantidade de cálculos rapidamente e, como resultado, surge o Eniac, um dos primeiros computadores eletrônicos, construído a partir de 1943. A constatação da vantagem da adoção do sistema binário (que consiste da utilização somente de 0 e 1) para construção de máquinas computadoras é geralmente atribuída à John Von Neumann e foi aplicada no desenvolvimento do EDVAC, construído em 1950. O resultado mais marcante de seu trabalho está em sua proposta para uma arquitetura de máquinas digitais, na qual se baseia a maioria dos computadores atuais.

A partir dos trabalhos de Von Neumann, começa-se a utilizar o termo “cérebro eletrônico” para designar os novos computadores em desenvolvimento, que seriam aquelas máquinas com a capacidade de executar tarefas até então só realizadas pelos cérebros humanos. Em 1956, John McCarthy, na época professor do Darmouth College, organizou um encontro de verão com o objetivo de discutir a possibilidade de desenvolver programas de computador que se comportassem de forma inteligente, surgindo dali o termo inteligência artificial. Iniciava-se, assim, a pretensão de simular ou reproduzir o pensamento humano através da máquina. A principal diferença de abordagem do uso de computadores que se fazia até então foi a mudança de paradigma de uma máquina capaz de realizar cálculos velozmente para o de uma máquina capaz de processar símbolos. Como aplicação dessa capacidade, foram desenvolvidos programas que permitiam que computadores pudessem jogar damas e xadrez. Em geral, esses tipos de jogos envolvem as capacidades de aprendizagem e de raciocínio, capacidades essas associadas à inteligência humana. Então, uma máquina capaz de jogar damas ou xadrez poderia ser considerada inteligente? Poderiam as máquinas pensar? Esta questão já havia sido colocada pelo matemático Alan Turing, em seu artigo de 1950, intitulado “Computing, machinery and intelligence”, e, para uma parte dos pesquisadores envolvidos com trabalhos em inteligência artificial, a resposta para essa pergunta parecia ser sim.

Muitas críticas surgiram à idéia de que a mente humana poderia ser simulada por um computador e que o mesmo poderia apresentar sinais da inteligência humana. A crença de que todo conhecimento pode ser formalizado e que a mente pode ser vista como um mecanismo que opera de acordo com regras formais se mostrou incorreta. O sucesso da abordagem de processamento simbólico dependeria de se encontrar algoritmos capazes de indicar os passos necessários para a solução de problemas propostos, quaisquer que sejam eles, tarefa esta que nem sempre é possível. Mesmo considerando todos os resultados obtidos pela inteligência artificial, ela não cumpriu as expectativas exageradas a que se propunha.

Em 1987, o pesquisador em ciência da computação Christopher Langton rompe com as abordagens tradicionais utilizadas na inteligência artificial, ao enunciar uma concepção com inspiração biológica denominada de vida artificial, na qual entidades vivas podem ser criadas artificialmente. Naquele ano, Langton organizou um workshop sobre síntese e simulação de sistemas vivos, em Los Alamos (EUA), do qual participaram cientistas de diversas especialidades, incluindo físicos, biólogos, antropólogos e cientistas da computação. Durante cinco dias, o workshop proporcionou apresentações sobre temas tais como modelos matemáticos de origem da vida, programas computacionais utilizando mecanismos de evolução darwiniana, modelos analíticos de sistemas vivos, ecossistemas simulados em computador e autômatos auto-replicantes. Na publicação da compilação dos resultados do workshop, Langton define que a “vida artificial é o estudo de sistemas criados pelo homem, que exibem comportamentos característicos de sistemas vivos naturais. Complementa as ciências biológicas tradicionais, preocupadas com a análise de organismos vivos, pela tentativa de sintetizar comportamentos do tipo vida dentro de computadores e outros meios artificiais”.

Cientistas envolvidos com projetos em v ida artificial estão motivados pela idéia de que programas de computador exibem sinais de vida pelas mesmas razões fundamentais dos organismos biológicos. Um exemplo é o mundo virtual Tierra, criado por Thomas Ray. Ray modelou seu sistema baseando-se no período Cambriano de evolução da Terra, caracterizado pela existência de organismos simples auto-replicantes que deram origem à grande diversidade de vida existente no planeta. Ele introduziu no sistema um único desses organismos auto-replicantes e permitiu que o ambiente evoluísse a partir dele. O resultado foi o surgimento de um ecossistema inteiro, considerado como verdadeiramente “vivo” pelos pesquisadores da área, composto por organismos de diversos tamanhos e por diferentes parasitas, cada qual competindo pelos recursos disponíveis em seu ambiente computacional (espaço de memória e tempo de processamento do computador).

Uma vertente particular dessa abordagem vem se desenvolvendo e produzindo resultados relacionados com a investigação da cognição. Trata-se da etologia sintética que, de acordo com o pesquisador Bruce MacLennan, tem por característica o fato de “ao invés de estudarmos os animais num mundo natural desordenado e ao invés de retirarmos os animais de seus mundos completamente, criamos mundos artificiais e organismos simulados cujo comportamento está acoplado àqueles mundos. Uma vez que os organismos simulados são simples, podemos estudar fenômenos mentais em situações nas quais o mecanismo é transparente”. MacLennan utilizou essa abordagem na investigação da emergência de comunicação entre os organismos simulados, ou agentes, considerando que a comunicação envolve tanto intencionalidade quanto significado compartilhado. A sua investigação consistiu em verificar se a comunicação poderia emergir entre agentes que evoluem num mundo virtual, a partir do contexto de cooperação entre esses agentes. Como resultado do experimento, o autor relata o surgimento da habilidade dos agentes se comunicarem através de pares de símbolos, formando uma sintaxe rudimentar. MacLennan considera que o resultado exibiu intencionalidade dos agentes e que os sinais trocados entre eles eram significativos para eles, os agentes, ainda que não necessariamente para nós, os observadores, comparando a ocorrência com a situação equivalente na natureza, quando somos defrontados com certa comunicação entre animais, desprovida de significado para nós.

Se a cognição puder ser considerada como uma característica emergente de um organismo vivo, natural ou artificial, será, então, que estamos diante da possibilidade da criação de novos tipos de mentes? Que tipos de mente existem? E como sabemos sobre elas? Ao estabelecer estas perguntas, o filósofo Daniel Dennett procura distinguir os questionamentos ontológicos (o que existe) dos questionamentos epistemológicos (sobre o nosso conhecimento). Ele nos alerta para sermos cuidadosos quando estipulamos limites ao considerar a existência de algo, baseando-se naquilo que nos é possível conhecer sobre esse algo, uma vez que sua existência (ontológica) independe do nosso conhecimento sobre ele (epistemológico). Dennett sugere que evoluímos a partir de seres que possuíam mentes mais simples. Tais seres teriam evoluído de seres com mentes ainda mais simples, ou protomentes. E assim sucessivamente, até retornarmos às estruturas mais simples possíveis, destituídas de qualquer tipo de mente. Richard Dawkins, famoso por seu livro O gene egoísta (1976) defende a idéia de que as macromoléculas iniciais do mundo pré-biótico foram submetidas a processos de seleção natural, evoluindo até chegar aos organismos biológicos atuais. A partir de macromoléculas auto-replicantes, teriam surgido os organismos simples unicelulares, que dariam origem aos organismos multicelulares que, por sua vez, evoluiriam em organismos marinhos, peixes, répteis, até chegarem aos mamíferos.

Dennett introduz o conceito de intencionalidade ao discorrer sobre o nascimento da ação nas primeiras macromoléculas complexas o suficiente para tal, e daí para as células e para conjuntos de células que realizam ações especializadas nos organismos. Ele considera todas essas entidades, das mais simples às mais complexas, como sistemas intencionais, e adota a perspectiva na qual as ações de tais sistemas intencionais se tornam reconhecíveis através da postura intencional. A postura intencional é a estratégia sugerida por Dennett para interpretar o comportamento de uma entidade qualquer, que pode ser uma pessoa, um animal, um artefato, ou qualquer outra coisa, considerando-a como um agente capaz de selecionar suas ações. Ou seja, existe a direcionalidade da ação. Os produtos da seleção natural seriam resultantes das ações de agentes com direcionalidade e, por esse motivo, p ara o filósofo, as macromoléculas auto-replicantes originais tinham intencionalidade. Dennett supõe ainda como válida a atribuição de racionalidade a um agente, considerando que o agente racional buscará sempre o que for bom para ele, e que esse tipo de comportamento também está presente nos produtos resultantes da seleção natural e, dessa maneira, estabelece um critério para distinguir as entidades que não têm mente, citando o exemplo da rocha que não é capaz de buscar o que é bom para si, uma vez que não foi equipada para atingir qualquer tipo de bem individual. Em outras palavras, a racionalidade do agente, manifestada pela sua intencionalidade, seria o indicativo da existência de sua mente.

Com o surgimento das pesquisas em biologia sintética nos últimos anos, desenvolvidas a partir das técnicas de biotecnologia que possibilitam realizar o sequenciamento de DNA, o isolamento de genes, a extração e a recombinação de DNA, e também o controle da expressão gênica, estamos diante da possibilidade da criação de novos organismos biológicos, sintetizados a partir da manipulação genética realizada pelo homem. De acordo com Paras Chopra e Akhil Kamma, a biologia sintética é a arte de construir novos sistemas biológicos que não existem na natureza. É a tentativa de criar sistemas vivos a partir do início e dotá-los de novas funções. O resultado obtido continua sendo produzido biologicamente, mas o novo organismo é produzido a partir de um código genético não encontrado na natureza. Esses novos organismos poderiam ter as funções de produzir energia, prover alimentos, processar informações e permitir a produção de novos fármacos, entre outras.

Mas qual será, de fato, nossa capacidade de intervenção para prevenir a ocorrência de eventos naturais que permitissem a modificação e a evolução de tais organismos de uma maneira fora de nosso controle? Se as idéias de Dennett estiverem certas, tais organismos poderão desenvolver seu próprio tipo de mente. E, se assim for, poderemos estar, daqui a um tempo, diante de um novo tipo de inteligência, uma inteligência sintética, desencadeada pela mão do homem. Neste caso, ao invés da previsão de que um dia a humanidade seria dominada por algum tipo de máquina dotada de inteligência artificial, tal como preconizada no filme 2001, uma odisséia no espaço (dir. Stanley Kubrick, 1968), estaremos, na verdade, diante da possibilidade de sermos dominados por algum novo tipo de ser biológico dotado de uma inteligência desenvolvida sinteticamente, a partir de ações movidas por nossas próprias ambições, negligências e erros.

Luís Junqueira é mestre em filosofia da mente, epistemologia e lógica pela Universidade Estadual Paulista (Unesp) e professor adjunto na Universidade Ibirapuera.

Para saber mais:

BASSLER, B. “How bacteria talk to each other: regulation of gene expression by quorum sensing”. Current Opinion in Microbiology, vol. 2, pp. 582-587, 1999.
BEDAU, M. “Supple laws in biology and psychology”. In: HARDCASTLE, V. (Ed.) Where biology meets psychology: philosophical essays. Cambridge: MIT Press, pp. 287-302, 1999.
CHE, A. Modelling the next step in bioevolution: engineering the microbial world. MIT Seminar, 2002.
CHOPRA, P.; KAMMA, A. “Engineering life through synthetic biology”. In: Silico Biology, vol. 6, p. 401–410, 2006.
DENNETT, D. Darwin 's dangerous idea: evolution and the meanings of life. New York: Simon and Schuster, 1995.
ENDY, D. “Foundations for engineering biology”. Nature, vol. 438, pp. 449-453, 2005.
KAZNESSIS, Y. "Models for synthetic biology". BMC Systems Biology, pp. 1-47, 2007.
LANGTON, C. (Ed.). Artificial life. The proceedings of an interdisciplinary workshop on the synthesis and simulation of living systems. New York: Addison-Wesley, 1989.
MacLENNAN, B. “Synthetic ethology: an approach to the study of communication”. In: LANGTON, C. et al. (Eds.). Artificial life II. The second workshop on the synthesis and simulation of living systems. Redwood City: Addison-Wesley, pp. 631-658, 1992.
WEISS, R. et al. “Genetic circuit building blocks for cellular computation, communications and signal processing”. Natural Computing, vol. 2, pp. 47-84, 2003.