Demi Getschko: Assim como a liberdade de expressão, responsabilidade deve ser ampla e total

Por Ludimila Honorato

Pioneiro da internet no Brasil, o engenheiro Demi Getschko avalia que o Marco Civil da Internet, implementado há sete anos, é uma forte ferramenta para combater fake news, mas alguns pontos precisam ser revisados. O principal, segundo ele, é definir melhor quem são os provedores de conteúdo e quais seus direitos e deveres.

Getschko, que é diretor-presidente do Núcleo de Informação e Coordenação do Ponto BR (Nic.br), defende a ampla liberdade de expressão desde que haja também a rápida e devida responsabilização em caso de danos, bem como considera válido o acesso a todo tipo de conteúdo, mesmo que depois ele se prove falso. “Eu não quero ser tutelado, eu quero ler. Você pode, no máximo, etiquetar como algo de baixa confiabilidade, mas não me deixar ler não tem sentido”, afirma. Confira a entrevista.

O Marco Civil da Internet foi estabelecido há sete anos. Ele ainda é uma ferramenta forte para combater fake news nos moldes em que são disseminadas atualmente?
Acho que sim. Pode ser que tenhamos de incluir algo, mas nada deveria ser removido. Eu, por exemplo, sou totalmente a favor do artigo 19 do Marco Civil, que diz que um provedor não é obrigado a remover nenhum conteúdo, exceto sob ordem judicial. Isso evita uma autocensura generalizada. O Marco Civil preserva a liberdade de expressão. Claro que todos os provedores têm normas internas de uso e, se você não as respeitar, pode não entrar ou ser removido. Essa é uma situação privada. Certamente, acima disso, há leis maiores como a Constituição, mas o Marco Civil não impede que as regras sejam respeitadas pelos provedores, apenas não os obriga a remover algo por reclamação de alguém, tem de esperar uma ordem judicial, senão vira uma guerra sem fronteiras.

O Marco Civil precisa de alterações para o contexto atual?
Certamente. Está na hora de revisar quais são os direitos e deveres dos provedores de conteúdo, isso é uma definição bastante complicada. O Marco Civil – e o decálogo do CG (comitê gestor) – diz que o intermediário é imune ao que ele transporta e isso é verdade desde os velhos tempos. Se você receber uma carta ofensiva não vai bater no carteiro, porque ele não tem culpa. O intermediário, nesse sentido, continua, na minha opinião, totalmente imune pelo conteúdo que transporta.

O problema é que existem intermediários que não se limitam a transportar, mas conhecem o conteúdo. Isso não é um intermediário de transporte, é outro tipo.

O que me preocupa é que pela angústia da situação em que vivemos, queremos que entidades privadas, que não têm nenhum foro público, tomem atitudes em nosso “benefício”, dando a elas poderes adicionais. Eu, por exemplo, não atribuiria a nenhum cara específico, numa plataforma, julgar se algo é verdadeiro ou falso. O Facebook tem uma norma até hoje de que não podem aparecer mamilos e, se aparecem, removem. Se isso está certo ou errado, não sei, é a norma de uso dele. Mas passar às plataformas o condão de serem as protetoras da moral e dos bons costumes, acho que é um exagero e está invertendo a ordem das coisas.

Recentemente, o Wall Street Journal começou a publicar os resultados de uma investigação sobre o Facebook e uma das descobertas é que as regras que os usuários devem seguir não valem para todos. O poder de moderação dessas empresas foi desvirtuado, até se aproveitando dessa imunidade?
Tem vários pontos. Em primeiro lugar, acho que se você tem uma comunidade específica com regra de uso, ela tem de ser claríssima e a aplicação muito transparente.

Essas coisas não estão claras, as pessoas jogam em um mundo sombrio, cinzento, de forma que possam sacar algo do bolso dizendo “você violou um negócio” sem que eu tenha conhecimento. Uma das coisas fundamentais que devem ser ressaltadas é a transparência num processo de julgamento do que é correto ou não em cada plataforma.

Outra coisa complicada é que existem comitês que decidem de forma nebulosa e, em geral, estamos adotando hoje uma inversão da lógica normal: você é considerado culpado até provar que é inocente. Isso é ruim.

Se o poder de definir o que é verdade e mentira não deveria ficar só na mão dessas grandes plataformas, quem mais faria parte dessa moderação?
Sobre os itens que estão cobertos pela norma de uso, as plataformas têm todo o direito de fazer, pois são privadas – e as normas deveriam estar claras na plataforma. Mas o que vejo de perverso é que, às vezes, as próprias plataformas querem ser reguladas, querem uma legislação que as obrigue a fazer coisas.

Minha leitura aqui é a seguinte: se você, por exemplo, obrigar uma plataforma a remover conteúdo de ódio – seja lá o que significa isso – quem conseguirá fazer isso? Os que têm recursos e interesses suficientes para avaliar o conteúdo. Já não se trata mais da figura do simples intermediário.

Se você entregar isso a eles, pedir ou obrigar que façam, eles ganham uma autonomia sem competidores. Isso porque só farão a regulação aqueles com capacidade de computação gigantesca, com softwares sofisticados, que já garantem a eles um predomínio na área. Eles não perdem ação no mercado e ganham um certo monopólio, ou pelo menos o oligopólio. Se a lei manda fazer algo que só alguns conseguem, está discriminando.

Pensando ainda na questão de imunidade, até que ponto ela vai e onde começa a responsabilidade?
O Marco Civil fala que os provedores só serão responsabilizados se não removerem conteúdo pedido pela Justiça. Se for algo automático, só os grandes terão capacidade de fazer. O básico do artigo 19 do Marco Civil é tentar definir melhor o que significa intermediário. Se é alguém que não só lê tudo como também escolhe o que vai colocar na primeira página, ou não. Existe uma responsabilização diferente da de distribuidor.

Precisamos primeiro fazer uma definição mais clara do que é o papel e a responsabilidade do intermediário, e depois tentar regular o que for possível. Quando falam sobre regular a internet, eu sou contra regular essa “eletricidade” que é a internet mas, eventualmente, podemos regular aplicações mal feitas nela.

Seria um grande desafio definir quem é o intermediário porque essa moderação, de alguma forma, é feita por seres humanos e você entra em diversas questões de viés?
Vou dar um exemplo bobo: todo mundo recebe spam e eu quero que o filtro bayesiano que examina a minha máquina cole uma etiqueta dizendo “spam”, mas não quero que ele remova, porque amanhã ele pode jogar algo que eu não queria que jogasse. Então se você tiver um jeito de jogar fora tudo que é definido como fake news é pior ainda, porque vai decidir algo que eu não deva ler. Eu não quero ser tutelado, eu quero ler aquilo. Você pode, no máximo, etiquetar como algo de baixa confiabilidade, mas não me deixar ler não tem sentido.

Hoje em dia, temos algumas coisas que são até bem estabelecidas sobre o que é falso, que é mentira e, ainda assim, estão na rede sendo disseminadas.
Varia o contexto. Na época do Galileu, o que era verdade e totalmente estabelecido é que a Terra era o centro do universo, e aí ele mostrou que não era e foi criticado. O que você diz hoje pode não ser verdade daqui a pouco. A ciência é isso, é dinâmica e já defendeu coisas muito estranhas no passado.

O problema é que a internet deu acesso a tudo e com a mesma amplitude a quem fala coisa séria e a quem fala bobagem. É ótimo que haja abertura, sou totalmente favorável a que todo mundo possa falar e ouvir, mas tem o efeito colateral pela falta de barreira de entrada. Mas tem de tomar muito cuidado para a solução não ser pior do que o problema. Temos de evoluir culturalmente para que as pessoas pensem mais sobre o que recebem e consigam selecionar. Você tutelá-las me parece um retrocesso. Entendo que a angústia que a gente tem hoje peça soluções esquisitas, mas eu ainda resisto a elas.

A moderação de conteúdo sempre esbarra na liberdade de expressão, na validade da democracia. Se for possível equilibrar essas duas questões, o que acha que deve ser mais levado em consideração?
Sempre foi possível fazer coisas ilegais, ruins, perigosas e de má índole. É possível você me xingar, dizendo que eu roubo. Não posso impedir que você diga isso, mas posso te punir. A liberdade de expressão deve ser ampla e total, mas também gera uma responsabilidade ampla e total.

Acho que você deve falar, não defendo que você seja, a priori, impedido. Mas se você souber que pode ser punido pelo que falar, vai tomar mais cuidado. Eu não sou a favor de nada apriorístico, isso de fato é censura, mas você deve agir a posteriori rápida e vigorosamente para que instile a cultura da responsabilização. Isso está mudando, mas nessa fase de mudança existem soluções que são atalhos perigosos porque podem gerar problemas maiores do que aqueles que querem resolver.

Ludimila Honorato é jornalista, repórter no Estado de S. Paulo e cursa especialização em jornalismo científico no Labjor/Unicamp

Clique aqui para o índice do Dossiê Fake News, outubro de 2021