top of page
Buscar
Foto do escritor#horadevotar

Invisíveis, mas onipresentes, os algoritmos dão as cartas

Atualizado: 14 de nov. de 2020

Regras determinadas por programação, nem sempre transparentes, desafiam campanhas


Arte: Luiza Maia e Bruna Rangel

Por Bruna Rangel e Luiza Maia


A sensação ao usar a internet é de se entrar em um mundo de informações que parece não ter fim. O meio virtual, através das buscas, sites, blogs e redes sociais, abre um leque enorme de possibilidades para pesquisas, comunicação e troca de conhecimentos com pessoas de qualquer lugar do mundo.


Todavia, em 2020, nestas eleições para prefeitos e vereadores, será que estamos totalmente livres na forma como navegamos online? Observe os sites que você normalmente acessa. Como você chegou até eles? Se recebe propaganda patrocinada de um determinado candidato, essa oferta foi favorecida por filtros que enxergam em você potencial para se interessar por esse conteúdo. Ao vender a candidatos espaço de anúncio, as plataformas também precisam assegurar que esse conteúdo chegue a seus possíveis eleitores. Para garantir toda essa eficiência, contam com a tecnologia dos "algoritmos".


Raramente percebemos, mas os algoritmos organizam o modo de funcionamento de quase todas as plataformas, ao realizarem de forma contínua filtragens na informação que recebemos, personalizando nossa forma de usar a internet. Os algoritmos estão presentes, por exemplo, em aplicativos como Netflix e Spotify para criarem um sistema de recomendação personalizado. A cada filme que você assiste e música que escuta, eles conseguem sugerir opções que se encaixam melhor com as suas preferências.


Arte dos infográficos: Luiza Maia e Bruna Rangel

Entretanto, o que a princípio pode tornar mais confortável a navegação, por outro lado pode ser um fator limitador para o debate político. Assim, especialistas alertam para a necessidade de consciência cada vez maior sobre o papel dos algoritmos, inclusive com pressão social para que as plataformas sejam mais transparentes a respeito. Afinal, tanto conteúdos publicados a favor quanto contra certos candidatos são disseminados por meio desses filtros.


O pesquisador em comunicação social Vinícius Wu, doutorando da PUC-Rio, destaca que é necessário entender o funcionamento das plataformas antes de se informar, principalmente em período de campanha eleitoral. “É importante que as pessoas saibam que existe um processo de seleção, filtragem, e de condicionamento de conteúdo que faz com que boa parte do que é veiculado e que chega a cada um dos usuários representa apenas uma parte do debate público", afirma ele. Mas como funcionam as estruturas que realizam essa função?


Uma sequência lógica

Os algoritmos podem parecer complexos para entender, mas é possível explicá-los de uma forma bem simples. Eles consistem em uma sequência lógica de instruções que devem ser seguidas para resolver um problema ou executar uma tarefa. Sua função é facilitar escolhas que podem ser executadas de forma automática, agindo a partir de um certo conjunto de dados. Principalmente, quanto mais calibrados, os algoritmos propiciam lucros às plataformas com a venda de anúncios ao público-alvo específico.


Mas, se por um lado os algoritmos são amplamente usados como aliados para promover conteúdos direcionados aos usuários e otimizar o tempo das pesquisas, suas consequências não são exclusivamente benéficas. Tatiana Dourado, jornalista e pesquisadora da Diretoria de Análise de Políticas Públicas da Fundação Getulio Vargas (FGV DAPP), ressalta que aproximar indivíduos como amigos e parentes é um dos pontos mais positivos da rede, mas saindo do campo pessoal, surgem outras questões mais complicadas. “O problema, contudo, é que essa tecnologia não parece ter sido pensada para ser apropriada para e pela política, para ser usada como ambiente de debate polÍtico, especialmente em momentos de polarização política mais acentuadas, como é próprio da competitividade eleitoral, por exemplo”, ela aponta.

Nas redes sociais, os algoritmos agem de forma preditiva ao escolherem a ordem das publicações em nossa linha do tempo. Para isso, os dados do usuário são quantificados/qualificados, analisados em um período de tempo e estudados de forma automática para que as próximas ações sejam previstas com base no passado. O aumento no uso das redes sociais e o maior consumo de notícias por essas plataformas tornam mais preocupante a influência dos algoritmos e da personalização, já que o acesso a uma pluralidade de visões e a possibilidade de um debate racional em torno de posições divergentes tendem a ficar mais limitados.

Segundo o Digital News Report 2020, produzido pelo Instituto Reuters em parceria com a Universidade de Oxford, o consumo de notícias no meio online está distribuído principalmente através do contato direto com sites de notícias (28%), redes sociais (26%), pesquisas (25%), alertas mobile (8%), sites/apps agregadores de notícias (7%) e e-mail (5%). Entre essas formas, as redes sociais, as pesquisas e os agregadores de notícias possuem influência direta dos algoritmos para escolher quais conteúdos mostrar ao usuário. Somando as porcentagens, chega-se num total de 58% de pessoas que preferem consumir notícias através desses meios, enquanto 41% consomem conteúdos que são selecionados por editores humanos (sites de notícias, alertas mobile e e-mail). Quando a pesquisa faz um recorte apenas da geração Z (jovens de 18 a 24 anos), percebe-se que o uso de plataformas com influência algorítmica para se informar é ainda maior - redes sociais (38%), pesquisas (25%) e agregadores (8%) - que somando contabiliza um total de 71% dos usuários.


O Google, maior referência atualmente, utiliza os algoritmos para ordenar os links para cada usuário de forma personalizada. A partir da sua localização, muitas vezes oferecida no seu celular de forma simultânea, e outros dados pessoais, a busca é refinada para atender suas possíveis demandas. Mas como é obtido o acesso aos nossos dados?


O preço dos dados

Os dados são gerados a todo momento, deixando rastros sobre o seu acesso, comportamento e cada ação realizada. A coleta é permitida nos dispositivos, sites e aplicativos quando clicamos no botão “Aceito e Concordo com os Termos de Uso”, nem sempre são lidos.

Os sites e as redes sociais à primeira vista podem parecer de uso livre e gratuito a todos, mas esses dados coletados permitem a criação de anúncios nas plataformas com base numa série de critérios. Nessas campanhas, os anunciantes podem especificar se querem promover conteúdo para pessoas de certa idade, gênero, nacionalidade, e seus diversos gostos, detectados a partir das interações com certos conteúdos.


Pensando na importância de proteger os dados pessoais dos cidadãos brasileiros com responsabilidade, a Lei Geral de Proteção de Dados (LGPD) foi aprovada em agosto de 2018 e entrou em vigor em agosto deste ano. Na Lei 13.709, o consentimento de cada indivíduo para o uso dos seus dados é imprescindível e, para isso, define novos limites e condições para lidar com essas informações pessoais, buscando assegurar de forma mais clara os direitos dos cidadãos. No entanto, a fiscalização dessas regras é tarefa da Autoridade Nacional de Proteção de Dados (ANPD), mas o órgão responsável ainda não foi criado pelo governo, causando uma instabilidade na implementação da LGPD.


Vilões ou aliados?

Diego Cerqueira, engenheiro de software e pesquisador do Instituto de Tecnologia e Sociedade do Rio (ITS Rio), alerta que um dos maiores perigos dessa personalização é a criação de uma realidade montada através de uma lente externa e que não representa a totalidade. “Se a gente pensar na internet como um espaço de informação, onde as pessoas podem produzir conteúdos durante todo o tempo, temos que ficar sempre atentos em como essa forma de interagir com a internet pode ser perigosa a ponto de vivermos em uma realidade modelada, que é fora de fato da realidade do mundo que está acontecendo ao nosso redor”, diz ele.


É como se cada pessoa navegasse em sua própria “bolha de informação”, recebendo conteúdos através de amigos, páginas e canais que tendem a se encaixar e reforçar opiniões, crenças e visões de mundo semelhantes. Isso pode ser prejudicial ao acentuar a polarização entre diferentes grupos, que podem se sentir escandalizados ou se tornarem mais intolerantes ao entrarem em contato com argumentos divergentes.

Não só podem acentuar a oposição entre opiniões e condutas, como também a exclusão de certos grupos marginalizados. “A mediação por algoritmos pode ser ruim a ponto de ignorar fatores sociais, socioeconômicos de certos grupos, que acaba promovendo exclusão dessas pessoas. São várias micro e grandes agressões em relação a certos grupos sociais”, aponta Cerqueira.


Os algoritmos podem ser meios de reproduzir posicionamentos discriminatórios na medida em que são programados por pessoas - geralmente de empresas com pouca diversidade e representatividade - que podem não ter a mesma preocupação em garantir que durante o aprendizado dessas estruturas de inteligência artificial sejam filtrados comportamentos preconceituosos.


O algoritmo que escolhe as miniaturas das fotos no Twitter, por exemplo, recentemente causou revolta entre usuários da plataforma, que ao realizarem o teste de postar fotos com um homem branco e um negro, perceberam que na maioria delas o homem branco ficava em destaque. Após esse episódio, a plataforma alegou que não encontrou evidências de preconceito racial ou de gênero em sua estrutura, porém, mais testes estão sendo realizados para verificação.


Este é um dos exemplos que reforçam a importância de os usuários observarem o comportamento das estruturas automatizadas dessas plataformas, e também cobrarem não só das máquinas, mas de pessoas e empresas um olhar de responsabilização.


Por dentro das eleições

No caso da eleição estadunidense que levou Donald Trump ao poder em 2016, o escândalo sobre o uso de dados do Facebook de 70 milhões de cidadãos norte-americanos pela empresa Cambridge Analytica para o convencimento de eleitores reforçou a importância de se estabelecerem medidas para um uso mais ético e responsável das plataformas durante períodos eleitorais. O documentário "Privacidade Hackeada" (2019) mostra como esses dados foram utilizados para montar o perfil de grande parte dos eleitores a fim de promover conteúdos alarmistas e até falsos com o objetivo de obter o voto de grande parcela de pessoas que ainda estavam indecisas.


O pesquisador Vinícius Wu ressalta que o algoritmo se torna prejudicial para a democracia quando não só promove, mas distorce uma pauta eleitoral em favor de certos candidatos. “As estratégias de segmentação de público, de customização dos conteúdos em campanhas eleitorais, representam um risco enorme ao processo democrático e ao livre debate de ideias, na medida em que podem ser criadas tendências artificiais onde a desinformação pode acabar cumprindo um papel muito importante na composição de determinadas estratégias eleitorais”, pondera Wu.


Além disso, notícias e conteúdos falsos podem acabar ganhando mais destaque devido a essas estratégias. A pesquisadora Tatiana Dourado aponta que o debate sobre algoritmos e filtros nas redes tem relação direta com a desinformação. “O que ocorre é que esse tipo de conteúdo se torna mais visível, por cálculos algorítmicos, na medida em que é redistribuído em ritmo acentuado, e vira repentinamente popular a ponto de poluir a esfera pública, distorcer a opinião pública e gerar instabilidades democráticas”, diz ela.


Para evitar o uso mal-intencionado dessas ferramentas, as propagandas para as eleições municipais de 2020 começaram a ser realizadas no dia 27 de setembro com regras específicas para o meio online, estabelecidas pelo Tribunal Superior Eleitoral (TSE). A demanda para leis de conduta virtual com punições mais rígidas no Brasil já havia se tornando mais forte após a campanha para eleição presidencial em 2018, em que houve o disparo de mensagens difamatórias e falsas em redes sociais.

A regulamentação para a campanha foi então reforçada para coibir o compartilhamento de notícias falsas, uso de contas anônimas, disparo em massa, telemarketing e publicidade em sites de pessoas jurídicas e de órgãos do governo. Por outro lado, foi autorizada a realização de lives nas redes sociais, desde que não tenham formato de shows artísticos, e o impulsionamento de publicações nas redes sociais.


Mas também existem regras para o impulsionamento: ele deve ser pago pelo próprio candidato e informado nas prestações de contas à Justiça Eleitoral, além de ser um conteúdo publicado na página oficial do candidato ou do partido e especificado com os rótulos de “Pago por” e de “Propaganda eleitoral”. Essas medidas buscam impedir que sejam contratadas outras empresas ou agências especializadas para promover as campanhas. No caso de irregularidades, uma forma de o usuário denunciar é através do aplicativo para smartphones e tablets Pardal, criado como um canal para os cidadãos brasileiros informarem à Justiça Eleitoral e ao Ministério Público.

Diminuindo a influência dos filtros

Em abril de 2019, o Facebook lançou um recurso que prometia explicar de que forma os algoritmos atuam na rede social, traduzindo com eles funcionam. Ferramentas como “Por que estou vendo isso?” e “Por que estou vendo esse anúncio?” permitem saber um pouco mais sobre quais e como os dados dos usuários foram organizados para chegar até os resultados personalizados.


No caso das propagandas políticas, no botão “Sobre este anúncio”, você pode saber mais detalhes sobre quem pagou por ele, qual foi o valor gasto, quantas pessoas o visualizaram, e qual é o perfil que busca atingir, incluindo gênero, faixa etária e local. Além disso, existe a opção de “Ver menos anúncios sobre este tópico: Temas sociais, eleições ou política”, para reduzir a influência dessas propagandas na linha do tempo. Mas, além dessas medidas, o que as grandes redes como o Facebook precisam efetuar ainda para tornar seus mecanismos ainda mais responsáveis pelos conteúdos promovidos?


De acordo com Cerqueira, o primeiro passo para se ter um senso de justiça da ação desses algoritmos é a transparência. Mas as plataformas ainda são grandes caixas-pretas, já que não se sabe como operam de fato. Outra etapa importante é cobrar respostas quando as plataformas cometem erros. “Existem movimentos que pressionam, que estão na linha de frente para levar consciência de como esses algoritmos podem influenciar e como as decisões são tomadas. Eles demonstram como a gente pode criar políticas e meios para acessar essas plataformas e nossas vozes sejam escutadas, tornando o ambiente da internet mais justo, ou o menos injusto possível”, diz o pesquisador.


O Sleeping Giants, por exemplo, tem movimentado grupos da sociedade civil para participar do processo de desarticulação e desmonetização dessas plataformas para combater o lucro através das redes de ódio e desinformação. Em julho de 2020, a campanha Stop Hate for Profit mobilizou um boicote de grandes marcas ao Facebook com o apoio de grupos ativistas a fim de cobrar a plataforma por posicionamentos quanto à disseminação de conteúdos falsos, racistas e violentos, que ganham grandes proporções ao se aproveitarem das estruturas e filtros das redes.


Essas mobilizações permitem que a discussão ganhe cada vez mais visibilidade e possam garantir o uso mais responsável das plataformas. Além disso, podem ser usadas como forma de cobrar das instituições uma resposta a curto prazo para esses problemas. “A ação das instituições, no sentido de conter as estratégias de desinformação, a disseminação de 'fake news', é fundamental para que se estabeleça um reequilíbrio no debate público brasileiro”, diz Vinícius Wu.


Afinal, as tecnologias não são neutras e carregam visões e vieses que podem ou não causar danos. Assim, cada veiculação online pode e deve ter suas condutas e tendências investigadas e esclarecidas. Em 2009, o Comitê Gestor da Internet no Brasil estabeleceu parâmetros para os Princípios para Governança e Uso da Internet, como forma de defender "Liberdade, Privacidade e Direitos Humanos, Universalidade, Diversidade e Neutralidade da rede". São direitos nem sempre respeitados nesse ambiente.

Comments


bottom of page