Algoritmos de mídia social, em sua forma comumente conhecida, têm agora 15 anos de idade.
Eles nasceram com a introdução do Facebook de feeds de notícias classificados e personalizados em 2009 e transformaram a forma como interagimos online.
E como muitos adolescentes, eles representam um desafio para os adultos que esperam reduzir seus excessos.
Não é por querer tentar.
Somente este ano, governos em todo o mundo tentaram limitar os impactos de conteúdo prejudicial e desinformação nas mídias sociais – efeitos que são amplificados por algoritmos.
No Brasil, as autoridades baniram brevemente o X, anteriormente conhecido como Twitter, até que o site concordou em nomear um representante legal no país e bloquear uma lista de contas que as autoridades acusaram de questionar a legitimidade da última eleição do país.
Enquanto isso, a UE introduziu novas regras que ameaçam as empresas de tecnologia de multas 6% do volume de negócios e suspendê-las se não conseguirem evitar a interferência eleitoral em suas plataformas.
No Reino Unido, um novo ato de segurança on-line visa obrigar os sites de mídia social a apertar a moderação de conteúdo.
E nos EUA, uma lei proposta poderia banir o TikTok se o aplicativo não for vendido por sua empresa-mãe chinesa.
Os governos enfrentam acusações de que estão restringindo a liberdade de expressão e interferindo nos princípios da internet, conforme estabelecido em seus primeiros dias.
Em um ensaio de 1996 que foi republicado por 500 sites – o mais próximo que você poderia chegar de se tornar viral naquela época – o poeta e pecuarista norte-americano John Perry Barlow argumentou: “Governos do Mundo Industrial, vocês gigantes cansados de carne e aço, eu venho do Ciberespaço, a nova casa da Mente.
Em nome do futuro, peço-lhe do passado para nos deixar em paz.
Você não é bem-vindo entre nós.
Adam Candeub é professor de direito e ex-assessor do presidente Trump, que se descreve como um absolutista da liberdade de expressão.
A mídia social é “polarizante, é frágil, é rude, não está elevando – eu acho que é uma maneira terrível de ter um discurso público”, diz ele à BBC.
“Mas a alternativa, que eu acho que muitos governos estão pressionando, é torná-lo um instrumento de controle social e político e acho isso horrível.” O professor Candeub acredita que, a menos que “há um perigo claro e presente” representado pelo conteúdo, “a melhor abordagem é para um mercado de ideias e abertura para diferentes pontos de vista”.
Essa ideia de “mercado de ideias” alimenta uma visão das mídias sociais como uma oferta de igualdade de condições, permitindo que todas as vozes sejam ouvidas igualmente.
Quando ele assumiu o Twitter (agora renomeado como X) em 2022, Elon Musk disse que viu a plataforma como uma “praça da cidade digital”.
Mas será que isso não leva em conta o papel dos algoritmos?
De acordo com o advogado dos EUA e professor de assuntos globais da Universidade de Yale, Asha Rangappa, Musk “ignora algumas diferenças importantes entre a praça da cidade tradicional e a online: remover todas as restrições de conteúdo sem levar em conta essas diferenças prejudicaria o debate democrático, em vez de ajudá-lo”. Introduzido em um caso do Supremo Tribunal do início do século 20, o conceito de “mercado de ideias”, Rangappa argumenta, “é baseado na premissa de que as ideias devem competir entre si sem interferência do governo”.
No entanto, ela afirma, “o problema é que plataformas de mídia social como o Twitter não são nada como uma praça pública real”.
Em vez disso, argumenta Rangappa, “as características das plataformas de mídia social não permitem a concorrência livre e justa de ideias para começar com... o ‘valor’ de uma ideia nas mídias sociais não é um reflexo de quão boa ela é, mas é sim o produto do algoritmo da plataforma.” Algoritmos podem assistir nosso comportamento e determinar o que milhões de nós vemos quando fazemos logon – e, para alguns, são algoritmos que interromperam a livre troca de ideias quando a internet foi criada pela primeira vez.
“Em seus primeiros dias, as mídias sociais funcionavam como uma espécie de esfera pública digital, com a fala fluindo livremente”, disseram Kai Riemer e Sandra Peter, professores da University of Sydney Business School, à BBC.
No entanto, “algoritmos em plataformas de mídia social reformularam fundamentalmente a natureza da liberdade de expressão, não necessariamente restringindo o que pode ser dito, mas determinando quem consegue ver o conteúdo”, argumentam os professores Riemer e Peter, cuja pesquisa analisa por que precisamos repensar a liberdade de expressão nas mídias sociais.
“Em vez de ideias competindo livremente por seus méritos, algoritmos amplificam ou suprimem o alcance de mensagens... introduzindo uma forma sem precedentes de interferência na livre troca de ideias que muitas vezes é negligenciada.” O Facebook é um dos pioneiros de algoritmos de recomendação nas mídias sociais, e com cerca de três bilhões de usuários, seu Feed é sem dúvida um dos maiores.
Quando a plataforma lançou um algoritmo de classificação com base nos dados dos usuários há 15 anos, em vez de ver postagens em ordem cronológica, as pessoas viram o que o Facebook queria que eles vissem.
Determinado pelas interações em cada post, isso passou a priorizar posts sobre tópicos controversos, já que aqueles ganhavam mais engajamento.
Como as postagens controversas são mais propensas a serem recompensadas por algoritmos, existe a possibilidade de que as franjas da opinião política possam ser superrepresentadas nas mídias sociais.
Em vez de fóruns públicos livres e abertos, os críticos argumentam que as mídias sociais oferecem um espelho distorcido e sensacionalista do sentimento público que exagera a discórdia e abafa os pontos de vista da maioria.
Então, enquanto as plataformas de mídia social acusam os governos de ameaçar a liberdade de expressão, será que seus próprios algoritmos também podem inadvertidamente representar uma ameaça?
“Os motores de recomendação não estão bloqueando o conteúdo – em vez disso, são as diretrizes da comunidade que restringem a liberdade de expressão, de acordo com a preferência da plataforma”, disse Theo Bertram, ex-vice-presidente de políticas públicas do TikTok, à BBC.
“Os motores de recomendação fazem uma grande diferença para o que vemos?
Sim, com certeza.
Mas se você conseguir ou falhar no mercado de atenção não é a mesma coisa que se você tem a liberdade de falar. No entanto, é “liberdade de expressão” puramente sobre o direito de falar, ou também sobre o direito de ser ouvido?
Arvind Narayanan, professor de Ciência da Computação da Universidade de Princeton, disse: “Quando falamos on-line – quando compartilhamos um pensamento, escrevemos um ensaio, publicamos uma foto ou vídeo – quem nos ouvirá?
A resposta é determinada em grande parte por algoritmos.” Ao determinar o público para cada conteúdo postado, as plataformas “severam a relação direta entre os alto-falantes e seus públicos”, argumentam os professores Riemer e Peter.
“Discurso não é mais organizado por palestrante e público, mas por algoritmos.” É algo que eles afirmam que não é reconhecido nos debates atuais sobre liberdade de expressão – que se concentram no “lado falante da fala”.
E, argumentam eles, “interfere com a liberdade de expressão de maneiras sem precedentes”.
Nossa era foi rotulada “a sociedade algorítmica” – uma na qual, pode-se argumentar, as plataformas de mídia social e os mecanismos de busca governam o discurso da mesma maneira que os estados-nação fizeram uma vez.
Isso significa que garantias diretas de liberdade de expressão na Constituição dos EUA só podem levá-lo até agora, de acordo com Jack Balkin, da Universidade de Yale: “A Primeira Emenda, como normalmente interpretada, é simplesmente inadequada para proteger a capacidade prática de falar”.
Os professores Riemer e Peter concordam que a lei precisa se recuperar.
“As plataformas desempenham um papel muito mais ativo na formação da fala do que a lei atualmente reconhece.” E, afirmam, a maneira como os postos prejudiciais são monitorados também precisa mudar.
“Precisamos expandir a forma como pensamos sobre a regulação da liberdade de expressão.
Os debates atuais focados na moderação de conteúdo ignoram a questão mais profunda de como os modelos de negócios de plataformas os incentivam a moldar algoritmicamente a fala. ” Enquanto o professor Candeub é um “absoluta de liberdade de expressão”, ele também é cauteloso com o poder concentrado nas plataformas que podem ser guardiões da fala via código de computador.
“Eu acho que faríamos bem em ter esses algoritmos tornados públicos porque, de outra forma, estavam apenas sendo manipulados.” No entanto, os algoritmos não vão embora.
Como Bertram diz, “A diferença entre a praça da cidade e as mídias sociais é que existem vários bilhões de pessoas nas mídias sociais.
Há um direito à liberdade de expressão on-line, mas não um direito para todos serem ouvidos igualmente: levaria mais de uma vida para assistir a todos os vídeos do TikTok ou ler todos os tweets.” Qual, então, é a solução?
Poderiam ajustes modestos nos algoritmos cultivar conversas mais inclusivas que se pareçam mais com as que temos pessoalmente?
Novas plataformas de microblogging como a Bluesky estão tentando oferecer aos usuários controle sobre o algoritmo que exibe conteúdo – e reviver as linhas cronológicas antigas, na crença de que oferece uma experiência que é menos mediada.
Em testemunho que ela deu ao Senado em 2021, a denunciante do Facebook Frances Haugen disse: “Sou uma forte defensora do ranking cronológico, ordenando pelo tempo... porque não queremos que os computadores decidam sobre o que nos concentramos, devemos ter um software que seja dimensionado por humanos, ou humanos tenham conversas juntos, não computadores facilitando de quem ouvimos falar.” No entanto, como o professor Narayanan apontou, “os efeitos não-cronológicos não são... neutros: Eles também são sujeitos.
As plataformas oferecem algumas alternativas aos algoritmos, com pessoas em X capazes de escolher um feed apenas daqueles que seguem.
E ao filtrar grandes quantidades de conteúdo, “os motores de recomendação proporcionam maior diversidade e descoberta do que apenas seguir pessoas que já conhecemos”, argumenta Bertram.
“Isso parece o oposto de uma restrição da liberdade de expressão – é um mecanismo de descoberta.” De acordo com o cientista político dos EUA Francis Fukuyama, “nem a auto-regulação da plataforma, nem as formas de regulamentação estatal que caem na linha” podem resolver “a questão da liberdade de expressão on-line”.
Em vez disso, ele propôs uma terceira maneira.
“Middleware” poderia oferecer aos usuários de mídia social mais controle sobre o que eles vêem, com serviços independentes fornecendo uma forma de curadoria separada daquela embutida nas plataformas.
Em vez de ser alimentado com conteúdo de acordo com os algoritmos internos das plataformas, “um ecossistema competitivo de provedores de middleware... poderia filtrar o conteúdo da plataforma de acordo com as preferências individuais do usuário”, escreve Fukuyama.
“O middleware restauraria essa liberdade de escolha para usuários individuais, cuja agência devolveria a internet ao tipo de sistema diversificado e multiplataforma que aspirava estar de volta na década de 1990.” Na ausência disso, poderia haver maneiras de melhorar atualmente nosso senso de agência ao interagir com algoritmos.
“Os usuários regulares do TikTok são muitas vezes muito deliberados sobre o algoritmo – dando-lhe sinais para incentivar ou desencorajar o mecanismo de recomendação ao longo de avenidas de nova descoberta”, diz Bertram.
“Eles se vêem como o curador do algoritmo.
Eu acho que essa é uma maneira útil de pensar sobre o desafio – não se precisamos desligar os algoritmos, mas como garantir que os usuários tenham agência, controle e escolha para que os algoritmos estejam funcionando para eles.” Embora, é claro, sempre haja o perigo de que, mesmo quando autocuramos nossos próprios algoritmos, ainda possamos cair nas câmaras de eco que afetam as mídias sociais.
E os algoritmos podem não fazer o que lhes pedimos – uma investigação da BBC descobriu que, quando um jovem tentou usar ferramentas no Instagram e no TikTok para dizer que não estava interessado em conteúdo violento ou misógino, ele continuou a ser recomendado.
Apesar disso, há sinais de que, à medida que os algoritmos de mídia social avançam em direção à maturidade, seu futuro não poderia estar nas mãos de grandes tecnologias, nem políticos, mas com as pessoas.
De acordo com uma pesquisa recente da empresa de pesquisa de mercado Gartner, apenas 28% dos americanos dizem que gostam de documentar sua vida em público on-line, abaixo dos 40% em 2020.
Em vez disso, as pessoas estão se tornando mais confortáveis em conversas em grupo fechadas com amigos e parentes confiáveis; espaços com mais responsabilidade e menos recompensas por choques e provocações.
Meta diz que o número de fotos enviadas em mensagens diretas agora supera os compartilhados para todos verem.
Assim como Barlow, em seu ensaio de 1996, disse aos governos que eles não eram bem-vindos no Cyberspace, alguns usuários on-line podem ter uma mensagem semelhante para dar aos algoritmos de mídia social.
Por enquanto, ainda há visões concorrentes sobre o que fazer com o adolescente rebelde da internet.
BBC InDepth é a nova casa no site e aplicativo para a melhor análise e experiência de nossos principais jornalistas.
Sob uma nova marca distinta, apresentaremos novas perspectivas que desafiam suposições e relatórios profundos sobre os maiores problemas para ajudá-lo a entender um mundo complexo.
E vamos mostrar conteúdo instigante de toda a BBC Sounds e iPlayer também.
Estamos começando pequeno, mas pensando grande, e queremos saber o que você pensa - você pode nos enviar seu feedback clicando no botão abaixo.