Bolha de filtro - Filter bubble

O termo bolha do filtro foi cunhado pelo ativista da internet Eli Pariser , por volta de 2010.

Uma bolha de filtro ou quadro ideológico é um estado de isolamento intelectual que pode resultar de pesquisas personalizadas quando um algoritmo de site adivinha seletivamente quais informações um usuário gostaria de ver com base nas informações sobre o usuário, como localização, comportamento de cliques anteriores e histórico de pesquisa . Como resultado, os usuários ficam separados de informações que discordam de seus pontos de vista, isolando-os efetivamente em suas próprias bolhas culturais ou ideológicas. As escolhas feitas por esses algoritmos não são transparentes. Os principais exemplos incluem Google Pesquisa personalizada resultados e Facebook 's personalizado notícia-stream .

O termo bolha do filtro foi cunhado pelo ativista da internet Eli Pariser por volta de 2010 e discutido em seu livro de 2011 com o mesmo nome. O efeito da bolha pode ter implicações negativas para o discurso cívico , de acordo com Pariser, mas pontos de vista contrastantes consideram o efeito mínimo e endereçável. Os resultados da eleição presidencial dos EUA em 2016 foram associados à influência de plataformas de mídia social como Twitter e Facebook e, como resultado, questionaram os efeitos do fenômeno da "bolha do filtro" na exposição do usuário a notícias falsas e eco câmaras , despertando novo interesse no termo, com muitos preocupados que o fenômeno possa prejudicar a democracia e o bem-estar , tornando piores os efeitos da desinformação.

(Tecnologia como mídia social) “permite que você saia com pessoas que pensam como você, então você não está misturando e compartilhando e entendendo outros pontos de vista ... É super importante. Acabou sendo um problema maior do que eu, ou muitos outros, esperaríamos. ”

-  Bill Gates 2017 em Quartz

Conceito

A mídia social, buscando agradar os usuários, pode desviar informações que eles acham que seus usuários vão gostar de ouvir, mas inadvertidamente isolar o que sabem em suas próprias bolhas de filtro , de acordo com Pariser.

De acordo com Pariser, os usuários ficam menos expostos a pontos de vista conflitantes e ficam isolados intelectualmente em sua própria bolha de informações. Ele relatou um exemplo em que um usuário pesquisou "BP" no Google e obteve notícias de investimentos sobre a British Petroleum , enquanto outro pesquisador obteve informações sobre o derramamento de óleo da Deepwater Horizon e observou que as duas páginas de resultados de pesquisa eram "notavelmente diferentes".

Pariser definiu seu conceito de bolha de filtro em termos mais formais como "aquele ecossistema pessoal de informações que é fornecido por esses algoritmos". O histórico de navegação e pesquisa de um usuário da Internet é construído ao longo do tempo quando ele indica interesse em tópicos "clicando em links, vendo amigos, colocando filmes em [suas] filas, lendo notícias" e assim por diante. Em seguida, uma empresa de Internet usa essas informações para direcionar publicidade para o usuário ou para fazer com que certos tipos de informações apareçam com mais destaque nas páginas de resultados de pesquisa .

Esse processo não é aleatório, pois opera em um processo de três etapas, de acordo com Pariser, que afirma: "Primeiro, você descobre quem são as pessoas e do que elas gostam. Em seguida, fornece a elas o conteúdo e os serviços que melhor se adaptam a elas. Por fim, você faz o ajuste para obter o encaixe perfeito. Sua identidade molda sua mídia. " Pariser também relata:

De acordo com um estudo do Wall Street Journal , os cinquenta principais sites da Internet, da CNN ao Yahoo e ao MSN, instalam uma média de 64 cookies carregados de dados e beacons de rastreamento pessoal cada. Pesquise uma palavra como "depressão" no Dictionary.com e o site instalará até 223 cookies e beacons de rastreamento em seu computador para que outros sites possam direcioná-lo com antidepressivos. Compartilhe um artigo sobre culinária no ABC News e você poderá ser perseguido na Web por anúncios de panelas revestidas de teflon. Abra - mesmo que por um instante - uma página listando sinais de que seu cônjuge pode estar trapaceando e prepare-se para ser assombrado por anúncios de teste de paternidade de DNA.

Acessar os dados de cliques em links exibidos por meio de medições de tráfego do site determinam que as bolhas do filtro podem ser coletivas ou individuais.

Em 2011, um engenheiro disse a Pariser que o Google analisou 57 dados diferentes para personalizar pessoalmente os resultados de pesquisa de um usuário, incluindo dados que não são cookies, como o tipo de computador que está sendo usado e a localização física do usuário.

Outros termos têm sido usados ​​para descrever esse fenômeno, incluindo " quadros ideológicos " e "a esfera figurativa ao seu redor enquanto você pesquisa na internet". Um termo relacionado, "câmara de eco", foi originalmente aplicado à mídia de notícias, mas agora é aplicado também às mídias sociais.

A ideia de Pariser da bolha do filtro foi popularizada após a palestra TED que ele deu em maio de 2011, na qual ele dá exemplos de como as bolhas do filtro funcionam e onde podem ser vistas. Em um teste para demonstrar o efeito bolha do filtro, Pariser pediu a vários amigos que pesquisassem a palavra "Egito" no Google e enviassem os resultados a ele. Comparando duas das primeiras páginas de resultados dos amigos, embora houvesse sobreposição entre eles em tópicos como notícias e viagens, os resultados de um amigo incluíam links para informações sobre a revolução egípcia de 2011 em andamento , enquanto a primeira página de resultados do outro amigo não incluiu esses links.

Em The Filter Bubble , Pariser avisa que uma desvantagem potencial da pesquisa filtrada é que ela "nos fecha para novas idéias, assuntos e informações importantes" e "cria a impressão de que nosso estreito interesse próprio é tudo o que existe". Em sua opinião, as bolhas do filtro são potencialmente prejudiciais tanto para os indivíduos quanto para a sociedade. Ele criticou o Google e o Facebook por oferecerem aos usuários "muitos doces, mas não cenouras suficientes". Ele alertou que a "edição algorítmica invisível da web" pode limitar nossa exposição a novas informações e estreitar nossa visão. De acordo com Pariser, os efeitos prejudiciais das bolhas de filtro incluem danos à sociedade em geral, no sentido de que têm a possibilidade de "minar o discurso cívico" e tornar as pessoas mais vulneráveis ​​à "propaganda e manipulação". Ele escreveu:

Um mundo construído a partir do familiar é um mundo em que não há nada a aprender ... (pois há) autopropaganda invisível, doutrinando-nos com nossas próprias idéias.

-  Eli Pariser em The Economist , 2011

Muitas pessoas não sabem que existem bolhas de filtro. Isso pode ser visto em um artigo no The Guardian, que mencionou o fato de que "mais de 60% dos usuários do Facebook desconhecem totalmente qualquer curadoria no Facebook, acreditando, em vez disso, que todas as histórias de seus amigos e páginas seguidas apareciam em seus notícias." Uma breve explicação de como o Facebook decide o que vai no feed de notícias de um usuário é por meio de um algoritmo que leva em conta "como você interagiu com postagens semelhantes no passado".

Uma bolha de filtro foi descrita como exacerbando um fenômeno que tem sido chamado de splinternet ou ciberbalcanização , que acontece quando a internet é dividida em subgrupos de pessoas com ideias semelhantes que ficam isoladas dentro de sua própria comunidade online e não conseguem exposição a diferentes Visualizações. Essa preocupação remonta aos primeiros dias da Internet acessível ao público, com o termo "ciberbalcanização" cunhado em 1996.

Conceitos semelhantes

Na mídia de notícias , câmara de eco é uma descrição metafórica de uma situação em que as crenças são amplificadas ou reforçadas pela comunicação e repetição dentro de um sistema fechado. Ao visitar uma "câmara de eco", as pessoas são capazes de buscar informações que reforcem suas visões existentes, potencialmente como um exercício inconsciente de viés de confirmação . Isso pode aumentar a polarização política e social e o extremismo. O termo é uma metáfora baseada na câmara de eco acústica, onde os sons reverberam em um invólucro oco. As "câmaras de eco" reforçam as crenças de um indivíduo sem suporte factual. Eles estão cercados por aqueles que reconhecem e seguem os mesmos pontos de vista.

O discurso de despedida de Barack Obama identificou um conceito semelhante para filtrar bolhas como uma "ameaça à democracia [dos americanos]", ou seja, o "recuo em nossas próprias bolhas, ... especialmente em nossos feeds de mídia social, cercado por pessoas que se parecem conosco e compartilhamos a mesma visão política e nunca desafiamos nossas suposições ... E cada vez mais nos tornamos tão seguros em nossas bolhas que passamos a aceitar apenas informações, verdadeiras ou não, que se encaixam em nossas opiniões, em vez de basear nossas opiniões nas evidências de que é lá fora."

Reações e estudos

Reações da mídia

Existem relatos conflitantes sobre até que ponto a filtragem personalizada está acontecendo e se essa atividade é benéfica ou prejudicial. O analista Jacob Weisberg, escrevendo em junho de 2011 para a Slate , fez um pequeno experimento não científico para testar a teoria de Pariser, que envolveu cinco associados com diferentes origens ideológicas conduzindo uma série de pesquisas, " John Boehner ", " Barney Frank ", " Plano Ryan " e " Obamacare ", e enviando capturas de tela de seus resultados para Weisberg. Os resultados variaram apenas em pequenos aspectos de pessoa para pessoa, e quaisquer diferenças não pareciam ser relacionadas à ideologia, levando Weisberg a concluir que uma bolha de filtro não estava em vigor e a escrever que a ideia de que a maioria dos usuários da Internet estava "alimentando no vale de um Daily Me "foi exagerado. Weisberg pediu que o Google comentasse, e um porta-voz afirmou que havia algoritmos para deliberadamente "limitar a personalização e promover a variedade". O crítico de livros Paul Boutin fez uma experiência semelhante à de Weisberg entre pessoas com históricos de pesquisa diferentes e, novamente, descobriu que os diferentes pesquisadores recebiam resultados de pesquisa quase idênticos. Entrevistando programadores do Google, o jornalista Per Grankvist descobriu que os dados do usuário costumavam desempenhar um papel maior na determinação dos resultados da pesquisa, mas que o Google, por meio de testes, descobriu que a consulta de pesquisa é de longe o melhor determinador dos resultados a serem exibidos.

Há relatos de que o Google e outros sites mantêm vastos "dossiês" de informações sobre seus usuários que podem permitir que eles personalizem ainda mais as experiências individuais na Internet, se assim o desejarem. Por exemplo, existe a tecnologia para o Google rastrear o histórico dos usuários, mesmo que eles não tenham uma conta pessoal do Google ou não estejam logados em uma. Um relatório afirmou que o Google coletou "10 anos" de informações acumuladas de várias fontes, como Gmail , Google Maps e outros serviços além de seu mecanismo de busca, embora um relatório contrário foi que tentar personalizar a Internet para cada usuário foi tecnicamente desafiador para uma empresa de Internet alcançar, apesar da enorme quantidade de dados disponíveis. O analista Doug Gross, da CNN, sugeriu que a pesquisa filtrada parecia ser mais útil para os consumidores do que para os cidadãos e ajudaria um consumidor à procura de "pizza" a encontrar opções de entrega local com base em uma pesquisa personalizada e filtrar adequadamente as pizzarias distantes. Organizações como o Washington Post , The New York Times e outras têm feito experiências com a criação de novos serviços de informação personalizados, com o objetivo de adequar os resultados da pesquisa àqueles que os usuários provavelmente irão gostar ou concordar.

Estudos e reações da academia

Um estudo científico da Wharton que analisou recomendações personalizadas também descobriu que esses filtros podem criar semelhanças, e não fragmentação, no gosto musical online. Os consumidores usam os filtros para expandir seu sabor, em vez de limitá-lo. O professor de direito de Harvard, Jonathan Zittrain, contestou até que ponto os filtros de personalização distorcem os resultados de pesquisa do Google, dizendo que "os efeitos da personalização de pesquisa têm sido leves". Além disso, o Google oferece aos usuários a capacidade de desligar os recursos de personalização se desejarem, excluindo o registro do Google de seu histórico de pesquisa e configurando o Google para não lembrar suas palavras-chave de pesquisa e links visitados no futuro.

Um estudo da Internet Policy Review abordou a falta de uma definição clara e testável para bolhas de filtro entre disciplinas; isso geralmente resulta em pesquisadores definindo e estudando bolhas de filtro de maneiras diferentes. Posteriormente, o estudo explicou a falta de dados empíricos para a existência de bolhas de filtro entre disciplinas e sugeriu que os efeitos atribuídos a eles podem resultar mais de preconceitos ideológicos preexistentes do que de algoritmos. Pontos de vista semelhantes podem ser encontrados em outros projetos acadêmicos que também abordam preocupações com as definições de bolhas de filtro e as relações entre fatores ideológicos e tecnológicos associados a elas. Uma revisão crítica das bolhas do filtro sugeriu que "a tese da bolha do filtro frequentemente postula um tipo especial de humano político que tem opiniões fortes, mas ao mesmo tempo altamente maleáveis" e que é um "paradoxo que as pessoas tenham uma agência ativa quando eles selecionam o conteúdo, mas são receptores passivos uma vez que são expostos ao conteúdo com curadoria de algoritmos recomendado a eles ".

Um estudo realizado por pesquisadores de Oxford, Stanford e Microsoft examinou o histórico de navegação de 1,2 milhão de usuários americanos do complemento Bing Toolbar para Internet Explorer entre março e maio de 2013. Eles selecionaram 50.000 desses usuários que eram consumidores ativos de notícias, então classificou se os meios de comunicação que visitaram eram de esquerda ou direita, com base em se a maioria dos eleitores nos condados associados a endereços de IP de usuários votou em Obama ou Romney na eleição presidencial de 2012. Eles então identificaram se as notícias eram lidas após acessar o site da editora diretamente, por meio do serviço de agregação do Google Notícias, por meio de pesquisas na web ou por meio da mídia social. Os pesquisadores descobriram que, embora as pesquisas na web e as mídias sociais contribuam para a segregação ideológica, a grande maioria do consumo de notícias on-line consistia em usuários visitando diretamente os principais sites de notícias de esquerda ou direita e, consequentemente, sendo expostos quase exclusivamente a visualizações de um único lado do espectro político. As limitações do estudo incluíram questões de seleção, como usuários do Internet Explorer com idades superiores ao da população geral da Internet; O uso da Barra de Ferramentas do Bing e o compartilhamento voluntário (ou não) do histórico de navegação, selecionando para usuários menos preocupados com a privacidade; a suposição de que todas as histórias em publicações de tendência esquerdista são de tendência esquerda e o mesmo para a direita; e a possibilidade de que os usuários que não são consumidores ativos de notícias possam obter a maior parte de suas notícias por meio da mídia social e, assim, experimentar efeitos mais fortes de preconceito social ou algorítmico do que aqueles usuários que essencialmente selecionam seu preconceito por meio de sua escolha de publicações de notícias (assumindo que eles estão cientes dos vieses das publicações).

Um estudo realizado por pesquisadores da Princeton University e da New York University teve como objetivo estudar o impacto da bolha de filtros e da filtragem algorítmica na polarização das mídias sociais. Eles usaram um modelo matemático chamado " modelo de bloco estocástico " para testar suas hipóteses nos ambientes do Reddit e do Twitter. Os pesquisadores mediram as mudanças na polarização em redes de mídia social regularizadas e redes não regularizadas, medindo especificamente a porcentagem de mudanças na polarização e desacordo no Reddit e no Twitter. Eles descobriram que a polarização aumentou significativamente em 400% em redes não regularizadas, enquanto a polarização aumentou em 4% em redes regularizadas e a discordância em 5%.

Estudos de plataforma

Embora os algoritmos limitem a diversidade política, parte da bolha do filtro é o resultado da escolha do usuário. Um estudo realizado por cientistas de dados do Facebook descobriu que para cada quatro amigos do Facebook que compartilham ideologia, os usuários têm um amigo com pontos de vista contrastantes. Não importa qual seja o algoritmo do Facebook para seu feed de notícias , as pessoas são simplesmente mais propensas a fazer amizade / seguir pessoas que compartilham crenças semelhantes. A natureza do algoritmo é que ele classifica as histórias com base na história do usuário, resultando em uma redução do "conteúdo politicamente transversal em 5 por cento para conservadores e 8 por cento para liberais". No entanto, mesmo quando as pessoas têm a opção de clicar em um link que oferece visualizações contrastantes, elas ainda usam como padrão as fontes mais visualizadas. "A escolha do usuário diminui a probabilidade de clicar em um link transversal em 17 por cento para conservadores e 6 por cento para liberais." Um link transversal é aquele que apresenta um ponto de vista diferente do ponto de vista presumido do usuário, ou que o site tem como crenças do usuário. Um estudo recente de Levi Boxell, Matthew Gentzkow e Jesse M. Shapiro sugere que a mídia online não é a força motriz para a polarização política. O artigo argumenta que a polarização foi impulsionada pelos grupos demográficos que passam menos tempo online. A maior divisão ideológica é experimentada entre americanos com mais de 75 anos, enquanto apenas 20% relataram usar mídia social em 2012. Em contraste, 80% dos americanos com idade entre 18 e 39 anos relataram usar mídia social em 2012. Os dados sugerem que o grupo demográfico mais jovem não está mais polarizado em 2012 do que quando a mídia online mal existia em 1996. O estudo destaca as diferenças entre grupos de idade e como o consumo de notícias permanece polarizado à medida que as pessoas buscam informações que apelam para seus preconceitos. Os americanos mais velhos geralmente permanecem estagnados em suas visões políticas, já que os meios de comunicação tradicionais continuam a ser a principal fonte de notícias, enquanto a mídia online é a principal fonte para o público mais jovem. Embora algoritmos e bolhas de filtro enfraqueçam a diversidade de conteúdo, este estudo revela que as tendências de polarização política são impulsionadas principalmente por visões pré-existentes e falha em reconhecer fontes externas. Um estudo de 2020 da Alemanha utilizou o modelo Big Five Psychology para testar os efeitos da personalidade individual, demografia e ideologias no consumo de notícias do usuário. Baseando seu estudo na noção de que o número de fontes de notícias que os usuários consomem impacta sua probabilidade de serem pegos em uma bolha de filtro - com maior diversidade de mídia diminuindo as chances - seus resultados sugerem que certos dados demográficos (maior idade e homens), juntamente com certa personalidade características (alta abertura) correlacionam-se positivamente com o número de fontes de notícias consumidas por indivíduos. O estudo também encontrou uma associação ideológica negativa entre a diversidade da mídia e o grau em que os usuários se alinham com o autoritarismo de direita. Além de oferecer diferentes fatores individuais do usuário que podem influenciar a função da escolha do usuário, este estudo também levanta questões e associações entre a probabilidade de os usuários serem pegos em bolhas de filtro e o comportamento de votação do usuário.

O estudo do Facebook descobriu que era "inconclusivo" se o algoritmo desempenhava ou não um papel tão grande na filtragem de Feeds de notícias quanto as pessoas presumiam. O estudo também descobriu que a "escolha individual", ou viés de confirmação, também afetou o que é filtrado nos Feeds de notícias. No entanto, alguns cientistas sociais criticaram essa conclusão, porque o objetivo de protestar contra a bolha do filtro é que os algoritmos e a escolha individual trabalham juntos para filtrar os feeds de notícias. Eles também criticaram o pequeno tamanho da amostra do Facebook, que é cerca de "9% dos usuários reais do Facebook", e o fato de que os resultados do estudo "não são reproduzíveis" devido ao fato de que o estudo foi conduzido por "cientistas do Facebook" que tiveram acesso a dados que o Facebook não disponibiliza para pesquisadores externos.

Embora o estudo tenha descoberto que apenas cerca de 15–20% dos amigos do Facebook do usuário médio se inscrevem no lado oposto do espectro político, Julia Kaman, da Vox, teorizou que isso poderia ter implicações potencialmente positivas para a diversidade de pontos de vista. Esses "amigos" costumam ser conhecidos com quem provavelmente não compartilharíamos nossa política sem a internet. O Facebook pode promover um ambiente único onde um usuário vê e possivelmente interage com o conteúdo postado ou republicado por esses amigos de "segunda linha". O estudo descobriu que "24% das notícias que os liberais viram eram de tendência conservadora e 38% das notícias que os conservadores viam eram de tendência liberal". "Os liberais tendem a estar conectados a menos amigos que compartilham informações do outro lado, em comparação com seus colegas conservadores." Essa interação tem a capacidade de fornecer diversas informações e fontes que podem moderar as visualizações dos usuários.

Da mesma forma, um estudo das bolhas de filtro do Twitter pela Universidade de Nova York concluiu que "os indivíduos agora têm acesso a uma ampla gama de pontos de vista sobre eventos de notícias, e a maioria dessas informações não vem pelos canais tradicionais, mas diretamente de atores políticos ou por meio de amigos e parentes. Além disso, a natureza interativa das redes sociais cria oportunidades para os indivíduos discutirem eventos políticos com seus pares, incluindo aqueles com quem têm laços sociais fracos ". De acordo com esses estudos, as mídias sociais podem estar diversificando as informações e opiniões com as quais os usuários entram em contato, embora haja muita especulação em torno das bolhas de filtros e sua capacidade de criar polarização política mais profunda .

Um motivador e possível solução para o problema é o papel das emoções no conteúdo online. Um estudo de 2018 mostra que diferentes emoções de mensagens podem levar à polarização ou convergência: a alegria prevalece na polarização emocional, enquanto a tristeza e o medo desempenham papéis significativos na convergência emocional. Como é relativamente fácil detectar o conteúdo emocional das mensagens, essas descobertas podem ajudar a projetar algoritmos mais socialmente responsáveis, começando a focar no conteúdo emocional das recomendações algorítmicas.

Visualização do processo e crescimento de dois bots de mídia social usados ​​no estudo de 2019 do Weibo . Os diagramas representam dois aspectos da estrutura das bolhas do filtro, de acordo com o estudo: grandes concentrações de usuários em torno de tópicos únicos e uma estrutura unidirecional em forma de estrela que impacta os fluxos de informações importantes.

Os bots sociais têm sido utilizados por diferentes pesquisadores para testar a polarização e os efeitos relacionados que são atribuídos a bolhas de filtro e câmaras de eco. Um estudo de 2018 usou bots sociais no Twitter para testar a exposição deliberada do usuário a pontos de vista partidários. O estudo afirmou ter demonstrado diferenças partidárias entre a exposição a diferentes pontos de vista, embora alertasse que as descobertas deveriam ser limitadas a usuários americanos do Twitter registrados no partido. Uma das principais descobertas foi que, após a exposição a visões diferentes (fornecidas pelos bots), os republicanos autorregistrados tornaram-se mais conservadores, enquanto os liberais autorregistrados mostraram menos mudança ideológica, se é que nenhuma. Um estudo diferente da República Popular da China utilizou bots sociais no Weibo - a maior plataforma de mídia social da China - para examinar a estrutura das bolhas de filtro em relação aos seus efeitos na polarização. O estudo faz uma distinção entre duas concepções de polarização. Um sendo onde pessoas com visões semelhantes formam grupos, compartilham opiniões semelhantes e se bloqueiam de pontos de vista diferentes (polarização de opinião) e o outro sendo onde as pessoas não acessam diversos conteúdos e fontes de informação (polarização de informação). Ao utilizar bots sociais em vez de voluntários humanos e se concentrar mais na polarização da informação do que na opinião, os pesquisadores concluíram que há dois elementos essenciais em uma bolha de filtro: uma grande concentração de usuários em torno de um único tópico e uma estrela unidirecional -como estrutura que impacta os fluxos de informação chave.

Em junho de 2018, a plataforma DuckDuckGo conduziu um estudo de pesquisa na plataforma do navegador da Web do Google. Para este estudo, 87 adultos em vários locais nos Estados Unidos continentais pesquisaram três palavras-chave no Google ao mesmo tempo: imigração, controle de armas e vacinação. Mesmo no modo de navegação privada, a maioria das pessoas viu resultados exclusivos para elas. O Google incluiu certos links para alguns que não incluiu para outros participantes, e as infoboxes de Notícias e Vídeos mostraram uma variação significativa. O Google contestou publicamente esses resultados, dizendo que a personalização da página de resultados do mecanismo de pesquisa (SERP) é basicamente um mito. O representante da Pesquisa Google, Danny Sullivan, afirmou que “Ao longo dos anos, desenvolveu-se um mito de que a Pesquisa Google personaliza tanto que, para a mesma consulta, pessoas diferentes podem obter resultados significativamente diferentes umas das outras. Este não é o caso. Os resultados podem ser diferentes, mas geralmente por motivos não personalizados. ”

Quando as bolhas de filtro estão no lugar, elas podem criar momentos específicos que os cientistas chamam de momentos 'Uau'. Um momento 'Uau' é quando um artigo, anúncio, postagem, etc. aparece no seu computador relacionado a uma ação atual ou ao uso atual de um objeto. Os cientistas descobriram esse termo depois que uma jovem estava realizando sua rotina diária, que incluía beber café, quando ela abriu o computador e percebeu um anúncio da mesma marca de café que ela bebia. "Sentei e abri o Facebook esta manhã enquanto tomava meu café, e lá estavam dois anúncios da Nespresso . Uma espécie de 'uau' quando o produto que você está bebendo aparece na tela na sua frente." Momentos "uau" ocorrem quando as pessoas são "encontradas". O que significa que os algoritmos de publicidade têm como alvo usuários específicos com base em seu "comportamento de clique" para aumentar sua receita de vendas.

Vários designers desenvolveram ferramentas para neutralizar os efeitos das bolhas do filtro (consulte § Contramedidas ). A estação de rádio suíça SRF votou a palavra filterblase (a tradução alemã de bolha de filtro) palavra do ano de 2016.

Contramedidas

Por indivíduos

Em The Filter Bubble: O que a Internet está escondendo de você , o ativista da Internet Eli Pariser destaca como a crescente ocorrência de bolhas de filtro enfatiza ainda mais o valor do capital social de ponte de uma pessoa, conforme definido por Robert Putman. Na verdade, enquanto o capital vinculativo corresponde, por um lado, ao estabelecimento de laços fortes entre pessoas com interesses semelhantes, reforçando assim algum senso de homogeneidade social, o capital social de ponte, por outro lado, representa a criação de laços fracos entre pessoas com interesses potencialmente divergentes e pontos de vista, introduzindo, portanto, significativamente mais heterogeneidade. Nesse sentido, o high-bridging capital tem muito mais probabilidade de promover a inclusão social, aumentando nossa exposição a um espaço onde abordamos os problemas que transcendem nossos nichos e interesses próprios estreitos. Promover o capital de transição, como conectar-se com mais pessoas em um ambiente informal, pode, portanto, ser uma forma eficaz de reduzir a influência do fenômeno da bolha do filtro.

Os usuários podem, de fato, realizar muitas ações para romper as bolhas do filtro, por exemplo, fazendo um esforço consciente para avaliar a quais informações estão se expondo e pensando criticamente se estão se envolvendo com uma ampla gama de conteúdo. Essa visão argumenta que os usuários devem mudar a psicologia de como eles abordam a mídia, em vez de depender da tecnologia para neutralizar seus preconceitos. Os usuários podem evitar conscientemente fontes de notícias que não podem ser verificadas ou são fracas. Chris Glushko, vice-presidente de marketing do IAB, defende o uso de sites de verificação de fatos para identificar notícias falsas. A tecnologia também pode desempenhar um papel valioso no combate às bolhas de filtro.

Alguns plug-ins adicionais , como Media Bias Fact Check, visavam ajudar as pessoas a sair de suas bolhas de filtro e torná-las cientes de suas perspectivas pessoais; assim, esses meios de comunicação apresentam conteúdos que contradizem suas crenças e opiniões. Por exemplo, Escape Your Bubble pede aos usuários que indiquem um partido político específico sobre o qual desejam estar mais informados. O plug-in irá então sugerir artigos de fontes bem estabelecidas para ler relacionados a esse partido político, encorajando os usuários a se tornarem mais informados sobre o outro partido. Além de plug-ins, existem aplicativos criados com a missão de incentivar os usuários a abrir suas câmaras de eco. O UnFound.news oferece um aplicativo de notícias com curadoria de IA ( Inteligência Artificial ) para os leitores, apresentando-lhes notícias de perspectivas diversas e distintas, ajudando-os a formar um raciocínio e uma opinião informada, em vez de sucumbir aos seus próprios preconceitos. Também estimula os leitores a lerem perspectivas diferentes se seu padrão de leitura for tendencioso para um lado / ideologia. Read Across the Aisle é um aplicativo de notícias que revela se os usuários estão lendo ou não de diversas novas fontes que incluem múltiplas perspectivas. Cada fonte é coordenada por cores, representando a tendência política de cada artigo. Quando os usuários só leem notícias de uma perspectiva, o aplicativo comunica isso ao usuário e incentiva os leitores a explorar outras fontes com pontos de vista opostos. Embora aplicativos e plug-ins sejam ferramentas que os humanos podem usar, Eli Pariser afirmou "certamente, há alguma responsabilidade individual aqui para realmente buscar novas fontes e pessoas que não são como você."

Uma vez que a publicidade baseada na web pode aumentar o efeito das bolhas do filtro, expondo os usuários a mais do mesmo conteúdo, os usuários podem bloquear muita publicidade excluindo seu histórico de pesquisa, desligando anúncios direcionados e baixando extensões de navegador. Extensões como Escape your Bubble para Google Chrome visam ajudar a curar conteúdo e evitar que os usuários sejam expostos apenas a informações tendenciosas, enquanto extensões do Mozilla Firefox, como Lightbeam e cookies autodestrutivos permitem que os usuários visualizem como seus dados estão sendo rastreados, e permite eles removem alguns dos cookies de rastreamento . Alguns usam mecanismos de pesquisa anônimos ou não personalizados, como YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect e Searx para evitar que as empresas colham seus dados de pesquisa na web. O diário suíço Neue Zürcher Zeitung está testando a versão beta de um aplicativo de mecanismo de notícias personalizado que usa aprendizado de máquina para adivinhar em que conteúdo o usuário está interessado, enquanto "sempre inclui um elemento de surpresa"; a ideia é misturar histórias que um usuário provavelmente não teria seguido no passado.

A União Europeia está tomando medidas para diminuir o efeito da bolha do filtro. O Parlamento Europeu está patrocinando investigações sobre como as bolhas do filtro afetam a capacidade das pessoas de acessar diversas notícias. Além disso, introduziu um programa com o objetivo de educar os cidadãos sobre as mídias sociais. Nos Estados Unidos, o painel do CSCW sugere o uso de aplicativos agregadores de notícias para ampliar o recebimento de notícias pelos consumidores da mídia. Os aplicativos agregadores de notícias fazem a varredura de todos os artigos de notícias atuais e direcionam você a diferentes pontos de vista sobre um determinado tópico. Os usuários também podem usar um balanceador de notícias diversificado que mostra visualmente ao consumidor de mídia se ele está se inclinando para a esquerda ou para a direita quando se trata de ler as notícias, indicando inclinação para a direita com uma barra vermelha maior ou inclinação para a esquerda com uma barra azul maior. Um estudo avaliando este balanceador de notícias encontrou "uma mudança pequena, mas perceptível no comportamento de leitura, em direção a uma exposição mais equilibrada, entre os usuários que vêem o feedback, em comparação com um grupo de controle".

Por empresas de mídia

À luz das recentes preocupações sobre a filtragem de informações nas redes sociais, o Facebook reconheceu a presença de bolhas de filtro e deu passos largos para removê-las. Em janeiro de 2017, o Facebook removeu a personalização de sua lista de Trending Topics em resposta a problemas com alguns usuários que não viam eventos muito comentados ali. A estratégia do Facebook é reverter o recurso Artigos Relacionados implementado em 2013, que postaria notícias relacionadas depois que o usuário lesse um artigo compartilhado. Agora, a estratégia renovada inverteria esse processo e postaria artigos de diferentes perspectivas sobre o mesmo tópico. O Facebook também está tentando passar por um processo de verificação em que apenas artigos de fontes confiáveis ​​serão exibidos. Junto com o fundador do Craigslist e alguns outros, o Facebook investiu $ 14 milhões em esforços "para aumentar a confiança no jornalismo em todo o mundo e para informar melhor a conversa pública". A ideia é que, mesmo que as pessoas estejam apenas lendo postagens compartilhadas por seus amigos, pelo menos essas postagens terão credibilidade.

Da mesma forma, o Google, a partir de 30 de janeiro de 2018, também reconheceu a existência de dificuldades de bolha de filtro em sua plataforma. Como as pesquisas atuais do Google obtêm resultados classificados por algoritmos com base na "autoridade" e "relevância", que mostram e ocultam certos resultados de pesquisa, o Google está tentando combater isso. Ao treinar seu mecanismo de busca para reconhecer a intenção de uma investigação em vez da sintaxe literal da pergunta, o Google está tentando limitar o tamanho das bolhas do filtro. A partir de agora, a fase inicial deste treinamento será introduzida no segundo trimestre de 2018. Questões que envolvem preconceitos e / ou opiniões polêmicas não serão abordadas até um momento posterior, levantando um problema maior que ainda existe: se o motor de busca atua como um árbitro da verdade ou como um guia conhecedor pelo qual tomar decisões.

Em abril de 2017, surgiram notícias de que Facebook, Mozilla e Craigslist contribuíram com a maior parte de uma doação de US $ 14 milhões para a "Iniciativa de Integridade de Notícias" da CUNY, destinada a eliminar notícias falsas e criar mídia de notícias mais honesta.

Mais tarde, em agosto, a Mozilla, fabricante do navegador Firefox , anunciou a formação da Mozilla Information Trust Initiative (MITI). O + MITI serviria como um esforço coletivo para desenvolver produtos, pesquisas e soluções baseadas na comunidade para combater os efeitos das bolhas do filtro e a proliferação de notícias falsas. A equipa de inovação aberta da Mozilla lidera a iniciativa, empenhando-se no combate à desinformação, com um enfoque específico no produto no que diz respeito à literacia, investigação e intervenções criativas.

Implicações éticas

Conforme a popularidade dos serviços em nuvem aumenta, espera-se que algoritmos personalizados usados ​​para construir bolhas de filtro se tornem mais difundidos. Os estudiosos começaram a considerar o efeito das bolhas do filtro sobre os usuários das redes sociais de um ponto de vista ético , particularmente no que diz respeito às áreas de liberdade pessoal , segurança e viés de informação . Bolhas de filtro em mídias sociais populares e sites de busca personalizados podem determinar o conteúdo específico visto pelos usuários, muitas vezes sem seu consentimento ou conhecimento direto, devido aos algoritmos usados ​​para fazer a curadoria desse conteúdo. O conteúdo criado pela própria pessoa manifestado a partir de padrões de comportamento pode levar à cegueira parcial de informações. Os críticos do uso de bolhas de filtro especulam que os indivíduos podem perder autonomia sobre sua própria experiência na mídia social e ter suas identidades socialmente construídas como resultado da difusão das bolhas de filtro.

Tecnólogos, engenheiros de mídia social e especialistas em computação também examinaram a prevalência de bolhas de filtro. Mark Zuckerberg , fundador do Facebook, e Eli Pariser, autor de The Filter Bubble , expressaram preocupação em relação aos riscos de privacidade e polarização de informações. As informações dos usuários de motores de busca personalizados e plataformas de mídia social não são privadas, embora algumas pessoas acreditem que deveria ser. A preocupação com a privacidade resultou em um debate sobre se é moral ou não para os tecnólogos da informação pegar a atividade online dos usuários e manipular a exposição futura de informações relacionadas.

Alguns estudiosos expressaram preocupação com relação aos efeitos das bolhas do filtro no bem-estar individual e social, ou seja, a disseminação de informações sobre saúde para o público em geral e os efeitos potenciais dos motores de busca na Internet para alterar o comportamento relacionado à saúde. Um livro multidisciplinar de 2019 relatou pesquisas e perspectivas sobre os papéis que as bolhas de filtro desempenham em relação à desinformação sobre saúde. Desenho de vários campos, como jornalismo, direito, medicina e psicologia da saúde, o livro aborda diferentes crenças de saúde controversas (por exemplo, medicina alternativa e pseudociência), bem como remédios potenciais para os efeitos negativos de bolhas de filtro e câmaras de eco em diferentes tópicos na saúde discurso. Um estudo de 2016 sobre os efeitos potenciais de bolhas de filtro nos resultados de mecanismos de pesquisa relacionados ao suicídio descobriu que os algoritmos desempenham um papel importante na exibição ou não de linhas de ajuda e resultados de pesquisa semelhantes para os usuários e discutiu as implicações que suas pesquisas podem ter para as políticas de saúde. Outro estudo de 2016 do jornal Croatian Medical propôs algumas estratégias para mitigar os efeitos potencialmente prejudiciais das bolhas do filtro nas informações de saúde, tais como: informar mais ao público sobre as bolhas do filtro e seus efeitos associados, os usuários optando por tentar mecanismos de pesquisa alternativos [ao Google] e mais explicações sobre os processos que os mecanismos de pesquisa usam para determinar os resultados exibidos.

Como o conteúdo visto por usuários individuais de mídia social é influenciado por algoritmos que produzem bolhas de filtro, os usuários de plataformas de mídia social são mais suscetíveis ao viés de confirmação e podem ser expostos a informações tendenciosas e enganosas. A classificação social e outras práticas discriminatórias não intencionais também são esperadas como resultado da filtragem personalizada.

À luz das eleições presidenciais dos EUA de 2016, acadêmicos também expressaram preocupação com o efeito das bolhas de filtro sobre a democracia e os processos democráticos, bem como o surgimento da "mídia ideológica". Esses estudiosos temem que os usuários não consigam "[pensar] além de [seus] interesses próprios estreitos", pois as bolhas de filtro criam feeds sociais personalizados, isolando-os de diversos pontos de vista e das comunidades vizinhas. Por esse motivo, é cada vez mais discutida a possibilidade de projetar mídias sociais com mais serendipidade, ou seja, recomendar proativamente conteúdo que está fora da bolha de filtros, incluindo informações políticas desafiadoras e, eventualmente, fornecer filtros e ferramentas capacitadoras aos usuários. Uma preocupação relacionada é, de fato, como as bolhas de filtro contribuem para a proliferação de " notícias falsas " e como isso pode influenciar a inclinação política, incluindo a forma como os usuários votam.

As revelações em março de 2018 da coleta e uso de dados do usuário pela Cambridge Analytica para pelo menos 87 milhões de perfis do Facebook durante a eleição presidencial de 2016 destacam as implicações éticas das bolhas de filtro. O cofundador e denunciante da Cambridge Analytica, Christopher Wylie, detalhou como a empresa teve a capacidade de desenvolver perfis "psicográficos" desses usuários e usar as informações para moldar seu comportamento de voto. O acesso aos dados do usuário por terceiros, como Cambridge Analytica, pode exasperar e ampliar as bolhas de filtro existentes que os usuários criaram, aumentando artificialmente os preconceitos existentes e dividindo ainda mais as sociedades.

Perigos

As bolhas do filtro surgiram de um aumento na personalização da mídia, o que pode prender os usuários. O uso de IA para personalizar ofertas pode fazer com que os usuários vejam apenas conteúdo que reforce seus próprios pontos de vista, sem desafiá-los. Sites de mídia social como o Facebook também podem apresentar conteúdo de uma forma que torna difícil para os usuários determinar a fonte do conteúdo, levando-os a decidir por si mesmos se a fonte é confiável ou falsa. Isso pode fazer com que as pessoas se acostumem a ouvir o que querem ouvir, o que pode fazer com que reajam mais radicalmente quando veem um ponto de vista oposto. A bolha do filtro pode fazer com que a pessoa veja quaisquer pontos de vista opostos como incorretos e, assim, pode permitir que a mídia force os pontos de vista dos consumidores.

Pesquisas explicam que a bolha do filtro reforça o que já se está pensando. Por isso é extremamente importante utilizar recursos que ofereçam diversos pontos de vista.

Extensões de conceito

O conceito de uma bolha de filtro foi estendido a outras áreas, para descrever sociedades que se autossegregam de acordo com as visões políticas, mas também com as situações econômicas, sociais e culturais. Esse borbulhar resulta na perda da comunidade mais ampla e cria a sensação de que, por exemplo, as crianças não pertencem a eventos sociais, a menos que esses eventos tenham sido especialmente planejados para serem atraentes para crianças e desagradáveis ​​para adultos sem filhos.

Veja também

Notas

Referências

Leitura adicional

links externos