Você está sendo manipulado… e pode estar achando isso engraçado!

Foto: Visual Hunt/Creative Commons

Desde o ano passado, os meios digitais estão sob fogo cruzado, acusados de disseminar uma avalanche de mentiras. A “desinformação”, como tem sido chamado esse fenômeno de plantar e promover notícias falsas, não é nova e nem nasceu no meio digital, mas as redes sociais transformaram essa malandragem em um negócio gigantesco, que movimenta milhões de dólares e pode ter consequências desastrosas. Graças à criatividade de quem planta esses boatos, tais “notícias” parecem tão críveis quanto as verdadeiras. Pior: por conta dos algoritmos das redes sociais, acreditamos piamente na bobageira e até gostamos dela, ajudando na sua pulverização.

Pronto: está criado um eficiente e perigosíssimo mecanismo de manipulação social, e somos engrenagens fundamentais dele. A questão é: como escapar dessa máquina de moer mentes?


Vídeo relacionado:


O auge da gritaria foi a suspeita de que o Facebook tenha auxiliado –por omissão– Donald Trump a se tornar presidente dos EUA. A rede de Mark Zuckerberg teria sido fundamental para a vitória do bilionário republicano  por ter disseminado material falso que o enaltecia, assim como conteúdos igualmente mentirosos que prejudicariam sua concorrente, a democrata Hillary Clinton (e o inverso também aconteceu, diga-se de passagem).

Digo “por omissão” porque o Facebook teria feito muito pouco (ou nada) para evitar que as linhas do tempo de seus usuários fossem inundadas com conteúdo falso que poderia influenciar suas decisões, abrindo espaço para os boateiros deitar e rolar para atingir seus objetivos. O próprio Zuckerberg disse, logo após a vitória de Trump, que “a ideia de que notícias falsas no Facebook influenciaram a eleição é maluca”.

Mas ele e a empresa tiveram que se retratar diante dos fatos. O site BuzzFeed publicou um levantamento, feito a partir de dados públicos do próprio Facebook, que demonstrou como, na reta final da campanha, notícias falsas relativas à eleição americana geraram mais curtidas, comentários e compartilhamentos dos usuários da rede que as notícias verdadeiras!

E, se você acha que isso acontece apenas nos EUA, está muito enganado. A operação brasileira do BuzzFeed usou a mesma metodologia para chegar à conclusão que de notícias falsas sobre a operação Lava-Jato geram mais engajamento que as verdadeiras. E atualmente, na França, o candidato favorito à presidência, Emmanuel Macron, gasta seu tempo se defendendo de boatos plantados na Internet. Nesse caso, há até a suspeita de envolvimento de hackers russos, que estariam favorecendo a líder da extrema-direita Marine Le Pen, que costuma elogiar o presidente russo, Vladimir Putin.

Nada disso é coincidência. E nem deveria ser surpresa.

 

Controlando mentes

É verdade que o Facebook não é um veículo de comunicação. Como tal, em tese, poderia dizer que não é obrigado a verificar o que seus usuários publicam na rede. Pode argumentar até que checar a veracidade disso é tecnicamente muito difícil, além de que poderia estar flertando com a censura, se começasse a fazer restrições ao que fosse publicado nele.

Todos são pontos válidos e, de certa forma, já foram usados. Mas um sistema que desempenha papel central na vida de 1,9 bilhão de pessoas em todo mundo não pode simplesmente “lavar as mãos” diante de suas responsabilidades como gigantesco formador de opinião sobre potencialmente qualquer assunto. Tudo por causa do algoritmo de relevância, que seleciona o que cada um de nós recebe em nossas linhas do tempo, com base no que vimos e interagimos, nos nossos amigos, no que eles fazem, e mais uma infinidade de variáveis, em uma caixa-preta que só a empresa consegue abrir.

Acha exagero? Pois um pesquisador do próprio Facebook já demonstrou cientificamente a influência do algoritmo de relevância no que as pessoas pensam. Adam Kramer realizou em 2012, uma pesquisa que demonstrou ser possível “transferir estados emocionais” a pessoas apenas manipulando o que veem online. No experimento, os feeds de notícias de 689.003 usuários (1 a cada 2.500 na época) foram manipulados pelo sistema por uma semana. Metade deles ficou sem receber posts negativos; a outra metade não viu nada positivo. Análises automatizadas confirmaram que usuários expostos a posts neutros ou positivos tendiam a fazer posts mais positivos, enquanto os expostos a posts neutros ou negativos tendiam a fazer posts mais negativos!

Em outras palavras, Kramer atuou decisivamente no humor de quase 700 mil pessoas apenas manipulando seus feeds de notícias. O paper foi publicado na prestigiosa “Proceedings of the National Academy of Sciences of USA”. Vale lembrar que o mesmo Kramer, em outra ocasião, já tinha aumentado o comparecimento dos americanos às urnas, também manipulando seus feeds. Isso em um país em que não é obrigatório votar.

Como fica a empresa diante disso?

 

Mea-culpa e plano de ação

Diante do óbvio, a turma de Mark Zuckerberg decidiu mostrar serviço. E não está sozinha. Facebook e Google resolveram se mexer e criar mecanismos para tentar combater as notícias falsas, como não entregar anúncios de seus sistemas comerciais a sites conhecidos por promover a desinformação. O Facebook também lançou, logo após a eleição de Trump, sete medidas para minimizar as notícias falsas em sua rede, e, mais recentemente, um projeto para trabalhar com veículos de comunicação para melhorar a qualidade do que trafega pela rede. No Brasil, acadêmicos, jornalistas e empresas de mídia também criaram um grupo para tratar do problema.

Todas essas iniciativas são muito bem-vindas, porém antevejo um eterno jogo de gato e rato. Veículos e plataformas trabalharão de um lado para combater a desinformação, enquanto os boateiros encontrarão maneiras novas e ainda mais criativas de enganar as pessoas com seu material “fake”. Algo muito parecido com o que vemos há uns 30 anos entre fabricantes de antivírus para computadores e os desenvolvedores dessas pragas digitais.

E quanto a nós? Podemos fazer alguma coisa para ajudar?

Claro que sim!

 

Não alimente os trols

Sabe aquela turma que compartilha posts no Facebook sem sequer ler o texto? Aquele pessoal que reage impulsiva e emocionalmente diante de uma foto ou de um título? Esses são o principal alvo dos boateiros, pois espalham tudo que combina com o que acreditam, sem se preocupar se é verdade ou não.

O problema é que os algoritmos de relevância garantem que sejamos impactados por aquilo que gostamos, concordamos, acreditamos, mesmo coisas que reforcem nossos piores preconceitos. E aí baixamos nossas defesas e entramos no jogo alegremente.

Isso já tem até nome: “pós-verdade”, termo escolhido como “palavra do ano” pela Universidade de Oxford, que a descreve como algo “que se relaciona ou denota circunstâncias nas quais fatos objetivos têm menos influência em moldar a opinião pública do que apelos à emoção e a crenças pessoais”.

Portanto, a regra número um para combater a desinformação é bastante simples: desconfie sempre! Além disso, algumas atitudes podem ajudar a verificar a confiabilidade de um conteúdo antes de o espalhar para seus amigos.

A primeira coisa é verificar a fonte da notícia. É verdade que ultimamente veículos tradicionais já não são mais uma garantia de seriedade e precisão no seu noticiário, mas eles ainda carregam alguma reputação que os coloca em um patamar superior ao de sites completamente desconhecidos, pelo menos a princípio. Verifique também se o site é mesmo legítimo, ou uma cópia safada de um veículo famoso.

Sites desconhecidos não são necessariamente ruins. Se estiver em dúvida, procure saber mais sobre sua reputação, por exemplo pesquisando no Google seu nome junto com a palavra “falso”.

Desconfie de sites com uma quantidade absurda de publicidade: eles podem criar notícias apelativas apenas para ganhar mais dinheiro. Da mesma forma, publicações com títulos com tudo escrito em LETRAS MAIÚSCULAS ou fotos exageradas normalmente estão associadas a material criado para pegar trouxas.

Nunca é demais dizer: confie sempre nos seus instintos. Se uma notícia provoca emoções muito intensas em você, sejam boas ou ruins, redobre os cuidados. Verifique se ela também aparece em outros veículos, especialmente aqueles com mais credibilidade. Veja também se traz links ou referências externas que ajudem a corroborar o que diz, além de citações de pessoas bem identificadas (nada de “um pesquisador de uma universidade americana de renome”).

E, por fim, um pedido óbvio: leiam a notícia antes de qualquer tipo de interação! Nunca, jamais se contentem com o post no Facebook! E, mesmo depois de clicar no link, leiam além do título e do primeiro parágrafo. Esse exercício pode ser muito “esclarecedor”.

Se o Facebook tem a sua parcela de culpa na eleição do Trump e eventuais outras mazelas da humanidade, nós, usuários, também temos. Não podemos mudar todo mundo, mas podemos, pelo menos fazer a nossa parte e mudar nós mesmos, criando um uso mais consciente, crítico e construtivo da rede. E, quem sabe, ajudar quem estiver no nosso círculo de amigos e contatos. O mundo agradecerá quem fizer isso.

E nós seremos menos manipulados.


Artigos relacionados:

E se a declaração de amor for só marketing, isso é traição?

Foto: t.germeau /Creative Commons

A semana passada começou com um artigo de Gregório Duvivier que agitou a Internet. Em um texto de grande sensibilidade, ele conta detalhes do relacionamento que teve com a também atriz Clarice Falcão. As palavras emocionaram muita gente, e foram bem compartilhadas pelas redes sociais, com pessoas até torcendo para eles ficarem juntos de novo. Mas o artigo não passava de uma peça de marketing! E isso deixou parte da turma acima bem brava quando perceberam que tinham sido “enganados”.

Duas dúvidas me ocorreram nesse episódio. A primeira era se as pessoas estavam, afinal, irritadas com a “mentirinha” ou com o fato de terem caído nela. A outra era se o autor teria abusado do espaço editorial que tem na Folha de S.Paulo e assim, de certa forma, manipulado seus fãs.

Afinal, algum limite ético foi ultrapassado nesse episódio?

Para quem não soube do caso, o referido texto visava a promoção do filme “Desculpe o Transtorno”, estreado por Gregório e Clarice, e que estrearia nos cinemas três dias após a publicação do artigo. Olhando agora para ele, parece óbvio que se trata de uma propaganda escancarada, chegando ao ponto de o nome do filme aparecer no título do texto! Mas muita gente caiu como um pato na lábia do autor. Pior que isso: mesmo depois de descoberta a “farsa”, um grupo ainda tentava achar justificativas para continuar acreditando que era tudo por amor.

Quando comecei a ler o artigo, achei aquilo meio esquisito. Preciso admitir que nunca tinha ouvido falar do filme, portanto passei batido pela referência já no título do texto. Mas, apesar de muita gente curtir essa história de demonstração pública de afeto, usar a própria coluna no maior jornal do país para isso (e para a ex), como se fosse um post em um blog adolescente, me pareceu um tanto fora do lugar. Até que, no último parágrafo, ele menciona, quase que desconversando, ter visto, naquela semana, “o filme que a gente fez juntos”.

Aí a coisa começou a fazer sentido.

 

Precisamos de boas histórias

A essa altura do campeonato, a confusão já estava armada. O “buzz” nas redes sociais atingia níveis elevadíssimos, com gente com os olhos ainda marejados e outra turma escancarando que tudo não passava de propaganda.

Seguindo a máxima dos políticos de “falem bem ou falem mal, mas falem de mim”, o artigo atingiu o seu objetivo. Com certeza, muita gente que, sem ele, nem ficaria sabendo do filme agora vai no cinema para ver o casal. As bilheterias agradecem.

Portanto, aprovem ou não seus métodos, Gregório escreveu um belo texto, com um objetivo muito claro. Depois foi só deixar os infames algoritmos de relevância das redes sociais fazerem a sua “mágica”, espalhando o artigo rapidamente, graças ao engajamento que ele provocava nas pessoas, seja ele de apoio ou de reprovação.

O ser humano sempre precisou de boas histórias. Elas têm um papel fundamental de nos fazer seguir adiante, de nos unir em torno de uma causa, de acreditar que é possível vencer. Em resumo, para que tenhamos objetivos e esperança. E as boas obras da literatura e da dramaturgia usam isso para conseguir sucesso.

Isso também é ingrediente para o marketing. Nesse caso, as boas histórias são usadas para que o público se identifique com uma marca, um produto, uma campanha e, dessa forma, se torne um consumidor. A diferença é que, nesse caso, há o componente comercial bem explícito. É por isso que os veículos mais éticos deixam claro que determinado conteúdo é publicidade, quando isso não estiver bastante claro ao público.

A crise que assola o nosso país há vários semestres coloca um ingrediente perverso nesse caldeirão: nesse momento de desesperança (e até de desespero para alguns), as boas histórias ganham um papel ainda mais essencial em nossas vidas.

Isso explica, pelo menos em parte, por que algumas pessoas ficaram bravas quando descobriram que a declaração de amor de Gregório era só marketing. Elas se sentiram, de certa forma, enganadas e usadas, para que passassem adiante a publicidade, pensando que era apenas uma história de amor.

Então, sim, a gritaria é legítima. Não porque a “campanha” tenha causado um grande mal a alguém: nada disso! Mas ela deixa claro como, atropelando alguns conceitos essenciais e usando as palavras certas e os meios adequados, é possível vender qualquer coisa.


Artigos relacionados:

Existe uma ética verdadeira nas redes sociais?

Foto: reprodução

Quais os direitos e deveres que uma empresa tem sobre as informações que seus clientes lhe confiam? Em tempos em que as redes sociais ocupam um papel central em nossas vidas, essa pergunta é fundamental e serve como base para outras, como até que ponto ela pode se recusar a ajudar a Justiça, alegando proteção à privacidade dos seus usuários? Mais que isso: um sistema pode manipular as pessoas?

As empresas podem dizer que tudo está descrito nos seus “termos de uso”, documentos com os quais todos nós concordamos ao começar a usá-las. Mas sejamos sinceros: ninguém lê aquilo! E, caso leia, nem sempre fica claro o que está escrito ali. Por exemplo, você sabia que, de acordo com os termos do Facebook, ele tem direito a usar qualquer coisa que publiquemos na sua rede (incluindo fotos e vídeos), sem nos pagar nada?


Vídeo relacionado:


Há alguns dias, o WhatsApp anunciou que toda a comunicação entre seus usuários passou a ser criptografada de ponta a ponta. Em tese, isso significa que ninguém, além dos próprios interlocutores, podem entender o que está sendo dito, mesmo que a informação seja interceptada.

A empresa afirma que, com isso, nem ela mesma é capaz de decodificar essa informação. É um álibi técnico muito interessante contra as constantes determinações judiciais para informar às autoridades o conteúdo de conversas entre usuários que estão sendo investigados. O Facebook, dono do WhatsApp, tradicionalmente se recusa a cooperar, alegando respeito à privacidade dos usuários. E isso regularmente evolui para batalhas jurídicas, como a que tirou o WhatsApp do ar no Brasil por 12 horas, em dezembro passado.

O cuidado com a privacidade e a integridade dos dados de usuários é mais que bem-vinda: é fundamental! Então, se as empresas estão cumprindo a promessa de não os compartilhar com ninguém, nem mesmo com o governo, isso deve ser comemorado!

Entretanto, sem entrar no mérito de que podemos supor que nem todas fazem isso, é razoável perguntar: o que as próprias empresas fazem com tanta informação pessoal, inclusive muitas intimidades, que lhes entregamos graciosamente?

 

Apaixonando-se pelo sistema

Psicólogos diriam que qualquer relação em que apenas um dos lados sabe muito do outro é desequilibrada, e potencialmente condenada por isso. Mas é exatamente assim que nos relacionamos com as redes sociais, que provavelmente nos conhecem melhor que nossas próprias mães.

Isso foi brilhantemente ilustrado no filme “Ela” (“Her”, 2013), de Spike Jonze. Para quem não viu o filme (que recomendo fortemente), ele conta a história, que se passa em um futuro próximo, do romance entre o protagonista Theodore (Joaquin Phoenix) e Samantha (voz de Scarlett Johansson).

Acontece que Samantha não é uma pessoa: é o sistema operacional que controla o computador e o smartphone de Theodore, tendo acesso a todo tipo de informação dele. O humano se apaixona pelo sistema de inteligência artificial, e é correspondido por ela! Alguns podem achar isso impossível ou até mesmo uma perversão. Mas, ao assistir ao filme, é muito difícil não se apaixonar também! E não pense que Samantha faz tudo que Theodore queira: ela também diz não e demonstra sentimentos como insegurança, ciúmes e raiva. Mas tudo isso é feito de acordo com o que Theodore espera de uma mulher.

Pobre Theodore! Samantha sabe tudo sobre ele, e ele não sabe nada sobre ela.

 

Não é pessoal, são apenas negócios

De volta ao mundo real, várias empresas são candidatas a nossas “Samanthas”. Facebook e Google são, de longe, as que mais sabem sobre nós, mas Apple e Amazon não fazem feio nesse pelotão de elite. E há uma infinidade de outras empresas que também são capazes de traçar nossos perfis psicológicos e de consumo a partir de nossas pegadas digitais, que, cada vez mais abundantemente, deixamos por aí.

Essas empresas certamente podem nos influenciar para, por exemplo, comprar um produto, em uma nova e eficientíssima forma de marketing. E são capazes até de manipular algumas emoções nossas. Não como Samantha! Mas o Facebook já fez algo nessa linha.

Em 2012, Adam Kramer, pesquisador da empresa, demonstrou ser possível “transferir estados emocionais” a pessoas simplesmente manipulando o que elas veem online. Por análise semântica, os feeds de notícias de 689.003 usuários foram manipulados pelo sistema por uma semana. Metade deles ficou sem receber posts negativos; a outra metade não viu nada positivo. Ao final, o cientista concluiu que pessoas expostas a posts positivos tendiam a fazer posts mais positivos, enquanto as expostas a posts negativos tendiam a fazer posts mais negativos! Ou seja, Kramer atuou decisivamente no humor de quase 700 mil pessoas, apenas manipulando o que viam no Facebook! O estudo foi publicado na prestigiosa “Proceedings of the National Academy of Sciences of USA”.

Mas as empresas não querem que nos apaixonemos por elas: querem apenas que compremos os produtos e serviços que elas promovem.

Como diz o ditado, “não existe almoço grátis”. Todas essas empresas nos oferecem uma infinidade de produtos incríveis aparentemente sem nenhum custo. Mas não se engane, se você não está pagando, você não é o cliente: você é o produto!

Somos influenciados, conduzidos, e sabemos disso. Mas continuamos cedendo nossa informação e usando os produtos, pois não dá mais para imaginar a vida sem eles. Ou alguém deixará de usar o seu smartphone, a mais perfeita máquina de coleta de dados pessoais, que carregamos conosco o tempo todo?

Tais empresas estão erradas em fazer isso? Provavelmente não. Elas realmente nos oferecem produtos e serviços incríveis (e um outro tanto de quinquilharias) sem que tenhamos que explicitamente pagar por eles. Mas isso tem um custo. Pagamos contando-lhes o que somos.

Se existe realmente uma ética, tudo tem limite. E é esse limite que diz se o que elas fazem é certo ou errado. Não há problema em fazer uma publicidade muito assertiva. O que não é aceitável é a manipulação das pessoas.

Então, da próxima vez que estiver usando seu smartphone ou a sua rede social preferida, tente manter o controle da sua experiência e não acredite piamente em tudo que vir. Será que você consegue?


Artigos relacionados:

Como o Facebook ficou “maior” que a Internet e como isso afeta você

Foto: Philippe Put/Visualhunt.com/Creative Commons

Não é novidade dizer que o Facebook é a maior rede social do mundo, com mais de 1,5 bilhão de usuários. Para muita gente, ele é maior que a própria Internet! Mas esse erro de análise não é inócuo: ele está causando impactos decisivos na vida de todos nós, e pouca gente parece perceber isso.


Vídeo relacionado:


Hoje pouco mais de 20% da população mundial acessa a rede de Mark Zuckerberg pelo menos uma vez por mês. Mas estudos feitos em países em desenvolvimento pela LIRNEasia e pela Geopoll indicam algo bizarro: pessoas estão afirmando que usam o Facebook mas NÃO usam a Internet, ignorando o fato de que o primeiro roda sobre a segunda, seja na Web, seja em um app no smartphone.

Até seria legítimo pensar que usuários do aplicativo do Facebook, por não precisarem de um navegador Web, vejam aquilo como algo apartado da Internet. Mas o fato é que, mesmo em países desenvolvidos, para muitos usuários, o Facebook parece ser tudo o que eles precisam de conteúdo online.

Bom, e daí? Como isso pode afetar você ou eu?

Acontece que isso é apenas um reflexo de como o Facebook se tornou um elemento central em nossas vidas. Ele é a página inicial do navegador de muita gente e é acessado nos smartphones onde estiverem, a qualquer momento. Aliás, é a coisa mais acessada no geral.

Entram em cena os algoritmos de relevância no feed de notícias.

Nem todo mundo sabe que o Facebook não mostra na página de abertura de cada usuário tudo que seus amigos e páginas que segue publicaram no dia: isso nem seria possível, dado o enorme volume de conteúdo. O sistema então seleciona aquilo que ele considera relevante para mostrar a cada um de nós.

E aí é que mora o perigo.

 

Dono da “verdade”

A escolha do que é exibido a cada usuário é um dos segredos mais bem guardados do Facebook. Claro que coisas como ser amigo de alguém e se relacionar bem com essa pessoa (coisas como clicar, curtir, comentar e compartilhar o que ela publica) têm enorme peso nessa decisão. Mas não é tudo: há um “molho secreto” temperando as zilhões de combinações possíveis.

O problema é que isso pode ser manipulado. E a própria empresa já admitiu ter feito isso pelo menos uma vez.

Em 2012, o pesquisador do Facebook Adam Kramer e sua equipe realizaram um estudo, demonstrando que é possível “transferir estados emocionais” a pessoas simplesmente manipulando o que elas veem online. Por análise semântica, os feeds de 689.003 usuários (1 a cada 2.500 na época) foram manipulados pelo sistema por uma semana. Metade deles ficou sem receber posts negativos; a outra metade não viu nada positivo.

O resultado foi assustador: análises automatizadas comprovaram que pessoas expostas a posts neutros ou positivos tendiam a fazer posts mais positivos, enquanto as expostas a posts neutros ou negativos tendiam a fazer posts mais negativos!

Ou seja, Kramer atuou decisivamente no humor de quase 700 mil pessoas deliberadamente manipulando seus feeds de notícias. O paper foi publicado na prestigiosa “Proceedings of the National Academy of Sciences of USA”. A despeito do resultado impressionante, ele admitiu que fez a pesquisa sem pedir autorização prévia das “cobaias”, o que é antiético. Na época, isso provocou uma enorme gritaria. O Facebook foi obrigado a vir a público pedir desculpas: “não queríamos magoar ninguém”, disse a porta-voz.

Mas eles quiseram, sim! Bom, pelo menos com metade da amostra.

 

O mundo inteiro cabe aqui

Apesar daquele deslize ético pontual, quero crer que os algoritmos do Facebook trabalham para realmente identificar conteúdos que sejam relevantes para cada um dos seus usuários. Isso porque o sucesso da empresa depende de as pessoas usarem mais e mais os seus produtos, e isso só acontecerá se eles se demonstrarem úteis a elas.

Assim, o Facebook precisa, de alguma forma, demonstrar comprometimento com os interesses das pessoas. O que não quer dizer que tenha que fazer o mesmo com as marcas que utilizam a plataforma para promover seus produtos e serviços.

O sucesso dessa empreitada pode ser medida por outro comportamento dos usuários: cada vez mais, eles consomem todo tipo de conteúdo dentro do próprio Facebook. A plataforma se transformou em uma gigantesca banca que promove de tudo. Ou seja, as pessoas começam a ver um mundo filtrado pelo algoritmo do feed de notícias.

É verdade que, desde sempre, nós vemos notícias filtradas. Antes dos algoritmos, esse trabalho era feito pelos jornalistas dos grandes veículos de comunicação. A vantagem é que, por essa curadoria ser feito por pessoas, ela evita destacar alguma grande barbaridade. A desvantagem é que todos recebem o mesmo “recorte” do mundo, independentemente de seus interesses pessoais. Os consumidores é que têm que se adequar à linha editorial dos veículos que escolherem.

Com todo o conteúdo sendo consumido “dentro” do Facebook –e isso é reforçado pelos “artigos instantâneos” e pelo comportamento de carregar páginas de qualquer fonte encapsulado no seu próprio aplicativo nos smartphones– quanto faltará para as pessoas deixarem de dizer, por exemplo, “vi na Folha” para começar a dizer “vi no Facebook”, mesmo para conteúdo da própria Folha?

Não cabe aqui apontar o dedo para o Facebook: ele está colhendo os resultados de seu trabalho bem feito. Não há dúvida que isso é ruim para os produtores de conteúdo, que veem suas marcas perdendo força. Mas eles estão exatamente na posição em que se puseram, por não conseguir se adaptar à nova realidade de seus públicos. Não lhes resta muito a fazer agora além de dançar as músicas do Facebook, do Google e da Apple, com suas plataformas de publicação hiperpopulares.

Fica a dúvida se isso é bom ou ruim para cada um de nós, usuários. Se os algoritmos forem “bonzinhos”, sorte nossa! Entretanto, ser capaz de se informar por fontes distintas e aprender a interpretar criticamente o que se consome deveria ser uma das competências mais importantes a ser ensinadas nas escolas, para a formação de um cidadão consciente. Pois é assustador imaginar uma empresa ditando o que 1,5 bilhão de pessoas devem ver, e todas elas consumindo isso cegamente.


Artigos relacionados:

 

%d blogueiros gostam disto: