Augusto Diniz
Desde as eleições presidenciais dos Estados Unidos em 2016 que o mundo passou a lidar com uma expressão que se tornou habitual: “fake news”. A atuação de grupos políticos ou candidatos na tentativa de difamar seus adversários com informações falsas ou distorcidas não era novidade em nenhum lugar do planeta. O problema é que o alcance desses fatos inverídicos ganhou uma capacidade de divulgação e leitores muito maior quando se uniu ao uso das redes sociais na internet.
Com o sucesso da atuação na internet da campanha vitoriosa de Barack Obama em 2008 no país norte-americano, equipes de candidatos, partidos e coligações no Brasil tentam conquistar aqui os mesmos resultados do “Yes, we can” (Sim, nós podemos) na atuação on-line de políticos na disputa por cargos eletivos desde 2010. Mas o efeito devastador do uso sujo das redes sociais, como o Facebook, o Twitter e a ferramenta de pesquisa Google, só ficou claro aos olhos de todo o globo quando surgiram os garotos de Veles, na Macedônia.
Quem imaginaria que sites de notícias falsas e com títulos sensacionalistas, com textos curtos e acusações fortes contra a candidata democrata Hillary Clinton e de apoio ao republicano Donald Trump poderia fazer com que a sociedade americana ficasse dividida em debates acalorados a partir de informações inverídicas? E mais grave ainda: que esse conteúdo seria gerado por adolescentes de 17 e 18 anos em seus quartos numa cidade pequena com pouco mais de 55 mil habitantes no meio da região dos Bálcãs.
O fato é que adolescentes e jovens macedônios influenciaram tanto o eleitor dos Estados Unidos na corrida presidencial de 2016 que até hoje pairam várias incertezas sobre as investigações da interferência internacional, principalmente russa, no resultado que levou Trump à Casa Branca. E essa grande nuvem que paira sobre a democracia americana já tem seus exemplos, ainda não tão abrangentes e alarmantes, nos últimos grandes acontecimentos políticos desde 2014. Um deles é o compartilhamento de conteúdo falso durante a discussão do Brexit no Reino Unido.
Em agosto de 2017, a Diretoria de Análise de Políticas Públicas da Fundação Getúlio Vargas (DAPP/FGV) publicou o estudo “Robôs, Redes Sociais e Política no Brasil”. Um dos dados apontados pelo levantamento é o de que as contas automáticas no Twitter, chamadas de robôs (bots), foram responsáveis por cerca de 10% do conteúdo do debate durante a disputa eleitoral presidencial de 2014 no Brasil.
“O que nós fizemos foi elencar momentos importantes do debate político brasileiro nos últimos anos para fazer um diagnóstico desse problema, mas também lançar o alerta do risco que existe de isso ganhar uma proporção ainda maior este ano. Se a gente imaginar que o uso de robôs pode, em algum momento, estar associado à disseminação de notícias falsas ou difamação de candidatos, temos um risco muito grande de uma interferência bem maliciosa nesse processo político”, explica o pesquisador Amaro Grassi, do DAPP/FGV. Mestre em sociologia pela Universidade Estadual do Rio de Janeiro (UERJ), Grassi alerta que esse risco é real e não pode ser subestimado na disputa eleitoral até as votações de outubro.
O estudo do departamento da FGV mostra que parte do potencial de influência de perfis falsos e automatizados, aqueles que publicam em momentos considerados chave mais de uma postagem por segundo, vem da facilidade de interagir com grande parte das pessoas nas redes sociais. Como há a marcação de usuários por meio da @, fica fácil fazer com que determinado tweet chegue a alguém. No Facebook, por exemplo, o levantamento leva como base experimentos que comprovam que 20% das pessoas aceitam convites de amizade de perfis desconhecidos de forma indiscriminada. Já 60% adotam a tática de observar se a solicitação vem de alguém que tem ao menos um amigo em comum no Facebook.
Alcance dos robôs
Nas eleições presidenciais de 2014, tanto no debate realizado pela Rede Globo no primeiro quanto o do segundo turno, entre Aécio Neves (PSDB) e Dilma Rousseff (PT), tiveram a verificação de uso de robôs no Twitter favoráveis aos dois candidatos. No encontro dos dois presidenciáveis no segundo turno, a influência no debate por meio de publicações automatizadas atingiu 11% do conteúdo das discussões na rede social. Os robôs pró-Aécio totalizaram 19,41% de todos os tweets sobre o debate e 9,76% a favor de Dilma.
No primeiro turno, robôs fizeram menções positivas a Aécio (19,78%), Dilma (17,94%), Marina Silva, à época no PSB (13,52%), e Luciana Genro, do PSOL (1,64%). As eleições paulistanas também foram analisadas, com um uso parecido de perfis automáticos tanto a favor do ex-prefeito Fernando Haddad, do PT (11,54%), quanto ao peessedebista que seria eleito, João Dória (11,25%), e Celso Russomano, do PRB (8,4%), no debate do primeiro turno na Globo São Paulo. Outros momentos analisados foram a greve geral de 28 de abril de 2017, a manifestação pró-impeachment de Dilma em 13 de março de 2016 e a votação da reforma trabalhista no Senado. Só o debate do segundo turno de 2014 atingiu uma marca acima de 1 milhão de tweets sobre o assunto: 2,3 milhões.
São os robôs, que muitas vezes funcionam de forma automática e também podem ser perfis administrados por pessoas anônimas contratadas por empresas que se dizem de consultoria, que em determinado momento começam a fazer publicações favoráveis a determinado candidato no período eleitoral. Muitas vezes, como a BBC Brasil mostrou em extensa reportagem sobre o assunto, são páginas de usuários que postam frases como “reunião finalizada” ou “partiu academia”. De repente aparece um tweet ou post com “vote fulano, o melhor para a educação do nosso estado”.
Para Grassi, uma das características das redes sociais, até mesmo do aplicativo de mensagens WhatsApp, é o de que o ato de se informar não necessariamente acontece por meio dos veículos de comunicação como jornais, emissoras de rádio, canais de TV ou portais de notícia. “O ato de se informar não quer dizer que seja pelos veículos tradicionais, pode ser pelo conteúdo que meu primo, tio ou amigo compartilhou no perfil dele.”
No final de 2017, o Facebook anunciou, até para se precaver de uma possível regulação, que tentará barrar o alcance das “fake news” com uma distribuição maior do conteúdo pessoal em detrimento das postagens de páginas. A medida tem sido bastante criticada por, além de poder ampliar a sensação de que o algoritmo da rede social pode tornar a plataforma ainda mais excludente a ideias divergentes às do usuário, ter o risco de ampliar o alcance de mais perfis pessoais às notícias falsas ou maliciosas postadas por qualquer conta. “Isso tende a ser uma mudança para pior, porque ela (linha do tempo) vai tornar mais difícil o acesso a informações de veículos consolidados, com credibilidade, por parte dos usuários. Acredito que faça bastante sentido essa preocupação”, alerta Grassi ao criticar a decisão.
Vítimas
Se até o presidente americano Donald Trump já caiu no conteúdo de um perfil falso e compartilhou em sua conta no Twitter uma frase do ditador Benito Mussolini em 28 de fevereiro de 2016, imagine o risco para outras pessoas! “É melhor viver um dia como um leão do que cem anos como uma ovelha (It is better to live one day as a lion than 100 years as a sheep)”, dizia a frase postada pelo perfil @ilduce2016 que o ainda presidenciável retuitou em fevereiro do ano eleitoral.
Aliás, Trump é um dos que fez com que a expressão “fake news” caísse no gosto popular e passasse a ser usada por todo mundo. Mesmo sendo ele um questionador da informação bem apurada, desacreditando de veículos tradicionais como o canal CNN e um comprovado divulgador de mentiras incontrolável.
De acordo com levantamento do jornal The Washington Post, o chefe da Casa Branca, desde que assumiu o cargo no dia 20 de janeiro de 2017 até 2 de janeiro deste ano, disse 1.950 mentiras, o que faz com que Trump tenha dito uma média 5,6 declarações falsas ou enganosas por dia. E há quem acredite em tudo que ele fala. O uso da expressão “fake news” cresceu 365% e foi escolhida a palavra do ano pelo dicionário britânico Collins.
“Robôs se manifestam nos extremos da polarização e favorecem a radicalização”
“A radicalização e a manipulação do debate são consequências muito evidentes de uma ação muito significativa de robôs.” O alerta é do pesquisador da FGV. Grassi explica que o estudo sobre a atuação de perfis automatizados nas redes sociais mostra que essas contas falsas tendem a ampliar o momento de extremos que o Brasil e o mundo têm vivenciado. “Existem os robôs do bem, de organizações, usados para ações benéficas. Mas eles são um minoria. O problema do uso de robôs é que eles distorcem o teor da discussão em um determinado momento. Uma das conclusões que nós chegamos no estudo é que os robôs são utilizados e se manifestam sobretudo nos extremos do espectro da polarização política. Eles favorecem nesse sentido a radicalização, porque operam em uma lógica de posição muito demarcada, de guerrilha contra o inimigo.”
Grassi destaca consequências graves para o debate de ideias. A primeira é o aumento da radicalização polarizada, o que dificulta a busca do entendimento sobre determinado assunto. O segundo ponto talvez seja o mais grave: “O robô distorce a ideia que a sociedade tem daquela temática a partir da rede social, porque a ação do robô tende a inflar artificialmente algumas posições da discussão”. Segundo o pesquisador, isso se dá com o impulsionamento de uma hashtag, promovendo um link e fazendo com que se entenda que determinada ideia seja majoritária.
O funcionamento de como as redes sociais, principalmente o Facebook, selecionam quais publicações chegam a cada usuário por meio da timeline é mais uma preocupação. “Eu me cerco de quem eu conheço e sou preservado das coisas que não me são tão próximas. E isso acontece pelos robôs e os algoritmos que são usados nas redes sociais e que vão agravando essa bolha da polarização”, observa Grassi. O integrante do DAPP/FGV não condena completamente o uso de plataformas como Facebook e Twitter por entender que elas prestam um serviço valioso para a sociedade de acesso à informação e liberdade de expressão.
Grassi prefere não afirmar se haverá ou não uma influência na decisão do voto do eleitor brasileiro em outubro, mas diz que o uso de robôs e o compartilhamento de “fake news” nas redes sociais preocupam: “É um risco que deve ser levado em consideração. Embora hoje eu acredite que não (impacte), é um risco real. Inclusive é um debate muito forte hoje nos Estados Unidos se teve ou não impacto na eleição de 2016. No futuro teremos mais estudos que tratem com mais clareza se a manipulação do debate se reverte na decisão do voto”.
Discussão no TSE
O departamento de Grassi é integrante do conselho consultivo recém-criado pelo Tribunal Superior Eleitoral (TSE) para discutir o problema das “fake news” nas eleições de 2018 e como atuar. A última reunião aconteceu na quarta-feira, 31 de janeiro, quando começou a se apontar a natureza do problema. Fazem parte desse grupo, além da FGV, o Supremo Tribunal Federal (STF), os Ministérios da Justiça e Segurança Pública (MJ) e da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), Agência Brasileira de Inteligência (Abin), Centro de Defesa Cibernética (CDCIBER), Comitê Gestor da Internet (CGI.Br) e a SaferNet Brasil. “As representantes das empresas falaram sobre medidas que vêm tomando ao longo dos últimos anos para combater as “fake news” e robôs. E o Tribunal vai explorar isso para fazer algumas resoluções visando as eleições: como ter uma interlocução mais próxima com essas empresas, saber como elas podem colaborar”, descreve.
“O próprio Tribunal (TSE) já reconhece que não é papel deles e nem de qualquer órgão do governo definir o que é uma “fake news” ou não. Isso aí seria extremamente descabido porque esbarraria certamente no problema da liberdade de expressão. O caminho tem que ser deixar a sociedade se organizar e fazer esse acompanhamento do debate, de identificar “fake news” e coibir. E por outro lado agir no sentido de identificar e combater essas práticas de disseminação, que já são reconhecidas”, aponta o pesquisador da FGV.
O impulsionamento de publicações nas redes sociais, permitido pela reforma eleitoral de 2017, é visto por Grassi como um aperfeiçoamento da busca pela transparência nas eleições. “A medida da reforma que fala sobre isso é bem genérica e o Tribunal vai regulamentar como isso se dará na prática.” É preciso ainda que se normatize como essas publicações serão identificadas como algo pago por recurso público, até para que o usuário saiba que é uma propaganda partidária. Outro ponto é a prestação de contas desse recurso para que o TSE tenha como acompanhar o uso dessa verba eleitoral nas redes.
Presidente reeleito da Associação dos Magistrados do Estado de Goiás (Asmego), o juiz Wilton Müller Salomão diz que há uma dificuldade muito grande da Justiça Eleitoral goiana em fazer o acompanhamento e controle da disseminação das notícias falsas no período eleitoral. “Nós tivemos recentemente uma decisão do TSE que reduziu em Goiás o número de zonas eleitorais. Quando nós temos uma necessidade de ter mais juízes para aumentar a fiscalização das eleições, acontece uma redução de 34 zonas eleitorais. Vamos sentir neste ano como se dará efetivamente uma eleição com menos 34 juízes no Estado.” O magistrado lembra que a redução aconteceu em todo o Brasil nos Tribunais Regionais Eleitorais.
“Essas situações são de investigação da Polícia Federal. Como a Justiça Eleitoral é federal, quem atua é a própria Polícia Federal”, descreve o presidente da Asmego. Salomão diz que há casos na polícia goiana de inquéritos em andamento de eleições passadas, quando a verificação de crimes eleitorais exige uma apuração mais célere. “Não é o juiz que vai investigar. Ele apura, verifica a situação e encaminha para a Polícia Federal investigar esses crimes”, declara.
Sobre a preparação dos magistrados goianos para a atuação em processos que envolvam crimes eleitorais digitais, o juiz afirma que a Escola da Magistratura tem tratado de questões avançadas do cotidiano no ofício dos tribunais. Especificamente a respeito das “fake news”, o presidente da Asmego informa que ainda não há uma demanda para que se criem cursos específicos que tratem do assunto. Com relação ao impulsionamento de publicações durante o período eleitoral, Salomão defende a regulamentação. “É preciso saber o que pode e o que não pode. O que temos de exigir é que todos cumpram as regras.”
Investigações ágeis
Já o advogado Rafael Fernandes Maciel, que é presidente do Instituto Goiano de Direito Digital (IGDD), afirma que o Marco Civil da Internet traz um arcabouço jurídico suficiente para que se investigue e descubra quem são os autores de “fake news”. No entendimento de Maciel, o que ainda precisamos é avançar na rapidez para se concluir inquéritos relacionados a crimes digitais. “A questão é muito mais ampla. São utilizados robôs, que utilizam estruturas de anonimato com IDs de outros países. É uma questão que passa muito mais pela educação digital.”
Para o presidente do IGDD, oi que falta ainda incluir na discussão é buscar saber como os provedores tratam as informações que são veiculadas em suas bases de dados. “Ele (provedor) fala que vai barrar esses robôs. Mas como ele vai tratar essas informações? Que tipo de informação vai aparecer no seu feed de notícias? Será que ele vai alavancar um político de determinada linha, seja de direita ou de esquerda?” Deixar na mão de redes sociais decidir quais são as fontes confiáveis de notícia é amplamente questionável, inclusive pela consequência do aumento da bolha de padrões de comportamento na internet, descreve Maciel. “Como que você vai conseguir vincular a proliferação e produção de notícias falsas a determinado candidato ou partido? A internet permite que qualquer pessoa produza conteúdo.”
O advogado lembra que não é de interesse de empresas como Google e Facebook divulgar como funcionam os algoritmos que definem o que aparece na linha do tempo de cada usuário. “Isso é inclusive um segredo empresarial que elas não vão querer tornar público.” Maciel entende que a influência de informações falsas ou distorcidas sobre os indecisos pode ser decisiva na hora de votar em determinado candidato. “O problema das ‘fake news’ na internet é que a rede difunde tudo muito mais rápido qualquer conteúdo e a informação fica documentada”, avalia.
Ser xingado e ameaçado nas redes sociais se tornou motivo para jornalista escrever manual
O fluxo de informações anônimo, não confiável e de baixa qualidade à esquerda e à direita que circula na internet já é maior e até mais poderoso do que o fluxo de conteúdo de veículos de comunicação tradicionais. Saber disso é fundamental.” Quem diz isso é o jornalista Leonardo Sakamoto, vítima de ataques, cusparadas na rua, xingamentos e até ameaças de morte por seu posicionamento analítico e opinativo no Blog do Sakamoto, no portal de notícias UOL.
Diretor da Organização Não-Governamental (ONG) Repórter Brasil, conselheiro do Fundo das Nações Unidas (ONU) para Formas Contemporâneas de Escravidão, doutor em Ciência Política pela Universidade de São Paulo (USP), professor de Jornalismo da Pontifícia Universidade Católica de São Paulo (PUC-SP), blogueiro, ex-pesquisador visitante do Departamento de Política da New School, em Nova York, e ex-professor de Jornalismo da Escola de Comunicações e Artes da USP (ECA-USP), Sakamoto usou tudo que sofreu e ainda enfrenta nas redes sociais e no cotidiano para escrever o livro “O Que Aprendi Sendo Xingado na Internet” (Leya, 2016, 160 páginas).
“Na tentativa de falar o que eu aprendi sendo insultado, ameaçado, vilipendiado na internet, eu resolvi aproveitar essa experiência que eu tive para criar uma espécie de manual de vivência e de convivência em que eu explicasse esses fenômenos, falasse da polarização.” Sakamoto explica que também quis deixar “algumas dicas e sugestões de como tratar e evitar que isso se torne algo muito pesado para as pessoas e como ampliar o espaço de diálogo na internet e tirar proveito dessa ferramenta muito poderosa que a gente tem em mãos”. O jornalista diz que as redes sociais não criam esses problemas, mas aprofundam o espaço do debate virtual como verdadeiro aquilo que determinados grupos acreditam e falsas as informações que os usurários não acreditam.
Para resolver o problema da circulação de notícias falsas, o caminho escolhido por Sakamoto é a busca do diálogo. “A opinião faz parte do jornalismo. O gênero jornalístico tem formatos opinativos e noticiosos. Eu produzo reportagens e investigações na Repórter Brasil. No meu blog, também produzo conteúdo e informação, mas com muita análise e opinião.” O jornalista observa que é da função profissional dele dar opinião sobre os fatos e gerar a discussão a partir de diferentes pontos de vista.
“Um problema muito sério é que uma parte da sociedade não foi preparada, não foi alfabetizada, para o debate público. Quando eu coloco a palavra alfabetizada é de ensino. Infelizmente no Brasil nós não temos um letramento para a mídia, uma alfabetização midiática, um ensinamento em nível fundamental, médio e até superior para crianças, adolescentes e jovens para que eles saibam produzir e absorver conteúdo.” Para Sakamoto, isso ajudaria as pessoas a diferenciar uma notícia informativa de uma opinião ou análise, evitar serem manipulados pela mídia e pela internet.
Das “fake news” surgiu a ideia do curso “Vaza, Falsiane”. Junto com os professores de Jornalismo Rodrigo Ratier, da Faculdade Cásper Líbero, e Ivan Paganotti, da USP, Sakamoto contará com convidados para discutir os vários formatos de produtos jornalísticos e ajudar na verificação de conteúdo falso ou malicioso na internet. “Nós estamos produzindo um curso on-line voltado para ajudar as pessoas a fazer esse letramento midiático e identificar notícias falsas com conteúdo voltado para jovens. É uma parceria com o Facebook e será lançado em junho”, informa.
Concordar ou discordar de um texto analítico ou opinativo não significa que seja “fake news”. “Para esse mundo maravilhosamente conectado e informado que nós temos, precisamos avançar para que opiniões sejam tratadas como opiniões e fatos sejam tratados como fatos sem que ninguém morra no meio do meio do caminho ou agrida o outro porque não concorda com aquilo ou não consiga interpretar.” Sakamoto descreve que fazer uma análise sobre um ponto de vista progressista não significa ser algo partidário e é preciso entender isso com algo natural.
“Parte da população quer que se ensine quais são os afluentes da margem esquerda e da margem direita do Rio Amazonas, uma fórmula de Bhaskara ou saber não separar sujeito e predicado por vírgula. É tornar o ser em um técnico sem aguçar a capacidade analítica e reflexiva da pessoa.” A visão de Sakamoto é a de que a escola transforme a pessoa em um ser pensante, não uma cobaia. “A boa escola é aquela que gere pessoas que sejam capazes de questionar a sociedade que mantém aquela escola, a estrutura daquela escola, questionar tudo. Para isso, você precisa dar elementos. A importância é dar elementos para que a pessoa se torne um ser pensante e possa escolher a ideologia que melhor lhe aprouver”, explica o jornalista.
Vítima das fake news
“Eu acho que eu sou vítima de um ‘fake news’ por mês.” Um dos casos mais graves descritos por Sakamoto aconteceu com um jornal de Minas Gerais, que ele prefere não citar o nome, no qual o jornalista teria dado uma entrevista que nunca concedeu. Em uma das respostas, ele dizia que advogados são inúteis. “Só que eu nunca dei entrevista para esse jornal. Por mais que o jornal tenha publicado um direito de resposta gigante, isso gerou uma onda de ataques. Só que esses conteúdos têm cauda longa”, descreve.
Sakamoto critica que a formação da opinião das pessoas tem acontecido cada vez mais categórica, como uma reprodução de uma opinião sem qualquer checagem ou confirmação. “Como eu não gosto de determinada pessoa e aquilo bate com o que eu penso então é verdade. A gente tende a acreditar naquilo que a gente quer acreditar e a gente não acredita naquilo que a gente não quer acreditar.” O jornalista defende a construção de uma vida rica em argumentos e diferentes opiniões, o que o faz conviver e discutir ideias e diferentes assuntos com integrantes de diversos partidos e linhas de pensamento, sejam eles de direita, esquerda ou como quiserem definir. “Eu quero uma vida rica em diferença de argumentos.”
O Brasil atingiu em julho de 2017 mais de 200 milhões de acessos à internet 3G ou 4G nos celulares em 5.030 municípios, o que abrange localidades em que vivem 98,4% da população do País, de acordo com a Associação Brasileira de Telecomunicações (Telebrasil). Enquanto o Pew Research Center mostra que nos Estados Unidos 62% dos americanos se informam por meio das redes sociais, aqui esse percentual chega a 49%, segundo a Pesquisa Brasileira de Mídia 2016, da Secretaria Especial de Comunicação Social (Secom) da Presidência da República.
“A partir do momento que se identifica que aquele perfil pertence a uma pessoa real, mas que fere as normas da plataforma com relação à disseminação de ‘fake news’, esse usuário precisa passar por um filtro daquela rede social”, avalia Reilly Rangel, empresário e presidente do Instituto Parque Tecnológico Gyntec. O investimento feito pelo Facebook e Google para se identificar as notícias falsas é grandioso, informa Rangel. “Não é fácil dizer ‘conseguimos controlar’. É o mesmo no combate ao vírus humano ou de computador. Primeiro surge o problema, depois formas de combatê-lo.”
O empresário lembra que o profissional da área tecnológica está altamente capacitado para burlar os mecanismos que impedem a publicação e a disseminação de informações falsas ou distorcidas na internet, principalmente nas redes sociais. “Os algoritmos do Facebook e Google estão aprimorando a busca desse conteúdo. O problema é que uma vez que cai na rede, o controle se torna muito complicado”, alerta. Rangel orienta que as pessoas, ao lerem uma informação, verifiquem se aquela notícia está em outro veículo ou site confiável, como aquele assunto é tratado ou se existe apenas em um endereço eletrônico considerado estranho.
“A gente só compartilha aquilo que nós acreditamos que é verdadeiro a partir das nossas crenças. Depois de compartilhar não tem como mais segurar aquilo, porque você colorou o seu nome naquele material que você publicou. E se alguém confia no que você publica, geralmente essa pessoa não vai procurar a fonte daquela informação.” A inteligência artificial começa a ser utilizada, mesmo sendo muito cara, para verificar de onde vem aquela notícia falsa, lembra Rangel.
O combate a crimes digitais tem evoluído, na análise do presidente do Instituto Parque Tecnológico Gyntec. Já sobre a atuação dos tribunais eleitorais, Rangel tem dúvidas sobre a eficácia das ações: “O maior problema é que, independente do partido, há um exército de ótimos comunicadores, jornalistas, publicitários, estrategistas de marketing, um exército de pessoas trabalhando para os grandes governantes e os grandes políticos. Seja para disseminar as boas práticas ou para falar mal dos adversários. E a Justiça vai atuar em que momento? Uma vez que se publica algo, aquilo pulveriza. Determinar a retirada pouco adianta. O estrago já foi feito”.
Para o empresário do setor de Tecnologia da Informação, a identificação de robôs na internet não é simples, mas também não se trata de algo tão complicado. “O bloqueio do uso de robôs ou da interrupção da divulgação de conteúdo via robôs é algo que vai melhorar bastante o funcionamento das redes sociais.” São vários os atores que têm atuado em diferentes áreas, independente do entendimento, para que as eleições de outubro no Brasil não tomem o mesmo caminho da disputa eleitoral de 2016 nos Estados Unidos, que parece estar longe de um entendimento sobre a possível interferência das fake news na vitória de Trump.
Reportagem original publicada aqui.
Web Cams Sex
Faça um comentário