Ele previu a crise de notícias falsas de 2016. Agora está preocupado com um apocalipse de informações

piramidal.net | lojapiramidal.com

compartilhar

“O que acontece quando qualquer um pode fazer com que pareça que qualquer coisa aconteceu, independente de ter acontecido ou não?”, pergunta o tecnólogo Aviv Ovadya.

Charlie Warzel
BuzzFeed News Reporter

m meados de 2016, Aviv Ovadya percebeu que havia algo fundamentalmente errado com a internet — tão errado que ele abandonou seu trabalho e soou um alarme. Algumas semanas antes das eleições de 2016, ele apresentou suas preocupações a tecnólogos na Área da Baía de São Francisco e advertiu sobre uma crise iminente de desinformação em uma apresentação que chamou de “Infocalypse”.

A web e o ecossistema de informação que se desenvolveu nela estavam doentios, argumentou Ovadya. Os incentivos que governavam suas principais plataformas foram ajustados para recompensar informações que eram enganosas e/ou polarizadas. Plataformas como Facebook, Twitter e Google priorizavam cliques, compartilhamentos, anúncios e dinheiro em detrimento da qualidade de informação, e Ovadya não pôde ignorar a sensação de que tudo isso estava tomando um caminho ruim — um tipo de limite crítico de desinformação viciante e tóxica. A apresentação foi praticamente ignorada pelos funcionários das plataformas das empresas Big Tech (como Google, Amazon, Facebook e Apple).

“Naquela época, parecia que estávamos em um carro fora de controle. O problema não era que todo mundo estava dizendo ‘estamos bem’ — é que eles nem mesmo estavam vendo o carro”, disse ele.

Ovadya estava dizendo o que muitos — incluindo legisladores, jornalistas e CEOs das Big Tech — não captariam até meses depois: o nosso mundo cheio de plataformas e otimizado por algoritmos é tão vulnerável — de propaganda, desinformação e anúncios direcionados a governos estrangeiros — que isso ameaça minar uma pedra fundamental do discurso humano : a credibilidade do fato.

Ainda assim, é o que ele vê se aproximando que realmente é assustador.

“O alarmismo pode ser bom — vocês deveriam ser alarmistas sobre essas coisas”, disse Ovadya em uma tarde de janeiro antes de delinear calmamente uma projeção profundamente perturbadora sobre as próximas duas décadas de notícias falsas, campanhas de desinformação assistidas por inteligência artificial e propaganda. “Isso é algo que está além do que muitos aqui imaginam”, disse ele. “Estávamos completamente fodidos um ano e meio atrás e estamos ainda mais fodidos agora. E, dependendo da distância que você vê no futuro, só piora.”

Esse futuro, de acordo com Ovadya, chegará com ferramentas muito ágeis e fáceis de se usar para manipular a percepção e falsificar a realidade. Ações que até já ganharam termos próprios, como “apatia com a realidade”, “phishing via laser automatizado” e “fantoches humanos”.

É por isso que Ovadya, tecnólogo formado pelo MIT que já trabalhou com engenharia em empresas de tecnologia como a Quora, largou tudo em 2016 para tentar evitar o que ele viu como uma crise de informação causada pelas empresas Big Tech. “Um dia, algo clicou na minha cabeça”, disse ele sobre seu despertar. Ficou claro para ele que, se alguém quisesse tirar vantagem da nossa economia de atenção e utilizar as plataformas que reforçam isso para distorcer a verdade, não haveria controle ou equilíbrio para parar tal ação. “Eu percebi que, se esses sistemas saíssem do controle, não haveria nada para controlá-los”, disse.

Hoje, Ovadya e um grupo de pesquisadores e acadêmicos estão se preparando para um futuro distópico. Eles estão projetando cenários de desastre a partir de tecnologias que começaram a surgir, e os resultados são bem desanimadores.

Para Ovadya — agora chefe-tecnólogo do Centro de Responsabilidade de Mídias Sociais da Universidade de Michigan e membro de inovação Knight News do Tow Center for Digital Journalism na Universidade Columbia —, o choque e a ansiedade contínua sobre os anúncios russos no Facebook e bots do Twitter são pouco se comparados à maior ameaça: tecnologias que podem ser usadas para distorcer o que é real estão evoluindo mais rapidamente do que nossa habilidade de compreendê-las e controlá-las ou mitigá-las.

As apostas são altas, e as possíveis consequências são mais desastrosas do que intromissões estrangeiras em uma eleição — uma impugnação ou reviravolta das instituições nucleares da civilização, um “infocalypse”. Ou seja, qualquer um poderia fazer com que “parecesse que qualquer coisa aconteceu, independente de ter acontecido ou não”.

E assim como as campanhas de desinformação patrocinadas por entidades estrangeiras não pareciam uma ameaça plausível de curto prazo até acontecerem, Ovadya avisa que as ferramentas impulsionadas pela inteligência artificial, pelo aprendizado de máquina e pela tecnologia de realidade aumentada podem ser sabotadas e utilizadas por pessoas ruins para imitar humanos e causar uma guerra de informação.

E estamos mais perto do que alguém pode pensar de um “Infocalypse”, segundo ele. Ferramentas já disponíveis de manipulação de áudio e vídeo já começam a aparecer. Em recantos sombrios da internet, pessoas começaram a utilizar algoritmos de aprendizado de máquina e software de código aberto para criar vídeos pornográficos que, com facilidade, sobrepõem realisticamente rostos de celebridades — aliás, de qualquer um — nos corpos dos atores pornô. Em instituições como a Stanford, tecnólogos desenvolveram programas que combinam e misturam gravações de vídeos com monitoramento facial em tempo real para manipular vídeos. Similarmente, na Universidade de Washington, cientistas da computação desenvolveram com sucesso um programa capaz de “transformar recortes de áudio em um vídeo realista com sincronização labial da pessoa que fala as palavras”. Como prova de conceito, ambas as equipes manipularam vídeos em que líderes mundiais pareciam dizer coisas que nunca disseram.

Conforme essas ferramentas se popularizam e são difundidas, criam-se as condições para cenários desestabilizantes.

Pode haver “manipulação de diplomacia”, segundo ele: um ator malicioso utiliza tecnologia avançada para “criar a crença de que um evento ocorreu” para influenciar a geopolítica. Imagine, por exemplo, um algoritmo de aprendizado de máquina (que analisa massas de dados para ensinar a si mesmo a realizar uma função em particular) alimentado com centenas de horas de gravações de Donald Trump ou do ditador da Coreia do Norte, Kim Jong Un. A partir disso, seria possível criar um áudio ou vídeo quase perfeito — e virtualmente impossível de distinguir da realidade — de um dos líderes declarando uma guerra nuclear ou biológica. “Não precisa ser perfeito — só bom o bastante para fazer o inimigo achar que algo aconteceu para provocar uma resposta automática e imprudente de retaliação.”

Outro cenário, que Ovadya chama de “simulação de Estado”, é uma combinação distópica de botnets políticos e astroturfing, em que movimentos políticos são manipulados por campanhas falsas de base. Na previsão de Ovadya, bots impulsionados por IA progressivamente críveis poderão competir eficientemente com humanos reais pela atenção dos legisladores e reguladores porque será muito difícil distingui-los. Assim, as caixas de entrada dos senadores poderiam ser inundadas com mensagens de “eleitores” feitos, na verdade, de programas de aprendizado de máquina trabalhando juntos, como se fossem pontos em uma colcha de retalhos, na reprodução de conteúdo selecionado a partir de textos, áudios e perfis de mídias sociais.

Aí então, há o phishing via laser automatizado, uma tática sobre a qual Ovadya observa que os pesquisadores já estão discutindo. Essencialmente, ela utiliza IA para escanear coisas, como nossas presenças em redes sociais, e criar mensagens falsas, porém fidedignas, de pessoas que conhecemos. O elemento decisivo, segundo Ovadya, é que algo como o phishing por laser permitiria que atores visem qualquer um e criam uma imitação crível utilizando dados publicamente disponíveis.

“Antigamente, precisaria haver um humano para imitar uma voz ou criar uma conversa falsa que parecesse autêntica — nessa versão, só se precisaria apertar um botão utilizando software de código aberto”, disse Ovadya. “É aí que vira uma confusão — quando qualquer um pode fazer, porque é trivial. Aí, é um jogo completamente diferente.”

Imagine, sugere ele, mensagens de phishing que não são só links confusos que você pode clicar, mas uma mensagem personalizada com contexto. “Não só um e-mail, mas um e-mail de um amigo que você estava ansiosamente esperando por um tempo”, diz ele. “E, por poder ser muito fácil criar coisas que são falsas, neste futuro distópico, você se sentiria oprimido. Se cada pedacinho de spam que você recebesse fosse idêntico aos e-mails de pessoas reais que você conhecesse, cada um com sua própria motivação tentando convencer você de algo, você acabaria dizendo: ‘OK, vou ignorar minha caixa de entrada’.”

Isso pode levar a algo que Ovadya chama de “apatia da realidade”: sitiadas por uma torrente de desinformação constante, as pessoas simplesmente começariam a desistir de se informarem. Ovadya é rápido em nos lembrar que isso é comum em áreas onde a informação é deficiente e, logo, considerada incorreta. A grande diferença, observa Ovadya, é a adoção de apatia por uma sociedade desenvolvida, como a nossa. O resultado, ele teme, não é bom. “As pessoas param de prestar atenção às notícias, e aquele nível fundamental de informação necessário para uma democracia funcional se torna instável.”

Ovadya (assim como outros pesquisadores) vê o phishing via laser como algo inevitável. “Obviamente é uma ameaça, mas, ainda pior, eu não acho que haja uma solução no momento”, disse ele. “Há coisas de infraestrutura na escala da internet que precisam ser desenvolvidas para parar isso, caso comece.”

Além disso tudo, há outros cenários de longo prazo que Ovadya descreve como “irrelevantes”, mas que ainda assim são assustadores. “Fantoches humanos”, por exemplo — uma versão de mercado negro de um mercado de redes sociais com pessoas em vez de bots. “É essencialmente um mercado sem fronteiras futurista para humanos manipuláveis”, disse ele.

As premonições de Ovadya são particularmente aterrorizantes dada a facilidade com que nossa democracia já foi manipulada pelas técnicas de desinformação mais rudimentares e grosseiras. As fraudes, farsas e ofuscações que estão surgindo não são nada de novo; só são mais sofisticadas, mais difíceis de serem detectadas e trabalham em conjunto com outras forças tecnológicas que não são só desconhecidas atualmente, como também são provavelmente imprevisíveis.

Para aqueles que prestam bastante atenção à evolução da inteligência artificial e do aprendizado de máquina, nada disso parece mais que um desafio. Um software atualmente em desenvolvimento pela fabricante de chips Nvidia já pode gerar convincentemente fotos hiper-realistas de objetos, pessoas e até algumas paisagens fazendo buscas rápidas por dezenas de milhares de imagens. A Adobe também lançou recentemente dois projetos — Voco e Cloak — o primeiro é um “Photoshop de áudio”, e o segundo é uma ferramenta que pode remover objetos (e pessoas!) perfeitamente de vídeos em questão de cliques.

Em alguns casos, a tecnologia é tão boa que assustou até seus criadores. Ian Goodfellow, um cientista pesquisador do Google Brain que ajudou a desenvolver a primeira “rede adversária gerativa” (GAN), que é uma rede neural capaz de aprender sem supervisão humana, acredita que a IA poderia regredir o consumo de notícias em uns 100 anos. Em uma conferência da MIT Technology Review, em novembro do ano passado, ele disse ao público que as GANs teriam “imaginação e introspecção” e “poderiam dizer se o gerador está indo bem sem se apoiar em feedback humano”. E isso, enquanto as possibilidades criativas das máquinas não têm fronteiras, a inovação, quando aplicada à forma com que consumimos informação, provavelmente “fecharia algumas das portas que nossa geração está acostumada a deixar abertas”.

À luz disso, cenários como a simulação de Estado de Ovadya parecem genuinamente plausíveis. No ano passado, mais de um milhão de contas falsas de bots inundaram o sistema aberto de comentários da FCC para ampliar o apelo de revogação das proteções de neutralidade da rede.” Os pesquisadores concluíram que comentários automáticos — alguns usando processamento de linguagem natural para parecerem reais — obscurecerem comentários legítimos, minando a autenticidade do sistema aberto de comentários inteiro. Ovadya concorda com o exemplo da FCC, e também com a recente campanha ampliada por bots #releasethememo como uma versão grosseira do que está por vir. “Pode ficar muito pior”, diz ele.

Comprovadamente, esse tipo de erosão de autenticidade e da integridade de declarações oficiais, juntas, são as mais sinistras e preocupantes dessas ameaças futuras. “Seja IA, truques de manipulação peculiares da Amazon ou ativismo político falso — essas escoras tecnológicas levam ao aumento da erosão da confiança”, disse Renee DiResta, pesquisadora de propaganda computacional, sobre a ameaça futura. “Isso torna possível lançar difamações sobre se um vídeo é real.” DiResta apontou a negação recente de Donald Trump de que era sua voz na infame fita do Access Hollywood, citando especialistas que disseram que era possível que sua voz tivesse sido digitalmente falsificada.

“Você não precisa criar o vídeo falso para essa tecnologia ter um impacto sério. Você só mostra o fato de que a tecnologia existe, e você pode minar a integridade das coisas que são reais.”

É por isso que pesquisadores e tecnólogos como DiResta — que passou anos de seu tempo livre aconselhando a administração Obama, e agora é membro do Comitê de Inteligência do Senado, contra campanhas de desinformação de trolls — e Ovadya (apesar de trabalharem separadamente) estão começando a conversar mais sobre as ameaças pairantes. Recentemente, o NYC Media Lab, que ajuda as empresas e acadêmicos da cidade a colaborarem, anunciou um plano para reunir tecnólogos e pesquisadores em junho a “explorarem os piores cenários de caso” do futuro das notícias e tecnologia. O evento, que eles chamaram de Fake News Horror Show, é listado como “uma feira científica de ferramentas aterrorizantes de propaganda — algumas reais, outras imaginadas, mas todas baseadas em tecnologias plausíveis”.

O primeiro passo para pesquisadores como Ovadya é difícil: convencer o grande público, assim como legisladores, tecnólogos de universidades e empresas de tecnologia, de que um apocalipse de informação que distorce a realidade não é só plausível, como também iminente.

Um funcionário do governo americano encarregado de investigar sobre a guerra de informações disse ao BuzzFeed News que não sabe quantas agências públicas estão se preparando contra cenários como os que Ovadya e outros descrevem.

“Estamos menos com o pé atrás do que estávamos há um ano”, disse ele, antes de observar que isso não é bom o bastante. “Eu penso nisso no sentido de iluminação — que tudo se tratava da busca pela verdade”, disse o funcionário ao BuzzFeed News. “Eu acho que o que você está vendo agora é um ataque à iluminação — e documentos iluminados como a Constituição — realizado por adversários tentando criar uma sociedade da pós-verdade. E isso é uma ameaça direta às fundações da nossa civilização atual.”

Esse é um pensamento aterrorizante — mais porque prever esse tipo de coisa é complicado. A propaganda computacional é muito mais qualitativa do que quantitativa — um cientista climático pode apontar dados explícitos mostrando temperaturas em elevação, enquanto que é virtualmente impossível desenvolver um modelo de previsão confiável mapeando o impacto futuro da tecnologia que ainda está por ser aperfeiçoada.

Para tecnólogos como o funcionário federal, o único caminho viável em frente é recomendar atenção, avaliar as implicações morais e éticas das ferramentas que estão sendo desenvolvidas e, fazendo isso, evitar o momento frankensteiniano de quando a criatura se volta contra você e pergunta: “Você considerou as consequências das suas ações?”.

“Eu sou da cultura livre e de código aberto — o objetivo não é parar a tecnologia, mas garantir que haja um equilíbrio que seja positivo para as pessoas. Então, não estou apenas gritando “isso vai acontecer”, mas, sim, dizendo: ‘Considere com seriedade, examine as implicações'”, disse Ovadya ao BuzzFeed News. “O que eu digo é: ‘acredite que isso não vai acontecer’.”

Dificilmente é um pronunciamento animador. Dito isso, Ovadya admite um pouco de otimismo. Há mais interesse no espaço da propaganda computacional do que antes, e aqueles que foram anteriormente lentos em levar ameaças a sério agora estão mais receptivos aos avisos. “No começo, era tudo árido — poucos ouviam”, disse ele. “Mas nos últimos meses, vem sendo promissor.” Da mesma forma, há soluções a serem encontradas — como verificação criptográfica ou imagens e áudio, que poderiam ajudar a distinguir o que é real e o que é manipulado.

Ovadya e outros avisam que os próximos anos podem ser instáveis. Apesar de alguns pedidos de reforma, ele sente que as plataformas ainda são governadas pelos incentivos errados e sensacionalistas, onde o conteúdo caça-cliques e de baixa qualidade é recompensado com mais atenção. “No geral, é uma noz difícil de quebrar, e quando você combina isso com um sistema como o Facebook, que é um acelerador de conteúdo, se torna muito perigoso.”

A distância que estamos desse perigo ainda há de ser vista. Questionado sobre os sinais de alerta aos quais está atento, Ovadya pausou. “Eu não sei mesmo. Infelizmente, muitos dos sinais de alerta já aconteceram.” ?

Este post foi traduzido do inglês.

https://www.buzzfeed.com

Piramidal no Facebook
.
●●● Gostou? Então curta nossa página no Facebook.
.
Autor
●●●
 Seja amigo do autor do site no Facebook e esteja sempre antenado em assuntos interessantes.

Anúncios

Notícias falsas circulam 70% mais que verdadeiras na internet

piramidal.net | lojapiramidal.com

compartilhar

Alcance da falsidade

Notícias consideradas falsas se espalham mais facilmente na internet do que textos verdadeiros.

A conclusão é de um estudo realizado pelo Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), usando mensagens divulgadas na rede social Twitter entre 2006 e 2017.

Soroush Vosoughi, Deb Roy e Sinan Aral analisaram 126 mil mensagens. No total, 3 milhões de pessoas publicaram ou compartilharam essas histórias 4,5 milhões de vezes. O caráter verdadeiro ou falso dos conteúdos foi definido a partir de análises realizadas por seis instituições profissionais de checagem de fatos.

Os autores calcularam que uma mensagem falsa tem 70% mais chances de ser retransmitida (retuitada, no jargão da rede social) do que uma verdadeira. As principais mensagens falsas analisadas chegaram a ser disseminadas com profundidade oito vezes maior do que as verdadeiras. O conceito de profundidade foi usado pelos autores para medir a difusão por meio dos retuítes (quando um usuário compartilha aquela publicação em sua rede).

O alcance das mensagens falsas também é maior. Enquanto os conteúdos verdadeiros em geral chegam a 1.000 pessoas, as principais mensagens falsas são lidas por até 100.000 pessoas. Esse aspecto faz com que a própria dinâmica de “viralização” seja mais potente, uma vez que a difusão é pessoa a pessoa, e não por meio de menos fontes com mais seguidores (como matérias verdadeiras de contas de grandes veículos na Internet).

Surpresa e desgosto

Para tentar descobrir o motivo desse maior alcance das notícias falsas, os pesquisadores investigaram o perfil dos usuários. Mas, para sua própria surpresa, descobriram que os promotores desses conteúdos não são aqueles com maior número de seguidores ou mais ativos. Ao contrário, em geral são pessoas com menos seguidores, que seguem menos pessoas, com pouca frequência no uso e com menos tempo na rede social.

Uma hipótese sugerida para a disseminação das notícias falsas seria a novidade das mensagens. As publicações falsas mais compartilhadas eram mais recentes do que as verdadeiras. Outra motivação destacada pelos autores foi a reação emocional provocada pelas mensagens.

Analisando uma amostra de tuítes, as notícias falsas geravam mais sentimentos de surpresa e desgosto, enquanto os conteúdos verdadeiros inspiravam tristeza e confiança.

Política e robôs

A pesquisa também examinou a disseminação de notícias falsas por assunto. As mensagens sobre política circulam mais e mais rapidamente do que as de outras temáticas. Esses tipos de conteúdos obtiveram um alto alcance (mais de 20 mil pessoas) três vezes mais rápido que as publicações de outros assuntos. Também ganharam visibilidade os tuítes sobre as chamadas “lendas urbanas” e sobre ciência.

“Conteúdos falsos circularam significantemente mais rapidamente, mais longe e mais profundamente do que os verdadeiros em todas as categorias de informação. E esses efeitos foram mais presentes nas notícias falsas sobre política do que naquelas sobre terrorismo, desastres naturais, lendas urbanas e finanças,” escreveram os autores.

Os pesquisadores também examinaram a participação de robôs (ou bots, programas que publicam mensagens automaticamente) na disseminação das notícias falsas. Diferentemente de teses apresentadas em outros estudos, os robôs avaliados compartilharam mensagens falsas e verdadeiras com a mesma intensidade.

“Notícias falsas se espalham mais do que as corretas porque humanos, e não robôs, são mais suscetíveis a divulgá-las”, sugere o artigo.

http://www.diariodasaude.com.br

Piramidal no Facebook
.
●●● Gostou? Então curta nossa página no Facebook.
.
Autor
●●●
 Seja amigo do autor do site no Facebook e esteja sempre antenado em assuntos interessantes.

WikiLeaks expõe como 90% dos meios de comunicação são controlados por poucas pessoas

piramidal.net | lojapiramidal.com

compartilhar

Uma única organização controla quase tudo o que você vê, ouve e lê na mídia e eles estão seguindo seus líderes por décadas.

De Matt Agorist

Não é segredo que, nas últimas 4 décadas, a mídia tradicional foi consolidada de dezenas de empresas concorrentes para apenas seis. Centenas de canais, sites, comunicados de imprensa, jornais e revistas, que compõem 90% de todos os meios de comunicação são controlados por poucas pessoas, dando aos norte-americanos a ilusão de escolha.

Enquanto seis empresas que controlam a maioria de tudo o que o mundo ocidental consome em relação à mídia podem parecer um arranjo sinistro, o Centro Suíço de Pesquisa sobre Propaganda (SPR) acaba de divulgar informação ainda pior.

O grupo de pesquisa conseguiu amarrar todas essas empresas de mídia a uma única organização – o Conselho de Relações Exteriores (CFR).

Para quem não sabe, o CFR é um membro primário do círculo de think-tanks de Washington que promove uma guerra sem fim. Como o ex-Major do Exército Todd Pierce informa, este grupo atua como “provocadores primários” usando “sugestão psicológica” para criar uma falsa narrativa de perigo de alguma entidade estrangeira com o objetivo de criar paranóia na população dos EUA de que está sob ameaça iminente de um ataque.

Um membro sênior do CFR, Robert Kagan, proclamou publicamente que os EUA deveriam criar um império.

A narrativa criada pelo CFR e suas coortes é apanhada por seus comunicadores secundários, conhecidos também pela mídia dominante, que o empurram para a população sem análise ou questionamento.

Ao olhar para o gráfico da SPR, o alcance desta única organização é tão vasto que não é um mistério sobre como esses psicopatas de elite orientam os norte-americanos a aceitar numa guerra sem fim à custa de suas mães, pais, filhos e filhas.

Os principais jornalistas e executivos de todas as principais empresas de mídia estão integrados ao CFR. Como o gráfico ilustra, o CFR tem ainda mais controle na mídia convencional do que o nefasto Grupo Bilderberg e a Comissão Trilateral.

..

Como observa SPR, Richard Harwood, ex-redator e Chefe geral do Washington Post, escreveu sobre o Conselho de Relações Exteriores. Reconhecendo que seus membros provavelmente correspondem ao que se poderia chamar de “establishment dominante dos Estados Unidos”.

Harwood continuou: “A adesão desses jornalistas ao conselho pode fezê-los pensar que é um reconhecimento de seu papel ativo e importante nos assuntos públicos e de sua ascensão na classe dominante norte-americana. Eles não apenas analisam e interpretam a política externa dos Estados Unidos; eles ajudam a fazê-la”.

Apesar de apenas 5% dos membros do CFR trabalharem nas empresas de mídia, SPR ressalta que é tudo o que eles precisam para implementar a vontade de seus membros, que inclui:

– vários presidentes dos EUA e vice-presidentes de ambas as partes;
– quase todos os ministros estrangeiros, de defesa e finanças;
– a maioria dos chefes e comandantes do exército dos EUA e da OTAN;
– quase todos os Conselheiros de Segurança Nacional, Diretores da CIA, Embaixadores das Nações Unidas, Presidentes do Fed, Presidentes do Banco Mundial e Diretores do Conselho Econômico Nacional;
– alguns dos membros mais influentes do Congresso (especialmente os políticos estrangeiros e de segurança);
– numerosos gerentes de mídia e melhores jornalistas, bem como alguns dos atores mais famosos;
– numerosos acadêmicos proeminentes, especialmente nas áreas-chave da economia, das relações internacionais, das ciências políticas e históricas e do jornalismo;
– numerosos executivos de grupos de reflexão, universidades, ONGs e Wall Street;
– e membros-chave da Comissão do 11 de Setembro e da Warren Commission (JFK).

Para destacar o quanto é forte o controle sobre a mídia que o CFR exerce, precisamos apenas olhar para o fato de que eles operam – ao ar livre – e não recebem quase nenhuma cobertura da mídia. O ex-presidente do CFR, o Alto Comissário para a Alemanha, co-fundador da Atlantic Bridge, presidente do Banco Mundial, e conselheiro de nove presidentes dos EUA, John J. McCloy, na verdade, se gabou publicamente sobre a escolha dos políticos norte-americanos pelo CFR.

“Sempre que precisávamos de um homem [em Washington], enviamos o pedido de membros do Conselho e fazemos um chamado para Nova York [para o escritório da sede do CFR]”, disse McCloy.

Até a eleição de Trump, os quatro últimos presidentes foram o diretor do CFR, George HW Bush, que foi substituído por um membro do CFR, Bill Clinton, que foi substituído por um membro da família do CFR, George W. Bush, que foi então substituído pelo candidato do CFR Barack Obama – que encheu seu gabinete com membros do grupo de elite.

Embora Donald Trump nunca tenha sido um membro público do CFR, isso não o impediu de preencher a Casa Branca com dezenas de membros do CFR.

Aqui estão alguns dos membros do CFR designados por Trump:

– Elaine Chao, Secretária dos Transportes dos Estados Unidos (membro individual do CFR)
– Jamie Dimon, Membro do Fórum Estratégico e de Políticas (membro corporativo da CFR)
– Jim Donovan, Secretário Adjunto do Tesouro (membro corporativo da CFR)
– Larry Fink, Membro do Fórum Estratégico e de Políticas (membro corporativo da CFR)
– Neil M. Gorsuch, juiz da Suprema Corte (membro individual do CFR)
– Vice-Almirante Robert S. Harward, Assessor de Segurança Nacional (nomeação recusada) (membro corporativo da CFR)

Mesmo que Trump não seja um membro oficial do CFR, seu gabinete é composto quase inteiramente de pessoas que fazem parte dele! Como esta informação demonstra – a democracia é uma ilusão. Também explica por que informações como essa, que desafiam a visão de mundo oficial, exibida pelas grandes mídias de massa, estão sendo atacadas.

Por favor, compartilhe este artigo com seus amigos e familiares para mostrar o quanto da informação pública, processos políticos e de suas vidas são controladas por um punhado de pessoas.

http://thefreethoughtproject.com

Piramidal no Facebook
.
●●● Gostou? Então curta nossa página no Facebook.
.
Autor
●●●
 Seja amigo do autor do site no Facebook e esteja sempre antenado em assuntos interessantes.

Facebook deletou contas a pedido dos governos dos EUA, Israel e Alemanha

piramidal.net | lojapiramidal.com

compartilhar

O Facebook admitiu a exclusão de relatos de ativistas e jornalistas palestinos, a pedido do governo israelense, bem como as contas usadas pelo ex-líder da Chechênia sob o comando de Washington em uma campanha ativa de censura política internacional.

A empresa de mídia social, que possui mais de 2 bilhões de usuários ativos em todo o mundo, também vem sistematicamente removendo discurso de ódio e outros conteúdos “ilegais” de sua plataforma na Alemanha.

O Facebook, que tem quase 4 milhões de usuários ativos em Israel, tem se envolvido em um “ataque de censura” contra ativistas e jornalistas que se opõem à ocupação israelense ilegal do território palestino de acordo com o Glenn Greenwald da interceptação .

A atual campanha de censura contra palestinos começou após reuniões de alto nível em setembro de 2016 entre representantes do Facebook e funcionários israelenses, incluindo o ministro da Justiça, Ayelet Shaked, do partido de extrema direita. Shaked, uma vez, se referiu notoriamente a crianças palestinas como “pequenas cobras”.

Na sequência do cimeira Israel-Facebook, dez administradores das páginas em língua árabe e inglesa do Centro de Informação Palestino, com mais de dois milhões de seguidores, suspenderam suas contas, sete permanentemente. O Facebook também brevemente tirou a página executada pela Fatah, a maior facção da Organização de Libertação da Palestina, quando publicou uma foto de Yasser Arafat segurando um rifle.

fonte: https://www.wsws.org

Piramidal no Facebook
.
●●● Gostou? Então curta nossa página no Facebook.
.
Autor
●●●
 Seja amigo do autor do site no Facebook e esteja sempre antenado em assuntos interessantes.

A ‘Robin Hood da ciência’ contra o império editorial

piramidal.net | lojapiramidal.com

compartilhar

Jovem programadora do Cazajistão resiste com Sci-Hub, site pirata de artigos científicos, a processos sem precedentes das editoras de grandes revistas

“Se consegui ver mais longe, foi porque subi nos ombros de gigantes”, escrevia Isaac Newton,em uma carta ao seu rival, o físico britânico Robert Hooke, em 1675. Hoje em dia, os cientistas podem subir apenas metaforicamente nos ombros de pesquisadores, cujos estudos entram no pacote de inscrição das suas universidades. Dado o incrível custo para centros de pesquisa manterem cada revista científica, as instituições não podem proporcionar a seus empregados acesso livre a toda a literatura acadêmica que necessitam para trabalhar. É ainda pior para os estudantes ou cientistas não filiados a uma boa biblioteca: o preço médio de um paper ronda os 25 euros (96 reais) para um particular. E isso apesar de muitos estudos se financiarem com dinheiro público.

Insatisfeita com o modelo de publicação, a programadora do Cazajistão Alexandra Elbakyan fundou, em 2011, quando tinha só 23 anos, o site Sci-Hub, que proporciona aos internautas livre acesso a milhões de publicações científicas que, legalmente, deveriam ser pagas. “Quando eu era estudante na universidade do Cazaquistão, não tive acesso a nenhum documento de pesquisa, documentos que precisava para meu projeto. É loucura pagar 32 dólares [por estudo] quando você precisa ler ou navegar por centenas de documentos para fazer uma pesquisa”, declarava, em uma carta aberta, no tribunal de Nova York, em 2015.

O motivo pelo qual Elbakyan escrevia a um juiz de Nova York era que Reed-Elsevier, a editora que mais gera renda com publicações acadêmicas, processou o Sci-Hub e sua criadora por infração de direitos autorais. Ela argumentou que sua página proporciona um serviço público que não é comparável com a pirataria de música ou de filmes, já que os cientistas não cobram direitos autorais pelas vendas de seus artigos. Neste mesmo ano, um juiz ordenou o fechamento do domínio sci-hub.org, cujo registrador — a empresa que aluga o domínio .org — está baseado nos Estados Unidos. Ainda assim, a página permaneceu ativa sob outros nomes registrados no exterior, que Elbakyan anunciou em seu Facebook. O pleito da Elsevier só foi concluído em junho de 2017, quando o juiz ordenou uma indenização de 15 milhões de dólares (49 milhões de reais) a favor da editora. Elbakyan não compareceu ao julgamento.

Golpe legal sem precedentes

Até semana passada, era possível acessar o portal pirata por meio do sci-hub.cc, sci-hub.io, sci-hub.ac e sci-hub.bz. Agora, apenas o último endereço, registrado em Belize, está ativo. O motivo é um novo litígio, apresentado pela American Chemical Society (ACS), em um tribunal no estado da Virgínia. Esta editora é menor que a Elsevier, mas seu processo resultou em maiores consequências. De início, o juiz também havia concedido uma indenização aos requerentes, desta vez de 4,8 milhões de dólares (15 milhões de reais). No entanto, além disso, a última sentença — divulgada em novembro — é excepcional ao ordenar o fim da cooperação dos serviços de internet com o Sci-Hub, o que, neste caso, inclui não apenas as empresas que registram os domínios, mas também provedores de conexão de internet e sites de busca. Essas são entidades jurídicas alheias à organização do Sci-Hub e não estavam envolvidas no julgamento.

“Não sabemos como podem tentar cumpri-la”, afirma o estudante de doutorado Stephen McLaughlin, especialista em estudos da informação na Universidade do Texas, que acompanhou de perto o caso do Sci-Hub. “Acredito que a tentativa aparente da ACS de conseguir bloquear sites de busca e provedores de serviços de internet provavelmente não seja legal sob o modelo norte-americano”, acrescenta.

O diretor de comunicações da American Chemical Society, Glenn Ruskin, confirmou ao EL PAÍS que a ACS enviou uma ordem judicial a vários provedores de internet e registradores de domínios do Sci-Hub, para que acatassem a decisão. Isso explica a queda repentina de três domínios de internet na quarta-feira da semana passada (um deles registrado nos Estados Unidos, os outros dois no Reino Unido). “A ACS continuará seu esforço para impor o cumprimento da ordem judicial”, afirma Ruskin.

Da sua parte, Elbakyan não pagou um centavo, já que opera o site da Rússia, fora da jurisdição norte-americana. O tribunal da Virgínia também não tem o poder de confiscar os servidores do Sci-Hub. Eles devem conter 70 terabytes de documentos, segundo Daniel Himmelstein, cientista de dados da Universidade da Pensilvânia, que publicou uma análise do conteúdo do Sci-Hub.

“As empresas de tecnologia não estão muito contentes com a ordem judicial. Consideram-se fornecedoras de um serviço neutro e que não são responsáveis pelo que fazem os seus usuários. Têm um interesse muito forte em parar essas ordens judiciais tão amplas e sem precedentes”, explica.

O futuro das publicações científicas

Apesar da novidade do caso, e do zelo das editoras por defender seus negócios, os usuários do Sci-Hub não esperam que a sentença mude muita coisa; a demanda por acesso livre ao conhecimento científico é grande demais e será difícil impor leis regionais em uma internet descentralizada. O mais provável é que se fechar um site, aparecerá outro

Mesmo fechando todos os domínios do Sci-Hub, seria difícil para as editoras bloquearem completamente o acesso à página. O portal pirata conta com uma direção alternativa na internet profunda Tor, formada por um grupo de servidores que criptografam o tráfego para ocultar sua origem. “Esta rede é imune a qualquer tipo de censura, salvo a apreensão física dos servidores”, afirma Himmelstein.

O entusiasmo gerado pelo caso do Sci-Hub mostra a insatisfação profunda com o modelo de publicação cientifica que envolve pesquisadores de todas as disciplinas. Existem revistas de reputação que não cobram assinaturas, mas taxas de publicação. Himmelstein tem uma visão para o modelo ideal: “Eu quero que toda a literatura acadêmica financiada com dinheiro público seja de livre acesso e leitura. Não apenas grátis, mas também livre de barreiras de permissão, ou seja, com uma licença pública que permita a mineração de dados e textos. Muita gente compartilha dessa visão, a do movimento open acess”.

https://brasil.elpais.com

Piramidal no Facebook
.
●●● Gostou? Então curta nossa página no Facebook.
.
Autor
●●●
 Seja amigo do autor do site no Facebook e esteja sempre antenado em assuntos interessantes.

Robôs aumentam polarização e radicalização dos debates nas redes sociais

piramidal.net | lojapiramidal.com

compartilhar

Ameaça real

Os robôs virtuais, ou bots, programas automatizados projetados para funcionarem como se fossem perfis reais nas mídias sociais, estão influenciando os debates políticos na internet e aumentando a polarização das discussões.

Esta é a conclusão do pesquisador Amaro Grassi, da Fundação Getúlio Vargas, cujo estudo mostra ainda que os efeitos são tão sérios que o processo de disputa política nos próximos anos pode estar ameaçado.

“Elemento flagrante é o ‘inchamento’ de movimentos políticos que são, na realidade, de dimensão bastante inferior. Somados, esses riscos e outros representados pelos robôs, são mais do que o suficiente para jogar luz sobre uma ameaça real à qualidade do debate público no Brasil e, consequentemente, do processo político e social definidor dos próximos anos”, destaca Grassi.

Perfis falsos

Os bots são perfis falsos em mídias sociais, como o Facebook e o Twitter, que são capazes de distribuir mensagens pré-programadas em larga escala. Na disputa política, esse tipo de instrumento pode ser contratado em empresas especializadas para que um candidato, ou uma proposta, recebam milhares de mensagens de apoio, inflando artificialmente sua aceitação popular, e influenciando assim a percepção das pessoas.

O estudo aponta que perfis comandados por robôs chegaram a ser responsáveis por mais de 10% das interações no Twitter nas eleições presidenciais de 2014 – quase 20% das interações no debate entre os usuários favoráveis a Aécio Neves no segundo turno das eleições de 2014 foram motivadas por robôs. Já durante os protestos pelo impeachment da então presidenta da República Dilma Rousseff, as ações dessas contas falsas foram responsáveis por 20% das interações.

Para o pesquisador Amaro Grassi, ainda não é possível afirmar que a ação dos perfis falsos seria decisiva em uma eleição. No entanto, o uso desse tipo de ferramenta pode aumentar artificialmente a impressão de que determinada candidatura ou programa político possui mais apoio popular do que realmente tem.

“Qual que é o objetivo desse tipo de ação? É inflar um determinado posicionamento por interesses que podem ser os mais diversos. Pode ser um interesse por um assunto específico, pode ser o interesse por um um partido ou por uma narrativa,” explica.

Posições radicais

Independentemente de quem ganha ou quem perde com os perfis falsos, Grassi ressalta que a ação dos robôs, por sua natureza impositiva e incapaz de ponderar sobre qualquer argumento, acaba degradando os debates políticos, transformando as discussões na internet em embates extremados, sem espaço para a construção de consensos.

“Por definição, não vai ser uma mensagem aberta ao diálogo, porque ela é uma mensagem propagada por um robô. Então, isso naturalmente se encaixa no contexto de mensagens que são mensagens de propaganda, mensagens mais afirmativas, que são de posicionamentos mais rígidos”.

“Em termos de impacto, o que a gente consegue perceber com bastante clareza é que eles favorecem a polarização. O tipo de mensagem que eles [robôs] difundem acaba favorecendo posições mais radicais, e dificultando um debate mais sereno em torno das questões que estão colocadas em cada momento,” explicou.

O estudo chama atenção também para o fato de que há robôs que operam no exterior e disseminam mensagens em território nacional. “Isso inclusive enseja a reflexão de manipulação não só interna, mas também para além dos campos políticos nacionais, sugerindo a hipótese da possibilidade de até mesmo outros atores, estranhos ao quadro nacional, operarem nas redes esses mecanismos”, alertou o pesquisador.

http://www.diariodasaude.com.br

Piramidal no Facebook
.
●●● Gostou? Então curta nossa página no Facebook.
.
Autor
●●●
 Seja amigo do autor do site no Facebook e esteja sempre antenado em assuntos interessantes.

Sim, o Facebook monitora seus passos na internet, mas você pode dar um jeitinho

piramidal.net | lojapiramidal.com

compartilhar

Por Patrícia Gnipper

É isso mesmo: o Facebook acompanha muita coisa que você faz na internet, e, mesmo que você não saiba, você mesmo autorizou esse monitoramento. E mais: mesmo que você não use a rede social, ou não esteja logado nela naquele momento, ao visitar determinados sites a empresa de Mark Zuckerberg também consegue obter dados a seu respeito.

Assustador, não é mesmo? Mas saiba que você pode tomar algumas providências para minimizar essa vigilância.

Como o Facebook faz esse monitoramento?

Mesmo que você não seja do tipo de usuário que costuma dar check-ins por aí usando a rede social, os algoritmos do Facebook conseguem saber onde você está, com quem pode estar e o que pode te interessar fazer, comprar ou descobrir. Além disso, hoje em dia uma imensidão de sites disponibiliza aqueles botõezinhos “curtir” e “compartilhar” em suas páginas para facilitar a vida de quem quer curtir a fanpage daquele website ou compartilhar uma notícia sem precisar copiar e colar o link na plataforma.

Pois saiba que, ainda que você não clique nesses botões, somente visitar esses sites já permite a rede social descobrir algumas coisas sobre você. Dessa maneira, o Facebook consegue selecionar qual publicidade exibir em seu feed de notícias com base também em quais sites você costuma acessar.

Como o Facebook consegue fazer isso? Bom, quando os sites que têm botões do Facebook em suas páginas são acessados, um cookie específico é armazenado no computador do usuário. Esse arquivo guarda algumas informações a seu respeito, como o seu “ID” do Facebook, mesmo que você não esteja logado naquele momento.

E tudo isso pensando somente na rede social. Não se esqueça que a companhia Facebook também é dona de outros serviços que também rastreiam os usuários, incluindo os extremamente populares Instagram e WhatsApp. Engana-se quem pensa que, ao sair do Facebook, a “perseguição” acaba.

Mas eu não uso o Facebook!

Pois saiba que mesmo sem ter uma conta na rede social, a empresa de Zuckerberg está acumulando informações a seu respeito. Tudo graças aos sites que têm em suas páginas os plugins de “curtir” e “compartilhar” que explicamos mais acima. Ao visitá-los, mesmo que você não seja usuário do Facebook, os sistemas da rede social conseguem coletar dados de seu acesso, como endereço IP, localização, detalhes do navegador, cookies, entre outros.

E por que tanto monitoramento? A resposta é uma só: publicidade. E, consequentemente, dinheiro. Ao coletar os dados dos visitantes de páginas, a rede social consegue direcionar melhor sua publicidade, inclusive para os não-usuários.

E como posso impedir que o Facebook rastreie meus passos pela internet?

Na verdade, não existe uma maneira de impedir que o Facebook, ou qualquer outra gigante da internet, obtenha determinados dados enquanto você estiver acessando a rede. Mas é possível dar um “jeitinho” para amenizar a situação.

Você pode começar usando bloqueadores de scripts, que existem tanto em formato de software como de extensões para o navegador. Um deles é o uBlock Origin, que é fácil de usar e bloqueia scripts de redes sociais que fazem justamente esse tipo de monitoramento. A extensão existe para o Chrome, Firefox, Opera e Safari. Outra opção é o NoScript, ou o Privacy Badger, mas é importante saber que alguns dos scripts bloqueados podem restringir funções desejadas em sites que você visitar, como, por exemplo, em sites de reservas de voos. Contudo, esses serviços são personalizáveis, e, dando aquela “fuçadinha” nas configurações, você consegue controlar quais scripts devem ser liberados como uma exceção.

Outra alternativa é usar navegadores alternativos a esses tradicionais, que permitem o monitoramento do usuário. Opões como o Epic Privacy Browser, Brave e Tor garantem a privacidade e a segurança de sua navegação, ainda que ela possa acontecer um pouco mais lenta do que no Chrome ou no Firefox.

Com informações de MakeUseOf

https://canaltech.com.br

Piramidal no Facebook
.
●●● Gostou? Então curta nossa página no Facebook.
.
Autor
●●●
 Seja amigo do autor do site no Facebook e esteja sempre antenado em assuntos interessantes.