Internet | Canaltech com The Verge e The Guardian | 03/03/2019 15h00

Moderação de conteúdo: a fábrica de transtornos mentais do Facebook

Compartilhe:

Uma das tarefas mais ingratas da indústria de tecnologia é o trabalho como moderador de conteúdo. Ser bombardeado diariamente por teorias da conspiração, videos de fetiches sexuais bizarros e, até mesmo, cenas reais de assassinato e extermínio em massa de pessoas pode ter efeitos devastadores na saúde mental desses moderadores. E, ainda que empresas como o Facebook, a Google e o Twitter garantam que oferecem as proteções necessárias para que essas pessoas tenham uma vida profissional saudável, a realidade pode não ser assim tão segura quanto essas empresas tentam vender.

Uma reportagem publicada em fevereiro pelo The Verge mostra a vida de alguns desses moderadores que trabalharam para o Facebook, os quais revelam um ambiente cuja pressão não é apenas das imagens e vídeos traumatizantes aos quais são expostos, mas também criadas pela forma de gerenciamento d funcionários usada pela empresa, que cria pessoas paranoicas, com sintomas de TEPT (Transtorno de Estresse Pós-Traumático, uma doença mais comumente associada a veteranos de guerra e a sobreviventes de torturas e genocídios) e, assim que são desligados da empresa, continuam sem nenhum tipo de auxílio psicológico profissional.

A natureza do ambiente

É possível já identificar como esses moderadores são vistos como funcionários de “segundo escalão” pelo próprio método de contratação. Ao contrário do que acontece em todos os outros setores do Facebook, a grande maioria dos 15 mil moderadores que a empresa emprega não está vinculada diretamente a ela, mas são terceirizados, ou seja, o Facebook contrata uma empresa para fazer o serviço para eles, e essa empresa que contrata os funcionários que irão realizar o serviço. Esse é um modelo muito usado por empresas de tecnologia em seus setores de montagem de aparelhos (como a Apple, que contrata empresas com a Foxconn para fazer todo o processo de linha de montagem de seus iPhones) e de call center, mas também se tornou muito comum para o setor de moderação de conteúdo das redes sociais.

E existe um motivo muito simples para se utilizar os serviços de uma terceirizada: os custos de operação. Enquanto a média de salário de um empregado do Facebook é de US$ 20 mil por mês ao somar salário e benefícios, um moderador de conteúdo contratado pela Cognizant (empresa do Arizona que é uma das que possuem contrato com o Facebook para fazer a moderação dos conteúdos da rede) recebe, somando todos os benefícios, cerca de US$ 2.400 por mês. Esse tipo de contraste na folha de pagamento é o que permite que o Facebook invista cada vez mais na contratação de moderadores e, mesmo assim, mantenha suas margens de lucro nas alturas — no ano passado, a empresa fechou com um lucro de US$ 6,9 bilhões, o que significou um aumento de 61% em relação ao lucro obtido no ano anterior. Além disso, a utilização de empresas terceirizadas também permite que o Facebook monte rapidamente operações de moderação em todas as línguas utilizadas para postagens no site, facilitando a criação de bases no exterior e garantindo que os moderadores não sejam enganados por expressões e gírias regionais.

Mesmo que esses funcionários não trabalhem exatamente para o Facebook, as empresas se esforçam para deixar o ambiente bem parecido com o da base da rede social no Vale do Silício, com prédios coloridos, corredores e salas bem iluminados e cheios de grafites com imagens positivas, com vista para o ambiente externo, e diversas atividades de descontração para os funcionários, como sessões de yoga e um evento inspirado no filme Meninas Malvadas, onde todos os funcionários vestem rosa na quarta-feira. Além disso, a empresa também fornece uma sala especial onde as funcionárias lactantes pode dar de mamar para os seus filhos ou bombear leite para o armazenamento.

Mas, ainda que haja um esforço para se aproximar do ambiente de trabalho do Facebook, esse esforço é apenas externo externo, já que o modelo de organização do trabalho nesses locais ainda está muito mais próximo do utilizado em empresas de call-center, onde os funcionários são amontoados em salas ocupadas pela maior quantidade de pessoas possíveis, com metas diárias, semanais e mensais que devem ser atingidas, e com o tempo de descanso e idas ao banheiro cronometrados pelos supervisores.

De acordo com ex-funcionários da Cognizant, a empresa dava a cada um deles um intervalo para almoço de 30 minutos e outros dois intervalos de 15 minutos durante o expediente. Esses intervalos deveriam ser usados pelos funcionários para ir ao banheiro (não eram permitidas idas ao banheiro fora dos intervalos), usar o telefone para se comunicar com amigos e familiares, ou então comer alguma coisa. O maior problema relatado pelos ex-funcionários é que esses 15 minutos se tornavam pouco quando você passava a maior parte deles na fila, já que a empresa, que empregava mais de uma centena de funcionários, tinha apenas um banheiro masculino (com dois mictórios e uma cabine com privada) e um banheiro feminino (com três cabines). Como esses intervalos eram programados em horários específicos e não era possível tirar o intervalo a qualquer momento, esses funcionários perdiam praticamente todos os 15 minutos que tinham para descansar e tirar um pouco a cabeça do trabalho mentalmente pesado a que eram sujeitos enfileirados na porta do banheiro esperando a sua vez de usá-lo.

E, nem mesmo quando esses trabalhadores achavam uma solução, a empresa ajudava. Além dos três intervalos, a empresa concedia mais um de 9 minutos, que podia ser tirado a qualquer momento do dia, para aqueles funcionários que já estivessem experienciando sintomas de traumas severos, como TEPT. Essas pessoas então passaram a pedir essa intervalo “bônus” em momentos em que a fila do banheiro estivesse menor, facilitando não apenas para eles mas também diminuindo a quantidade de pessoas nas filas durante os intervalos programados. Ao descobrir essa prática, a gerência da Cognizant passou a proibir que qualquer funcionário utilizasse o banheiro nesse intervalo de 9 minutos, obrigando-os a fazerem isso durante as pausas programadas de quinze. Além disso, outros dois ex-funcionários de religião islâmica alegaram que foram proibidos de fazer suas orações durante a pausa de nove minutos, e em nenhum dos casos a administração deu detalhes sobre o porquê da proibição.

A natureza do trabalho

Já é possível ver que o trabalho dessas pessoas é diferente do de tantas outras através da própria declaração para ele. Além de impedir a entrada de celulares e outros aparelhos eletrônicos, que devem ficar armazenados em armários do lado de fora da sala onde trabalham, os moderadores também são impedidos de entrar com qualquer tipo de papel, lápis, caneta ou objeto que pode ser usado para fazer anotações — incluindo balas e chicletes. A proibição é uma medida de proteção aos dados dos usuários do Facebook, para evitar que alguns do moderadores anote dados pessoais de qualquer uma das pessoas que está moderando. Também é permitida a entrada de qualquer embalagem onde não é possível ver o conteúdo interno, e garrafinhas de água ou potes de creme para as mãos só são permitidos se a embalagem for transparente.

Dentro da sala, as pessoas não possuem mesas próprias; como o sistema de trabalho é todo baseado em um ambiente em nuvem, os funcionários devem sentar em qualquer local que estiver livre, logar em suas contas e começar o processo de trabalho. O sistema é bem simples: é mostrado na tela do moderador uma postagem que foi marcada como problemática (seja pela denúncia de algum usuário ou pela identificação automática da IA do Facebook), e o moderador deve, em cerca de 30s, identificar se aquela postagem é mesmo imprópria para a rede social e deve ser removida ou se, apesar de controversa, pode se encaixar nas regras de liberdade de expressão adotada pela plataforma.

Essas regras de o que deve ser considerado impróprio ou não provém, em sua maioria, de dois documentos: as Regras de Conduta do Facebook (que, além da versão pública que pode ser acessada por qualquer usuário, os moderadores têm acesso a uma versão mais detalhada, que entra em mais detalhes em alguns pontos que, no documento público, podem ter significado dúbio) e um documento de “perguntas frequentes”, onde existem exemplos de como classificar de maneira correta alguns casos problemáticos.

Esses manuais normalmente criam regras com bases em coisas bem objetivas (como, por exemplo, nenhum vídeo onde uma pessoa é esfaqueada pode ser publicado na plataforma) e outras onde é preciso utilizar de interpretação ou recorrer a “grupos protegidos”. Por exemplo, uma postagem com a frase “morte a todos os homens!” deve ser removida sem exceções, mas se a frase tiver um contexto romântico, como “acabei de terminar com meu namorado e quero que todos os homens morram”, não tem motivo suficiente para ser removida, pois se trata de um desabafo e não de um ataque direto a um dos “grupos protegidos” pelo Facebook.

Mas, mesmo seguindo essas regras, é possível encontrar falhas. Caso uma pessoa poste “morte a todos os autistas!”, se for seguir regras estritamente iguais ao que manda os documentos da rede social, essa postagem não deveria ser removida, pois “autistas” não é um dos “grupos protegidos” da plataforma. Há também uma tendência para se manter postagens que possuam conotação positiva: enquanto uma postagem em que o autor comenta “tinha que ser preto mesmo” deve removida por racismo, uma com a foto de duas pessoas sorrindo e a legenda “esse é o meu negão!” pode ser mantida, pois apesar de algumas pessoas ainda poderem ver a frase como racista, ela no geral possui uma conotação positiva.

Assim, além das regras, os moderadores seguem também recomendações de outros dois canais: as discussões feitas entre eles mesmos, onde os moderadores chegam a um consenso se tal conteúdo deve ser permitido ou removido, e as postagens feitas no Workspace (a “rede social corporativa” do Facebook, onde os funcionários podem se comunicar entre si) emitidas pela gerência e pelos responsáveis do controle de qualidade.

O problema é que a insistência do Facebook pelo uso de algoritmos acaba atrapalhando o trabalho dessas pessoas. Isso acontece porque, assim como na rede social principal, o Workspace também tem uma linha do tempo que não segue necessariamente a ordem cronológica, mas usa um algoritmo para decidir quais são os conteúdo mais interessantes que devem aparecer em primeiro lugar. Isso acaba criando uma confusão durante eventos de catástrofe, como no caso de tiroteios em escolas. Como as coisas estão acontecendo em tempo real, não há uma regra definida para esses eventos, e então os moderadores vão atualizando as regras que devem ser utilizadas com postagens no Workspace. Só que, por causa do algoritmo que regula a linha do tempo, nem sempre a postagem que aparece no topo é exatamente a posição mais atualizada sobre o caso, e muitos funcionários acabam moderando as postagens baseados em regras já desatualizadas, o que acaba contribuindo negativamente para o nível de “precisão” da moderação.

E “precisão” é a palavra-chave de todo o modelo de negócio dessas empresas de moderação. De acordo com as regras estipuladas pelo Facebook, as empresas devem ter um nível de precisão na moderação de pelo menos 95% — ou seja, a cada 20 postagens avaliadas, os moderadores só podem errar na avaliação do conteúdo uma única vez. Esse número é praticamente impossível de ser atingido, e a Cognizant costuma ter sua performance flutuando na casa dos 90% — às vezes um pouco mais, às vezes um pouco menos. Considerando que esperasse que os moderadores revisem cerca de 400 postagens por dia e 1.500 por semana, e em 30 segundos tentem lembrar as regras do documento do Facebook, se seus superiores postaram uma atualização a alguma dessas regras no Workspace, classificar o contexto da postagem e o todo o contexto político onde ela está situada e definir se a postagem deve ou não ser mantida na rede social, é fácil entender porque a marca de 95% de precisão é impossível de ser alcançada.

Essa precisão é calculada por outro funcionário da Cognizant, que trabalha no controle de qualidade. Esse funcionário recebe cerca de 50 ou 60 postagens já revisadas de cada moderador naquela semana, e precisa fazer uma nova revisão, decidindo se elas devem ou não ser removidas. Caso a decisão tomada pela qualidade seja a mesma do moderador, a revisão daquele conteúdo é contada como acerto; caso seja diferente, é contado como erro. Isso cria um sistema onde os moderadores não apenas devem se preocupar em lembrar milhares de regras e revisar a maior quantidade de conteúdos possíveis em menos de um minuto, mas ainda vê a possibilidade de seu trabalho ficar à mercê de alguém que, com mais tempo para ponderar sobre a postagem, pode ter uma interpretação diferente da dele, penalizando seu trabalho. E, ainda que a empresa ofereça aos funcionários a chance de contestar os pontos em que a revisão do conteúdo foi considerada errônea, uma precisão abaixo da casa dos 90% pode ser o único fator necessário para a empresa demitir alguém.

Oficina de traumas

Todos esses problemas já podem ser o suficientes para fazer com que funcionários criem certos traumas psicológicos causados pelo local de trabalho — como é possível ver em alguns ex-funcionários de call centers e empresas de cobrança — mas, quando soma-se isso a um trabalho que consiste em passar o dia inteiro vendo tudo o de pior que a humanidade tem a oferecer,esse perigo é elevado a potências até então desconhecidas.

De acordo com Miguel (nome fictício de um ex-funcionário da Cognizant, pois o contrato de trabalho assinado pelos contratados os impede de falar com a imprensa, amigos e familiares sobre qualquer coisa que eles testemunhem no local de trabalho, e continua valendo até mesmo depois de eles não fazerem mais parte da empresa), as postagens que partem do Facebook costumam ser mais “leves” e se resumem a ofensas racistas e bullying, mas é no Instagram que o bicho pega: como a plataforma permite a criação de contas falsas e o uso de pseudônimos, é nela que está concentrada a maior parte do conteúdo mais pesado de nudez, práticas sexuais e cenas de violência, e ele quase diariamente precisa moderar vídeos de pessoas fazendo sexo com animais ou de um assassinato à queima-roupa feita por algum cartel de drogas ou grupo terrorista.

O constante bombardeamento desses conteúdos faz com que muitos funcionários acabem contraindo “Fadiga por Compaixão” (também conhecida como “Estresse Traumático Secundário”), uma doença com sintomas similares à TEPT que pode ser contraída ao observar imagens de trauma sofridos por outras pessoas, e que é muito comum em psicólogos, psiquiatras e agentes sociais. As pessoas que sofrem dessa doença podem apresentar sintomas como aumento da ansiedade, perda de sono, sensação de solidão e dissociação (um estado onde o corpo oculta certos pensamentos e emoções da mente consciente por serem muito chocantes).

Isso faz com que essas pessoas, na busca por um breve momento de prazer e felicidade, cometam excessos que não são vistos em nenhum outro ambiente de trabalho. De acordo com diversos ex-funcionários, é muito comum as pessoas consumirem álcool durante as pausas, se drogar com maconha e cocaína ou, até mesmo, transar. Entre os locais usados pelos funcionários para praticar atos sexuais estão as cabines do banheiro, as escadas de emergência do prédio e até mesmo a sala de amamentação para mães lactantes.

Outra coisa muito comum é o uso do “humor negro” para diminuir a tensão do dia-a-dia, e é normal os funcionários fazerem competições de quem encontra a piada mais racista para enviar aos colegas. Como eles são proibidos de falar sobre o que acontece no ambiente de trabalho com qualquer pessoa, os únicos com os quais os moderadores podem conversar sobre os absurdos aos quais são expostos todos os dias são os outros moderadores que passam pela mesma situação, onde acaba-se criando um laço afetivo baseado no trauma conjunto.

Mas nem sempre essas interações são tão “inofensivas”. Randy (também nome fictício), um ex-funcionário do setor de qualidade, trabalhou durante meses com medo de ser agredido pelos moderadores — que costumavam esperar ao redor de seu carro na saída para reclamar da negativação de alguma revisão. Essas conversas nunca eram pacíficas, e mais de uma vez Randy foi ameaçado de agressão e até mesmo de morte, o que fez com que ele passasse a ir armado para o trabalho, com medo de que algum dia alguém passasse dos limites. Esse medo se tornou uma paranoia, e mesmo depois de meses fora da empresa, Randy ainda dorme com a arma embaixo do travesseiro, e todo dia a primeira coisa que faz ao acordar é vasculhar todos os cômodos de sua casa, com a arma carregada em punho, para se certificar que ninguém a invadiu durante a noite.

Outro ponto intrigante e muito comum entre as pessoas que trabalham na posição de moderador é elas terem tanto contato com teorias de conspiração que passam a acreditar nelas. Na reportagem do Verge, há relatos de um funcionário da qualidade que, depois de meses na função, passou a acreditar que a Terra é plana, enquanto outros moderadores também se tornaram partidários de outras teorias da conspiração, como a de que o Holocausto (o genocídio de judeus promovido pelo exército nazista durante a Segunda Guerra Mundial) nunca existiu, ou de que o atentado de 11 de setembro (quando o grupo terrorista Al-Qaeda, comandado por Osama Bin Laden, jogou dois aviões comerciais contra as torres gêmeas do World Trade Center, em Nova York, no ano de 2001) não foi um atentado terrorista, mas sim um trabalho interno feito pelo próprio governo dos Estados Unidos.

A posição do Facebook

De certa forma, o Facebook sabe como esse trabalho pode ser traumatizante, e dentro de cada uma das bases de moderação da empresa existe um psicólogo que ajuda as pessoas a lidar com as emoções quando elas se tornam insuportáveis — de acordo com diversos relatos, ataques de pânico durante o expediente são comuns. Mas, apesar desses funcionários existirem, as histórias relatadas mostram falhas preocupantes no trabalho desses profissionais, que não são pró-ativos em identificar as pessoas que estão “se perdendo” no trabalho e encaminhá-la para tratamentos psicológicos — que, caso sejam necessários, também são pagos pela Cognizant enquanto a pessoa ainda trabalha para a empresa — e fazem isso apenas quando o próprio funcionário percebe que há algo errado com ele e fala que precisa de ajuda. Além disso, esses tratamentos são cobertos pela empresa apenas enquanto as pessoas ainda são funcionárias dela, mas assim que elas são demitidas ou pedem demissão não há um período de “transição” no tratamento, que imediatamente deixa de ser pago pela companhia — mesmo que tenha exclusivamente a natureza do trabalho com a Cognizant e o Facebook, que as deixou com sequelas que carregarão para toda a vida.

Ao visitar uma das bases de operação a convite do Facebook, uma coisa que chama a atenção é a idade das pessoas que trabalham no local: todos entre 20 e 30 anos, recém saídos da faculdade e que aceitaram o emprego porque, apesar de a diferença salarial comparada aos funcionários ligados diretamente ao Facebook ser imensa, é um dos poucos “empregos de entrada” no mercado que pagam mais do que a média. De acordo com os relatos de ex-funcionários, a rotação é enorme devido a todos os problemas que já explicamos, e dificilmente as pessoas ficam mais de um ano na empresa — o que significa que elas saem de lá ainda no auge de suas vidas, mas algumas já foram tão afetadas pela natureza do trabalho e estão tão traumatizadas que praticamente se tornam incapazes de retornar ao mercado de trabalho ou viver uma vida relativamente normal.

O Verge entrevistou abertamente alguns funcionários na própria base de moderação da Cognizant, no Arizona, e a resposta comum é de que o trabalho não é assim “tão” estressante, que os materiais realmente pesados são bem raros e que eles podem passar dias sem ser expostos a esse tipo de conteúdo, classificando como “exagero” as preocupações levantadas pelos ex-funcionários. Mas é notável dizer que, durante todo o depoimento, esses funcionários estavam sob a vigilância de um supervisor, que se manteve calado o tempo todo e ficou apenas ali, sentado ao lado deles enquanto falavam com a repórter — que em nenhum momento pode visitar qualquer dependência da empresa ou conversar com qualquer pessoa sem ter alguém da chefia supervisionando.

Ao confrontar os psicólogos que trabalham na base auxiliando os funcionários, a posição tomada por eles foi mais do que simplesmente contrária aos problemas relatados pelos funcionários, mas extremamente cínica. Perguntados sobre o fato de diversos ex-funcionários terem desenvolvido estresse traumático secundário enquanto trabalhavam na empresa, esses profissionais não apenas fizeram pouco caso dos relatos como ainda afirmaram que ser constantemente exposto a trauma pode ser algo benéfico, fazendo com que essas pessoas desenvolvam algo chamado “crescimento pós-traumático”, que torna mais forte aquelas pessoas que presenciam ou passam por algum trauma.

O exemplo dado por eles é o de Malala Yousafzai, que foi baleada ainda adolescente por um agente do Movimento Taliban do Paquistão (organização terrorista que proclama o extremismo islâmico e a jihad), mas que usou o fato para fortalecer sua luta e se tornar uma das maiores ativistas sobre a educação das mulheres no mundo. Além de extremamente conveniente para a empresa, esse posicionamento dos profissionais é cínico porque, enquanto os sintomas de TEPT (tanto do tipo primário quando os de estresse traumático secundário) afligem 8,7% da população dos Estados Unidos (considerando toda a população — esse número provavelmente é bem maior se formos considerar apenas as vítimas de trauma), a condição de “crescimento pós-traumático” é tão rara que diversos estudos consideram que não passa de uma ilusão estatística.

Já a posição oficial do Facebook sobre o caso é bem direta e não responde nenhum dos problemas levantados pelos ex-funcionários, e afirma apenas que obriga contratualmente as empresas terceirizadas a terem locais de trabalho (no quesito físico, do prédio mesmo) agradáveis, ofereçam pausas para que os funcionários possam se afastar um pouco das preocupações da função, e tenham dentro do prédio profissionais de saúde mental que possam oferecer ajuda aos funcionários durante o expediente. A empresa ainda afirma que, caso os funcionários desses locais estejam tendo problemas, eles devem procurar o departamento de Recursos Humanos para explicar a situação ou, ainda, utilizar o “disque-denúncia” fornecido pelo Facebook para que os funcionários de terceirizadas possam entrar em contato direto com a empresa para relatar abusos de seus superiores.

Mesmo que pareça uma posição sensata, essa declaração do Facebook está cheia de problemas — e falamos disso com a experiência de alguém que já trabalhou em um ambiente industrial terceirizado relativamente abusivo. Quando o problema é causado por um único funcionário (como um chefe que exige mais de você do que dos outros, ou um colega de trabalho que te importuna durante todo o expediente), falar com o RH da empresa pode ajudar sim a coibir a situação. Mas, em casos onde o abuso é ocasionado pela própria cultura da empresa — como os banheiros minúsculos e a proibição de usá-los fora dos horários estipulados que foram denunciados pelos ex-funcionários da Cognizant —, ir reclamar no RH é praticamente inútil, pois eles já sabem que o problema existe e, se ainda não foi resolvido, é porque dificilmente o será, independente do número de reclamações.

A situação do “disque denúncia” também possui os seus próprios problemas. Ainda que essas linhas costumem funcionar de forma anônima e as denúncias normalmente sejam levadas ao cabo, elas acabam não tendo muita efetividade no longo prazo — principalmente quando o problema é organizacional, e não criado por algum funcionário. Ao receber a denúncia, a empresa que contratou o serviço costuma, sim, mandar um representante para identificar se o problema denunciado realmente acontece e tentar solucioná-lo. Mas essa solução normalmente é desfeita assim que o representante abandona as dependências da terceirizada e, como os supervisores recebem essa denúncia anônima como uma “traição”, eles passam a importunar os trabalhadores (aumentando os pedidos de hora extra, diminuindo o tempo para uso do banheiro, inventando notícias de que a empresa vai passar por uma reestruturação e haverá demissão massiva no setor) até que alguém “denuncie” de forma anônima para os supervisores quem foi que fez a ligação e essa pessoa possa ser devidamente punida, o que normalmente acontece com uma suspensão por algum motivo bobo ou até mesmo demissão.

Conivente

A não ser que queira realmente assumir a responsabilidade pelos moderadores de sua plataforma, esses trabalhadores continuarão sendo sujeitos a um trabalho que, por si só, já é traumatizante, mas que fica ainda pior devido à política organizacional do trabalho deles. Mas, para o desespero desses trabalhadores, se tem uma coisa que o Facebook tenta se esquivar ao máximo é da responsabilidade. Apenas no ano passado, a empresa se esforçou para não assumir a responsabilidade de diversos escândalos de vazamento de dados da plataforma, e durante os últimos dois anos se esforçou para não assumir nenhuma responsabilidade sobre o uso da rede social por agentes russos para manipular a eleição para a presidência dos Estados Unidos em 2016. Em todos esses casos, a empresa só passou a assumir sua parcela de culpa quando comitês liderados por deputados e senadores investigaram as denúncias e descobriram documentos que provavam que o Facebook sabia tudo o que acontecia em sua plataforma, mas que escolhia não tomar nenhuma medida para evitar esses abusos externos para não incomodar os acionistas e afetar os lucros.

Assim como nesses outros casos, muito provavelmente o Facebook sabe exatamente tudo o que se passa nessas suas bases de moderação terceirizadas. Mas, como o histórico da empresa nos mostra, dificilmente a rede social de Mark Zuckerberg fará qualquer coisa enquanto o fato não for investigado e ela seja obrigada a assumir a responsabilidade. Pois, se há algo que já sabemos do Facebook, não importa o quanto as pessoas no entorno do negócio dele podem estar sendo vitimadas — o importante é não incomodar os acionistas, nem o lucro.

VEJA MAIS
Compartilhe:

PARCEIROS