Longe das salas de reunião, uma frágil coluna humana mantém esses modelos vivos.
À medida que o capital de risco continua inundando a inteligência artificial, milhares de contratados mal pagos rotulam, classificam e julgam dados em silêncio para que chatbots pareçam fluentes e mecanismos de recomendação soem inteligentes. Seus trabalhos mudam, encolhem ou desaparecem da noite para o dia - mesmo enquanto empresas de IA falam em remodelar a economia global.
O boom que esconde uma linha de fratura social crescente
A IA agora está no centro do otimismo econômico dos EUA. Segundo números citados pela Futurism, empresas ligadas à inteligência artificial responderam por cerca de 92% do crescimento do PIB dos EUA no primeiro semestre de 2025. É uma concentração impressionante de impulso econômico em um único setor.
Ao mesmo tempo, nomes conhecidos da tecnologia continuam cortando pessoal. A Amazon eliminou aproximadamente 14.000 cargos apesar de resultados financeiros saudáveis. Rastreadores do setor marcaram outubro como um dos piores meses para demissões em tecnologia desde 2003. A mensagem soa contraditória: valuations recordes, folhas de pagamento encolhendo.
Isso não é apenas um movimento normal de eficiência. Reflete uma reestruturação silenciosa de como o trabalho de IA é feito. Em vez de funcionários permanentes com benefícios, muitas empresas empurram o trabalho para uma camada de contratados espalhados pelos EUA e pelo mundo. Esses trabalhadores fazem tarefas tediosas, mas cruciais, que os modelos ainda não conseguem realizar sozinhos: ler prompts, pontuar respostas de chatbots, sinalizar conteúdo nocivo, classificar imagens, avaliar resultados de busca.
Sistemas de IA que parecem mágicos por fora ainda dependem de uma vasta força de trabalho humana, mal paga, que permanece em grande parte invisível para os usuários finais.
Esses trabalhadores de crowdwork ficam numa zona cinzenta. Raramente recebem seguro-saúde, licença remunerada ou proteção no emprego. Algoritmos e gerentes de projeto decidem seu destino por meio de contratos curtos, taxas horárias variáveis e painéis de desempenho que muitas vezes parecem opacos. Quando os orçamentos apertam ou as prioridades corporativas mudam, essa força de trabalho absorve o choque primeiro.
Mercor e os 5.000 trabalhadores dispensados em um dia
O caso recente da Mercor, uma contratada que trabalha com Meta e OpenAI, mostra como esse sistema pode ser abrupto. A empresa vinha tocando um projeto conhecido como Musen, com mais de 5.000 trabalhadores contribuindo. Muitos deles dizem que foram informados de que o projeto duraria até o fim do ano. Pessoas planejaram aluguel, cuidado com crianças e pagamentos de dívidas com base nessas garantias.
Então as mensagens chegaram: o Musen tinha acabado. Sem grande antecedência, sem encerramento gradual. O acesso às tarefas desapareceu quase da noite para o dia. Apenas uma fração dos afetados conseguiu falar com um contato humano. Para milhares de outros, a plataforma simplesmente ficou em silêncio.
Pouco depois, a Mercor teria lançado um novo projeto, chamado Nova. As tarefas pareciam notavelmente semelhantes: avaliar saídas do modelo, revisar dados, checar qualidade. Mas o pagamento por hora caiu cinco dólares. Vários trabalhadores descreveram uma sensação de “chicote” (whiplash). O trabalho não tinha mudado; o preço do tempo deles, sim.
Um projeto termina na sexta-feira; na segunda, tarefas quase idênticas aparecem sob um novo nome, com uma taxa horária menor e sem garantia de duração.
Esse padrão combina com uma mudança mais ampla na contratação em IA:
- Contratos mais curtos e com datas de término pouco claras
- Pausas frequentes na disponibilidade de tarefas, deixando trabalhadores sem renda
- Pressão para baixo nas taxas horárias conforme novas coortes de trabalhadores entram
- Mais vigilância sobre velocidade e “qualidade”, com pouco direito de recurso
Algumas plataformas seguiram outro caminho. Elas estão reduzindo grandes multidões de anotadores generalistas e substituindo por equipes menores de especialistas mais bem pagos, como revisores médicos ou analistas jurídicos. Isso pode elevar a qualidade, mas ainda deixa milhares de trabalhadores de menor qualificação disputando o que sobra: moderação de conteúdo, detecção de spam, rotulagem de material ofensivo.
Jornadas longas, estresse constante e pouca margem de negociação
Para quem faz esses trabalhos, a realidade diária está longe de eventos reluzentes de lançamento de IA. As rotinas se estendem até tarde da noite enquanto trabalhadores correm atrás de tarefas suficientes para pagar as contas. Fusos horários se confundem conforme empresas dos EUA dependem de turnos noturnos da América Latina, África ou Sudeste Asiático. Mesmo dentro dos Estados Unidos, contratados conciliam várias plataformas para montar uma renda.
Quando os projetos desaceleram, o buraco na renda aparece instantaneamente. Não há rescisão, nem período oficial de aviso. As filas de tarefas apenas mostram “nenhum trabalho disponível”. Essa incerteza molda um clima de resignação silenciosa. Muitos aceitam taxas reduzidas ou condições mais duras porque veem poucas alternativas que permitam trabalho remoto e flexível.
A pressão psicológica também cresce. Alguns trabalhadores treinam sistemas de segurança revisando conteúdo violento, sexual ou odioso. Outros leem conversas emocionalmente carregadas ou consultas de usuários perturbadoras. Muitas vezes lidam com esse material isolados, de um quarto ou de uma mesa de cozinha, com suporte psicológico mínimo.
O setor de IA fala de eficiência e automação; para muitos trabalhadores, a experiência vivida é ansiedade pela próxima tarefa e pelo próximo pagamento do aluguel.
O que essa mudança no trabalho diz sobre nosso futuro coletivo
Publicamente, líderes de IA tendem a adotar um tom otimista. Satya Nadella, da Microsoft, falou da inteligência artificial como uma forma de melhorar a qualidade de vida, desde que humanos mantenham controle significativo. Sam Altman, da OpenAI, frequentemente descreve um futuro de ganhos dramáticos de produtividade, combinados com novos tipos de trabalho que ainda não existem.
Essa visão pressupõe um contrato social estável. A realidade atual sugere algo mais frágil. Empresas de IA dependem fortemente de um pool crescente de pessoas que juntam “bicos” instáveis. Elas trabalham como a fundação oculta do machine learning, mas têm quase nenhum poder de barganha.
Em teoria, ferramentas de IA deveriam reduzir a labuta e libertar humanos de tarefas repetitivas. Na prática, muitos dos trabalhos mais monótonos e repetitivos foram empurrados para as bordas do mercado de trabalho, onde a proteção é mais fraca. O risco é que a riqueza gerada pela IA permaneça concentrada no topo, enquanto a volatilidade se espalha por baixo.
Vencedores, perdedores e um abismo crescente
O contraste entre quem se beneficia e quem absorve os choques é marcante. A tabela abaixo esboça três níveis aproximados dentro da economia da IA.
| Nível | Funções típicas | Condições |
|---|---|---|
| Topo | Fundadores, executivos, pesquisadores sêniores | Participação acionária, salários altos, forte mobilidade no emprego |
| Meio | Engenheiros, cientistas de dados, gerentes de produto | Remuneração competitiva, benefícios, algum risco de demissão |
| Base | Anotadores, avaliadores, moderadores, crowdworkers | Baixa remuneração, sem rede de proteção, horas irregulares |
Essa estrutura levanta perguntas difíceis para formuladores de políticas. Se a IA impulsiona a maior parte do crescimento do PIB, mas uma parte desse crescimento se apoia em trabalho precário, quem arca com os custos sociais? Reguladores deveriam estabelecer padrões básicos para o trabalho de dados em IA, como remuneração mínima, aviso prévio para encerramento de projetos ou critérios de avaliação transparentes?
Caminhos adiante: regulação, certificação e voz do trabalhador
Algumas possíveis respostas começam a aparecer nos debates de políticas públicas. Nenhuma vai resolver o problema sozinha, mas juntas podem reduzir as formas mais nocivas de precariedade.
Estabelecer um piso para o trabalho em IA
Alguns especialistas em trabalho defendem regras adaptadas ao trabalho tecnológico baseado em plataformas. Em vez de deixar tudo para contratos privados, governos poderiam exigir:
- Taxas horárias mínimas que acompanhem o custo de vida local
- Cronogramas escritos claros para projetos acima de certo porte
- Acesso a mecanismos de resolução de disputas quando trabalhadores têm sua nota reduzida ou são banidos
- Suporte básico de saúde mental para quem revisa conteúdo sensível
Medidas assim não transformariam trabalho por contrato em emprego padrão. As empresas ainda teriam flexibilidade para escalar projetos para cima e para baixo. Mas poderiam tornar histórias como o encerramento da Mercor menos brutais para os afetados.
Transparência como sinal competitivo
Fornecedores de IA cada vez mais precisam provar que seus modelos são seguros e eticamente obtidos. Isso cria outra alavanca. Compradores de serviços de IA - de bancos a hospitais - podem começar a perguntar de onde vieram os dados de treinamento e sob quais condições foram produzidos. Selos independentes ou esquemas de certificação poderiam ajudar aqui.
Se empresas passarem a tratar padrões trabalhistas como risco reputacional, contratadas e grandes empresas de tecnologia enfrentarão pressão para limpar suas cadeias de suprimentos - não apenas seu código.
Além das manchetes: o que trabalhadores podem fazer hoje
Para quem já está dentro desse mundo de microtarefas de IA, a mudança não vai chegar da noite para o dia. Algumas estratégias práticas ainda podem reduzir a vulnerabilidade. Trabalhadores podem:
- Distribuir o risco entre várias plataformas em vez de depender de uma só
- Acompanhar pagamento, tempo ocioso e padrões de tarefas para identificar quais clientes são mais confiáveis
- Participar de comunidades online onde taxas e condições são compartilhadas abertamente
- Desenvolver habilidades adjacentes - como scripting básico, limpeza de dados ou design de prompts - que abrem portas para funções mais bem pagas
Fóruns comunitários começaram a agir como sindicatos informais desse setor. Trabalhadores trocam capturas de tela, comparam novos nomes de projetos com antigos e avisam uns aos outros quando um cliente corta taxas de repente. Esse tipo de inteligência coletiva raramente chega às teleconferências de resultados corporativos, mas determina quem permanece no jogo e quem sai.
A indústria de IA frequentemente enquadra o risco em termos de modelos descontrolados ou automação fora de controle. O risco mais silencioso está mais perto do chão: um motor econômico construído sobre pessoas que nunca sabem ao certo se ainda terão trabalho na semana seguinte. Enquanto isso for o padrão, o futuro da IA continuará repousando sobre ombros humanos instáveis.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário