Pesquisa aponta que conteúdos rasos gerados por IA têm causado retrabalho, perda de confiança e prejuízos milionários
O entusiasmo em torno da inteligência artificial (IA) tem levado empresas no mundo todo a adotarem ferramentas generativas em ritmo acelerado. Mas, junto com o ganho de velocidade, surge um efeito colateral cada vez mais evidente: o “workslop” — uma espécie de trabalho que parece profissional, mas carece de profundidade, contexto e utilidade. O termo combina as palavras “work” (trabalho) e “slop” (algo mal feito) e tem sido usado por pesquisadores para descrever um fenômeno que está corroendo a produtividade das equipes.
Segundo uma pesquisa recente do BetterUp Labs, realizada com 1.150 profissionais de escritório nos Estados Unidos, 40% dos entrevistados afirmaram ter recebido workslop no último mês — trabalhos superficiais ou incompletos, frequentemente gerados por ferramentas de IA. Cada tarefa dessa significa cerca de duas horas de retrabalho e representa um custo de cerca de US$ 186 por colaborador. Em empresas de grande porte, com cerca de 10.000 funcionários, as perdas anuais podem chegar a US$ 9 milhões.
Para além do retrabalho e do prejuízo financeiro, o workslop afeta também a confiança e o clima organizacional. Segundo a pesquisa, metade dos profissionais que receberam esse tipo de material passaram a considerar os colegas menos criativos e competentes; 42% os perceberam como menos confiáveis. “O uso desmedido da IA está criando uma falsa sensação de produtividade. O problema não é a ferramenta, mas o modo como estamos nos relacionando com ela”, afirma Virgilio Marques dos Santos, sócio-fundador da FM2S Educação e Consultoria e gestor de carreiras.
Para Santos, o fenômeno é reflexo de uma tentativa de substituir o esforço cognitivo humano por atalhos tecnológicos. “Quando usamos a IA para evitar pensar, o resultado tende a ser raso. Ela pode gerar uma boa forma, mas não o conteúdo. E, no trabalho, forma sem substância é ruído — não resultado”, analisa.
A mesma lógica, segundo ele, explica por que muitas organizações que adotaram IA em larga escala ainda não conseguem medir ganhos reais. “Usar IA não significa dominá-la. O que diferencia um profissional não é a capacidade de usar a ferramenta, mas o discernimento para saber quando e como usá-la. A IA pode ampliar o alcance da inteligência humana, mas não substituí-la”, observa. Na avaliação do gestor, o risco é transformar a IA em um instrumento de homogeneização e alienação, em vez de aprimoramento.
Como evitar o ciclo do workslop
Para evitar o workslop, o estudo do BetterUp Labs recomenda que as lideranças estabeleçam critérios claros para o uso da IA: definir quais tarefas se beneficiam de automação, quais exigem julgamento humano e como o conteúdo gerado deve ser revisado antes de circular nas equipes. Santos complementa: “O líder que quiser preservar qualidade e confiança precisa ensinar a usar a IA como parceira de reflexão, não como muleta para preguiça mental”.
Na prática, sair desse ciclo passa por uma combinação de capacitação e intencionalidade. Santos recomenda investir em formação contínua, sobretudo em leitura crítica e pensamento analítico, além de treinar o uso da IA de forma estratégica. “Profissionais que dominam a arte de formular bons prompts — perguntas claras, com contexto e propósito — tendem a obter resultados muito melhores. Outro caminho é usar a IA em etapas específicas, como revisão de texto, verificação de consistência de dados ou simulação de cenários”, orienta.
Ele também destaca a importância de cultivar uma cultura de curiosidade e responsabilidade digital. “A IA é uma ferramenta poderosa, mas requer supervisão humana. Isso significa revisar, testar e desconfiar do que ela entrega. O pensamento crítico é o antídoto contra o workslop. Quando usamos a tecnologia para qualificar o trabalho — e não para substituir o raciocínio —, ela realmente faz diferença”, conclui Santos.
