A caixa preta em Gestão de Pessoas: sobre viés algorítmico nas decisões de Gente
Imagine o cenário: é uma segunda-feira de manhã e um colaborador recebe uma notificação de desligamento.
O motivo alegado não é uma infração ética grave, nem uma reestruturação financeira visível.
A justificativa é fria e, aparentemente, irrefutável: "baixa produtividade".
Mas quem mediu essa produtividade? Não foi a liderança direta, que acompanha as entregas qualitativas e a complexidade dos projetos.
Foi um software.
Um algoritmo que rastreou o tempo de tela ativa, a quantidade de cliques por minuto, o tempo de resposta em ferramentas de chat ou a movimentação do mouse.
Nos últimos anos, vimos uma onda silenciosa de empresas adotando ferramentas de monitoramento digital (o chamado bossware) para gerenciar a performance, especialmente em regimes remotos ou híbridos.
A promessa é sedutora para qualquer diretoria: transformar a subjetiva avaliação de desempenho em uma ciência exata, pautada por dados.
No entanto, quando terceirizamos decisões cruciais de carreira para uma "caixa preta" tecnológica, corremos o risco de substituir a gestão humana por uma vigilância automatizada que ignora contexto.
O funcionário que parou de digitar por 20 minutos para pensar em uma estratégia complexa pode ser lido pelo sistema como "ocioso", enquanto aquele que apenas moveu arquivos de uma pasta para outra é lido como "produtivo".
O problema deixa de ser apenas sobre métricas e passa a ser sobre justiça. Quando a decisão vem do sistema, a frase "não é pessoal, são apenas dados" torna-se o escudo perfeito para evitar conversas difíceis. Mas será que esses dados são, de fato, impessoais? Ou estamos apenas automatizando preconceitos e criando uma nova — e perigosa — camada de injustiça organizacional?
A Ilusão da Neutralidade: Lidando com uma "Co-inteligência" Enviesada
Existe uma crença reconfortante, quase um dogma no mundo corporativo, de que os números são o refúgio da neutralidade. Aprendemos a desconfiar do "feeling" do gestor — sabemos que humanos têm favoritos, dias ruins e vieses inconscientes. Em contrapartida, tendemos a olhar para o output de um software como uma verdade absoluta.
No entanto, como alerta Ethan Mollick em sua obra Co-Intelligence, precisamos urgentemente mudar nossa relação com essa tecnologia. O erro fundamental de muitas lideranças de RH é tratar a Inteligência Artificial como se fosse um software tradicional ou uma calculadora glorificada — ferramentas determinísticas que sempre entregam a resposta "correta" baseada em lógica pura.
Mollick argumenta que a IA generativa e os algoritmos modernos funcionam mais como uma "inteligência alienígena" ou um "estagiário infinito" que leu toda a internet. Eles não buscam a verdade; eles buscam padrões prováveis. E, como esses modelos foram treinados com dados gerados por humanos (nossos livros, fóruns, avaliações de desempenho passadas), eles agem como um espelho da nossa própria sociedade.
Ao comprarmos soluções de People Analytics com a promessa de "eliminar o viés humano", estamos caindo numa armadilha.
Se a base de dados histórica de uma empresa mostra que, nos últimos dez anos, homens brancos de certas universidades foram promovidos mais rapidamente, o modelo "aprenderá" que esse perfil é sinônimo de competência.
Para o algoritmo, reproduzir esse padrão não é preconceito; é estatística. Como Mollick aponta, a IA é uma tecnologia cultural. Ela não apenas processa dados; ela absorve as associações implícitas contidas neles. Ao delegarmos a decisão final para a máquina sob o pretexto de eficiência, não estamos removendo o viés. Estamos, na verdade, codificando-o e dando a ele um verniz de autoridade matemática impossível de questionar.
O perigo não é apenas a máquina errar.
O perigo é ela errar com confiança, e nós acreditarmos nela porque o resultado veio em um dashboard bonito, ignorando que essa "co-inteligência" carrega consigo todos os nossos defeitos humanos, mas sem a nossa capacidade de julgamento moral.
O Que a Ciência Diz: A Caixa Preta e a Percepção de Justiça
Para entender por que o uso indiscriminado de algoritmos gera tanto desconforto, não precisamos inventar a roda. Precisamos revisitar um dos conceitos mais sólidos da psicologia organizacional: a Teoria da Justiça Organizacional.
Estabelecida por Jerald Greenberg (1987) e refinada posteriormente por autores como Jason Colquitt (2001), essa teoria nos ensina que a percepção de justiça de um colaborador não depende apenas do resultado final, mas de como todo o processo foi conduzido.
Quando inserimos uma "Caixa Preta" de IA no meio dessa equação, violamos sistematicamente as três dimensões fundamentais da justiça:

1. Justiça Distributiva (O Resultado) Refere-se à percepção de que a alocação de recursos ou recompensas é justa.
- O conflito com a IA (O caso dos ATS): O exemplo mais crítico está nos sistemas de rastreamento de candidatos (Applicant Tracking Systems). Se um ATS é treinado para priorizar currículos semelhantes aos dos "top performers" atuais da empresa, ele cria um ciclo de retroalimentação. O algoritmo pode descartar candidatos excelentes apenas porque eles não usaram as palavras-chave "certas" ou porque suas experiências não espelham o perfil demográfico historicamente dominante na organização. Quando a máquina decide quem merece a entrevista baseada em padrões passados, a distribuição da oportunidade (o resultado) já nasce injusta.

2. Justiça Procedimental (O Processo) Talvez a dimensão mais afetada pela tecnologia. Segundo Colquitt (2001), para um processo ser considerado justo, ele precisa ser consistente, livre de viés e, crucialmente, transparente.
- O conflito com a IA: A opacidade dos algoritmos modernos (especialmente Deep Learning) cria a chamada "Black Box". Se um funcionário é desligado por "baixa produtividade" apontada pelo sistema, mas nem o RH e nem o gestor sabem explicar quais variáveis pesaram nessa decisão, a justiça procedimental é inexistente. Sem transparência ("voice") e sem chance de contestação, a legitimidade da liderança é corroída.

3. Justiça Interacional (O Tratamento) Refere-se à qualidade do tratamento interpessoal recebido durante a implementação dos procedimentos. Envolve dignidade, respeito e explicações adequadas.
- O conflito com a IA: Ser demitido por um e-mail automático ou ter uma entrevista de emprego analisada apenas por reconhecimento facial robótico é a definição de desumanização. A tecnologia remove a empatia e o "olho no olho", transformando momentos críticos da carreira em transações de dados. Mesmo que o cálculo estivesse correto, a forma fria de entrega gera um sentimento de injustiça profunda.
Como aponta a literatura clássica, quando a percepção de justiça cai, o resultado organizacional é imediato: aumento do comportamento contraproducente, queda no engajamento e retaliação. A tecnologia, que prometia eficiência, acaba criando um passivo organizacional oculto.
A Tecnologia e a Gestão: Retomando o Controle
Se a ciência nos mostra que a opacidade gera injustiça e a tecnologia (como visto com Mollick) nos alerta que a IA é um espelho cultural imperfeito, qual é o papel da gestão? A resposta não é rejeitar a inovação, mas exercer uma governança ativa sobre ela.
Para mitigar o viés e restaurar a Justiça Organizacional, precisamos adotar o que Ethan Mollick chama de princípio fundamental em Co-Intelligence: "Ser o Humano no Circuito" (Be the Human in the Loop).
A tecnologia deve ser encarada como uma ferramenta de suporte à decisão, jamais como a decisão final. Aqui estão três diretrizes para líderes de RH aplicarem isso na prática:
- O Princípio do "Human-in-the-Loop" (HITL): Em decisões de alto impacto — contratações, promoções e desligamentos —, a IA deve ter apenas voto consultivo, nunca o voto de minerva. O algoritmo pode triar 1.000 currículos e recomendar os 10 "melhores", mas um humano deve revisar essa seleção para garantir que a IA não descartou talentos atípicos (restaurando a Justiça Distributiva).
- Exigência de Explicabilidade (XAI): Para resolver o problema da Justiça Procedimental, o RH deve fugir de ferramentas "Caixa Preta". Ao contratar fornecedores de software, a pergunta chave não é "quão preciso é o modelo?", mas sim "você consegue me explicar por que o modelo tomou essa decisão?". Se o sistema não consegue explicar o "porquê", ele não deve ser usado para julgar pessoas.
- Auditoria Contínua de Viés: Mollick nos lembra que a IA alucina e absorve preconceitos. Portanto, confiar cegamente no output é negligência gerencial. O RH deve rodar testes constantes (ex: submeter o mesmo currículo com gêneros diferentes) para tratar People Analytics com o rigor científico de um laboratório.
A tecnologia nos oferece velocidade e escala, mas a justiça requer pausa, contexto e empatia — atributos que, por enquanto, são exclusividade biológica.
A liderança do futuro não é aquela que obedece aos dados cegamente. É aquele que tem a coragem de olhar para o dashboard, ver a recomendação do algoritmo e dizer: "A máquina diz que este funcionário é improdutivo, mas eu sei que ele está resolvendo um problema complexo que o sistema não capturou".
A verdadeira inteligência em gestão de pessoas não é artificial; ela é híbrida, ética e, acima de tudo, humana.
O futuro do trabalho não é sobre substituir pessoas por máquinas, mas sobre líderes que sabem usar a tecnologia para potencializar humanos. Se você quer preparar sua liderança para a Era da Co-inteligência, entre em contato. Vamos transformar esse desafio em vantagem competitiva.
Leve essa palestra para sua empresa: www.liviakuga.com
Referências Bibliográficas:
- Colquitt, J. A. (2001). On the dimensionality of organizational justice: A construct validation of a measure. Journal of Applied Psychology.
- Greenberg, J. (1987). A taxonomy of organizational justice theories. Academy of Management Review.
- Mollick, E. (2024). Co-Intelligence: Living and Working with AI.