O uso de algoritmos pelas empresas para alcançar determinado resultado tem se tornado cada vez mais comum. É o caso do algoritmo do Facebook, por exemplo, que é um dos mais conhecidos por definir o que será exibido no feed de cada usuário. Pouco se tem discutido, contudo, sobre a responsabilidade das empresas e as consequências do uso de algoritmos.

Recentemente, a Seção Especializada em Dissídios Individuais (Subseção II) do Tribunal Regional do Trabalho da 1ª Região deferiu a realização de perícia no código-fonte de um aplicativo para apurar a existência ou não de vínculo empregatício entre a empresa e o motorista do aplicativo.

A intenção é identificar os dados de inteligência artificial que influenciam na relação de trabalho, como a distribuição das chamadas, a definição dos valores dos serviços, a preterição e/ou preferência de alguns trabalhadores em decorrência das avaliações feitas pelos consumidores e até a possível aplicação de sanções, como o próprio bloqueio do trabalhador.

Embora ainda não se tenha o resultado do laudo pericial, o mero deferimento do pedido da parte autora é suficiente para algumas reflexões sobre o impacto dos algoritmos na relação de trabalho, dessa vez como o próprio meio probante do vínculo empregatício.

De acordo com a relatora do acórdão que deferiu a realização da perícia, não se poderia deixar de considerar informações depositadas em instrumentos tecnológicos com registros rigorosos, em detrimento de outros meios de prova mais “débeis”, como a prova oral, diante da falibilidade da memória humana, e da variabilidade de percepção dos fatos, que permite diversas narrativas diferentes sobre a mesma realidade.

Ou seja, embora a legislação determine que não há hierarquia entre as provas, um dos fundamentos que embasaram a autorização da perícia refere-se à suposta robustez da prova pericial em detrimento das demais. Contudo, em se tratando de algoritmos, essa premissa poderia ser facilmente desconstituída.

A finalidade do algoritmo está dissociada da finalidade da Justiça do Trabalho, razão pela qual é possível que o número de horas em que o motorista permaneceu conectado não corresponda ao número de horas em que esteve efetivamente trabalhando, por exemplo.

Além disso, não podemos esquecer que, para a obtenção de dados pelo algoritmo, é essencial que haja um responsável por definir a estrutura da base na qual os dados serão armazenados e um responsável por abastecê-la, ainda que a partir de sensores virtuais. Isso significa que os algoritmos são facilmente manipuláveis – já que necessariamente envolvem a participação humana, seja para a definição das diretrizes aplicáveis, seja para a organização, o desenvolvimento e a governança das informações – de modo que também apresentam falibilidade.

É aí que entra a segunda discussão sobre o assunto: a responsabilidade dos programadores e das empresas. Ao aceitar como meio de prova a perícia feita em algoritmos como se fosse algo absolutamente automatizado e seguro, a própria Justiça do Trabalho cria um distanciamento entre os programadores que constroem sistemas algorítmicos e as empresas.

O distanciamento criado pela Justiça do Trabalho fragiliza a própria responsabilização dos programadores, que tendem a não se sentir moral e legalmente responsáveis pelos efeitos negativos do algoritmo, entre eles o uso de bases de dados tendenciosas que podem ter origem ainda na coleta de dados, desencadeando o problema da discriminação algorítmica, por exemplo. Por essa razão, o Ministério Público do Trabalho criou um grupo contra a discriminação algorítmica, a fim de investigar empresas que utilizam algoritmos com vieses tendenciosos. É o chamado machine bias ou algorithm bias.

Embora o distanciamento entre os programadores e as empresas possa denotar aparente ausência de responsabilidade desses profissionais, todo empregado, como toda pessoa física, se submete à regra geral da responsabilidade civil prevista no art. 927 do Código Civil, segundo o qual aquele que, por ato ilícito causar dano a outrem, fica obrigado a repará-lo.

A própria empresa também poderá ser responsabilizada, como controladora dos dados pessoais dos titulares dos dados, nos termos do art. 42 da Lei nº 13.709/18 (LGPD), segundo o qual o controlador que, em razão do exercício de atividade de tratamento de dados pessoais, causar a outrem dano patrimonial, moral, individual ou coletivo, em violação à legislação de proteção de dados pessoais, é obrigado a repará-lo.

Dessa forma, caberá às empresas tomarem as cautelas necessárias para evitar essa responsabilização, inclusive em relação aos programadores, que tornam o sistema algorítmico tão falível quanto a prova testemunhal, por exemplo.

Para tanto, é importante que a criação de áreas de inovação nas empresas seja acompanhada da celebração de contratos de trabalho específicos com esses profissionais, com cláusulas expressas relativas às hipóteses de responsabilização do empregado, bem como a criação de políticas internas próprias que deverão ser observadas para esse fim.

Isso significa que, com a implementação de áreas de inovação para otimizar o modelo de negócio das empresas, são necessárias certas cautelas trabalhistas cuja observância pode evitar, inclusive, a responsabilização das empresas e dos programadores pelo sistema algorítmico utilizado, o que, no mais das vezes, pode passar despercebido nas políticas internas.