Algoritmos são sequências de ações a serem executadas por um software para resolver um problema ou alcançar um determinado resultado. Eles são usados, por exemplo, para pesquisar de forma automática perfis previamente definidos em bases de dados extensas, a fim de obter dados específicos para uma pesquisa, candidatura, reposição de vagas e até para o diagnóstico de doenças.

Para que os dados sejam obtidos pelo algoritmo, é essencial que haja um responsável por definir a estrutura da base na qual os dados serão armazenados e um responsável por abastecê-la, ainda que a partir de sensores virtuais, considerando os parâmetros previamente estabelecidos. A participação humana necessariamente ocorre em algum desses momentos, seja para a definição das diretrizes aplicáveis ao algoritmo, seja para a organização, o desenvolvimento e a governança das informações.

Existem diversos exemplos do uso de algoritmos nas relações de trabalho, como a revisão automática de currículos de candidatos a emprego ou o monitoramento das atividades dos empregados segundo metas de produtividade estabelecidas pela empresa para fins de premiação ou dispensa.

A dúvida, no entanto, é se o uso de algoritmos, por si só, seria incompatível com a Lei nº 13.709/18, a Lei Geral de Proteção de Dados (LGPD), que dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou jurídica, com o objetivo de resguardar a privacidade de seus titulares.

Antes de avaliar qualquer situação de conformidade, é preciso identificar se estamos diante de dados pessoais, sensíveis ou anônimos, e se esses dados encontram fundamento na LGPD para o seu tratamento.

Os dados pessoais podem ser utilizados somente nas seguintes hipóteses: cumprimento de obrigação legal, realização de estudos por órgão de pesquisa, execução de contrato ou de procedimentos preliminares relacionados ao contrato do qual seja parte o titular do dado, exercício regular de direito, interesse legítimo, proteção do crédito, tratamento e uso compartilhado de dados necessários à execução de políticas públicas, proteção da vida, tutela da saúde e mediante consentimento.

Os dados sensíveis, por sua vez, não podem ser utilizados com fundamento na execução de contrato e proteção do crédito (se não houver consentimento do titular do dado) e no interesse legítimo, mas apenas nas demais hipóteses mencionadas no parágrafo anterior ou para garantir prevenção à fraude e à segurança do titular do dado nos processos de identificação e autenticação de cadastro em sistemas eletrônicos.

Caso o dado processado pelo algoritmo esteja anonimizado e, portanto, não possa ser identificado, ele não será considerado pessoal ou sensível e poderá ser utilizado. Considerando que a maioria dos algoritmos processa dados anonimizados, entende-se comumente que eles não apresentam qualquer vedação de tratamento na legislação, mas essa visão, em grande parte dos casos, está equivocada.

O dado anonimizado não impede que determinado tratamento de dados possa ser considerado discriminatório, o que é vedado pelos artigos 3º, inciso IV, e 5º, inciso XLI, da Constituição Federal e 6º, inciso IX, da LGPD. É preciso ter em mente que os algoritmos, ainda que anônimos, não são imparciais e podem refletir preconceitos enraizados no histórico dos dados, conforme demonstrado por diversos casos noticiados recentemente e que deverão ser revisados pelas empresas.

O problema da discriminação algorítmica pelo uso de bases de dados tendenciosas pode ter origem ainda na coleta de dados, inclusive com a participação humana, e essa situação tem se tornado cada vez mais comum. Por essa razão, o Ministério Público do Trabalho criou recentemente um grupo contra a discriminação algorítmica, a fim de investigar empresas que utilizam algoritmos com vieses tendenciosos. É o chamado machine bias ou algorithm bias.

A remoção do viés tendencioso dos algoritmos é um assunto que tem sido bastante discutido pelas empresas, que deverão rever a governança e a participação humana no uso da tecnologia para legitimá-la.

O Facebook recentemente anunciou o lançamento de um conselho de especialistas do mundo todo com formação multidisciplinar e multicultural, denominado Oversight Board Administration. Esse conselho é composto atualmente por 20 membros e será responsável por definir, por exemplo, qual tipo de conteúdo deve ou não ser removido da rede social, de acordo com o que é considerado inadequado, irrelevante ou excessivo. É um órgão independente que busca valorizar a integração entre o ser humano e a inteligência artificial.

Outro problema identificado nos algoritmos que processam dados aparentemente anonimizados refere-se às decisões decorrentes de sua utilização. De acordo com o artigo 20 da LGPD: “O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.”

Isso significa que, caso determinado algoritmo tenha ensejado tratamento discriminatório ao trabalhador, tanto para fins de recrutamento quanto para fins de dispensa, por exemplo, a empresa deverá respeitar o princípio da transparência, previsto no artigo 6º, inciso VI, da LGPD, e prestar todas as informações necessárias sobre o tratamento dos dados que fundamentaram a decisão, sob pena de ser auditada pela Autoridade Nacional de Proteção de Dados (ANPD).

Para verificar a legalidade dos algoritmos, portanto, duas questões devem ser levadas em consideração e analisadas com bastante cautela: a classificação dos dados indicados (se são pessoais, sensíveis ou anônimos) e se têm legitimidade para serem apresentados dessa forma.

Caso contrário, as empresas estarão em desconformidade com a LGPD e deverão rever o uso da tecnologia de acordo com as diretrizes da nova regulamentação, sob pena de se sujeitarem às sanções administrativas previstas na lei (cuja aplicação poderá ocorrer a partir de 1º de agosto de 2021), bem como ao pagamento de indenização por danos morais no caso de questionamento judicial na esfera trabalhista.